5 hechos sobre el Backup de la copia de seguridad del mundo día


a pesar de que el usuario medio tiene una probabilidad de 33 por ciento de pérdida de datos en un momento dado en el tiempo , 46 por ciento todavía no tienen ningún tipo de copia de seguridad, según un nuevo informe de lab de Mora

, la empresa que provee una solución multiplataforma de cloud backup y recuperación, entrevistó a más de 700 usuarios de internet para entender el proceso de copia de seguridad de datos de carácter personal y de negocios.

«a pesar de nublado, tenemos que dar a las empresas un puntaje total de C en el guardar área. ” En nuestra opinión, el paisaje de amenaza creciente hará que esta fila a renunciar, a menos que las organizaciones comienzan a reconsiderar su estrategia, “Alexander Negrash, Director de Marketing de cloudberry que Lab dijo en un comunicado.

Vea también: aquí es la infraestructura de servicios, sus clientes aplicaciones utilizar

aquí están cinco estadísticas de destacado en el informe:

  1. datos comerciales se guardan más a menudo que los datos personales; 11 por ciento que más usuarios de negocio han automatizado proceso de copia de seguridad en comparación con los usuarios de seguridad
  2. datos personales
  3. es la mayor preocupación para los usuarios personales y empresariales; 70% y 59%, respectivamente

  4. duro externo conduce aún más popular que cloud backup. Cloud backup es el destino de copia de seguridad en segundo lugar más popular para usuarios profesionales (35%) y personal (43%)
  5. uno de cada tres usuarios pérdida de datos al menos una vez. 32 por ciento de los usuarios de datos corporativos y 26 por ciento de los datos personal cloud
  6. de usuarios cree que usar copia de seguridad, en incremento de 13% en promedio de la encuesta del año pasado

cloudberry Lab ofrece gratis licencias de copia de seguridad de zarzamora para Windows, Linux y MacOS hasta el 3 de abril en la celebración del día mundial de la copia de seguridad.

sobre las discusiones en el foro

Cómo preparar su infraestructura para el mundo del Big Data


, hizo parte de las conversaciones giran en torno a la alimentación de datos, automatización e incluso construir AI en casos de narcotráfico. En el corazón de esta conversación es datos . y datos sin duda se están expandiendo.

un estudio reciente de Gartner mostró que las organizaciones que ya tienen varios objetivos en lo que concierne a las iniciativas de datos. Esto incluye iniciativas como la mejora de la experiencia del cliente, optimización de procesos existentes, lograr más objetivo marketing y reducción de costes.

estudio de Gartner reveló que organizaciones apuntan principalmente al cliente mejorado (64%) como el principal objetivo de los proyectos de datos de gran tamaño. A partir de ahí, la eficiencia del proceso y objetivo de marketing más están empatados en 47 por ciento. Finalmente, continúan las violaciones de datos hacen encabezados, datos grandes iniciados alrededor de las características de seguridad mejoradas vieron el mayor aumento de 15% a 23%.

“como datos grandes se convierte en la nueva información normal, y líderes analíticos están cambiando el enfoque de bombo buscando valor,” dijo Lisa Kart, Director de investigación de Gartner. “Mientras el perenne desafío de la comprensión de valor sigue siendo los retos prácticos de competencias, gestión, financiación y rentabilidad de la inversión (ROI) vienen hacia adelante”.

más Bill Kleyman: 5 pasos para evitar la falla de las nubes y ahorrar dinero

Gartner indica que otro informe de datos de gran crecimiento aún más alrededor de inteligencia de negocios y el proceso de todas sus actividades de exploración. Considere lo siguiente:

  • antes de 2020, la información será utilizada para reinventar, analizar o eliminar 80% de los productos y procesos de negocios para diez años antes.
  • hasta 2016, menos del 10 por ciento de las iniciativas de BI de autoservicio será gobernado lo suficiente para evitar inconsistencias que afectan negativamente a la empresa.
  • 2017, 50 por ciento de las iniciativas de gestión de la información habrán integrado el concepto de promoción de información, para asegurar que se centran en el valor.

a lo largo de este crecimiento, vemos que las inversiones en sistemas grandes de datos. Un reciente GE Capital demostró que capital invertir en la infraestructura de servidor, almacenamiento, y nube de datos con fines de apoyo grandes esfuerzos a nivel mundial debería aumentar a 37.6% TCCA entre 2012 y 2016 y con él, viene un aumento de la demanda de vivienda de los equipos en un centro de datos y dentro de la nube.

en todo este crecimiento, todavía hay algunos desafíos reales en la adopción y de hecho depender de estrategias de datos grandes. El último informe de Gartner, dice que hasta en el año 2017, menos de la mitad de las organizaciones de la demora tendrá suficiente modelo cultural o negocio ajustes para datos de gran tamaño. ¿

por lo tanto, con todo este crecimiento y valor emergente alrededor de información – cómo puede usted beneficiarse de grandes datos? La mayoría de todo, ¿cómo crear una plataforma para centro de datos o a nube capaz de soportar los requerimientos de datos grandes?

para hacer sentido de todo esto – considerar estas tres simples, pero los puntos clave en un mundo de mayor uso de datos:

  1. datos de gran tamaño – ¿realmente es necesario? antes de que te pones nervioso después de leer todas estas estadísticas y números, debe entender que los datos son realmente. Es posible que una organización que no tiene muchos datos, o simplemente no mantener información sobre sus clientes. Sin embargo, independientemente de cómo se mire, usted vende un producto o servicio. Esto significa que está intentando entrar en un mercado. Por lo tanto, incluso si no crear una plataforma de datos grandes, puede considerar tomar ventaja de un socio.

sin embargo, si usted es una organización que es rica en datos de clientes, ventas y otros puntos de datos críticos – usted podría perder a una mina de oro. Motores grandes datos ayudan a analizar un gran número de diferentes tipos de datos. En otras palabras, mirando los dos puntos de datos estructurados y no estructurados. Recuerde, estructurados datos se refieren a la información con un alto grado de organización, como en fácil para leer archivos en formato texto. Básicamente, algo una minería de datos motor, con capacidades de motor de búsqueda relativamente simple, puede viajar con facilidad. Datos no estructurados están, grosso modo, lo contrario. Esto puede ser mapa de bits imágenes/objetos, texto y otros tipos de datos que no son parte de una base de datos. Por ejemplo, un e-mail puede considerarse datos no estructurados debido a los datos ‘crudos’ y no realmente un estructurado (fácil de entender una base de datos) formato. A partir de ahí, la correlación y cuantificar esta información realmente puede influir en las decisiones de negocios. Así, si tienes datos de la empresa que sabe que usted está detrás de él – debe empezar a buscar en las opciones de datos.

  1. no, probablemente no permita que su antigua infraestructura de datos. OK, en este momento te diste cuenta de que tal vez grandes datos realmente pueden ayudarle. ¿Por ejemplo, instalación algunas aplicaciones en un servidor obsoleta, conectar su SAN existente y estás listos datos… correcto? No, no. Si usted es serio sobre la creación de una plataforma de datos grandes, debe entender los componentes de tecnología subyacente necesarios para que funcione. En primer lugar, puede ser potencialmente bajo lote sobre sus grandes datos solicitudes define que es extremadamente implican. ¿La infraestructura que soporta en realidad? Ahora vamos a tocar en el almacenamiento. Hay un proveedores de muy buenas razones como almacenamiento puro sale de la plataforma FlashBlade, para proporcionar en tiempo real todos los flash analítico para traer características transaccionales repositorios de datos de gran tamaño. La idea es mejor repositorios de soporte de datos (NFS, objeto/S3) y almacenamiento altamente escalable de entrega (a través de las hojas) para una variedad de necesidades de investigación de datos.

Si desea crear políticas sólidas alrededor de datos, tómese el tiempo para crear un ecosistema que puede apoyarlo. No te olvides de tomar ventaja de la nube. Si desea utilizar componentes de la nube, hay socios que pueden ayudar a hacer grandes datos en la nube. Por ejemplo, son arquitecturas de gran referencia para los motores potentes de datos como Cloudera en Azure. O, usted puede tomar ventaja del ecosistema de la nube AWS para ejecutar Hadoop y otros datos del proceso.

  1. clasificación de la información y aprovechando el valor de la información. it s realmente donde está cambiando sus datos de viaje. Esto es cuando realmente entiendes si construyes tu propio, basado en una nube, o tal vez basado en un socio de solución híbrida. Diseño de una solución de datos grande debe comenzar con una exploración profunda de la empresa. ¿Qué datos tienes? ¿Es válido? ¿Dónde le ayudará a tomar decisiones? Su negocio desde un punto de vista de datos de entrenamiento debe realizarse en un fin muy diferente. Tomar las variables de consideración en el mercado, usuarios, clientes y su negocio. A partir de ahí identifican Dónde existen puntos de datos dentro de su empresa que pueden influir en estas variables. Luego, puedes utilizar los datos para ayudarle a tomar decisiones de negocios para seguir siendo ágil en un mercado muy volátil. El punto aquí es que primero debe aprender el valor de sus datos antes de que usted realmente puede hacer una plataforma de datos grandes que puede afectar a su organización.

la verdad es que hay un valor real detrás de los grandes datos. Sin embargo, es hasta que aprendas cómo explotarlo y cómo aplicarlo a la empresa. Consumo y las empresas crecen más interconectado y digitalizado, habrá más información creada para ayudar a identificar lo que estamos haciendo en el mundo digital. Esta información puede ayudar a tomar decisiones empresariales de forma, habilitar las mejoras en los procesos y beneficios de un mercado competitivo para las organizaciones. Mientras las transformaciones digitales a través de grandes plus dado vertical resultado se llevará aprendizaje motor e inteligencia de negocios a niveles sin precedentes. Organizaciones que pueden capturar la energía de los datos será mucho más ágil y más competitiva en el mercado.

Los participantes HostingCon: responder el RONRONEO en Los Angeles el 5 de abril!


Si vas a estar en Los Ángeles durante la primera semana de abril para el Mundial 2017 HostingCon, usted puede haber oído acerca de nuestro evento que se llevará a cabo el miércoles. 05 de abril de 2017. Estamos encantados de traer una vez más nuestro evento firma zumbido en HostingCon, y queremos verte ahí!

unirse por favor el 5 de abril de 7-22:00 y Lucky Strike no olvidemos a usar o traer su identificación de la Conferencia de HostingCon para la entrada fácil.

es siempre un evento popular, por lo que mi consejo es para confirmar su presencia en línea y contar sus colegas tan pronto como sea posible.

por último, recuerde que una tarjeta de visita! Te ofrecemos un montón de precios de nuestros patrocinadores, Lenovo Rack911, Huawei, Acronis, Ecwid, Infomart Data Centers, centros de datos, Sabey, pagos internacionales EVO, Plesk, Radware y Telia del portador y su tarjeta entra el sorteo la suerte.

para más detalles sobre el evento y confirmar su asistencia, vaya a la página del evento aquí. ¿

todavía necesita recoger su pase HostingCon? ¡Utiliza nuestro codigo HC36 para ahorrar $150 en su registro de HostingCon All-Access viaj hoy!

5 étapes pour éviter une panne de nuages et économisez argent


vous avez essayé de trouver des photos de votre chiot préféré sur Imgur, seulement pour être amèrement déçus par une page lentement ayant répondu au questionnaire, ou un écran vide entièrement. Si c’était votre jour sur 28 février 2017, vous n’étiez pas seul. C’est le jour qu’où seaux de stockage hébergé dans la région d’US-East-1 de l’écosystème Amazon AWS connaît quelques gremlins graves. Milieu, Imgur, le Docker Registre Hub et Yahoo webmail services tous a pris un coup. Je ne pouvais pas même atteindre mes appareils de nid ; montrant que beaucoup de technologies de l’ITO était non disponibles ou sévèrement touchées.

, ce qui s’est passé ? Etait-ce un échec géant de la technologie ? Ou peut-être une attaque coordonnée ? Lol Erreur humaine. Une faute de frappe pour être précis. 

Voir aussi : Amazon dit employé erreur provoquée nuage panne mardi dernier

ici est la réalité – ce n’est pas la première fois que cela arrive, et ce n’est certainement pas le dernier. En juin 2012, une très puissante tempête a assommé un centre de données entière qui était détenu par Amazon. Ce qui a été accueilli dans ce centre de données ? Amazon Web Services. Toutes les entreprises concernées de AWS dans ce centre de données étaient en fait vers le bas pour plus de six heures. Pourquoi le coup de pied de générateurs en vous n’a pas demandé ? Voici la réponse d’Amazon :

tous les commutateurs électriques utilitaire dans les deux centres de données initié transfert de puissance du générateur. Dans un des centres de données, le transfert achevé sans incident. Dans l’autre, les générateurs a démarré avec succès, mais chaque générateur indépendamment omis de fournir une tension stable comme ils ont été mis en service. L’alimentation de service dans la région n’a pas une deuxième fois à 7:57 pm PDT. Encore une fois, toutes les chambres de cet établissement un Impossible de transférer avec succès à la puissance de générateur alors que tous nos autres centres de données dans la région a continué de fonctionner sans impact client.

je ne cherche pas à s’en prendre à AWS ici. Autres fournisseurs de cloud majeurs ont eu des problèmes graves aussi bien. Une cause de problème aidé de certificat SSL a global – en cascade – événement décrocher de nombreux systèmes d’appui sur les nuages. Qui était le fournisseur ? Azure de Microsoft. Disponibilité complète n’a pas été restaurée pendant 12 heures – et jusqu’à 24 heures pour beaucoup d’autres. Environ 52 autres services de Microsoft, en s’appuyant sur la plateforme Azure rencontré des problèmes – cela comprend le réseau Xbox Live.

Voir aussi : entreprises E-commerce, sociétés de Services financiers plus grands perdants en panne AWS

il y a un réel coût associé à toutes ces pannes de nuage. Ponemon Institute a récemment publié les résultats de la dernière étude de coût des pannes de centre de données. Le but de cette troisième étude précédemment publiée en 2010 et 2013, est de continuer à analyser le comportement du coût des pannes de centre de données imprévues. Selon la nouvelle étude, le coût moyen d’une panne de centre de données a augmenté de $ 505 502 en 2010 à $ 740 357 aujourd’hui (ou une variation nette de 38 pour cent).

tout au long de leur recherche d’environnements de centres de 63 données, l’étude a conclu que :

  • le coût des interruptions de service a augmenté de 38 % depuis la première étude en 2010.
  • les coûts d’indisponibilité pour la plupart des données dépendantes Centre entreprises augmentent plus vite que la moyenne.
  • coûts d’indisponibilité maximale a augmenté de 32 % depuis 2013 et 81 % depuis 2010.
  • coûts d’indisponibilité maximale pour 2016 sont $ 2 409 991.

Voir aussi : 3 étapes pour assurer la stabilité de nuage en 2017

, nous savons que les pannes ne sont pas amusants, et ils peuvent être très coûteux. Comme entreprise actuelle s’appuyer encore plus sur les données des services du centre, le coût et l’impact des pannes continueront à être les défis qui l’interpellent les dirigeants et cadres supérieurs. Cependant, il y a des façons de préparer. Envisager les mesures suivantes :

  1. avoir un plan. plus précisément, concevoir un plan Business Impact Analysis (BIA) pour votre organisation. Cela signifie la planification soigneusement sur tous de vos systèmes, leurs composants, les détails autour des données, l’accès de l’utilisateur et beaucoup plus. Le but ici est de comprendre et de rang vous apps plus critiques et processus d’entreprise. Fondamentalement, ce qui peut ou ne peut pas vivre sans ? A partir de là, comprenez qu’une panne vous en coûterait ; et comment vous pouvez atténuer efficacement cette panne. Ce type de planification vous aidera à comprendre quels sont les systèmes sont essentiels pour récupérer ; et la rapidité dont ils ont besoin pour être récupérés. Si vous ne pouvez pas le faire vous-même ; embaucher un partenaire qui peut vous aider à développer un ad affaires continuité plan antisinistre conçu autour de votre BIA. Oui, cela peut être beaucoup de temps et une opération très pragmatique. Cependant, ça va être bien en vaut la chandelle.
  2. test de votre plan. Quoi sert un plan s’il n’est jamais testé ? Vous devez absolument tester vos systèmes de récupération pour assurer le basculement adéquat. En fait, vous devez tester divers scénarios de défaillance ainsi. Événements liés à la météo, malicieux et accidentelles devraient être planifiées autour. Il est essentiel de tester diverses composantes sur refus de veiller à que disposer des capacités de basculement adéquat. Voici la chose – vous ne pas besoin de tester vos systèmes de production. Vous pouvez créer silo « production-like » lits pour vérifier vos applications plus critiques et les points de données de test. A partir de là, vous pouvez modifier votre infrastructure de production selon les besoins.
  3. Evolve et s’assurer que votre plan est conforme à votre entreprise. Votre plan de récupération ne doit jamais, jamais, être placé dans la pierre. Dès que vous mettez à jour une application – Vérifiez votre stratégie de basculement. Dès que vous créez un nouveau patch réseau – revoir votre BIA pour assurer la conformité. Dès que vous ajoutez un nouveau point de données – tester les dépendances à d’autres bases de données et les charges de travail. Un lien lâche dans votre plan de récupération peut prolonger l’échec et créer des difficultés supplémentaires. En raison de l’importance de celui-ci, votre plan de récupération doit coïncider avec les mises à jour, correctifs, initiatives commerciales et il évolue de stratégies.
  4. apprendre et comprendre la valeur de votre infrastructure informatique. Trop souvent nous brosser la dépense d’une reprise vraiment globale stratégie penser ce que nous avons est « assez bon ». Puis, quelque chose se passe et nous apprenons rapidement la valeur réelle de l’être vers le bas pour une journée entière. Une grande partie de la réalisation d’une Zac est d’apprendre la nature essentielle de nos applications, des processus et des points de données. Une autre grande partie accorde une valeur véritable entreprise autour de ces composants. Comprendre ce qu’il vous en coûtera pour perdre une app pour 1 heure par rapport à 1 jour. N’oubliez pas, panne coûts continuent d’augmenter. Investir dans un bon rétablissement maintenant pour aider à vous protéger des risques et ces coûts croissants.
  5. ne mettez pas tous vos oeufs dans le panier d’un nuage. Avoir une stratégie de cloud est grand. Mais, il faut aussi beaucoup de planification et de coordination. De nombreuses organisations comme trouver un partenaire de nuage et de les exploiter directement. Rien de mal à cela du tout. Toutefois, si vous avez des systèmes critiques, qui ne peut pas simplement aller vers le bas – pensez à l’impact de la perte de ce centre de données. Que se passe-t-il si les zones de recouvrement vous le programme d’installation dans le même fournisseur de cloud ne fonctionnent pas ? Ou bien, que se passe-t-il si les générateurs ne parviennent pas à coup de pied ? Nouveaux outils entourant logicielle réseaux, virtualisation des fonctions réseau et avancé équilibrage aide les organisations séjour très agile. En outre, plates-formes de contrôle nuage comme CloudStack, OpenStack et Eucalyptus tous aident à étendre le nuage et simplifier la gestion. Le point ici est la réflexion sur la création de votre stratégie de récupération à l’extérieur de votre principal fournisseur. Peut-être un écosystème local ou hybride sur logique. Options de récupération peuvent être exploitées où vous ne payez que si une catastrophe se passe réellement. Lorsque votre nuage principal tombe en panne, vous pouvez créer une plate-forme de basculement qui est complètement les transparent pour l’utilisateur final. Cette aide à vos utilisateurs (ou clients) continuent d’obtenir leurs services pendant que vous récupérez des systèmes primaires.

le point le plus ici est, à tout le moins, avoir une sorte de plan en place pour vous protéger contre une panne. La vérité est qu’aucun environnement n’est complètement sans ses défauts. Même une plateforme offrant six 9 de disponibilité signifie que les choses pourraient descendre de 20 à 30 secondes au cours de l’année. Vous pouvez gérer cela ? Qu’en est-il des dépendances de données et d’applications ; peut gérer une panne 20 seconde ? Cours de préparation n’est pas une illusion autour jamais descendre ou une panne. C’est plutôt un plan qui vous aidera à récupérer plus rapidement possible, tout en aidant à isoler les risques autour de coût. Dans le monde du cloud – Préparez-vous à paramètres volatils et en constante évolution. Plus prêt vous êtes autour de vos systèmes critiques, plus vite vous pouvez récupérer.

Voir aussi : comment créer une résilience Business Center partenaires stratégie à l’aide de données et la nuée

¿El uso del contacto técnico o de facturación?


, nos esforzamos para hacer tu 34SP.com mejor experiencia. A veces diciendo que las características que ofrecemos es difícil, porque hay tanto la lista. Estamos constantemente recibe retroalimentación y mejorar cada día nuestros servicios en un intento de darle el mejor servicio ‘todo incluido’, ¡podemos!

algunas de las principales características que más te gusta es nuestro sitio Web, puesta en escena de características de WordPress hosting y nuestras instantáneas que es una manera de tomar una copia del sitio Web para descargar o restaurar.

la única característica, hablamos no basta la posibilidad de añadir su substituido como otro contacto en su cuenta 34SP.com. desarrolladores, diseñadores, personas de cuenta, los socios … cualquier persona que desea tener acceso a su cuenta es agradable. Esta función está disponible en todos nuestros hosting gestionado planes y es algo que usted nos dijo que sea muy útil!

agregar un contacto ‘técnico’

no podría ser más fácil agregar un contacto técnico en su cuenta. También tenemos una guía sobre la adición de un contacto técnico. La principal diferencia entre un contacto técnico y el titular de la cuenta es la cantidad de accesos disponibles para el contacto técnico. Sumándolos significa que eliges para darles sus identificadores y cuenta 34SP.com. Como tú, puede iniciar sesión y consiguen todo lo que implica técnicamente su alojamiento para usted. Como la adición de acceso FTP, gestión de correo electrónico, hosting y contacto de ayuda y soporte técnico.

lo que parece cuando usted es el dueño de la cuenta de tu cuenta de 34SP.com.

screenshot of the account holder control panel

su contacto técnico vería una disposición similar, pero algunas partes de su panel de control, no tienen acceso a su información de pago y se agrega un contacto. Ven algo como esto:

screenshot of the technical contact control panel

por lo que nos ofrecen otros grandes servicios como migración libre, es perfecto para ti si tienes un programador que prefiere hacer las cosas como que a su manera. También es un mucho más seguro para usted opción como titular de la cuenta, te animamos a no dar nunca su persona de inicio de sesión, especialmente cuando él no necesita. ¡Lo tenemos cubierto!

agregar un contacto de facturación

agregar un contacto funciona del mismo modo Bill! Este es el mismo proceso como la adición de un contacto técnico, excepto en vez de “técnicos” en el menú desplegable, haga clic en cambio de facturación haga clic en. Esta característica es ideal para tu contador, tus cuentas o desde el Departamento de Hacienda y básicamente cualquier persona que la elige hacer sus libros para usted. Si usted decide pagar su hosting o tu plan mensual o anual de nombre de dominio, le enviaremos un recordatorio a su dirección de correo electrónico. Si desea establecer un contacto de facturación, recibirá un recordatorio por correo electrónico también.

su contacto de facturación así que puede cuidar de sus pagos y descargar copias de sus facturas sin tener que pasar por usted, titular de la cuenta. También puede contactar con 34SP.com para obtener ayuda. Sus contactos en el panel de control de facturación se ven así, sin la opción “Administrar sitios”, por lo que quieren ver lo que se necesita. ¿

screenshot of the billing contact control panel

cuánto control tienen?

como la mayoría de las empresas que utilizan nuestros servicios, siempre es preferente al administrador o el dueño de la empresa es el titular de la cuenta y se registra cada producto con nosotros a ellos. También en muchos casos, que esta persona no es necesariamente la persona en contacto con nosotros acerca de sus servicios web, es por esto nuestro agregado una función de contacto adicional es importante para la operación del negocio rápido y acertado.

en 34SP.com, nos gusta curso tiene todo lo necesario para que su experiencia con nosotros con cuidado y eficacia y nos ayudan tanto como podemos. Es por eso que tenemos el conocimiento completo de la popular escrito guías y videos.

con nuestra función de contactos, nos tomamos tu seguridad muy en serio. Esa es la razón por la cual siempre verificar con usted cuando su contacto técnico/facturación hace consultas de cambio de negocio, incluyendo el cierre de un producto o cambiar a otro producto de alojamiento. ¡No importa lo que usted tiene la última palabra!

gracias por sacar este blog! Para ver más características y actualizaciones de nuestros servicios ver el resto de nuestro blog.

– ofrece Siobhan @SiobhanLHancock

para recibir nuestro boletín mensual para recibir las últimas noticias, especiales, consejos y asesoramiento.

Ganancias de NGINX en diciembre de Netcraft Web Server Survey


sobre 300 millones sitios Web vino en línea durante el mes, según el de 2016 diciembre encuesta de servidores Web de Netcraft, elevando el número total de sitios más 1,7 billones, un aumento de 89 por ciento de los 900 millones en enero. En diciembre, encuesta, cuota de mercado NGINX aumentó 3.2%, Microsoft por 1.6%, mientras que la cuota de mercado de sitios de Apache en conjunto bajaron 2.2 por ciento.

NGINX adquirida a través de la métrica para el mes, el servidor sólo gran vendedor a hacer, y gana en el segundo lugar de Microsoft, mientras que Apache conserva una ventaja saludable, como lo hace en sitios activos y entre los sitios más concurridos millones.

millones de blogs abandonados plataforma Tumblr NGINX NGINX y centrado en el OpenResty LuaJIT en septiembre, y se utiliza OpenResty ahora, muchos sitios alojados por el anfitrión China Raksmart, Fastly, DigitalOcean y AWS. El número de sitios de OpenResty explotó a 760 000 en enero a casi 15 millones sitios activos pasó de 200 000 a 5.8 millones, y ahora es 9 servidor web frente a los equipos más conocidos th .

Microsoft adquirió 520 millones en 2016, un poco menos de 29 por ciento de la cuota de mercado de nombres de host a un 45 por ciento. NGINX’ aumento en la cuota de mercado de sitios activos (2.85%), sin embargo, fue Microsoft. Más reciente de la sociedad, software de servidor de IIS 10.0, fue lanzado a principios de año, pero no significativamente afecta el número de sitios, probablemente en parte porque Windows Server 2016, el sistema operativo principal de IIS 10.0, alcanzaron sólo GA en octubre.

Página Web de constructor web de VistaPrint SMB comenzó a utilizar el servicio de Cloudflare CDN en diciembre, es ‘Webs.com/1.0’ servidor totalmente de su anterior post 10 en sitios activos. CloudFlare aplicaciones una versión personalizada NGINX, dice Netcraft, sitios que activa alimentada de 3,6 millones en los últimos resultados.

Netcraft también menciona la llegada de dispositivos de almacenamiento personal de año pasados Western Digital My Cloud. Aunque se encuentren en el mercado desde hace varios años, los dispositivos de almacenamiento de red, cada uno con un nombre de host en wd2go.com, llegado a 680 000 sitios en la encuesta de diciembre. Ejecutar a Apache web server, pero no se utilizan como servidores web tradicional, por ejemplo ser más comúnmente apagado, han aumentado la volatilidad de los datos de Netcraft en informática orientada a web Apache.

¿Integración de centro de datos de Verizon de M $40 resultados qué Will Equinix?


presentado por el centro de datos conocimiento

sin duda no es para ser tratado como un Fixer.

en el anuncio de la adquisición de $ 3,6 billones de su compañía de Verizon cerca de 30 centros de datos a principios de este mes, Equinix CEO Steve Smith le dijo a analistas en una conferencia telefónica que el precio de compra fue de cerca de 13 veces el salario anual que espera que la cartera para generar una vez que el caso llegó a la conclusión. Luego agregó: “Este EBITDA ajustado excluye unos $ 40 millones en costes de integración durante este período”.

integración de instalaciones de la empresa en su cartera – especialmente en este escala – tal vez no sea tan simple como cambiar el letrero de la puerta y pele el rojo rayas fuera de los gabinetes. Sería usado para $ 40 millones, y será suficiente?

“Si usted mira cualquiera de las adquisiciones, hay una integración bastante detallada e involucrada [plan] que comenzamos a crear entre el proceso de firma, luego a través de parientes y aplicación inmediatamente después del cierre,” Jon Lin, Equinix VP de desarrollo corporativo y estrategia, tiene conocimiento del centro de datos en una entrevista. Este proceso de integración incluye la imagen de los sitios ‘armonización’ del producto adquirido con el resto de la cartera, evaluar la infraestructura e identificar las inversiones necesarias para cumplir con las normas Equinix sitios. “Que todos se considerará como parte de la línea de tiempo.”

el período de plena integración podría consumir 16 a 18 meses, se sentía, durante que 250 empleados sitios adquiridos – que se unirá a Equinix – necesario para mantener los antiguos clientes de Verizon por entonces.

para más detalles sobre el caso sí mismo : por qué los centros de datos de Equinix para $3 .6B Verizon comercial

en la conferencia telefónica, un analista preguntaban cómo Equinix podrán retirar una integración de tal alcance, que incluye una extensión de su presencia en el Brasil y entró en un nuevo país, Colombia, dado que él es todavía la integración de los últimos activos europeos adquirieron activos de Telecityand japonés recientemente adquirida ¿Bit-Isle?

Smith dijo que el caso de Verizon estará dirigido hacia arriba por el Presidente de la empresa para las Américas, Karl Strohmeyer, que no está conectada con las otras dos áreas de operación y que es libre dar atención a la integración en América del norte y el sur.

“vamos a pasar muy rápidamente,” dijo la Sra. Smith. “Karl tiene un plan bien detallado de este asunto y se mueve muy rápidamente en paralelo con las otras dos adquisiciones. Es muy digerible para nosotros. “

Equinix anunció el acuerdo de Telecity en mayo 2015 y Bit-isla siguiente septiembre. Ambos eran todos-adquisición de empresas, mientras que el caso de Verizon es más que un “carve-out” como ejecutivos Equinix, que según Strohmeyer, es una distinción importante.

” en general, compramos una sociedad completa con todos los sistemas, servicios, soporte, infraestructura ”, dijo durante la llamada. En el caso de Verizon, “compramos a activos ellos mismos – y por supuesto clientes activos y fuentes de ingresos relacionadas con estos clientes, así como los operadores de datos centros de ellos mismos”. Es un activo de plugin para el modelo actual en las Américas hoy. “

en respuesta a otra pregunta del analista acerca de cómo sería la empresa” equino-IZE’ activo, Stromeyer reiteró que su equipo hizo el respeto necesario para que ex Terremark activos eran tan alta calidad como Verizon había estado promocionando sus y encontró “nada de interés”.

es de destacar que las dos integraciones grandes están aún en curso. ¿Ella se convirtió en todo simplemente un hecho de hacer negocios en este sector que a nivel de proveedor de Equinix Data Center debe hacer una adquisición importante cada año o tan sólo para permanecer competitivos y por lo tanto permanecen en un estado perpetuo de la integración de los activos?

“Yo no diría así”, dijo Lin. “Creo que estamos bastante medidas en el mercado oportunidades de crecimiento inorgánico. Pero sin duda basado en orgánicos, son cómodos y confiado con el plan que tenemos en el lugar. Evidentemente evaluamos oportunidades como vienen, y si creemos que existe la posibilidad de crear valor – donde veremos sin duda en este caso, ya que tenemos con el resto de las transacciones – evaluarlo y mirar para hacer una transacción. “

Here's What 14 Experts Say about Cloud in 2017


Brought to you by Talkin’ Cloud

Experts across cloud, security, web hosting and more offer their predictions for what the future holds. Here are the trends in containers, security, compliance and cloud they are keeping an eye on in 2017 and beyond.

Containers

“Container adoption will move from early adopters to early majority. This shift will be marked by an increase in software vendors adding container capabilities to their existing products and introducing new products. We will also see new solutions that improve manageability of containers at scale. For example, this year we saw Docker get serious about enabling customers to run containers in production. The launch of Docker Datacenter, with manageability and security features moved the needle a long way. For many though, Kubernetes is the choice for container orchestration. One start-up aiming to simplify the adoption of Kubernetes is Heptio, founded by the guys from Google who kick started the project, came out of stealth mode late this year. The container snowball of innovation is overwhelming many of the tools that have traditionally been associated with DevOps. Generally, we are past the unreasonable hype phase of DevOps and now starting to look at real results. What we see is that DevOps is difficult even wrenching to put into place, but the benefits are so compelling there really is no choice for most organizations. How can they not do something that makes them faster and more stable at the same time?” – Dan Jones, director of product management, Skytap

“OpenStack and containers will move beyond proof of concept to deploying solutions that solve real-world business problems, providing a comprehensive strategy that allows enterprises and operators to bring new services that are secure, efficient, elastic, and scalable.” – Anand Krishnan, EVP and GM of cloud at Canonical, the company behind Ubuntu

“Technology comes in waves. When containers exploded a couple years ago, it was all containers, all the time. But containers only serve to make applications easier to build, ship and run to borrow a phrase. People will think more about applications overall in 2017, rather than just the components that make them up.” – Serge Pashenkov, CTO,Cluster HQ (which unexpectedly shut its doors on Dec. 22/16)

Compliance

“It used to be that security concerns were the biggest impediments to public cloud adoption. But, in 2017, that will no longer be the case. It is widely accepted that security in public clouds is strong, shifting the top concern to compliance. Organizations moving to the cloud need to be able to demonstrate and provide assurance that they are doing things in a secure and compliant manner. So, whether it is PCI, HIPAA, NIST-800 53 or internal compliance standards, organizations need to be able to demonstrate that they can maintain compliance throughout the fast-pace of change that takes place in the cloud. To solve this, they will have to turn to security and compliance automation solutions that will help them measure and report with ease.” –Tim Prendergast, CEO at Evident.io

“Laws protecting consumer privacy should serve as deterrence of cybersecurity negligence leading to data breaches, but so far regulatory bodies have earned a reputation for doling out slaps on the wrist. Data protection authorities, spearheaded by the EU’s new GDPR, are increasing their vigilance – along with the cost of fines. Major fines for HIPAA and EU privacy violations in late 2016 have set the tone for next year. Expect to see global companies scrambling to implement additional privacy controls to prepare for GDPR’s enforcement in 2018.” – Skyhigh Networks CEO Rajiv Gupta

Security

“Machine learning and industry collaboration will transform security: In the New Year, the “bad guys” will become increasingly sophisticated and the value of the attacks they are conducting— both monetarily and impact wise—will be more harmful than ever. To combat this, innovators are working to move from the old school anti-virus approach to a more transformative approach informed by machine learning. This approach learns what normal behavior within an IT infrastructure looks like and then calls out any abnormal behavior. Organizations are also moving away from working in siloes and are now developing security technologies that are working together to aggregate information, so users can monitor and address all vulnerabilities.”  NaviSite CTO, David Grimes

“ISPs will find themselves at an important crossroads next year. By working together with governments and the international community, ISPs can strengthen the underpinning infrastructure of the Internet and significantly reduce the volume of malicious traffic flowing across their networks. These methods aren’t a quick fix, and they certainly can’t protect against the full spectrum of DDoS attacks, but they would be a vital first step in speeding up our global response to attacks. I’m hopeful that the future of volumetric DDoS attacks in two or three years’ time will be significantly reduced by the combined efforts of ISPs, device manufacturers, security vendors and even government entities. As this community rallies together to better protect the integrity of the Internet we may see ourselves in a very different place down the line.” – Dave Larson, CTO, Corero

SEE ALSO: Why DDoS Mitigation Solutions Must Address Small-Scale Attacks

“DDoS attacks like the one perpetrated against Dyn will force many providers to look to start outsourcing security rather than going in-house due to lack of top talent.” – Chris Crosby, CEO of Compass Datacenters

Public Cloud, Private Cloud and Hybrid Cloud

“Over the last few years we’ve seen previous predictions around increased public cloud adoption come to fruition, and we predict 2017 will be the year hybrid cloud asserts itself as the dominant cloud environment. Cloud spending will continue to be on the incline, and we believe a majority of that spend will go toward hybrid cloud infrastructures; this is proving to be the sweet spot for the enterprise. Organizations that have spent a lot of time and resources on their own data center are not likely to do away with it all overnight. Adopting a hybrid cloud environment allows for a transition to cloud in a way in which feels most comfortable; a gradual approach that can provide both immense cost savings as well as recovery benefits. Hybrid cloud allows for a variety of recovery options should the need arise, on-premises, public cloud or a little of both, which help companies be better prepared for a variety of disaster scenarios. Additionally, the perceived complication and expense of transitioning to cloud, that has previously held many IT organizations back, is now starting to whither. More and more companies are realizing that adopting a hybrid cloud approach, with the right partners in place, can actually be quite simple and affordable.” – Paul Zeiter, President, Zerto

“2016 saw an increase in the adoption of cloud services, but now users are going to raise expectations. More and more organizations are noticing that you either go completely to the cloud or you stay on premises since it’s just not an ideal situation to use a hybrid ‘half-and-half’ approach. Amazon and Azure make it seem easy to migrate, but businesses are realizing that even though they have a cloud environment, they have to manage it and update it continuously. In 2017, they will begin to wonder if they’re getting what they need in terms of performance and security. The cloud will not solve all of their problems and IT departments will need to have an exit strategy to avoid vendor lock-in. The end goal should not be getting all of the desktops in the cloud, but to be able to access data from anywhere.” – Mark Plettenberg, Product Manager, Login VSI

“In 2017, cloud will continue to drive radical change across enterprise IT.  Businesses will make even greater investments outside of their own data centers, particularly in ‘as-a-service’ computing. 2017 will be the last year we spend money in our own data center as we move applications to the public cloud. The cloud will also bring about significant change in the role of IT professionals – IT leaders with more general experience will create teams of people with specialized knowledge of key elements of IT infrastructure, such as storage and security.” – Ruben Spruijt, CTO of Atlantis Computing

“We have all witnessed the ‘cloud rush’ of recent years where organizations have been encouraged to move their workloads to the cloud. However, there is a growing recognition among organizations that cloud services are not the be-all and end-all – and certainly not always the most cost effective way to deliver all their IT workloads. In several cases, the promised cost savings that customers thought they would receive haven’t materialized – in fact it can be quite the opposite when they first see their bill, after failing to be properly advised on their long-term costs. Many IT service providers have been caught up in the vendor hype surrounding cloud services, and encouraged cloud migration despite the end user often not fully understanding the long-term cost implications. Next year we will see more businesses move workloads out of the cloud and back on-premise, and in the future, we will see a more educated, sensible approach where cloud isn’t the default option for hosting all workloads.” – Karl Roe, VP Services and Cloud Solutions, Nuvias Group

“I do think that we are coming out of the love affair with cloud. I think it’s really moving into a different sort of paradigm from just ‘everything gets hosted.’ I think companies are starting to go into that mode of almost like we saw, I want to say, 15 years ago where they would outsource everything and then bring it back in house. I think companies are starting to feel the same way–like they don’t have control of their own destinies and that really more of their brand, their brand equity and how they expand their global go-to-market strategies is different. So now they’re looking for what we’re seeing as ‘services partners’ to help them in more of a vertical play, less than a commodity around cloud.” –Kim King, vice president of Global Partners and Channels for Progress Software (via The VAR Guy)

“Today, multi-cloud is a full-fledged reality, as organizations seek to match each workload to the cloud platform where it will achieve the best performance and cost-efficiency. Many enterprises today find themselves managing multiple clouds inadvertently and sometime haphazardly, because teams across the business are independently choosing different cloud platforms and providers to best suit their individual needs. I predict that next year we’ll see more companies formulate explicit multi-cloud strategies to best leverage and coordinate multiple cloud providers. However one gets there, a multi-cloud world comes with a unique set of challenges, including the need for expertise across a larger range of cloud technologies. It also requires managing multiple vendor relationships and more complicated cost tracking. One of the most critical needs is multi-cloud security — and my predictions for the near term are a mixed bag.” – John Engates, CTO, Rackspace

Victorias de arista grande contra Cisco en Tribunal Federal


presentado por el VAR Guy

redes de Arista finalmente cogió una rotura en su larga batalla legal contra Cisco Systems. Un tribunal federal en California del Norte ha negado la petición de Cisco por $ 335 millones en daños y gobernó Arista no violó una patente de Cisco o Cisco copyright en sus Manuales de usuario.

la parte principal del software en cuestión era la interfaz de línea de comandos (CLI) de Cisco. Cisco argumentó que Arista, muchos cuyos dirigentes son antiguos empleados de Cisco, copiado ilegalmente derecha Cisco CLI hasta los errores tipográficos. Arista ha argumentado que el CLI es utilizado por muchos rivales de Cisco y ataque que Cisco contra Arista viene de enemistad personal. Inicialmente, Cisco presentó la denuncia en el 2014.

la decisión está en contradicción para la decisión de la semana pasado de la Comisión de comercio internacional (CCI) que Arista había violado dos patentes de Cisco, después de la decisión anterior que Arista había infringido tres patentes. Por un breve período, incluso prohíbe la importación de productos de Arista en los Estados Unidos

el jurado dictaminó que la Arista estaba protegido por lo que se denomina la doctrina de “escenas para hacer ‘, un principio de derecho que dice que si no hay ninguna otra manera de hacer un producto, el valor puede ser atribuido al autor del libro. Sociedad regularmente ha ganado cuota de mercado desde su fundación en 2004, amenazando la posición de Cisco como líder indiscutible de la red mundial.

‘ arista copia a pesar de que otros competidores han desarrollado interfaces de usuario en una variedad de no copiar, “dijo Mark Chandler, asesor general y Secretario de Cisco, en un blog. “La interfaz de usuario de cisco es bien conocido y acertado, y mientras que a menudo ha sido designado como”estándar de la industria”- es un popular punto de referencia – ninguna de las tecnologías de Cisco en este caso fue incorporada en cualquier industria real estándar; de hecho, no es realmente CLI de normalización. “

Los sitios más populares tenían más de dos horas de interrupción en Q3 2016


más de 1 en 6 compañías de Fortune 1000 tiene página web la disponibilidad por debajo del 99,9% en Q3, 2016, según un estudio reciente de CloudEndure. Mientras que el 83 por ciento de las páginas Web de estas empresas estaban disponibles el 99,9% de tiempo o más, sólo el 19% no tenía ninguna interrupción del servicio, en comparación con el 51% no tienen ninguna interrupción del servicio en el segundo trimestre.

CloudEndure seguido los 100.000 sitios más visitados en los Estados Unidos, según lo medido por Quantcast y encontró que la disponibilidad del sitio web significativamente hacia abajo desde el comienzo del año, así que 100.000 superior y las empresas de Fortune 1000.

un potente ataque de DDoS a Dyn provocado interrupciones en el servicio a cientos de sitios el mes pasado.

entre los 100.000, 79 por ciento fueron la disponibilidad de 99.9% (“tres nuevos”) en el último trimestre y sólo 34% alcanzado “cuatro nuevos” o disponibilidad del 99.99%, desde 41 por ciento en el 2 º trimestre. «Cuatro nuevos» que representan cerca de 13 y medio minutos de inactividad en el barrio. CloudEndure dijo que el aumento en el número de sitios para lograr la disponibilidad de “tres nuevos”, de 41 a 45% de la parte superior de 100 000 es probablemente debido a las reducciones en uptime de 99.99%, en lugar de mejora entre los sitios con reducción en la disponibilidad de trimestres anteriores.

VEA TAMBIÉN: presupuesto de recuperación en caso de desastre, otros factores afectan la confiabilidad de la aplicación en la nube pública

la disponibilidad de “Tres nuevos” asciende a más de 2 horas y 11 minutos de tiempo de inactividad en un cuarto.

el número de empresas entre los sitios top 100.000 con sólo una disponibilidad del 99% pasó de 17 a 20 por ciento, mientras que un uno por ciento tenía sólo 90% uptime, o 9 días de tiempo de inactividad en el distrito completo.

a pesar del incremento de las interrupciones para muchos sitios, no todas las noticias del trimestre fueron malo. CloudEndure de búsqueda muestra que aproximadamente tres cuartas partes de las organizaciones tienen una meta del 99,9%, incluyendo la disponibilidad de servicio 79% logró alcanzar en el 3er trimestre, contra sólo el 70% en Q1.

Además, 30 por ciento de la parte superior de 1.000 no tenían tiempo de inactividad en todos durante el trimestre, mientras que sólo el 11% de la parte superior de 100 000 no tenían ninguna interrupción del servicio, que es CloudEndure como una indicación de mayor prioridad a mantener la disponibilidad de esos sitios que tienen más éxito.