QuadraNet abre nuevo centro de datos de Los Angeles


Los Angeles alojamiento web y proveedor de QuadraNet de servicios de centro de datos abrió un nuevo centro de datos de 80.000 pies cuadrados cerca del aeropuerto internacional de Los Ángeles.

según un reciente anuncio hecho por QuadraNet, instalar un transporte de conectividad directa capa 2 servicios en la instalación del centro de los Ángeles de QuadraNet ambos otras instalaciones de centro de la ciudad, incluyendo un Wilshire.

“Estamos encantados de haber desarrollado nuestra presencia en Los Ángeles y está disponible una notable institución que tiene una perfecta flexibilidad, alta disponibilidad de infraestructura sin precedente y una conectividad robusta al mismo tiempo la región del sur de California, así como en la costa oeste en general,” dijo el CEO Ilan Mishan QuadraNet.

Informe: Dallas y Washington, D.C. ven colocación de fuerte crecimiento en 2016

Además de Los Ángeles, QuadraNet cuenta con data centers en Dallas, Miami, Atlanta y Chicago. La empresa ofrece servidores dedicados, administración de clúster, colocation, servicios de hosting y cloud.

nuevo centro de Los Angeles SSAE 16 tipo 2 revisado y una fuente de alimentación redundante y datos capaces centro de espacio en piso falso de alta densidad.

“seguridad física y soporte fueron factores clave en el diseño y la implementación de este mecanismo, así como nuestra expansión”, dijo Mishan. “Nuestros clientes en todo el mundo se utilizan para cubrir y soporte de alta calidad y nos hemos asegurado esquinas no se han cortado y no hay excusas que hicieron nos impiden entregar grandes expectativas, tenemos.”

la puesta en marcha de la instalación viene como QuadraNet ha rediseñado su sitio Web para resaltar sus nuevos servicios.

aprender más acerca de los datos se centra en la costa oeste en nuestra publicación, conocimiento de centros de datos

Interrupción de la red – 28 de febrero de 2017


para los clientes interesados en el fracaso recientemente ha vivido nosotros, Queríamos romper la cadena de acontecimientos. 28 de febrero a las 22:30, comenzó a implementar una actualización de la red. La actualización había sido planeada y probada durante mucho tiempo de antelación, y que pretende implementar el consolidado para todos los clientes de dispositivos de seguridad.

22:42, detectamos una anomalía con la red relacionadas con esta actualización y un problema imprevisto cuando se cambia la configuración de uno de nuestros sistemas de enrutamiento básicos. Esto le había golpeado sobre el efecto de hacer que todos los hosts en uno de nuestro VLAN interna no esté disponible. Cliente a los servidores afectados incluyen:

businesshost8, 10, 11
prohost19-35
resellervps1-5
vps24, 30-32

wordpressvps2-9 xenserve15, 21

la naturaleza de la falla requiere un ingeniero in situ responder y como tal nuestro ingeniero llegó a 23:15 para empezar a trabajar.

la naturaleza del error configuración significado eran necesarios varios pasos diagnóstico, incluyendo la energía ciclismo de las diferentes partes de nuestra red de núcleo. Mientras tanto los demás servidores de la red pueden experimentar la disponibilidad intermitente, como partes de la red fueron desmanteladas.

1:58 el 1 de marzo nos habíamos restaurado conectividad a todos los servidores de hosting. Nuestro sitio y servicios relacionados así como el sistema de correo mercury seguía siendo disponible hasta 2:48 cuando fueron fijados posteriormente por varias bases de datos ayuda a reconstruir y el servicio se reinicia.

la actualización prevista fue interrumpida debido a esta falla y estamos viendo ahora con urgencia los resultados del evento. Una vez que concluya esta revisión, tomamos medidas para aplicar la actualización otra vez en una fecha posterior.

A Cloud for the Artificial Mind: This Data Center is Designed for Deep Learning


Brought to you by Data Center Knowledge

While we mostly hear about Artificial Intelligence systems like IBM’s Watson, which won Jeopardy! six years ago, Google’s AlphaGo, which won a game of Go in a match with the ancient Chinese game’s human world champion last year, or Carnegie Mellon’s Libratus, which last month beat one of the world’s top poker players, many computer scientists around the world are working on AI systems that will never appear in the news.

Over the last five years or so, Machine Learning, a type of AI, has been a quickly rising tide that’s now starting to permeate nearly every corner of technology. From self-driving cars to online advertising, cybersecurity, and video surveillance, companies are training computers to do many of the things human workers have been doing but better, or at least cheaper.

Neural networks, computer systems that aim to simulate the way neurons are interconnected in the human brain, are trained to do these tasks the same way babies learn about the world – by observation, repetition, trial, and error, assisted instead of parents by computer scientists – although babies are still much, much better at it. A neural net learns to understand spoken language, for example, by listening to a lot of recorded speech, such as movie dialogue; it learns to identify objects by looking at tons of images. When it makes an error, that data is fed back into the net, which makes fewer and fewer errors with every cycle.

Training is the most resource-intensive computing workload in the machine learning development process. The explosion of deep learning software development (deep learning is the most widespread machine learning technique) is driving a growing need for specialized computing infrastructure, geared for the types of workloads required to train neural nets. These computers are similar to high-performance computing (HPC) systems scientists use and as such require lots of power and cooling capacity from the data centers that host them.

The Artificial Mind is Power-Hungry

Seeing a business opportunity in this trend, a Poway, California-based company called Cirrascale recently pivoted from being a high-performance hardware vendor and cloud service provider to being a specialist in designing and hosting compute infrastructure for deep learning. In addition to selling the high-octane hardware, the company uses its data center outside of San Diego to provide this infrastructure as a service, somewhat similar to the way Amazon Web Services provides its cloud servers but with a few key differences.

“These types of boxes are very powerful,” David Driggers, the company’s CEO and founder, said in an interview with Data Center Knowledge. Because they have a lot of computing muscle, they are extremely power-hungry. Unlike AWS, which provides virtual server instances, Cirrascale’s deep learning cloud is a bare-metal cloud service. You get a dedicated high-performance box (or several) to run whatever software you need on it.

Driggers said many of his customers doing machine learning development work are new to the world of high-performance computing. It’s not trivial to set up, manage, and cool an HPC cluster, and they are happy to offload that problem to someone who understands it.

Cirrascale’s data center is designed to provide power densities north of 30 kW per rack (power density in an ordinary enterprise data center is 3 to 5 kW per rack, rarely exceeding 10 kW). “That’s a lot of wattage,” Driggers said. “Doing that part of it is hard, and we’re not charging a huge premium for that.”

<– A cabinet housing Cirrascale’s bare-metal cloud platform in the company’s data center outside of San Diego (Photo: Cirrascale)

To cool that kind of density, the data center uses a proprietary liquid cooling system developed by ScaleMatrix, which owns and operates the Cirrascale data center. Instead of cool air traveling from front to back of the IT equipment (as it does in most data centers), the system pushes air with extremely high velocity from bottom to top, exhausting warm air at the top of the server cabinet. Each cabinet is a closed environment and has its own water supply and air circulation system, which ensures neighboring cabinets don’t affect each other’s temperature.

After many years of building high-performance computing systems, Cirrascale – whose previous incarnation was Verari Systems, the HPC hardware and data center container vendor that went bust in 2009 – has felt at home in the deep learning space, which it entered two years ago. “We’ve been doing 30 kW for well over 10 years, so we’re comfortable with standing up high-performance computing,” Driggers said.

Linking the Virtual Neurons

HPC systems and systems used to train deep neural networks are built using fairly similar architectures. Driggers believes that as the latter matures and starts to scale, its architecture is going to look more and more like that of the former.

The workhorse in this architecture is the GPU, or, more accurately, a group of GPUs networked together, computing in parallel. A single Cirrascale server for deep learning packs up to eight Tesla GPUs by NVIDIA (currently the GPU leader in deep learning), working in concert with an Intel Xeon CPU. Its most powerful cloud system has eight dual-GPU accelerators, being in effect a 16-GPU server, which you can rent for about $7,500 per month.

Cirrascale’s GX8 Series server with eight of NVIDIA’s Tesla GPUs, a deep learning workhorse (Photo: Cirrascale)

Cirrascale’s single most important innovation, its technological crown jewel, is a special way of interconnecting GPUs in a single system. Called PCIe Switch Riser, it enables any GPU to talk directly to any other GPU on the motherboard at maximum bandwidth, helping both performance and scalability.

DGX-1, NVIDIA’s own supercomputer designed specifically for deep learning, is configured in a similar way, Driggers said. The chipmaker’s GPU interconnection technology is called NVLink. He conceded that if you need “absolute cutting edge,” you should go with the NVIDIA box. But, if you can tolerate 15 percent lower performance while paying half the price, Cirrascale has a comparable system with the same NVIDIA P100 GPUs, he said. It sells the DGX-1 as well.

A look inside NVIDIA’s DGX-1 supercomputer, the “absolute cutting edge” in deep learning hardware (Photo: Yevgeniy Sverdlik)

Startup Solving for Common Sense

While a lot is written about deep learning today, few companies are actually using the technology in production. Hyperscale cloud operators like Google and Facebook are applying it in many of their user-facing features, but most of the companies working in the field are still in development stages, and that’s true for the majority of Cirrascale’s cloud customers, who are writing algorithms and learning to scale their deep learning applications to handle larger data sets.

Today, each of these customers is taking a handful of nodes, a small subset of what Driggers believes they will eventually need. As they grow and their applications mature, he anticipates the preferred infrastructure model will be hybrid, combining private and public cloud.

One customer already using a hybrid set-up is Twenty Billion Neurons, or twentybn. The Berlin-based startup with a research lab in Toronto was founded a years ago by a group of academics who believe that the dominant neural-net training technique for some of the most promising applications, such as self-driving cars, is flawed and already ripe for disruption.

Instead of using still images to train neural nets to identify objects, the dominant approach, twentybn uses video. “Our mission is to teach machines to perceive and understand the world,” Roland Memisevic, the company’s chief scientist and one of its co-founders, said in an interview. Memisevic is a professor at the influential Montreal Institute of Learning Algorithms and a former doctorate student of Geoffrey Hinton, a key figure in the development of deep learning as we know it today.

That the world is three-dimensional; that there’s gravity; that an object has permanent features and can get from point A to point B only by moving – concepts a human being has a firm grasp of by the time she reaches three – are things that are extremely difficult for a machine to understand by looking at still images, Memisevic explained, adding that there’s strong scientific reason to believe that the only way it can gain that understanding is through video.

Twentybn has paid an army of internet users to shoot more than 60,000 short video clips of themselves doing simple things like throwing objects against walls, dropping objects, or picking them up, videos “generated to reflect things that we want the network to learn,” he said. The company is using these and synthesized videos to train its neural networks with the goal of selling custom AI solutions for autonomous vehicles and video surveillance.

Twentybn uses Cirrascale’s GPU-packed bare-metal cloud servers to train its neural nets but also keeps its own computing cluster in-house, at its lab in Toronto, to handle the massive amount of synthesized video it generates.

A Post-GPU Future?

Memisevic believes technologies that improve communication between GPUs, like the cloud provider’s Switch Riser, are going to be indispensable in the future, as neural networks get bigger and bigger. However, it’s unclear at the moment what the best way to harness a lot of GPUs will be over time; today there are several approaches.

Because what we’re witnessing is just the beginning of what is expected to drive the next technological revolution, there is still a lot of unknowns about the kind of computing and data center infrastructure machine learning or other types of AI will ultimately require. “We looked around for every company like mine that has to find a way to harness GPUs to train networks, and we have been and are still exploring multiple directions toward using those GPUs,” Memisevic said.

Using hybrid cloud was a strategic decision twentybn made precisely because of the uncertainty of what its future computing needs may be. It’s putting two ponies in the race, and one of them is a rental. Even GPUs themselves may eventually be replaced by something that simulates neural nets better and more efficiently, he said. Today’s brute-force approach to making these networks more powerful by plugging in more GPUs is farm from ideal.

In fact, he is convinced there will be a better alternative. After all, the human brain is a lot more powerful than a GPU cluster while using a tiny fraction of energy and occupying a tiny fraction of space than the cluster does. “Right now we’re scaling, scaling, scaling; and that’s going to grow,” he said. “Demand for high-power computation on GPUs is unfortunately going to grow over the years. GPUs, as compared to brains, use ridiculously large amounts of electricity; there could be something so much better that uses so much less power.”

Trump promete un “informe completo” sobre Hacking en los primeros 90 días


(Bloomberg) – Presidente electo Donald Trump dijo su administración debe producir un informe integral en equipo de piratería dentro de los primeros 90 días de su Presidencia y es acusado de “mis oponentes políticos y un espía no” de “falsas acusaciones” contra él.

“totalmente compuesto por sleazebag oficiales políticos, los demócratas y los republicanos,” Trump dijo en un mensaje de Twitter viernes, agregando en un tweet más tarde, “mi pueblo tendrá un completo informe sobre la piratería en 90 días!”»

en una avalancha de mensajes desde temprano en la mañana, el Presidente electo también ha propuesto que la comunidad de inteligencia había filtrado información perjudicial sobre sus presuntos vínculos con Rusia, después de informes de nueva información publican sobre un expediente reclamando que el Kremlin le había comprometido.

‘ la Rusia dijo que no existe, “Trump dijo en Twitter. ‘” Publicado probablemente por ‘Inteligencia’, aún sabiendo que no es ninguna prueba y no.

en los mensajes enviados antes de que muchos estadounidenses debían para trabajar, Trump llevó a las redes sociales para compartir con el público sus pensamientos en una serie de cuestiones el viernes, incluyendo los movimientos del Congreso para revocar el Obamacare – llamada la ‘ley ‘Unaffordable’ atención’ – y el testimonio de sus gabinetes de los candidatos que a veces difiere de su punto de vista indicado.

trump también comentó sonda interna del Departamento de justicia en el manejo del FBI para utilizar un servidor de correo electrónico privado viernes Hillary, denunciando la respuesta de los colaboradores de Clinton, dijo el jueves otra vez que Comey le costó las elecciones.

trump dijo que los investigadores Clinton “agradable” y que la pérdida del ex Secretario de estado en la carrera presidencial no se podía atribuir a las acciones de la Oficina Federal de investigaciones en los últimos días de la campaña. ”

‘ qué pueblo de Hillary se queja en lo que concierne el FBI, “Trump dijo en Twitter. ‘” Basada en la información que se les no deben nunca ha permitido ejecutar–culpable como infierno. Eran muy agradables a él. Perdió porque ella hizo campaña en los Estados de mal – sin entusiasmo”.

Cómo un cloud VPS puede cambiar la forma de hacer negocios


cómo un Cloud VPS puede cambiar la forma en que tratamos

libertad. Eso es lo que estamos después de una forma u otra en los diferentes aspectos de nuestra vida. No queremos ser unido a algo y queremos ser capaces de hacer cosas la manera que queremos. Esta filosofía puede extender sobre la manera en que conducta usted su negocio. Hoy más que nunca, la gente quiere ser capaz de trabajar en sus términos. Si usted nunca ha fantaseado con poder trabajar desde cualquier lugar en cualquier momento (y puedes hacer algo en el mundo digital), resulta que su empresa de hosting, de todas las cosas, él podría la clave para darle un poco más de independencia mediante el uso de un cloud VPS .

servidores privados virtuales son una herramienta versátil a pesar de una mayoría de comerciantes o empresarios que buscan les sólo con una fracción de su capacidad. Sin duda han escuchado del uso de un VPS cuando se trata de un sitio de hospedaje. Hay una buena razón para su popularidad se extendió a este respecto. Tal vez son la mejor solución para la mayoría de los casos de uso debido a su velocidad, rendimiento y fiabilidad de hospedaje. Pero un VPS puede ofrecer mucho más más allá de ser un lugar donde usted puede mantener su sitio Web. Echemos un vistazo a algunos fuera de la caja para un uso de Cloud VPS .

entorno de escritorio remoto

un Cloud VPS puede proporcionar un entorno virtual puede acceder remotamente a través de una variedad de métodos. Esta es una buena oportunidad para señalar que usted puede elegir de una variedad de planes cloud VPS . Mientras que un sitio Web no puede exigir muchos recursos, lo suficiente como para realmente hacer un trabajo que se ejecuta un entorno de escritorio robusto va. Pero no te preocupes. No necesariamente tienes que igualar la potencia de vuestro ordenador en casa. Usted puede hacer algo con mucho menos. Usted encontrará que usted puede conseguir lejos con un máquina de doble núcleo memoria RAM 4 GB .

que significa que puede trabajar desde cualquier lugar. No está atado a un escritorio todo el día. De hecho, con un poco de creatividad usted puede incluso no para cargar con un ordenador portátil. Con el software adecuado, usted puede llevar a su empresa a través de tu escritorio remotamente desde un tablet o incluso su smartphone (aunque el tamaño de pantalla probablemente sería un problema a la hora de su teléfono). Una tablet con una aplicación de oficina remota instalada o cualquier otro dispositivo con el software propuesto acceso SSH puede conseguir le conectado y en ningún momento en el trabajo.

software de especialidad

a veces el trabajo que quieres hacer puede ser muy pesado para tu PC y la red. Tal vez desea ejecutar el software que recoge datos en tiempo real, o desarrollar su propia versión de un robot de sitio Web que debe funcionar por largos períodos de tiempo con una conexión a internet. Existen casos especiales donde tiene sentido al no realizar estas tareas en un equipo personal. Toma un poco de trabajo, pero los proveedores de servicios de internet se han sabido para agrietarse en los cerdos de datos. Sólo sé que su empresa de hosting tendrá límites así. Si piensa en el software intensivo en tu VPS cloud Asegúrese de que sólo conoce los términos y condiciones así como recursos que usted paga cada mes. Puede golpear su límite rápidamente.

seguridad

también hay una seguridad beneficio de funcionamiento en la nube. Hay riesgos inherentes para guardar sólo los datos localmente, especialmente si están trabajando en el camino. Tus discos duros y llaves USB fácilmente pueden ser perdidas o dañadas. Si no están practicando los métodos de seguridad apropiados, tales como el uso de encriptación, perder su física los medios de comunicación pueden ser muy perjudicial. Por ejemplo, si almacena información en un disco, podría abrir una gran cantidad de información en el mundo. Incluso si su negocio no es el tamaño de, decir, objetivo, este tipo de fugas de información podría peligrar el futuro de su negocio. Mantenimiento de los datos en la nube garantiza que su trabajo es descentralizada y agrega capas adicionales de seguridad para su operación.

conclusión

un Cloud VPS es una herramienta versátil para su más gran potencial puede redefinir cómo tu trabajo. Buscas un sitio rápido y fiable ejecutar un negocio y un entorno virtual para probar el software en un acceso de escritorio remoto desde cualquier lugar a cualquier lugar, en cualquier momento para casi cualquier dispositivo, un cloud VPS puede ayudarle a lograr esto por un precio mensual bajo. Si usted está buscando para utilizar un cloud VPS hosting plan para su próximo proyecto, póngase en contacto con el equipo de JaguarPC hoy. Nos pondremos a configurar el plan a sus necesidades.

10 alojamiento importante industria fusiones y adquisiciones en 2016


2016 ha sido otro año de la consolidación de varias regiones y mercados para servicios de web hosting y cloud. Ha habido algunas llamativas adquisiciones de título, así como varias operaciones importantes, pero más pequeñas.

Estas son algunas de las más grandes fusiones y adquisiciones en ÉL el año pasado, sin ningún orden en particular.

1. $1 4 b jaspe tecnologías de adquisición de señales principales IoT de entrega Cisco

Febrero Cisco adquiere Jasper, que llamó su plataforma ‘el interruptor de la Ito’, con el fin de explotar su nueva unidad de negocio del Software ITO. Agregando nuevas funciones y esta agrupación en una solución completa de Ito, Cisco está posicionada para una gran parte de los ingresos de los servicios de ITO.

2. Oracle adquiere sistemas de Ravello para un divulgado $ 500 millones

sistemas de Ravello comenzar permitiendo la migración de la carga de trabajo de desarrollo de cloud y fundada por los pioneros de la virtualización.  Oracle ha pagado un divulgado $400 a $ 500 millones para él para que sea más fácil para las empresas a utilizar sus servicios de nube pública y la apertura de un centro de investigación de la nube en Israel.

3. Nobis Technology Group de Estados UNIDOS LeaseWeb matriz adquiere la ubicuidad del alojamiento

en marzo, LeaseWeb USA recogió 7 americanos de ubicuidad, sus centros de datos de nube y clientes hosting y otros activos.  No sólo el gesto había expandido su red, sino también mejora su lanzamiento para desarrolladores de juegos.

4. Microsoft para la adquisición de LinkedIn: qué usted necesita saber

Esta superproducción de junio $ 26 billones ha hecho datos voluminosos así como la plataforma a utilizar, en la ambición de Microsoft “reinventar procesos de negocio y productividad.” Sinergia de la aplicación y la inteligencia artificial podría ayudar a Microsoft a defender su posición en el mercado de aplicaciones de negocio a largo plazo.

5. Nube de Samsung adquiere Inicio Joyent, se compromete a mantener plataforma Open Source

plataforma cloud Joyent está ahora servicios de apoyo móviles Samsung y ITO, mientras continúa operando como una subsidiaria, vender su plataforma de recipiente-como-un-servicio de Triton en auge. Samsung mantendrá la fuente abierta de la plataforma y proporciona Joyent de escala, que pidió en un mercado competitivo.

6. Unidos de retrasos de Internet IPO que vende una participación del alojamiento en Warburg Pincus

equidad privada firma Warburg Pincus condujo a lo que habría sido uno de los grandes alojamientos de año IPO pagando menos de $ 500 millones para un tercio del cuerpo Unidos Internet de aplicaciones de negocio.  La unidad incluye 1 & 1 hosting y otras marcas y gana los recursos necesarios para competir por cuota de mercado SMB.

7. Oracle adquiere Dyn para mejorar la Performance de nube

un mes después Dyn fue golpeado por un ataque DDoS masivo, apoyado por una botnet de Mirai, Oracle firmó un acuerdo para la adquisición de la empresa. Oracle dice servicio Dyn DNS ayudará a crear una ventanilla única para empresas IaaS y PaaS.

8. GoDaddy adquiere grupo host de Europa por $ 1,79 billones

después de meses de especulación y una oferta retirada de Deutsche Telekom, HEG ha encontrado un comprador para GoDaddy. El destino de la PlusServer HEG es hacia arriba en el aire, con el resto de la empresa integrando con GoDaddy para él dar un pie importante en el mercado de las PYMES europeas, pone en competencia directa con Internet por encima de Reino. GoDaddy también recogida ManageWP en septiembre.

9. HNA adquisición de Ingram Micro está cerrada, sirve como un microcosmos del canal

en un movimiento que refleja e influye en el canal, con sede en China HNA pagado $ 6 billones para el distribuidor más grande de TI en el mundo. El acuerdo, anunciado en febrero, puede haber despejado obstáculos regulatorios justo a tiempo para evitar un proceso más difícil bajo la administración de Trump, que podría incrementar los beneficios de la cobertura geográfica de la HNA.

10. United Internet adquiere proveedor alemán Strato

pulso rápidamente con recursos de Warburg Pincus, United Internet había pagado unos € 600 millones por la presencia de Strato en los mercados holandés y alemán. Con más de 2 millones clientes, 2 centros de datos en Alemania y € 127 millones en ingresos previsto para 2016, Strato da escala que United Internet se levantó para competir con GoDaddy, Web.com y grupo internacional de resistencia para el mercado SMB.

¿Integración de centro de datos de Verizon de M $40 resultados qué Will Equinix?


presentado por el centro de datos conocimiento

sin duda no es para ser tratado como un Fixer.

en el anuncio de la adquisición de $ 3,6 billones de su compañía de Verizon cerca de 30 centros de datos a principios de este mes, Equinix CEO Steve Smith le dijo a analistas en una conferencia telefónica que el precio de compra fue de cerca de 13 veces el salario anual que espera que la cartera para generar una vez que el caso llegó a la conclusión. Luego agregó: “Este EBITDA ajustado excluye unos $ 40 millones en costes de integración durante este período”.

integración de instalaciones de la empresa en su cartera – especialmente en este escala – tal vez no sea tan simple como cambiar el letrero de la puerta y pele el rojo rayas fuera de los gabinetes. Sería usado para $ 40 millones, y será suficiente?

“Si usted mira cualquiera de las adquisiciones, hay una integración bastante detallada e involucrada [plan] que comenzamos a crear entre el proceso de firma, luego a través de parientes y aplicación inmediatamente después del cierre,” Jon Lin, Equinix VP de desarrollo corporativo y estrategia, tiene conocimiento del centro de datos en una entrevista. Este proceso de integración incluye la imagen de los sitios ‘armonización’ del producto adquirido con el resto de la cartera, evaluar la infraestructura e identificar las inversiones necesarias para cumplir con las normas Equinix sitios. “Que todos se considerará como parte de la línea de tiempo.”

el período de plena integración podría consumir 16 a 18 meses, se sentía, durante que 250 empleados sitios adquiridos – que se unirá a Equinix – necesario para mantener los antiguos clientes de Verizon por entonces.

para más detalles sobre el caso sí mismo : por qué los centros de datos de Equinix para $3 .6B Verizon comercial

en la conferencia telefónica, un analista preguntaban cómo Equinix podrán retirar una integración de tal alcance, que incluye una extensión de su presencia en el Brasil y entró en un nuevo país, Colombia, dado que él es todavía la integración de los últimos activos europeos adquirieron activos de Telecityand japonés recientemente adquirida ¿Bit-Isle?

Smith dijo que el caso de Verizon estará dirigido hacia arriba por el Presidente de la empresa para las Américas, Karl Strohmeyer, que no está conectada con las otras dos áreas de operación y que es libre dar atención a la integración en América del norte y el sur.

“vamos a pasar muy rápidamente,” dijo la Sra. Smith. “Karl tiene un plan bien detallado de este asunto y se mueve muy rápidamente en paralelo con las otras dos adquisiciones. Es muy digerible para nosotros. “

Equinix anunció el acuerdo de Telecity en mayo 2015 y Bit-isla siguiente septiembre. Ambos eran todos-adquisición de empresas, mientras que el caso de Verizon es más que un “carve-out” como ejecutivos Equinix, que según Strohmeyer, es una distinción importante.

” en general, compramos una sociedad completa con todos los sistemas, servicios, soporte, infraestructura ”, dijo durante la llamada. En el caso de Verizon, “compramos a activos ellos mismos – y por supuesto clientes activos y fuentes de ingresos relacionadas con estos clientes, así como los operadores de datos centros de ellos mismos”. Es un activo de plugin para el modelo actual en las Américas hoy. “

en respuesta a otra pregunta del analista acerca de cómo sería la empresa” equino-IZE’ activo, Stromeyer reiteró que su equipo hizo el respeto necesario para que ex Terremark activos eran tan alta calidad como Verizon había estado promocionando sus y encontró “nada de interés”.

es de destacar que las dos integraciones grandes están aún en curso. ¿Ella se convirtió en todo simplemente un hecho de hacer negocios en este sector que a nivel de proveedor de Equinix Data Center debe hacer una adquisición importante cada año o tan sólo para permanecer competitivos y por lo tanto permanecen en un estado perpetuo de la integración de los activos?

“Yo no diría así”, dijo Lin. “Creo que estamos bastante medidas en el mercado oportunidades de crecimiento inorgánico. Pero sin duda basado en orgánicos, son cómodos y confiado con el plan que tenemos en el lugar. Evidentemente evaluamos oportunidades como vienen, y si creemos que existe la posibilidad de crear valor – donde veremos sin duda en este caso, ya que tenemos con el resto de las transacciones – evaluarlo y mirar para hacer una transacción. “

cPanel y Comodo Team Up AutoSSL traen a clientes


Safety computer digital data code background vector illustration with closed padlock in shield icon.

cPanel y Comodo anunció el lanzamiento de la integración de encriptación SSL automatizado el jueves para atacar el 90 por ciento de todos los sitios Web que no la tienen. Las empresas silenciosamente comenzaron el despliegue de AutoSSL en noviembre y consiguieron 240 000 sitios Web por día, para llegar a 5,8 millones de certificados emitidos.

AutoSSL es una función de automatización para cPanel y WHM versión 60 y posteriores, que detecta e implementa certificados SSL de dominio válida (DV) de cPanel en todos los sitios web, conexiones y terminales en el servidor, según el anuncio. También automáticamente renueva certificados caducados. El servicio ya está disponible generalmente a activos de cPanel dominios 72 millones.

‘ ofrecemos la encriptación certificado cPanel dominio validado sin cargos adicionales al costo de nuestro software porque creemos que es tan importante garantizar la internet, “cPanel CEO J. Nick Koston dijo en un comunicado. “Nuestro objetivo es ayudar a construir una internet más segura y hacer que suceda, les deseamos a todos nuestros clientes existentes para permitir la AutoSSL. Animamos a cualquier persona que no está usando cPanel & WHM 60 o más adelante, pasar o actualiza para aprovechar las ventajas de la AutoSSL. “

otras organizaciones están presionando para la adopción general de cifrado SSL incluyen nos encriptará, que comenzó a ofrecer certificados gratuitos a los clientes de motor de WP en octubre. AWS también ha lanzado una herramienta para simplificar y automatizar la implementación de certificado SSL gratis este año.

sobre las discusiones en el foro

¿Desea que su ISP para su privacidad? Puede venir en un costo


Comcast presentó un argumento (PDF) esta semana con la FCC para obligar a los usuarios de banda ancha más compensar los costes para preservar su intimidad. La FCC está considerando nuevas normas para protección de la privacidad de los clientes de telecomunicaciones de banda ancha y otros servicios , que requerirían a los ISPs a revelar qué información se controla y se vende, por lo tanto proporcionar un medio para que los usuarios a optar por este seguimiento.

los anunciantes se han quejado de que los consumidores podrían encontrarse con menos protecciones de privacidad mientras se mueve grandes volúmenes de contenido detrás de muros de pago, mientras que los defensores del consumidor han argumentado que reglas propuestas simplemente para mover la FCC más cerca para una mayor protección de los consumidores de privacidad tienen derecho a bajo la regulación de la FTC antes de que el servicio banda ancha proveedores han sido reclasificados como portadores para los efectos del Reglamento el año pasado.

leer más: FCC abra reglas de Internet confirmadas en la Corte Federal

“para el intercambio de información para el servicio negociado es perfectamente aceptable y ampliamente utilizado en toda la economía nos modelo, incluyendo el ecosistema de Internet y se ajusta a décadas de precedente legal y los objetivos estratégicos relacionados con la protección de los consumidores y protección de datos personales”. “Comcast escribió a la FCC. La empresa de publicidad también que bloqueando su plan «perjudicaría a los consumidores, entre otros, de las ofertas de bajo precio.»

en & T ya utiliza este modelo los usuarios de sus una dependientes de banda ancha gigabit $30 (o más) el módulo a renunciar a un programa de supervisión llamado, sin ninguna ironía evidente en el material promocional, “Preferencias de Internet”.

en el informe más reciente que tiene su vuelta de la Electronic Frontier Foundation (EFF), que mide las prácticas de privacidad de grandes empresas de internet y proveedores de servicios, Comcast ha ganado tres de cinco estrellas posibles. El informe recomienda que Comcast adopta un consolidado alrededor de política permitiendo a los usuarios a cuenta de las solicitudes de datos del gobierno.

How Multacom Does Colocation


Kia Jahangiri is an affable tech genius who greets me at the Multacom office, data center and NOC complex in the heart of downtown L.A.’s internet core. As we get to know one another while I’m sipping my coffee in his office he asks me to excuse the stacks of 1 U servers and switches ringing his desk. It becomes apparent that this isn’t your typical colocation and data center complex where you may encounter a front office manager, some sales offices with people in smart suits, and conference rooms in a neat array shielding you from the tech side of the house. In fact, there are no office managers or sales staff at Multacom. It’s pretty much 100 percent engineers – and it shows.

The buzz in the office is around laptops and larger desktop screens running everything from data center analytics to network connectivity stats to custom, purpose-built DDoS mitigation and network optimization software. Written specifically for the ultra-custom configured data center operations of Multacom by partner Ken Joostens, I’m encouraged by Jahangiri, Multacom CEO, to have a look at the sophisticated nature of the program. “Take a look at this,” he says; there’s more tech gliding by the screen than the opening sequence of The Matrix and due to my less than herculean programming skills – I’m a bit lost. “Don’t tell anybody about this stuff, it’s a huge competitive advantage.” Well I’m thinking that it ain’t gonna be a problem as I couldn’t possibly digest enough of the code to even begin to explain it to anyone else. But I fake it pretty well, “Oh yeah – that’s the shit.”

I’m feeling a bit more comfortable as we go through the first of Multacom’s four downtown data centers. Having been through hundreds of data centers across the US and Europe I’m thinking I’ve seen it all – or at least most of it. Raised flooring? Check. UPSs? Check. Liebert units? Check. FM-200 fire suppression? Check. Racks and racks of cool sleek black cabinets with blinking lights? No. That’s because each of the individual server setups at Multacom are a marriage of technology, hardware, engineering and artistry. Every customer’s setup looking oddly different in dimensions, form factors, and connectivity sitting naked out in the open to uniquely match the precise engineering specifications required for that particular job. It’s more like walking through a high tech art exhibit than a data center.

IMG_6994-1

Kia Jahangiri, CEO of Multacom

So who on earth needs this kind of crazy custom data center engineering? A ton of cool companies it turns out. Case in point – a company named Shoutbomb, which operates a software service that allows libraries to send SMS messages to all text message enabled phones. Shoubomb founder, George Quaye, explains why uptime is critical to the company’s success: “We are a small growing company providing a text notification solution and uninterrupted connectivity is crucial. We are intimately integrated with our customers to allow access to their information 24×7. We have developed our solution to be very fault tolerant, however, our experience with Multacom has shown their network to be continuously available, therefore minimizing the work involved in cleaning up after a network outage. As a growing company, each new customer is allocated a fixed set of resources on our server and because of the server infrastructure we can count on adding a lot of new customers before the need to scale up.”

So Jahangiri is the real deal. We’re going through all the data centers and he’s beaming, showing me the tech goodies that make each data center unique and redundancy in power and cooling for each facility. But his big heart comes out when we talk about the customers first, and then his plans with his son that weekend (something to do with off-roading in the desert). Quaye relates the following regarding the customer relationship, ”To be honest, we do not have to think about Multacom, because we trust them as a partner. The services they provide are in-line with our needs.”

So what exactly does Multacom do so well? Engineering and hands-on service – those are their keys to success. They offer what you would expect in a great colocation and data center provider, like the ability to connect to multiple backbone providers in order to scale internet connectivity. Plus, Multacom’s network topology design also includes massive peering with over 200 other network providers worldwide. However, this company is all about “never go down” redundancy.

One unfortunate threat that all providers face is the inevitability of a DDoS attack. If you have been around hosting for very long, then you know that denial of service attacks are a constant source of irritation. Multacom has taken an engineered approach to this important matter as well – they wrote their own custom software to both detect and deal with DDoS attacks. While the details are proprietary, the effect is enormous. Engineers are alerted and action taken the moment any unusual activity is detected. This is often within mere seconds of any malicious attack occurring. In addition, their network optimization software is custom written in-house. It is an approach that errs on the side of ‘N+1’ or higher redundancy model for everything. That includes items that most data centers would settle on – like the cooling system from the chillers to the HVAC unit’s having redundancy.

The company adheres to a strict training regimen (lasting up to a full year) prior to that employee being fully vetted to work solo on a customer’s account. That’s up to 365 days of training prior to touching customer’s data, connectivity or hardware. Mind you, these are not individuals fresh off the street – these are skilled technologists with degrees and experience gained elsewhere who are painstakingly apprenticed to ensure they are conducting business as Multacom sees fit.

Jahangiri explained why this process is so important, ”It is not enough to have knowledge of the technology in use, you have to get very familiar with the setup we have and it is even more important to us that the technical staff understand our way of doing things. Most are surprised at how different the process can be between providers and we can’t risk any negative impact to our clients.”

Here’s something else I found interesting: the way that obsolete data is treated with dedicated server service they offer. When a server is retired or drive removed from use for any reason there may be data left on a drive that is related to customers. The drive is wiped, then the drive is physically destroyed. Is all of this necessary for every bit of customer data? Maybe not, but all data seems to be treated as critical by Multacom.

The typical customer for this colo firm is tech savvy. Customers describe themselves as ‘no frills’ and they are clearly looking for real value in a colocation provider. Not simply the lowest cost vendor – but one that provides a true tech team and engineering approach to deliver each and every client’s solution. Multacom’s customers are looking for an audited vendor as well; Multacom maintains SOC Type 2 reports from Independent Service Auditor’s on Controls Relevant to Security and Availability.

SOC 2 is a comprehensive audit which tests and reports on the design (Type I) and operating (Type II) effectiveness of a service organization’s controls. The core principles of the audit follow ‘Trust Principles’ which are:

Security – The system is protected against unauthorized access (both physical and logical).
Availability – The system is available for operation and use as committed or agreed.
Processing Integrity – System processing is complete, accurate, timely, and authorized.
Confidentiality – Information designated as confidential is protected as committed or agreed.
Privacy – Personal information is collected, used, retained, disclosed and destroyed in conformity with the commitments in the entity’s privacy notice and with criteria set forth in Generally Accepted Privacy Principles issued by the AICPA and CICA.

How does that translate into value for customers? Vision Online provides federal, state and local agencies a wide array of services, among them: database architecting, software development, server security hardening, intrusion countermeasures and Department of Defense Orange Book C5 level secure hosting. Needless to say, bulletproof colocation and connectivity is critical to their operations. Darrell Benvenuto with Vision mentioned that ”uninterrupted connectivity is absolutely essential” and noted that, “the platform is only one part of the puzzle, but if it is unreliable, it would greatly harm the venture.”

Some final mentions from the SOC 2 report – the data center facilities are constantly monitored by digital surveillance video camera systems and access to and movement within the data center facilities is controlled and restricted via a badge access control and biometric identification system. Additionally, building management provides 24 hours per day on-site presence of security officers and field engineers who are responsible for providing physical security services for the multi- tenant office facility and data center infrastructure maintenance and support services, respectively.

Data center cooling and power infrastructure provides redundant services in either a 2(N+1) or N+1 configuration. Agreements are in place with third party specialists to provide regular preventative maintenance inspections of data center infrastructure including the fire detection and suppression, cooling, and power supply equipment to help ensure proper functioning.

The real DNA of Multacom is evidenced by the people on-site and behind the scenes who are constantly thinking about only how to serve their customers better and how to serve data to the internet in a “never go down” manner.