Cientos de modelo de switch Cisco vulnerable a Hack de la CIA divulgados por Wikileaks


presentado por datos del centro de conocimiento

más de 300 modelos de Cisco los interruptores son vulnerables a un fallo en la mina de oro de CIA presunto hacking herramientas WikiLeaks difundido este mes.

cisco ha revelado la vulnerabilidad en un aviso publicado el viernes, registro principalmente productos de sus gamas de catalizador y Ethernet industrial. La lista incluye no Nexus datos centro interruptores.

Vea también: WikiLeaks Ayude a empresas de tecnología de parche las vulnerabilidades

es vulnerabilidades en IOS de Cisco y Cisco IOS XE forma sistemas operativos tratan código de protocolo de administración de Cluster. CMP se utiliza para administrar los grupos de interruptores y utilizar el protocolo Telnet para la comunicación entre los switches en un clúster.

según Cisco, opciones específicas a la CMP no se limitan a comunicaciones internas, locales entre los miembros del clúster y no hay vulnerabilidad. Un conmutador compatible con Telnet puede accederse en cualquier conexión Telnet.

el segundo factor que hace que los interruptores vulnerables es “opciones de tratamiento para Telnet CMP específico incorrecto incorrecto.»

“un atacante podría aprovechar esta vulnerabilidad enviando malformados CMP Telnet opciones específicas estableciendo una sesión Telnet con un dispositivo de Cisco afectado configurado para aceptar conexiones de Telnet”, dice Asesor de Cisco. «Una hazaña podría permitir a un atacante ejecutar código arbitrario y conseguir el control total de la unidad o causar una recarga del dispositivo afectado.»

Vea también: piratas intentan aprovechar la vulnerabilidad crítica Apache Struts

no hay actualmente ningún software de desbloqueo fija, Cisco dijo, recomendando que los usuarios desactivar el protocolo Telnet para las conexiones entrantes prevenir la vulnerabilidad de explotación en sus redes.

descubierta vulnerabilidad cisco al analizar documentos llamados revelaciones 7 bóveda de WikiLeaks. No hay ningún indicio de que la vulnerabilidad ha sido utilizada por la CIA o alguien fuera de la Agencia.

WikiLeaks reclama la liberación de bóveda 7 es “el más grande siempre la publicación de documentos confidenciales de la Agencia.” El primer lote de documentos, ha publicado, llamado “Año cero” contiene 8 761 los documentos y archivos “una red aislada, máxima seguridad situado en el centro de la CIA para ciber inteligencia en Langley, Virginia.

la organización se dice que han recibido la “colección” de un “ex piratas del gobierno de Estados Unidos y empresarios”, entre los cuales él había sido distribuido de manera no autorizada.

¿Google puede atraer a otras empresas dentro de sus centros de datos?


diseñado para usted por el conocimiento de centro de datos

Google ha pasado la mayor parte de la semana las ventajas a las empresas que son mejores apagado moviendo no sólo de sus propios centros de datos y en la nube, pero que la nube era una mejor opción que las nubes de sus mayores rivales en el mercado Amazon y Microsoft, han construido.

en una conferencia en San Francisco, la filial del alfabeto anunció una miríada de nuevos productos en la gama de servicios de nube pública (de la nube de la infraestructura en herramientas de office), ha llevado a cabo un importante costo a los clientes que se comprometen a utilizar la nube a largo plazo, marcharon varios recientemente vendido a clientes corporativos (incluyendo algunos peso pesado como Verizon y HSBC), manuales hasta sus esfuerzos para hacer que su nube de servicios de mercado a través de socios y promociona el poder de su global de datos centro de red.

Véase también: Google amplía planes de centro de datos Cloud dice Hardware, conectividad de liderazgo

entre todos los actores en el espacio de la nube corporativa, Google es un caso muy especial. Mientras que es probablemente el más grande en el mundo y la nube más potente, no ha construido para proporcionar el tipo de servicios, realmente quiere ahora crecer. La infraestructura fue construida para apoyar sus actividades de base, que son esencialmente anuncios a los usuarios de sus servicios de consumo libre, como búsqueda y YouTube.

, es sin duda más fácil adoptar una red de centros de datos de nube de negocio que crear uno desde cero y la empresa ha hecho sólo en la medida de lo posible, pero no ha dado centro huella a través de un proveedor de nube hyper-echelle verdaderamente debe competir con los gustos de Amazon Web Services y Microsoft Azure. El resultado es que la empresa con la nube más grande del mundo tiene una nube mucho más pequeños que sus dos principales competidores hacen para proporcionar nube de servicios de la compañía, incluso si se paga mucho dinero para captura de antes – unos $ 10 billones al año – y la adición de nuevas localizaciones rápidamente.

Además, porque Google fue construido en gran parte alrededor de su actividad de publicidad en línea, también arrastre otros pesos pesados en la capacidad para vender negocios y ayudar en el despliegue de lo que si necesitan para implementar en su nube. Microsoft ha estado en el negocio, espacio desde la creación de la empresa, mientras que una miríada de consultores y proveedores de servicios administrados han aparecido sobre los años para ayudar a las empresas a utilizar AWS. Google ha hecho mejoras allí también, y anuncios de la expansión de lo partner del programa esta semana han sido su mayor paso en esa dirección, sin embargo.

otra cosa obvia que hace Google un caso particular es única y con enfoque hacia el futuro, a la tecnología. Este pionero de la datos hyper centro diseño, infraestructura, enfriamiento y fuente de alimentación para servidores y switches de red. La compañía ha trabajado con Intel para personalizar cada generación de procesadores de servidores Intel para satisfacer sus necesidades de más de una década y ha participado en el desarrollo del servidor construido en los últimos chips de arquitectura Skylake Intel desde el principio. Ya ha actualizado varios de sus centros de datos de nube con nuevos chips y este será un tiempo antes de cualquier otro proveedor de la nube o proveedor de servidores podrá poner sus manos sobre la parte.

Google también ha sido una fuerza impulsora importante en el aumento de profundidad de aprendizaje, un tipo de Inteligencia Artificial y ha sido por delante de los demás en términos de uso de aprendizaje profundo en producción por sus servicios a los consumidores. Ahora, aprendizaje profundo es su mensaje central de la diferenciación en el espacio de la nube corporativa. Él quiere que las empresas a consumir sus tecnologías del aprendizaje profundo a través de API, como servicios en la nube.

hoy en día, Google es “el tercer caballo en una carrera de caballos dos, pero bien podría convertirse en una raza de caballo de tres,” Michael Warrilow, VP en la firma de investigación Gartner, tiene conocimiento del centro de datos en una entrevista. “Son todas las cosas buenas”. El gran reto para Google se vuelve más favorable para la empresa que ha sido. “Son toda la compañía, pero son respetuosos de la empresa? ‘” “Y la respuesta es, todavía es un trabajo en progreso”.

A Cloud for the Artificial Mind: This Data Center is Designed for Deep Learning


Brought to you by Data Center Knowledge

While we mostly hear about Artificial Intelligence systems like IBM’s Watson, which won Jeopardy! six years ago, Google’s AlphaGo, which won a game of Go in a match with the ancient Chinese game’s human world champion last year, or Carnegie Mellon’s Libratus, which last month beat one of the world’s top poker players, many computer scientists around the world are working on AI systems that will never appear in the news.

Over the last five years or so, Machine Learning, a type of AI, has been a quickly rising tide that’s now starting to permeate nearly every corner of technology. From self-driving cars to online advertising, cybersecurity, and video surveillance, companies are training computers to do many of the things human workers have been doing but better, or at least cheaper.

Neural networks, computer systems that aim to simulate the way neurons are interconnected in the human brain, are trained to do these tasks the same way babies learn about the world – by observation, repetition, trial, and error, assisted instead of parents by computer scientists – although babies are still much, much better at it. A neural net learns to understand spoken language, for example, by listening to a lot of recorded speech, such as movie dialogue; it learns to identify objects by looking at tons of images. When it makes an error, that data is fed back into the net, which makes fewer and fewer errors with every cycle.

Training is the most resource-intensive computing workload in the machine learning development process. The explosion of deep learning software development (deep learning is the most widespread machine learning technique) is driving a growing need for specialized computing infrastructure, geared for the types of workloads required to train neural nets. These computers are similar to high-performance computing (HPC) systems scientists use and as such require lots of power and cooling capacity from the data centers that host them.

The Artificial Mind is Power-Hungry

Seeing a business opportunity in this trend, a Poway, California-based company called Cirrascale recently pivoted from being a high-performance hardware vendor and cloud service provider to being a specialist in designing and hosting compute infrastructure for deep learning. In addition to selling the high-octane hardware, the company uses its data center outside of San Diego to provide this infrastructure as a service, somewhat similar to the way Amazon Web Services provides its cloud servers but with a few key differences.

“These types of boxes are very powerful,” David Driggers, the company’s CEO and founder, said in an interview with Data Center Knowledge. Because they have a lot of computing muscle, they are extremely power-hungry. Unlike AWS, which provides virtual server instances, Cirrascale’s deep learning cloud is a bare-metal cloud service. You get a dedicated high-performance box (or several) to run whatever software you need on it.

Driggers said many of his customers doing machine learning development work are new to the world of high-performance computing. It’s not trivial to set up, manage, and cool an HPC cluster, and they are happy to offload that problem to someone who understands it.

Cirrascale’s data center is designed to provide power densities north of 30 kW per rack (power density in an ordinary enterprise data center is 3 to 5 kW per rack, rarely exceeding 10 kW). “That’s a lot of wattage,” Driggers said. “Doing that part of it is hard, and we’re not charging a huge premium for that.”

<– A cabinet housing Cirrascale’s bare-metal cloud platform in the company’s data center outside of San Diego (Photo: Cirrascale)

To cool that kind of density, the data center uses a proprietary liquid cooling system developed by ScaleMatrix, which owns and operates the Cirrascale data center. Instead of cool air traveling from front to back of the IT equipment (as it does in most data centers), the system pushes air with extremely high velocity from bottom to top, exhausting warm air at the top of the server cabinet. Each cabinet is a closed environment and has its own water supply and air circulation system, which ensures neighboring cabinets don’t affect each other’s temperature.

After many years of building high-performance computing systems, Cirrascale – whose previous incarnation was Verari Systems, the HPC hardware and data center container vendor that went bust in 2009 – has felt at home in the deep learning space, which it entered two years ago. “We’ve been doing 30 kW for well over 10 years, so we’re comfortable with standing up high-performance computing,” Driggers said.

Linking the Virtual Neurons

HPC systems and systems used to train deep neural networks are built using fairly similar architectures. Driggers believes that as the latter matures and starts to scale, its architecture is going to look more and more like that of the former.

The workhorse in this architecture is the GPU, or, more accurately, a group of GPUs networked together, computing in parallel. A single Cirrascale server for deep learning packs up to eight Tesla GPUs by NVIDIA (currently the GPU leader in deep learning), working in concert with an Intel Xeon CPU. Its most powerful cloud system has eight dual-GPU accelerators, being in effect a 16-GPU server, which you can rent for about $7,500 per month.

Cirrascale’s GX8 Series server with eight of NVIDIA’s Tesla GPUs, a deep learning workhorse (Photo: Cirrascale)

Cirrascale’s single most important innovation, its technological crown jewel, is a special way of interconnecting GPUs in a single system. Called PCIe Switch Riser, it enables any GPU to talk directly to any other GPU on the motherboard at maximum bandwidth, helping both performance and scalability.

DGX-1, NVIDIA’s own supercomputer designed specifically for deep learning, is configured in a similar way, Driggers said. The chipmaker’s GPU interconnection technology is called NVLink. He conceded that if you need “absolute cutting edge,” you should go with the NVIDIA box. But, if you can tolerate 15 percent lower performance while paying half the price, Cirrascale has a comparable system with the same NVIDIA P100 GPUs, he said. It sells the DGX-1 as well.

A look inside NVIDIA’s DGX-1 supercomputer, the “absolute cutting edge” in deep learning hardware (Photo: Yevgeniy Sverdlik)

Startup Solving for Common Sense

While a lot is written about deep learning today, few companies are actually using the technology in production. Hyperscale cloud operators like Google and Facebook are applying it in many of their user-facing features, but most of the companies working in the field are still in development stages, and that’s true for the majority of Cirrascale’s cloud customers, who are writing algorithms and learning to scale their deep learning applications to handle larger data sets.

Today, each of these customers is taking a handful of nodes, a small subset of what Driggers believes they will eventually need. As they grow and their applications mature, he anticipates the preferred infrastructure model will be hybrid, combining private and public cloud.

One customer already using a hybrid set-up is Twenty Billion Neurons, or twentybn. The Berlin-based startup with a research lab in Toronto was founded a years ago by a group of academics who believe that the dominant neural-net training technique for some of the most promising applications, such as self-driving cars, is flawed and already ripe for disruption.

Instead of using still images to train neural nets to identify objects, the dominant approach, twentybn uses video. “Our mission is to teach machines to perceive and understand the world,” Roland Memisevic, the company’s chief scientist and one of its co-founders, said in an interview. Memisevic is a professor at the influential Montreal Institute of Learning Algorithms and a former doctorate student of Geoffrey Hinton, a key figure in the development of deep learning as we know it today.

That the world is three-dimensional; that there’s gravity; that an object has permanent features and can get from point A to point B only by moving – concepts a human being has a firm grasp of by the time she reaches three – are things that are extremely difficult for a machine to understand by looking at still images, Memisevic explained, adding that there’s strong scientific reason to believe that the only way it can gain that understanding is through video.

Twentybn has paid an army of internet users to shoot more than 60,000 short video clips of themselves doing simple things like throwing objects against walls, dropping objects, or picking them up, videos “generated to reflect things that we want the network to learn,” he said. The company is using these and synthesized videos to train its neural networks with the goal of selling custom AI solutions for autonomous vehicles and video surveillance.

Twentybn uses Cirrascale’s GPU-packed bare-metal cloud servers to train its neural nets but also keeps its own computing cluster in-house, at its lab in Toronto, to handle the massive amount of synthesized video it generates.

A Post-GPU Future?

Memisevic believes technologies that improve communication between GPUs, like the cloud provider’s Switch Riser, are going to be indispensable in the future, as neural networks get bigger and bigger. However, it’s unclear at the moment what the best way to harness a lot of GPUs will be over time; today there are several approaches.

Because what we’re witnessing is just the beginning of what is expected to drive the next technological revolution, there is still a lot of unknowns about the kind of computing and data center infrastructure machine learning or other types of AI will ultimately require. “We looked around for every company like mine that has to find a way to harness GPUs to train networks, and we have been and are still exploring multiple directions toward using those GPUs,” Memisevic said.

Using hybrid cloud was a strategic decision twentybn made precisely because of the uncertainty of what its future computing needs may be. It’s putting two ponies in the race, and one of them is a rental. Even GPUs themselves may eventually be replaced by something that simulates neural nets better and more efficiently, he said. Today’s brute-force approach to making these networks more powerful by plugging in more GPUs is farm from ideal.

In fact, he is convinced there will be a better alternative. After all, the human brain is a lot more powerful than a GPU cluster while using a tiny fraction of energy and occupying a tiny fraction of space than the cluster does. “Right now we’re scaling, scaling, scaling; and that’s going to grow,” he said. “Demand for high-power computation on GPUs is unfortunately going to grow over the years. GPUs, as compared to brains, use ridiculously large amounts of electricity; there could be something so much better that uses so much less power.”

Los legisladores a las autoridades de Reino Unido ganan mucho de EU en Internet espionaje medida


(Bloomberg) – reglas de U.K., obligando a las empresas de telecomunicaciones a mantener los datos del cliente durante un año como una manera de proteger la seguridad nacional viola las leyes de la Unión Europea, Tribunal Superior del bloque a.

el líder Vicepresidente partido laborista Tom Watson, con el apoyo de activistas de derechos humanos pidió a la corte de Luxemburgo para analizar la retención de datos y ley de poderes de investigación en medio de dudas sobre su conformidad con la ley europea de derechos humanos.

LEER MÁS: 5 cosas que necesita masa derecho sobre el Reino Unido control

“derecho comunitario se opone a la legislación nacional para información General y sistemática, conservación” jueces para la Tribunal Europeo de Justicia dijo en su decisión el miércoles. «Los datos, tomados en su conjunto, son responsables de permitir conclusiones muy precisas que se esperan en lo que concierne a la intimidad de las personas cuyos datos se han incluido.»

el desafío fue introducido inicialmente en el Reino Unido por legislador Watson y partido conservador David Davis y fue remitido al Tribunal Europeo por los jueces de la corte de Apelaciones. Davis fue nombrado Secretario de estado para salir de la Unión Europea tras el referéndum este año para salir del bloque. Un portavoz del Ministerio del Interior tiene no inmediatamente comentario sobre la decisión.

un tribunal especial del Reino Unido dictaminó en la intercepción a granel octubre agencias espía esta U.K. comunicaciones privadas de las personas no tienen la supervisión adecuada o coherente con los derechos humanos hasta en menos de noviembre de 2015.

VEA TAMBIÉN: FBI y la NSA está a punto de adquirir un nuevos poderes de vigilancia bajo trompeta

el mes pasado, la investigación ley de poderes, dando a las autoridades británicas poderes para mantener hacking e interceptar las comunicaciones de todo británico ciudadanos, pasó por los políticos y recibió asentimiento real.

la nueva ley ha sido criticada por activistas de derechos humanos y líder del mundo, incluyendo empresas de tecnología de Apple y Facebook Inc.

Robert Bownes, Director de comunicaciones de datos de abundancia de la sociedad de Ciencias, dijo que la decisión fue un recordatorio de que “la posición del Reino Unido sobre la protección de los datos está en completo desacuerdo con nuestros homólogos en la UE”.

“Leyes prescribiendo una retención general y sistemática los datos no requieren que existe una relación entre los datos que deben mantenerse y una amenaza a la seguridad pública”, dijo de los jueces de Luxemburgo. “Esta legislación, por tanto, excede los límites de lo estrictamente necesario y no puede justificarse en una sociedad democrática”.

1.5 Kubernetes podría traer, datos en contenedores de Metal desnudo


datacenterknowledgelogo presentado por el centro de datos conocimiento

sensación real contenedorización en el centro de datos – la tendencia que tomó fuego con llegada de Docker hace tres años, es la habilidad para desplegar los elementos de las cargas de trabajo a través de una variedad de servidores y se adapta estas implementaciones hacia arriba o hacia abajo si es necesario.  Esto es diferente de tirar consolas más de varias máquinas virtuales con su servidor integrado y sistemas operativos de gestión egocéntrico y artificialmente cargas de tráfico de equilibrio entre ellos.

que la tendencia se está extendiendo entre los centros de datos en producción, el enfoque se mueve en contenedores propios (por ejemplo, Docker, rkt CoreOS ) para los sistemas de coordinación que mantienen los despliegues de la carga de trabajo en clusters de servidores e incluso entre las nubes.  Después de una serie de retrasos menores que se han convertido en lugar común en la fuente de desarrollo abierto, Kubernetes – la plataforma de la orquestación patrocinado por Google y basado en la arquitectura interna de la propia Google – dijo esta semana un comunicado general para la versión 1.5.

, los datos de razones centro de operadores para mantener artificial entre las fronteras de las cargas de trabajo convencional, centrado en la máquina virtual y más nueva, ampliados, basado en los microservicios cargas de trabajo pueden disminuir una vez más.  En una conferencia del lunes patrocinado por industria de CoreOS, Gerente de producto de Google hace oficial esta configuración basada en la intención de que fecha la granja se ha asociado con CoreOS, Google y bare metal servidor y switch fabricante Supermicro.

su asociación por lo menos como Google y la fecha, dijo, se pretende producir un estándar alrededor de contenedores de datos persistentes – la habilidad para desplegar enormes bases de datos que mantienen estado (“stateful”), en el ambiente de microservicios aparentemente caótica, todos en la misma nube.

la participación de Supermicro pero implica una meta que parece mucho más a un producto físico: es decir configurados previamente ampliados servidores para grandes cargas de trabajo de host a enormes velocidades.  El manejo de estas cargas de trabajo sería mucho más fácil de conseguir con la nueva herramienta de configuración de despliegue de Kubernetes, llamado kubeadm (pronunciado “r-adam” “”) como el primero con la versión 1.5.

el post del blog de la compañía A Datera publicado el martes, dice que el problema planteado por la arquitectura típica microservicios, donde pequeños pedazos de datos se replican entre los miles de contenedores a la vez.  No es un sistema eficaz, y muchas organizaciones (por ejemplo, ClusterHQ) han trabajado para ofrecer alternativas.

solución hasta la fecha, pero contará con el apoyo de CoreOS, que produce la plataforma tectónica – una implementación comercial de Kubernetes.

‘ fecha ha desarrollado una nueva arquitectura de datos desde el suelo hasta la parte superior con el inquilino del kernel de desvincular la aplicación actualizada en el manejo de la infraestructura física, “escribió la empresa.  “ aplicaciones de datos no deben tener ningún conocimiento de los recursos físicos subyacentes”.  Está diseñado para entornos altamente distribuidos , puede ser implementado y administrado como el software de almacenamiento y se integra estrechamente con orquestadores moderno contenedor… a través del volumen de plugins. “

tectónica ya forma parte de algunos servidores Supermicro, entregado desde la máquina servidor, primero en colaboración con CoreOSin en la primavera de 2015.  Y tectónica tiene la bendición de Google para que lo apoyen, ya que Google ha jugado un papel decisivo en el desarrollo de la arquitectura de plugin que comentamos en el blog.

Esto hace una muy familiar para los lectores de persona muy feliz de conocimiento de centro de datos: Digital Realty.

“Yo soy un firme creyente de los contenedores,” anunció Chris Sharp, Digital Realty CTO y Vicepresidente de innovación de servidor, en una entrevista con el conocimiento del centro de datos.

“realmente libera la aplicación bloqueo de que muchas empresas han sofocado por el pasado.  El administrador de estos contenedores y la portabilidad de estas aplicaciones, es sorprendente.  Pero uno de los elementos que se pasa por alto es la interconexión entre los dos destinos.  Incluso si su carga de trabajo es en contenedores, y puede ser usado entre Amazon o Microsoft y su nube privada, las interconexiones que dependen mucho de las personas son muy prohibitivas. “

medido por Sharp, el tiempo medio entre la State of the art en el desarrollo de microservicios y su despliegue en los centros de datos, es todavía cerca de dos años.  Pero dice que ya ha enfrentado a clientes que cuentan con gran cantidad de datos contenedores, brotación en decenas de terabytes de tamaño, para quienes la conectividad ha sido un obstáculo.

por supuesto, intercambio de servicio de Digital Realty, anunció en septiembre pasado, es remedios propuestos de Sharp para el problema de conectividad.  Pero dio la bienvenida a la posibilidad de que una solución como la que se hizo posible por Kubernetes 1.5 y esta alianza ampliada, podría crear más oportunidades para que los clientes proporcionan sus cargas de trabajo más cercano a los puntos de presencia DR.

“Si se mueve una carga de 50 terabytes en un recipiente a través de Internet, es un mes”, dijo Sharp.  “No es muy elástico.  Cuando usted lo mira como un agregado, y debe evolucionar y avanzar en todas estas cosas, es donde usted necesita una conectividad de baja latencia y alta velocidad. “

IBM agrega 4 centros de datos en el Reino Unido, centrándose en servicios en la nube AI


(Bloomberg) – IBM está triplicando el número de centros de datos, tiene en el Reino Unido, fortalecimiento de una de las empresas cuentan para el crecimiento y dar un voto de confianza en la economía británica después de que el país decidió abandonar la Unión Europea.

IBM actualmente opera dos centros de datos de U.K.. Cuatro anunció el martes son además de un compromiso anterior de 2014, en el que la empresa afirma que gastaría $ 1,2 billones en 15 este tipo de instalaciones en todo el mundo. Sería atar cada centro el costo promedio de $ 80 millones. IBM se negó a revelar cuánto se gasta en el Reino Unido, o cuántas personas más tienen que contratar para ejecutar estas nuevas instalaciones.

LEER MÁS: nube por los megavatios: dentro de la estrategia de centro de datos de IBM Cloud

Gran Bretaña está abierta al público, el anuncio de ‘muestra’, dijo Matt Hancock, Ministro de estado para la cultura y la digital, en un comunicado. “Estos nuevos centros de datos de nube ayudará a nuestras empresas trabajar más inteligente y más rápida para convertirse en clase mundial del mañana.”

proyecto de IBM también coincide con el otoño declaración de presupuesto del gobierno del Reino Unido y una serie de iniciativas para fomentar la inversión en tecnología. Otras empresas de tecnología de Estados Unidos también han continuado invirtiendo en el Reino Unido, incluso después de la votación Brexit en junio. El lunes, Facebook Inc. dijo que contrató a 500 personas más en el Reino Unido, ampliar su fuerza laboral en el país en un tercio. Y este mes, Google se ha comprometido a completar un libro 1 billón ($ 1,25 billones) nuevo complejo de oficinas en Londres y contratar a miles más empleados en el Reino Unido

con sede en Armonk, Nueva York International Business Machines Corp., dijo los nuevos centros de datos especialmente le permitirán trabajar la manija para el gobierno de Reino Unido y otros clientes en industrias altamente reguladas como empresarios de la banca y de la defensa – que son más Además de la investigación para mover los datos a la nube, pero son a menudo obligados a almacenar localmente.

VEA TAMBIÉN: nube de IBM para poder Livestream de la misión de espacio de la NASA

centros cuentan con inteligencia artificial tecnología de Watson de IBM, “para satisfacer la creciente demanda,” dijo la empresa.

Thomson, el más importante del operador de viajes de Reino Unido y una unidad básica de la alemana TUI AG, es una prueba de un chatbot desarrollado por Watson ofrece a través de nubes de IBM, instalaciones informáticas. El bot permite a los clientes a solicitar sugerencias de lugares para visitar y cosas que hacer en un destino en particular.

IBM ha apostado fuertemente que puede reformular su modelo de negocio alrededor de su producto AI Watson, parte de una línea de ‘soluciones cognitivas’ de negocios que ahora representa el 22% de $ 80 billones de la sociedad de ingresos, en un momento cuando su consulta y tecnología tradicional compañía de servicios de beneficios han sido frenar. La empresa vendió $ 12,7 billones en servicios de nube en los últimos 12 meses.

los dos primeros centros de datos de U.K. nuevo serán construidos en las ciudades Inglés de Fareham y Farnborough, con la ubicación de los otros dos que dio a conocer el año próximo. Instalación de Fareham está programado para abrir el próximo mes y los cuatro nuevos centros estará operativos a finales de 2017, dijo IBM. Una vez que nuevos centros de datos, IBM tiene 16 instalaciones de este tipo en Europa y 50 en el mundo.

Informe: SaaS domina el uso de la nube en la India


nube adopción aumenta rápidamente en la India, como aproximadamente dos tercios de las organizaciones que utilizan la nube de servicios han hecho en los últimos dos años, según un estudio publicado esta semana por la Cloud Security Alliance y el proveedor de seguridad como un servicio Instasafe tecnologías. Las organizaciones tienen la de nube de seguridad del estado y la adopción en el estudio de la India en el 4 º anual Conferencia de nube seguridad Alianza APAC en Bangalore.

el informe incluye las respuestas de más de 200 CIOs en la India, 62 por ciento de ellos dijo que sus organizaciones ya utilizan servicios en la nube.

SaaS es utilizado por más del 88% de las organizaciones participantes, que de hecho la nube más común del tipo de servicio adoptada hasta ahora frente a (55%) de la IaaS y PaaS (45%). Entre el 38% que no ha adoptado los servicios en la nube, casi las tres cuartas partes son consideradas como usuarios potenciales y están en la etapa exploratoria.

LEER MÁS: informe: ejecutivos de desconexión entre ÉL y su personal SaaS seguridad pone en peligro

adopción parece ser una cabeza para muchas organizaciones, un cuarto de los informes mediante 10 o más aplicaciones de la nube y otro tercio con la ayuda de nubes de 5 y 10 aplicaciones.

los principales obstáculos en la región incluyen la falta de estándares en la industria y por supuesto, la percepción del riesgo de violaciones de seguridad de datos y pérdida. Rentabilidad estaba de hecho relacionado con la falta de estándares en la industria como los más comúnmente identificaron barrera, pero los autores del estudio parecen considerar principalmente una cuestión de conciencia.

el programa digital de la India, anunció en el 2015, pretende responder a los desafíos de la infraestructura, según el estudio, razones para ser optimistas que nube servicios seguirá creciendo en la India.

autoridad del controvertido servicio India bloqueado de bases gratis de Facebook en el país a principios de este año, decide no comercial de telecomunicaciones tipo para una penetración más rápida de internet. GoDaddy ha añadido servicios en tres idiomas para servir el mercado indio crece este verano. EDC ha predicho hace un año que la India serán los países con mayoría de los desarrolladores a nivel mundial, en 2018.

Actualizaciones en los servidores de hosting profesionales PHP


hoy, hemos actualizado un número de nuestros archivos de phpcgi incrustados en todos nuestros profesionales servidores. Phpcgi instaladores le permiten ejecutar diferentes versiones de PHP en tu sitio de hosting profesional. Esto permite a los usuarios ejecutar versiones anteriores por razones de compatibilidad, o agudo, como el recientemente publicado PHP7.

el phpcgis siguientes se han actualizado en todos los servidores de hosting profesionales:

PHP5.5 – 5.5.38
PHP5.6 PHP – PHP 5.6.24
PHP7-PHP 7.0.9

Estos son accesibles a todos los usuarios de hosting profesional a través de su panel de control. Para obtener más información sobre cómo instalar FastCGI, lea nuestro artículo en el conocimiento de la Base “Cómo instalar PHP FastCGI usando 34SP.com One-Click-Installer”.

Google, IBM, otros no abren estándar para servidor Cloud diseño


datacenterknowledgelogo presentado por el centro de datos conocimiento

un grupo de gigantes de la tecnología trabajando para montar un desafío serio a Intel en el centro de datos, en escuchar un próximo estándar abierto de interconexión de componentes en un servidor, se posiciona como una alternativa a la tecnología de Intel.

el grupo incluye Google, proveedores de hardware IBM y empresa de HP, Dell, EMC, así como sus rivales más directo para Intel AMD y NVIDIA, entre otros. Próximos procesadores Power9 de IBM, se espera lanzar el año próximo, apoyará el estándar así como los servidores de IBM que se alimentan.

Intel ahora domina el mercado de chips de servidor y ampliados los datos centro operadores como Google, que gastan mucho dinero en hardware sobre una base trimestral, quieren una alternativa viable. Generalmente han adoptado una estrategia de múltiples proveedores para casi todos los componentes de su infraestructura, pero es difícil de extender esta estrategia a los procesadores dado el tamaño del plomo de Intel en el mercado.

OpenCAPI y Power9 se dirigen en el extremo superior del mercado de servidores, ordenadores utilizados para cargas de trabajo analíticos en el aprendizaje de datos o la máquina. El grupo dice que la norma podrá llevar 10 veces el rendimiento del servidor.

mejorar el rendimiento para venir como resultado de dos cosas: un mayor ancho de banda en los enlaces entre los procesadores y aceleradores y coherencia de caché, que significa datos deben mezclarse, dentro del sistema, como se procesa, ahorro de recursos en consecuencia.

aceleradores o procesadores adicionales que caben en una parte de la carga de trabajo del procesador para liberar los recursos, han sido un pilar en el mundo de las supercomputadoras durante años, pero ahora está creciendo su papel en la arquitectura de servidor para centros de datos de nube y aprendizaje de la máquina para el campo está emergiendo rápidamente. “El cálculo del modelo en el futuro es el matrimonio entre un procesador muy bueno centrado en datos, como la energía y una serie muy buena de tecnologías de aceleración,” Doug Balog, gerente general de IBM Power Systems, dijo en una entrevista con el conocimiento del centro de datos.

más aceleradores en uso hoy en día son GPU, hecho por personas como AMD y Nvidia y algunos son Intel Xeon Phi, pero también ha habido incremento del uso de FPGA o campo – matrices de puerta programables, como aceleradores. La ventaja de la FPGA es que puede ser reconfigurados como una carga de trabajo necesita un cambio.

Intel ha invertido pesadamente en la FPGA el año pasado, pagando $ 16,7 billones para adquirir el especialista en FPGA Altera. El usuario más de la FPGA acelerar las cargas de trabajo de nube es Microsoft, cuyo diseño servidor última generación cloud es compatible con la tecnología.

Vea también : AMD llega a acuerdo con Alibaba de chips para uso en servicio en la nube

en este punto, no está claro qué tipo de arquitectura que dominan el mercado para el equipo del aprender de máquina. Hay diferentes opiniones sobre esto hoy en día, con empresas como Nvidia apoyo a servidores de aceleración GPU AI Intel, diciendo que el modelo no es escalable, lanzamiento de la próxima generación de sus procesadores Xeon Phi – llamado molino de caballeros y debería llegar al mercado el año que viene – como la mejor alternativa.

servidores de Amazon en la nube para cargas de datos grandes, incluyendo aprendizaje, dependiente de la GPU y esto, de la máquina grande Sur, server diseño OpenSource de Facebook para las cargas de la MISMA.

Vea también : por qué sin fines de lucro su último superordenador de NVIDIA Elon Musk buena

Google ha diseñado su propio chip modificado para requisitos particulares para máquinas de aprendizaje, llamado tensor unidad de procesamiento. La empresa no divulgó detalles sobre la arquitectura de TPU, diciendo sólo que es un ASIC (circuito integrado de aplicación específica) y está optimizado para TensorFlow, su biblioteca de software abren aplicaciones source para TENER.

Google también está trabajando en un diseño de servidor de rack, que se ejecuta en procesadores IBM Power9 y con una interfaz OpenCAPI. Las empresas han lanzado la primera versión de la especificación de servidor Zaius, que pretenden contribuir a Open Compute Project hoy.

OpenCAPI el Consorcio tiene un jugador FPGA entre sus miembros, además al servidor y vendedores GPU. San José – base Xilinx planea apoyar OpenCAPI compatible con FPGAs, según anuncio del viernes.

IBM acelerador estrategia ha sido apoyar la más amplia una gama de opciones posibles. Su chip de Power8 actual Soporta NVIDIA GPU de NVLink tecnología, y por lo tanto Power9, Balog dijo.

Pourquoi personne n’ouvre votre Email : 5 Email Marketing Conseils pour les propriétaires de petites entreprises


file_management

Emailing conduit et votre clientèle actuelle peut servir comme l’un des points forts dans vos efforts de marketing en cours. Comme moins qu’un an auparavant, a souligné Daniel Newman « Email n’est certainement pas mort. »

selon les références faites dans le même article, un pourcentage écrasante (plus de 70 %) des adultes interrogés aux États-Unis ont exprimé qu’ils préfèrent être contactés par des sociétés par courrier électronique – et même plus, a déclaré qu’ils apprécient obtenir des courriels promotionnels provenant d’entreprises qu’ils utilisent.

de toute évidence, emailing consommateurs est encore une pratique très viable qui permet aux entreprises de répondre aux préférences de leurs clients. Quand vous pouvez respecter une telle préférence et habiliter votre clientèle – tout en marketing votre marque et générer le trafic web – le résultat final devrait être favorable pour tous les participants.

Cependant, vous devez garder un détail crucial à l’esprit lorsque vous développez votre campagne d’email : alors que le marketing par courriel est un aspect essentiel de tendre la main et rester connecté aux clients, il ne fonctionne que lorsque vous êtes bien faire les choses. Si vous êtes en s’appuyant sur les mêmes techniques que d’innombrables autres entreprises et les particuliers (y compris les spammeurs), vous trouverez probablement que la plupart de vos emails aller non ouverte (et donc, invisible et sans réponse de votre public cible). Au lieu de répéter les erreurs de nombreux commerçants qui peuvent ont déjà irrité certains des mêmes clients que vous souhaitez atteindre, vous pourriez éviter certaines des pratiques de courriel moins efficaces et vous épargner beaucoup de temps et énergie.

1. Vous n’êtes pas demander la Permission

de la même manière que des millions de gens détestent être approché par appel à froid par les télévendeurs, qu’ils soient aptes à ignorer les e-mails « froid » et envoyer directement vers le dossier spam. Réfléchir sur les e-mails de spam combien vous sont envoyés sur une base régulière ; la plupart d’entre eux ouvrir ? Comme de nombreux professionnels de la sécurité informatique affirmera, sans y être invité e-mails sont quelques-unes des pires sources de fraude et phishing scams – et le mot a été longtemps dehors qu’en cliquant sur les liens dans ces emails (ou même en cliquant sur ce type de courrier électronique elle-même) peut exposer un réseau informatique ou unitaires PC à diverses sortes de logiciels malveillants dangereux. Vous pouvez également obtenir des ennuis juridiques si vous envoyez des emails sans le consentement explicite des destinataires, alors n’oubliez pas que vous êtes en contact avec seulement ceux qui veulent recevoir vos e-mails.

, vous pourriez utiliser plusieurs méthodes afin d’obtenir la permission d’envoyer vos emails de public visé. Voici quelques-unes que beaucoup de spécialistes du marketing ont trouvé pour être efficace :

vous offre un lien personnes peuvent utiliser pour vous inscrire aux bulletins et autres types de courriels lorsqu’ils visitent votre site Web. Les chances sont bonnes qu’un pourcentage raisonnable des personnes qui naviguent sur votre site est également intéressé par obtenir plus d’informations, qui fournira un bulletin d’information. Ils peuvent être réceptifs aux e-mails qui contiennent des rabais et autres offres spéciales, trop.

n’oubliez pas d’inciter les utilisateurs du site pour vous inscrire à votre liste d’email. Un lien qui ressemble à des millions d’autres ne sont pas aptes à se faire remarquer. La façon que vous encadrez le lien s’abonner peut faire toute la différence dans les réponses combien vous obtenez. Essayez d’utiliser des graphiques conçus pour attirer l’attention des visiteurs de la page. Les experts Color Marketing Group ont même confirmé que « couleur augmente notoriété jusqu’à 80 %. »

cela signifie qu’à l’aide des repères visuels puissants qui incluent des images en couleur pourrait être un facteur déterminant pour savoir si vous obtenez la permission d’envoyer des courriels à un grand nombre d’individus.

invite les clients actuels d’être les premiers à savoir quand vous rencontrez une vente flash ou autres promotions. En faisant clairement qu’ils auront accès à des offres spéciales en raison de leur loyauté, vous pouvez construire une liste de diffusion et de rendre vos clients de se sentir important.

Si vous avez un magasin de briques et de mortier, de fournir un endroit où les gens peuvent s’inscrire pour obtenir vos e-mails. Une simple feuille d’inscription située près de la caisse enregistreuse est un excellent endroit pour une telle liste. Vous n’avez pas besoin d’exécuter vos affaires dans un magasin physique pour y parvenir, cependant ; vous pouvez également fournir l’accès à un registre de la liste de diffusion lorsque vous êtes réseautage lors des salons et autres événements. Vous pourriez être surpris par combien d’intérêts dans votre bulletin, vous pouvez générer.

2. Votre sujet lignes sont ennuyeux

une fois que vous êtes autorisé à envoyer des emails, vous devrez créer des lignes de sujet qui inspirent les gens à les ouvrir. Simplement accepter de recevoir de courrier de votre marque n’est pas un engagement à ouvrir des e-mails quand ils arrivent. Considérons un instant les courriels combien vous pourriez recevoir au cours d’une journée ; et puis, pensez à combien de personnes vont non ouvert ou sont envoyés à la corbeille. En 2014, un site de news a signalé qu’un rapport mondial a révélé que les travailleurs avant la date de réception de plus 13 plus d’e-mails tous les jours qu’ils avaient trois ans plus tôt – et en 2018, elles pouvaient s’attendre à recevoir une moyenne de 12 e-mails par heure travaillée. Si ils reçoivent vos e-mails au travail ou par l’intermédiaire de courriels personnels, vous pouvez parier que les personnes sur votre liste de voient une abondance de courriels sur une base régulière.

, vous devrez faire vos courriels se démarquer si vous ne voulez pas leur être supprimé dès réception. Capter l’attention des destinataires de votre message consiste à personnaliser les lignes du sujet. Vous pourriez faire cela en ajoutant le nom de chaque destinataire dans la ligne objet.

Assurez-vous que vous gardez la ligne d’objet contenu facile à lire et le point (vague sous réserve des lignes, telles que « Nous sommes reconnaissants de votre entreprise, » seront probablement ignorés). Essayez de ne pas utiliser un langage qui semble comme si elle conduit à un argumentaire de vente (éviter des mots comme « acheter » ou la « vente »), mais n’hésitez pas à lancer une offre directement à partir de la ligne d’objet (comme dans, « 25 % sur votre prochain achat jusqu’à minuit demain »). Poser une question spécifique peut attirer l’attention d’un destinataire ; Si votre entreprise est un ménage entreprise de nettoyage, un exemple pourrait être : « combien de fois ne ménage vous empêche d’être avec vos enfants ? »

3. Vous ne suivez grande lignes visées avec Emails gagner

attirer l’attention des personnes sur votre liste d’email ne fera pas beaucoup pour vous si vous ne suivez pas ces lignes de sujet accrocheur avec e-mails conçus pour maintenir l’intérêt.

une fois que les destinataires se rendent compte que vos emails sont longs et fastidieux, ou n’offrent pas une valeur réelle, ils ne seront pas enclins à les ouvrir à l’avenir. Garder le corps de chaque email aussi concis que la ligne d’objet. Ne remplissez pas les courriels avec information de peluches qui ressemble à rien de plus que la publicité inutile à vos clients. Mettre au point rapidement et fournissent des informations utiles (tels que des remises spéciales ou des détails importants concernant les promotions à venir). Votre auditoire, vous apprécierez ce, et ils seront plus disposés à ouvrir des e-mails ultérieurs que vous envoyez.

4. Vous êtes pas segmenter Emails correctement (ou du tout)

segmentation démographique est un facteur clé dans l’envoi de courriels qui obtiennent les résultats souhaités. Marketing par courriel vous donne l’occasion parfaite pour faire de la publicité de manières différentes pour différentes personnes. Comme Michael Peggs dit-à l’instar de services d’hébergement de site, vous ne devriez oublier sur la mentalité de « one size fits all » lors de la commercialisation par courriel. Vous pouvez diviser votre auditoire en différents groupes selon leurs besoins et veut. Clients passés pourraient être envoyées à des prix réduits pour les mises à niveau aux achats qu’ils ont fait. Les clients potentiels qui sont inscrits à votre newsletter via les médias sociaux peuvent être envoyés informations d’introduction et de prix visant spécifiquement à leurs besoins.

5. Vous n’exécutez pas une / B Tests

Si vous n’êtes pas split-Testez vos emails, vous n’êtes pas vraiment maximiser le potentiel de courriel comme outil de marketing. Dans un article de Marketing terrain, Chris Hexton montre que la course A / B essais n’a pas besoin d’être une tâche écrasante. Une manière de tester l’efficacité des différents mails que vous testez est de demander tout simplement vos commentaires dans le corps d’un e-mail. Il propose deux exemples de cette technique (utilisé par Indeed et Amazon) qui sont simples et qui font une réponse du destinataire faciles et rapides à mettre en œuvre. M. Hexton aborde également l’importance de l’exécution split tests adaptés aux utilisateurs mobiles – comme « un énorme pourcentage » de courriels sont déjà ouverts via des appareils mobiles.

vous n’avez pas besoin d’être un lecteur de l’esprit – ou même un expert en marketing – pour motiver les clients à ouvrir votre correspondance électronique. Toutefois, si un nombre élevé de vos courriels n’est pas être ouverts par votre public, vous devriez être prêt à remplacer certains de vos stratégies actuelles avec celles qui ont fait leurs preuves pour d’autres. En faisant quelques petits changements, vous pourriez améliorer considérablement le ratio de l’emballage par rapport aux emails ouverts que vous envoyez les personnes sur votre liste.

Auteur :

Article par Jerry Low, fondateur de Web Hosting Secret révélé, notamment.