Google, IBM, otros no abren estándar para servidor Cloud diseño


datacenterknowledgelogo presentado por el centro de datos conocimiento

un grupo de gigantes de la tecnología trabajando para montar un desafío serio a Intel en el centro de datos, en escuchar un próximo estándar abierto de interconexión de componentes en un servidor, se posiciona como una alternativa a la tecnología de Intel.

el grupo incluye Google, proveedores de hardware IBM y empresa de HP, Dell, EMC, así como sus rivales más directo para Intel AMD y NVIDIA, entre otros. Próximos procesadores Power9 de IBM, se espera lanzar el año próximo, apoyará el estándar así como los servidores de IBM que se alimentan.

Intel ahora domina el mercado de chips de servidor y ampliados los datos centro operadores como Google, que gastan mucho dinero en hardware sobre una base trimestral, quieren una alternativa viable. Generalmente han adoptado una estrategia de múltiples proveedores para casi todos los componentes de su infraestructura, pero es difícil de extender esta estrategia a los procesadores dado el tamaño del plomo de Intel en el mercado.

OpenCAPI y Power9 se dirigen en el extremo superior del mercado de servidores, ordenadores utilizados para cargas de trabajo analíticos en el aprendizaje de datos o la máquina. El grupo dice que la norma podrá llevar 10 veces el rendimiento del servidor.

mejorar el rendimiento para venir como resultado de dos cosas: un mayor ancho de banda en los enlaces entre los procesadores y aceleradores y coherencia de caché, que significa datos deben mezclarse, dentro del sistema, como se procesa, ahorro de recursos en consecuencia.

aceleradores o procesadores adicionales que caben en una parte de la carga de trabajo del procesador para liberar los recursos, han sido un pilar en el mundo de las supercomputadoras durante años, pero ahora está creciendo su papel en la arquitectura de servidor para centros de datos de nube y aprendizaje de la máquina para el campo está emergiendo rápidamente. “El cálculo del modelo en el futuro es el matrimonio entre un procesador muy bueno centrado en datos, como la energía y una serie muy buena de tecnologías de aceleración,” Doug Balog, gerente general de IBM Power Systems, dijo en una entrevista con el conocimiento del centro de datos.

más aceleradores en uso hoy en día son GPU, hecho por personas como AMD y Nvidia y algunos son Intel Xeon Phi, pero también ha habido incremento del uso de FPGA o campo – matrices de puerta programables, como aceleradores. La ventaja de la FPGA es que puede ser reconfigurados como una carga de trabajo necesita un cambio.

Intel ha invertido pesadamente en la FPGA el año pasado, pagando $ 16,7 billones para adquirir el especialista en FPGA Altera. El usuario más de la FPGA acelerar las cargas de trabajo de nube es Microsoft, cuyo diseño servidor última generación cloud es compatible con la tecnología.

Vea también : AMD llega a acuerdo con Alibaba de chips para uso en servicio en la nube

en este punto, no está claro qué tipo de arquitectura que dominan el mercado para el equipo del aprender de máquina. Hay diferentes opiniones sobre esto hoy en día, con empresas como Nvidia apoyo a servidores de aceleración GPU AI Intel, diciendo que el modelo no es escalable, lanzamiento de la próxima generación de sus procesadores Xeon Phi – llamado molino de caballeros y debería llegar al mercado el año que viene – como la mejor alternativa.

servidores de Amazon en la nube para cargas de datos grandes, incluyendo aprendizaje, dependiente de la GPU y esto, de la máquina grande Sur, server diseño OpenSource de Facebook para las cargas de la MISMA.

Vea también : por qué sin fines de lucro su último superordenador de NVIDIA Elon Musk buena

Google ha diseñado su propio chip modificado para requisitos particulares para máquinas de aprendizaje, llamado tensor unidad de procesamiento. La empresa no divulgó detalles sobre la arquitectura de TPU, diciendo sólo que es un ASIC (circuito integrado de aplicación específica) y está optimizado para TensorFlow, su biblioteca de software abren aplicaciones source para TENER.

Google también está trabajando en un diseño de servidor de rack, que se ejecuta en procesadores IBM Power9 y con una interfaz OpenCAPI. Las empresas han lanzado la primera versión de la especificación de servidor Zaius, que pretenden contribuir a Open Compute Project hoy.

OpenCAPI el Consorcio tiene un jugador FPGA entre sus miembros, además al servidor y vendedores GPU. San José – base Xilinx planea apoyar OpenCAPI compatible con FPGAs, según anuncio del viernes.

IBM acelerador estrategia ha sido apoyar la más amplia una gama de opciones posibles. Su chip de Power8 actual Soporta NVIDIA GPU de NVLink tecnología, y por lo tanto Power9, Balog dijo.