Nube Google anticipa un crecimiento que el aprender de máquina con GPU


Google trae fichas unidad (GPU) en su motor de cálculo y el aprendizaje de máquina nube para impulsar tareas exigentes rendimiento como prestados de procesamiento de gráficos y simulaciones de computadora a gran escala. GPU estará disponible en la plataforma Google Cloud, en todo el mundo por principios 2017, según el anuncio hecho esta semana.

en un anuncio separado el martes, la compañía anunció una nueva nube grupo de aprendizaje de máquina, y una serie de movimientos asociados con el aprender de máquina e inteligencia artificial.

Google ha presentado sus nuevos trabajos de API Cloud, que aplica el aprender de máquina para el proceso de contratación, así como el precio de su API de visión de las nubes y una prima de su traducción API Cloud edition (anteriormente Google Translate) redujo significativamente.  Un blog que describe las actualizaciones de aprendizaje de máquina de Google también anuncia la disponibilidad general de la API de la nube de lenguaje natural.

anuncios colectivamente representan un gran impulso no sólo para ampliar su servicios de computación en nube, pero proporcionar servicios prácticos construidos sobre ellos. GPU se usa como aceleradores en un montón de nubes, AWS Peer1, aunque los actores de la industria participan en un debate en curso sobre la eficacia relativa de los diferentes enfoques y escalabilidad.

Google dijo que la GPU en su nube será AMD pantalones demasiado S9300 x 2 para los puestos de trabajo a distancia y la P100 K80s NVIDIA Tesla Tesla para cálculo aplicaciones de alto rendimiento (HPC), TIENEN y profundo aprendizaje. Google ofrece que el modo GPU en passthrough para rendimiento de metal desnudo y hasta 8 puede conectarse a cada instancia VM.

“estas nuevas instancias de GPU en la nube de Google ofrecen ventajas de rendimiento extraordinario en sistemas comparables basados en la CPU y subrayan el punto de inflexión que vemos en la computación hoy en día,” dijo Todd Mostak, fundador y CEO de comienzo de la exploración de datos MapD, que utiliza como parte de un programa de acceso temprano. «Usando consultas estándar en todos los datos análisis línea 1,2 billones NYC los taxis, encontramos que Google única instancia n1-highmem-32 con 8 conjunto K80 muere en promedio es 85 veces más rápido que el Impala ejecutando en un clúster de 6 nudos de cada uno con 32 vCPUs.» Además, la innovadora configuración de almacenamiento SSD vía NVME más ha reducido el tiempo de carga de frío por un factor de cinco. Esta actuación ofrece enorme flexibilidad para las empresas interesadas en velocidad a más milisegundos millones líneas. “

instancias GPU toman minutos para la puesta en marcha de Google nube de consola o la gcloud línea de comandos y son por minuto.

plataforma Google Cloud también amplió su alcance geográfico este mes con una nueva área de Tokio.