Informe: Empresas Plan refuerzo AWS pasar ven positivo nube rey


las empresas planean incrementar su gasto para los servicios AWS cloud nativos, este año, según un informe publicado el jueves por reloj 2. El informe muestra que la mayoría de las empresas ha adoptado la nube pública (71%), pero para diferentes beneficios y uso una gama de enfoques para implementar los servicios de nube pública.

casi la mitad de las empresas encuestadas (48%) planea gastar por lo menos 10 por ciento más en Kinesis Amazon, Amazon Redshift, Aurora Amazon, Amazon DynamoDB y Alexa de AWS en 2017, como lo hicieron en el año 2016, y dos tercios dijeron que tienen o pronto llegará a su esperado retorno de la inversión (ROI) de su uso.

2 º ejecutivos watch entrevistada en los empleados de las empresas norteamericanas por lo menos 1.000 en AWS nativos servicios del informe en la nube. Encontró que 35 por ciento planea gastar 10 a 20 por ciento más sobre los servicios en 2017, entonces un plan de 13 por ciento adicional del 21 al 30 por ciento más.

Vea también: servicios Web de Amazon cabeza cosecha de Jassy $ 35,4 millones para 2016

la motivación más común para aumentar el gasto en servicios en la nube indígenas es la capacidad de aumentar los ingresos (31%), según el informe, seguida por la posibilidad de menores costos (24%), la capacidad de ofrecer el mejor servicio al cliente (22%) y más rápido time-to-market para productos y servicios (20%).

«los resultados de la encuesta son coherentes con lo que vemos y oímos de nuestros clientes. Hacen nuevas inversiones en los servicios de estas nubes nativos como recompensa por inversiones anteriores aparecen, y están buscando nuevas maneras de crear valor y sobriedad, “Jeff Aden, Vicepresidente Ejecutivo de marketing estratégico desarrollo de negocios y fundador que 2 Watch dijo en un comunicado. “En cuanto a los desafíos, las empresas más grandes seguirá buscan apoyo de proveedores principales que son expertos en la nube pública y tienen la experiencia de la migración y la gestión de los gastos de la empresa”.

Vea también: cómo Amazon advierte interrupciones de Datacenter como Delta $150 M colapso

las ventas y el marketing tienen más probabilidades de beneficiarse de nuevos servicios de acuerdo con 32 por ciento de los encuestados, seguidos por el servicio al cliente (19%) y desarrollo de productos (18%). Le preguntó cómo sería implementar nuevos servicios, 29 dice que invertir en la base de datos y tecnología de almacenamiento, 27% inversión en software para soportar nuevos servicios, y el 26 por ciento sería agregar servidores y equipo de red.

treinta y cuatro por ciento de los encuestados dicen falta de conocimientos técnicos internos es el principal obstáculo para la nueva implementación de servicios de computación en nube y 36% planea utilizar un tercero para su ejecución. Falta de recursos presupuestarios es el pared del 28 por ciento de las empresas, y falta de apoyo es la pared en la parte superior de la página 21 por ciento.

Vea también: migración de AWS competencia comienza con decenas de socios

AWS ha trabajado para fomentar habilidades técnicas relacionadas con la nube pública y sus servicios en la nube nativa, incluyendo la expansión de su programa AWS educan en octubre.

2 º reloj es socio entrega de migración AWS habilidad migración programa anunciado en junio por la AWS.

Centro de datos de falla de enfriamiento altera Azure Cloud en Japón


, presentado por el conocimiento de centros de datos

una larga lista de Microsoft Azure mal servicios en la nube trabajó durante horas el viernes para un subconjunto de los clientes que utilizan servicios alojados en un Data Center de Microsoft en Japón debido a una falla de enfriamiento.

los clientes tenían problemas de conexión a los recursos que explotan la infraestructura de almacenamiento de información en la región es de Japón, según una actualización sobre el estado de sitio azul.

Véase también: informe: las empresas de U.K. imperturbable por la falta de habilidades de la nube, a pesar de evidencia no ha ir lejos

‘ ingenieros han identificado subyacente como causa pérdida de refrigeración, que causó algunos recursos a someterse a una parada automática para evitar el sobrecalentamiento y asegurar integridad de datos y capacidad de recuperación, “la página de estado Lee mediodía hora del Pacífico.

, mientras que el fracaso más la nube año consecutivo hasta ahora – el colapso de servicio de almacenamiento de Amazon Web Services finales de febrero – fue causado por un comando mal escrito, hoy en el Japón incidente sirve como un recordatorio de la naturaleza de las nubes extremadamente físico.

Vea también: Microsoft sondas falla causa de la Web Global

fallos relacionados con la refrigeración de centros de datos son comunes, pero no tan comunes como los problemas de infraestructura eléctrica. Fallo de alimentación siempre fue reportado como el centro de datos más común causar en encuestas periódicas por el Ponemon Institute, encargada por la compañía anteriormente conocida como Emerson Network Power (ahora conocido como Vertiv).

los problemas comenzaron aproximadamente 7:00 Pacífico y continuó en la tarde como ingenieros azul ha trabajado para restaurar sistemas.

tanto virtual y equipos de almacenamiento de información se han visto afectados, así como muchos servicios, como aplicaciones Web, backup, HDInsight, piedra angular y la nube de recuperación en un sitio.

Microsoft Azure lanzó su Japón región está alojada en un data center en la Prefectura de Saitama y su región en el oeste de Japón, alojado en un datacenter en la Prefectura de Osaka, en el año 2014.

Aquí está los servicios de infraestructura, aplicaciones sus clientes están usando


Web hosting web presencia y servicios son utilizados por más de la mitad de ella decisiones, pero menos organizaciones planea utilizar este año, según un informe publicado el miércoles.

el informe de 127 páginas publicado esta semana por Microsoft y 451 investigación en conjunto con el Microsoft Cloud y acoger Cumbre, excavaciones en la perspectiva del cliente en la nube y servicios gestionados, y uso las tendencias alrededor de servicios de infraestructura y servicios de aplicaciones hospedadas.

uno de los interesante para llevar en el informe, que puede descargar en su totalidad aquí, es Qué infraestructura servicios de decisión makers planean utilizar en el próximo año en comparación con lo que estaban haciendo en el año 2016.

Vea también: Microsoft Wants para ayudar a Victoria del MSPs en la era de la hybrid Cloud y transformación Digital

el año pasado, el 66 por ciento de los encuestados han utilizado hosting de sitio Web básico, 64% utilizadas alojados en nube privada, 63% utilizaban servidores dedicados, 63% han optado por la nube pública/IaaS y bare metal servidores fueron usados 37 por ciento de los encuestados.

¿cuál es en la tienda para 2017? Se utilizará la nube privada alojada en un 66% de los encuestados, 61% utilizan servidores dedicados, 60 por ciento utilizará la nube pública/IaaS, 53 por ciento utiliza hosting de sitio Web básico y 39 por ciento utilizará desnudos metal servidores.

en el lado de las cosas de aplicaciones hospedadas, el año pasado a organizaciones de la mayoría de los encuestados utiliza almacenamiento de archivos, presencia en la web y hospedaje Web, base de datos y almacenamiento de datos, correo electrónico, colaboración y productividad y aplicaciones de CRM. Sitio web de este año y hosting presencia cae al 49 por ciento de 55 por ciento, mientras que las aplicaciones sociales y el uso de aplicaciones de e-commerce crece.

las conclusiones del informe vienen como líquido Web ha encontrado que cerca de profesionales de la web depende de 4 de los 5 espera que se convertirán en más dependientes de las tecnologías web y la nube durante los próximos cinco años.

Vea también: nube en 2017 – él podría conseguir desigual

Luchas de Whitman de HPE cambie a un tamaño menor, nube presión


(Bloomberg)–Meg Whitman Hewlett Packard Enterprise Co., que ha trabajado para transformar la sociedad en un proveedor de tecnología en la empresa más eficaz, debe ser molesto por el aumento de los costos de alimentación y rivales agresivos de las nubes.

Whitman jueves cortar la empresa ajustada ganancias para el actual año fiscal, falta de estimaciones de analistas. Al mismo tiempo, el Enterprise de Hewlett Packard anunció que pierda las proyecciones para el tercer trimestre consecutivo. Aunque citando dificultades independientes de su voluntad, Whitman dijo que presionó demasiado Marcos mientras que las versiones de proveedor de tecnología de información de empresas de bajo rendimiento y encuentran nuevas oportunidades de crecimiento.

“‘ gente nueva, nuevos puestos de trabajo, las presiones del mercado y separación – y sólo podríamos ha sobrecargado las tropas un poco aquí,” dijo el gerente general en una entrevista. ” Ir más lejos, “me siento muy bien en la estrategia, y tenemos la energía a través de materias primas y divisas y poner a todo el mundo se establecieron en la nueva empresa.

Véase también: informe: Cloud infraestructura ingreso material al alcance $70 b en 2016

y estrechamiento de la empresa para hacerla más ágil, Whitman peleas en el aumento de la competencia de proveedores de tecnología de cloud computing que permite acceder a energía clientes sin tener que comprar sus propios servidores e instalaciones de almacenamiento de la computadora. Ella ha adquirido empresas para el crecimiento, pero está luchando contra rivales como Amazon.com Inc., que ingresos de nube salta 47 por ciento en último trimestre y Microsoft Corp., que informó ventas casi se han duplicado su producto cloud.

ganancia, excepto algunos artículos será 41 a 45 centavos por acción durante el trimestre, la empresa con sede en Palo Alto, California, en un comunicado. Analistas espera 47 centavos, según datos compilados por Bloomberg. La compañía también ha reducido su anual hasta $ 1,88 a $ 1,98 por acción. Analistas estimaron $2,03.

extendido después de la hora a $24,66 en Nueva York comercio tanto acciones bajaron 6.7 por ciento.

ingresos disminuyeron 10 por ciento a $ 11,4 billones en el trimestre finalizado el 31 de enero, en comparación con un promedio de analistas de proyección de $ 12,07 billones. Ventas en el grupo clave de negocio, que incluye servidores y equipos de almacenaje – cayeron 12 por ciento a $ 6,3 billones. La compañía reportó una caída de 9% en el trimestre anterior y de 8 por ciento en el período antes de.

en la unidad de negocio, ventas de servidores cayeron 12 por ciento respecto al año anterior mientras que los ingresos de almacenamiento disminuyeron 13 por ciento. Ventas de redes cayeron 33 por ciento.

la compañía citó fluctuaciones de la moneda, aumento de los precios de los productos en artículos tales como chips de memoria para servidores y “cuestiones de ejecución a corto plazo” en la reducción de su previsión. Además, Whitman dijo que las ventas de tecnología de hardware fue frustrado por un cliente que es un servicio proveedor nivel 1, una referencia a un público de la empresa de cloud. Ella no identifica al cliente.

“han disminuido considerablemente sus compras debajo de compromisos ydar había hecho para nosotros”, dijo en una conferencia telefónica con analistas.

compañía cambios

Whitman, dijo que la sociedad ha rediseñado el grupo empresarial para centrarse más en obtener información adicional de tecnología híbrida y servicios que incorporan la nube.

, mientras que los cambios eran importantes para el éxito en el futuro, es mucho para que la organización para manejar, dijo.

este año, Hewlett Packard Enterprise debe concluir dos contratos de varios millones de dólares en 2016. En septiembre, la empresa dijo era salida en enjambre y la fusión de algunos activos del software en un acuerdo con base en el Reino Unido desde Micro Focus International Plc. Última puede, HPE dijo combinaría sus servicios informáticos con la división de Computer Sciences Corp.

al mismo tiempo, HPE ha sido comprar otras compañías, incluyendo Niara Inc., que utiliza análisis de datos y aprendizaje de máquina para encontrar amenazas a la seguridad. Fueron divulgados los términos del acuerdo de Niara. La compañía también anunció planes este mes pasado para adquirir el crucero de la nube, que ayuda a las empresas a gestionar los activos de la tecnología. Recientemente, gastó unos $ 650 millones en el fabricante de equipo de tecnología Simplivity.

HPE reportó ganancias trimestrales, antes de que elementos de 45 centavos por acción, en comparación con la media de previsiones de analistas de 44 centavos, según datos compilados por Bloomberg. Ingresos netos fueron de $ 267 millones, o 16 centavos por acción, poco cambió de $ 267 millones, o 15 centavos, un año antes.

A Cloud for the Artificial Mind: This Data Center is Designed for Deep Learning


Brought to you by Data Center Knowledge

While we mostly hear about Artificial Intelligence systems like IBM’s Watson, which won Jeopardy! six years ago, Google’s AlphaGo, which won a game of Go in a match with the ancient Chinese game’s human world champion last year, or Carnegie Mellon’s Libratus, which last month beat one of the world’s top poker players, many computer scientists around the world are working on AI systems that will never appear in the news.

Over the last five years or so, Machine Learning, a type of AI, has been a quickly rising tide that’s now starting to permeate nearly every corner of technology. From self-driving cars to online advertising, cybersecurity, and video surveillance, companies are training computers to do many of the things human workers have been doing but better, or at least cheaper.

Neural networks, computer systems that aim to simulate the way neurons are interconnected in the human brain, are trained to do these tasks the same way babies learn about the world – by observation, repetition, trial, and error, assisted instead of parents by computer scientists – although babies are still much, much better at it. A neural net learns to understand spoken language, for example, by listening to a lot of recorded speech, such as movie dialogue; it learns to identify objects by looking at tons of images. When it makes an error, that data is fed back into the net, which makes fewer and fewer errors with every cycle.

Training is the most resource-intensive computing workload in the machine learning development process. The explosion of deep learning software development (deep learning is the most widespread machine learning technique) is driving a growing need for specialized computing infrastructure, geared for the types of workloads required to train neural nets. These computers are similar to high-performance computing (HPC) systems scientists use and as such require lots of power and cooling capacity from the data centers that host them.

The Artificial Mind is Power-Hungry

Seeing a business opportunity in this trend, a Poway, California-based company called Cirrascale recently pivoted from being a high-performance hardware vendor and cloud service provider to being a specialist in designing and hosting compute infrastructure for deep learning. In addition to selling the high-octane hardware, the company uses its data center outside of San Diego to provide this infrastructure as a service, somewhat similar to the way Amazon Web Services provides its cloud servers but with a few key differences.

“These types of boxes are very powerful,” David Driggers, the company’s CEO and founder, said in an interview with Data Center Knowledge. Because they have a lot of computing muscle, they are extremely power-hungry. Unlike AWS, which provides virtual server instances, Cirrascale’s deep learning cloud is a bare-metal cloud service. You get a dedicated high-performance box (or several) to run whatever software you need on it.

Driggers said many of his customers doing machine learning development work are new to the world of high-performance computing. It’s not trivial to set up, manage, and cool an HPC cluster, and they are happy to offload that problem to someone who understands it.

Cirrascale’s data center is designed to provide power densities north of 30 kW per rack (power density in an ordinary enterprise data center is 3 to 5 kW per rack, rarely exceeding 10 kW). “That’s a lot of wattage,” Driggers said. “Doing that part of it is hard, and we’re not charging a huge premium for that.”

<– A cabinet housing Cirrascale’s bare-metal cloud platform in the company’s data center outside of San Diego (Photo: Cirrascale)

To cool that kind of density, the data center uses a proprietary liquid cooling system developed by ScaleMatrix, which owns and operates the Cirrascale data center. Instead of cool air traveling from front to back of the IT equipment (as it does in most data centers), the system pushes air with extremely high velocity from bottom to top, exhausting warm air at the top of the server cabinet. Each cabinet is a closed environment and has its own water supply and air circulation system, which ensures neighboring cabinets don’t affect each other’s temperature.

After many years of building high-performance computing systems, Cirrascale – whose previous incarnation was Verari Systems, the HPC hardware and data center container vendor that went bust in 2009 – has felt at home in the deep learning space, which it entered two years ago. “We’ve been doing 30 kW for well over 10 years, so we’re comfortable with standing up high-performance computing,” Driggers said.

Linking the Virtual Neurons

HPC systems and systems used to train deep neural networks are built using fairly similar architectures. Driggers believes that as the latter matures and starts to scale, its architecture is going to look more and more like that of the former.

The workhorse in this architecture is the GPU, or, more accurately, a group of GPUs networked together, computing in parallel. A single Cirrascale server for deep learning packs up to eight Tesla GPUs by NVIDIA (currently the GPU leader in deep learning), working in concert with an Intel Xeon CPU. Its most powerful cloud system has eight dual-GPU accelerators, being in effect a 16-GPU server, which you can rent for about $7,500 per month.

Cirrascale’s GX8 Series server with eight of NVIDIA’s Tesla GPUs, a deep learning workhorse (Photo: Cirrascale)

Cirrascale’s single most important innovation, its technological crown jewel, is a special way of interconnecting GPUs in a single system. Called PCIe Switch Riser, it enables any GPU to talk directly to any other GPU on the motherboard at maximum bandwidth, helping both performance and scalability.

DGX-1, NVIDIA’s own supercomputer designed specifically for deep learning, is configured in a similar way, Driggers said. The chipmaker’s GPU interconnection technology is called NVLink. He conceded that if you need “absolute cutting edge,” you should go with the NVIDIA box. But, if you can tolerate 15 percent lower performance while paying half the price, Cirrascale has a comparable system with the same NVIDIA P100 GPUs, he said. It sells the DGX-1 as well.

A look inside NVIDIA’s DGX-1 supercomputer, the “absolute cutting edge” in deep learning hardware (Photo: Yevgeniy Sverdlik)

Startup Solving for Common Sense

While a lot is written about deep learning today, few companies are actually using the technology in production. Hyperscale cloud operators like Google and Facebook are applying it in many of their user-facing features, but most of the companies working in the field are still in development stages, and that’s true for the majority of Cirrascale’s cloud customers, who are writing algorithms and learning to scale their deep learning applications to handle larger data sets.

Today, each of these customers is taking a handful of nodes, a small subset of what Driggers believes they will eventually need. As they grow and their applications mature, he anticipates the preferred infrastructure model will be hybrid, combining private and public cloud.

One customer already using a hybrid set-up is Twenty Billion Neurons, or twentybn. The Berlin-based startup with a research lab in Toronto was founded a years ago by a group of academics who believe that the dominant neural-net training technique for some of the most promising applications, such as self-driving cars, is flawed and already ripe for disruption.

Instead of using still images to train neural nets to identify objects, the dominant approach, twentybn uses video. “Our mission is to teach machines to perceive and understand the world,” Roland Memisevic, the company’s chief scientist and one of its co-founders, said in an interview. Memisevic is a professor at the influential Montreal Institute of Learning Algorithms and a former doctorate student of Geoffrey Hinton, a key figure in the development of deep learning as we know it today.

That the world is three-dimensional; that there’s gravity; that an object has permanent features and can get from point A to point B only by moving – concepts a human being has a firm grasp of by the time she reaches three – are things that are extremely difficult for a machine to understand by looking at still images, Memisevic explained, adding that there’s strong scientific reason to believe that the only way it can gain that understanding is through video.

Twentybn has paid an army of internet users to shoot more than 60,000 short video clips of themselves doing simple things like throwing objects against walls, dropping objects, or picking them up, videos “generated to reflect things that we want the network to learn,” he said. The company is using these and synthesized videos to train its neural networks with the goal of selling custom AI solutions for autonomous vehicles and video surveillance.

Twentybn uses Cirrascale’s GPU-packed bare-metal cloud servers to train its neural nets but also keeps its own computing cluster in-house, at its lab in Toronto, to handle the massive amount of synthesized video it generates.

A Post-GPU Future?

Memisevic believes technologies that improve communication between GPUs, like the cloud provider’s Switch Riser, are going to be indispensable in the future, as neural networks get bigger and bigger. However, it’s unclear at the moment what the best way to harness a lot of GPUs will be over time; today there are several approaches.

Because what we’re witnessing is just the beginning of what is expected to drive the next technological revolution, there is still a lot of unknowns about the kind of computing and data center infrastructure machine learning or other types of AI will ultimately require. “We looked around for every company like mine that has to find a way to harness GPUs to train networks, and we have been and are still exploring multiple directions toward using those GPUs,” Memisevic said.

Using hybrid cloud was a strategic decision twentybn made precisely because of the uncertainty of what its future computing needs may be. It’s putting two ponies in the race, and one of them is a rental. Even GPUs themselves may eventually be replaced by something that simulates neural nets better and more efficiently, he said. Today’s brute-force approach to making these networks more powerful by plugging in more GPUs is farm from ideal.

In fact, he is convinced there will be a better alternative. After all, the human brain is a lot more powerful than a GPU cluster while using a tiny fraction of energy and occupying a tiny fraction of space than the cluster does. “Right now we’re scaling, scaling, scaling; and that’s going to grow,” he said. “Demand for high-power computation on GPUs is unfortunately going to grow over the years. GPUs, as compared to brains, use ridiculously large amounts of electricity; there could be something so much better that uses so much less power.”

Como la nube expande a adopción, lucha de Canadá empresas con seguridad: informe


más de tres cuartas partes de las organizaciones canadienses sienten no abordan la seguridad en la nube, según un estudio publicado jueves por el ÚLTIMO Consejo de decisión escalares.

el informe, móvil en la cadena de valor: Qué podemos aprender de los usuarios experimentados nube, muestra que la seguridad sigue siendo la principal preocupación para organizaciones de todos los niveles de experiencia después de la adopción de la nube.

IDC entrevistado 355 canadienses quienes toman las decisiones ALLÍ en agosto y septiembre para el estudio, incluyendo dos quintas partes de las organizaciones sólo en sitio. Respuestas han demostrado que una mayoría o cerca de la mayoría de las organizaciones canadienses no han adoptado la clasificación de la información y rendición de cuentas (54%), protección del cliente y punto final (57%), gestión de identidades y acceso (48%) y el control de nivel de aplicación (59%).

LEER MÁS: box ofrece almacenamiento en la nube localizadas para Australia, Canadá

, los resultados sugieren que la seguridad es una preocupación importante, pero no un obstáculo para la adopción de la nube, como las cargas de trabajo basados en una nube en cuestión se esperan aumentar de 31 a 35% desde el año próximo y el 41% en tres años con presupuesto aumenta el correspondiente sobre. Neil Bunn, Director de tecnología escalar decisiones ve una desconexión entre las preocupaciones de los organismos de seguridad de la nube y las acciones que están tomando para enfrentarlos.

“nube beneficios y valor de negocio se convierten en progresivamente más sofisticados como la experiencia de las organizaciones con los aumentos de la nube,” dijo Bunn. “Mira una seguridad en la nube y la adopción de la nube como conceptos inseparables, junto con inversión en un proceso de cumple con optimización continua el modelo de experiencia de Cloud es clave para el éxito en un mercado en rápida evolución nube basada en servicios y capacidades”.

VEA TAMBIÉN: flotante nube adopción Plan donde más del gobierno datos almacenados dentro de las fronteras de Canadá

un estudio realizado por Trustwave a principios de este año, que incluía los entrevistados desde el Canadá, los Estados Unidos, Reino Unido, Australia y Singapur han mostrado que más de tres cuartos de los profesionales de la seguridad se sienten obligados a desvelar proyectos hasta que estén totalmente seguros. En septiembre, un informe de Kaspersky mostró que 77 por ciento de las empresas estadounidenses y multinacionales un poco más, han experimentado incidentes de seguridad durante el año pasado.

Nuevo centro de datos eficiencia estándar de ASHRAE es hacia fuera: esto es lo que necesita saber


datacenterknowledgelogo presentado por el centro de datos conocimiento

ASHRAE (American Society of Heating, fundados y aire acondicionados ingenieros) ha lanzado la versión final de su nivel de eficiencia del centro de datos, reconocer las características únicas del centro de datos significan que es difícil de medir por el mismo conjunto de normas que otros tipos de construcción como lo han sido hasta ahora.

el estándar ASHRAE 90.4, pretendía asegurar que los centros de datos más ineficientes son los que no cumplen, la organización dijo en un comunicado. Sus autores utilizaron una “regla del 80/20” para definir requerimientos de performance, que significa que sólo las instalaciones por debajo del percentil 20 no les cumplirían.

como se esperaba, el estándar no utiliza de apesta, o poder utilizar efectividad, para medir la eficiencia de centros de datos. Uno de sus proyectos anteriores, sugirió utilizar el diseño apesta, ASHRAE concepto creado para medir la eficacia de diseño [19459007systemeselectriquesetmecaniquesdel’instalación] . Es diferente de apesta, eficiencias de centro comúnmente métricas de datos crearon por The Green Grid y utilizado para medir la eficiencia , no diseño de eficiencia.

Vea también: el sector de centro de datos tiene un problema: muchos hombres

en versiones posteriores, el Comité de trabajo en el curso estándar ha cambiado, sustitución, apesta y su reemplazo por dos métricas más granulares, similares a apesta al concepto, pero cada uno enfoca su propia parte de la infraestructura: componentes de carga mecánica o MLC y componente de pérdida de energía o ELC. Estas son las métricas que en la norma oficial publican esta semana.

también existe una ruta alternativa de cumplimiento de normas, que permite al compromiso entre los dos. Si su infraestructura de enfriamiento es tan eficiente que compensa para un sistema eléctrico menos eficiente, por ejemplo, puede elegir este camino alternativo a su cumplimiento.

normas ASHRAE no están bien, y la organización es la no conformidad. Sin embargo, los funcionarios locales de la construcción dependen de ellos en gran medida, lo que permite las inspecciones y así incluso si son sólo recomendaciones, pueden tener consecuencias costosas y perjudiciales para proyectos de construcción o mejora de los centros de datos costosos y complejos.

leer más: informe: Beijing prohíbe centros de datos con alta apesta

ahora que 90.4 de ASHRAE es hacia fuera, la organización se esforzará por eliminar un centros de datos estándar de rendimiento mayores de 90,1 estándar, que cubre casi todos los tipos de edificios.

90.4 fue publicado no significa que se encuentra en la piedra. El estándar está en un “proceso de mantenimiento continuo”, que significa que puede cambiar a través del mecanismo de los aditivos de ASHRAE.

la energía 4-2016, 90, estándar de costo estándar para los datos de centros , es $89 para los miembros ASHRAE y $105 para los no miembros. A pedido, visite www.ashrae.org/bookstore o contacte al centro de contacto en el 1-800-527-4723 (Canadá y Estados Unidos) o 404-636-8400 (mundial) cliente ASHRAE o fax 678-539-2129.

Cuenta regresiva HostingCon Global 2016: nuevas tendencias en seguridad de aplicaciones Web


la cuenta regresiva para 2016 Global HostingCon en Nueva Orleans es en cinco días para que la industria del alojamiento y la nube aterriza en el Ernest N. Morial Convention Center. La educación es uno de los aspectos claves de la Conferencia de HostingCon y con tantas sesiones de excelentes y oportunidades de aprendizaje, que queríamos pasar la próxima semana, que ofrece una vista previa de nuestros lectores que están presentes en HostingCon.

sin duda, ha sido un año interesante para la ciberseguridad y mientras que en muchos aspectos, las amenazas de seguridad se han vuelto más complicadas, los proveedores de servicios tienen un tiempo más fácil hablar con los clientes sobre la importancia de la seguridad debido a las crecientes soluciones de conciencia.

el año pasado, han surgido varias tendencias, pero que sale a SiteLock Presidente y orador HostingCon Neill pen es que los atacantes comienzan más agresivamente comienza a pequeñas empresas públicas y medio – que son a su vez a sus proveedores de hosting de asistencia para mitigar estas amenazas.

“Estamos empezando a ver más conciencia sobre el problema de estas pequeñas y medianas empresas, y creo que una de las cosas buenas de una perspectiva de comunidad de acogida existe tracción mucho más de los clientes finales para asegurar que su sitio es seguro, y piden más productos para ayudarles a hacer esto” pluma “dijo”.

SiteLock proporciona soluciones de seguridad de sitio Web y socios para llevar estas soluciones para acabar con los clientes, proveedores de alojamiento web. Pluma dijo que este año ha sido un año de crecimiento para la compañía, que tuvo que trasladarse a las oficinas a Scottsdale para hacer frente a sus 150 empleados. SiteLock protege actualmente aproximadamente 8 millones sitios Web.

sesión HostingCon el lunes 25 de julio en 9:00, pluma compartirá investigaciones sobre “eficiencia en el uso de herramientas tradicionales en relación con las herramientas diseñadas para ayudar a proteger las aplicaciones web y darles un poco de una vista sobre por qué es importante usar la herramienta adecuada para el trabajo adecuado.”

“más allá de lo que queremos mostrar algunos de los avances que hicimos autour a ser más proactivos en la identificación de los riesgos para un sitio Web antes de un compromiso,” dijo.

“tan pronto como hay una vulnerabilidad o un compromiso, están en la conversación más negativa con los clientes. Queremos permitir que nuestro hosting con socios más de una conversación proactiva y tenemos algunos productos en el trabajo para ayudar a ellos, “dijo. ¿

está interesado en otros temas de seguridad? Ver el calendario completo de HostingCon aprender cuál es la mejor mitigar ataques DDoS, mira qué paisaje criptográfico como hoy y el impacto de las regulaciones del gobierno en su negocio.

8 ideas sobre inversión en realmente excelente servicio al cliente


en su nuevo libro, “abrazar a sus enemigos: Cómo aceptar las quejas y mantener a sus clientes”, Jay Baer dice que “odian no es su problema… ignorante es. ”

estoy de acuerdo! Según un estudio exclusivo grande, 80% de las empresas encuestadas dicen ofrecen servicio excepcional al cliente, pero sólo ocho por ciento de sus clientes de acuerdo. Entonces ¿por qué esta enorme brecha entre el reclamante y la crítica?

, yo diría muchas veces el demandante parece han solucionado el problema técnico, pero la experiencia del cliente era tan mala que el cliente termina por odiar el proveedor de todos modos. Muchas personas que se encuentran en la escritura crítica diría que querían más que una solución; querían ser apoyado sobre una persona.

en base a mi experiencia, tiene ocho ideas sobre cómo construir un equipo excepcional de servicio al cliente que crea raving fans y cinco estrellas Comentarios.

A apoyo llamada es una oportunidad
cada llamada de soporte al cliente es una oportunidad para construir una relación. Minutos en el teléfono con el agente debe contener una mezcla de saber exactamente cómo solucionar el problema (jurisdicción), se compadece con las desventajas del problema (la humanidad) y la velocidad a la que se resuelve el problema. Porque los comentarios son tan fáciles de hacer, simplemente tire tu teléfono móvil en tiempo real, negocios deben ser particularmente conscientes de la calidad de la interacción entre el cliente y el agente de asistencia.

“la gente no puede recordar exactamente lo que hiciste o lo que dices, pero siempre recordarán cómo los hiciste sentir,” paráfrasis de varios autores.

obtiene el derecho a la compensación

a menudo se pregunta por qué representantes de servicio al cliente están entre los más bajos pagados a varios proveedores de servicio. La dura realidad es que su personal de apoyo es portavoz público para su empresa. Su remuneración debe ser proporcional para obtener la mejor gente, que posiblemente puede pagar para cada nivel de cliente de servicios de la organización.

recordar Cuánto cuesta para ganar un nuevo cliente, la próxima vez que está dispuestos a mano el cliente fuera a un competidor por servicio deficiente al cliente.

Además, pensando en el PR como no sólo el trabajo del Departamento de marketing o al director general. Estimular y recompensar a los miembros del equipo servicio al cliente para abrir una cuenta de Twitter y publicar cosas interesantes que su aprendizaje o ver pasar en sociedad (por supuesto, tienes que asegúrese de tener un medio de comunicación social en la estrategia de primer lugar).

poner su mejor gente en sus roles apoyo más importantes.

Alquiler de un pueblo de ‘Personas’

no puedo insisto suficientemente la importancia de contratar a “gente” a los roles de cara al cliente. Tony Hsieh de Zappos es famoso por decir “las personas se refieren a personas, no empresas no. ” Contratar a personas que pueden ser apasionado sobre el tema de cuidar de los clientes y que realmente disfrutan de trabajar para la compañía. Animar a la gente para hacer negocios personales.

potenciar el representante

confianza en sí mismo para pensar en nombre de la empresa y mejorar la experiencia del cliente. A SimpleSignal, dio a mis gerentes apoyo el poder de gastar dinero en el lugar para hacer las cosas para sentirse con el cliente. Hacemos las cosas como pago para una entrega de pizza por la noche a un cliente que tenía una difícil después de horas de instalado.

dar una @# $!

la manera correcta de pensar en servicio al cliente es considerar a cada cliente como un VIP. ¿Cómo una llamada a atención al cliente sería diferente si el representante sabía que hablaban de Johnny Depp en el teléfono? ¿Por qué el cuidado amable que fue dado a Johnny y ser diferente con cualquier otro cliente?

formar, entrenar y capacitar a algunos más

el conocimiento es poder. Dan a sus representantes permanentes de servicio de formación en proveedores de tecnología invita a actualizar y actualizar cualquier información del producto trimestral. Esto puede durar desde media hora hasta medio día y no olvidar y tomar el tiempo para enseñar sus valores culturales y gente así.

Invest que expertos adiestrarlos en cómo tomar la desgracia de los clientes y ponerlos al revés.

hacer una cantidad grande de buenas críticas

reconocer públicamente las personas que son ejemplos increíble servicio al cliente. Ejemplos de este tipo son infecciosos de una manera inspiradora. Contar historias de éxito a menudo y muy fuerte en sus reuniones de negocios.

hacer una cantidad más grande de sus malos comentarios sobre

, aunque los comentarios buenos son lo que vivimos, recuerde que una mala crítica, dice Jay Baer, el canario en la mina de carbón. En otras palabras, es un regalo; una manera de ver si hay un área que necesita mejorar. No olvidemos que el 95% de las personas que se sienten de la manera su mala crítica siente comentario nunca en una forma que se puede ver. Así que agradecido por el 5% que están dispuesto a compartir sus experiencias malas en sus comentarios. Abrazar a tus enemigos!

fue mi ocho ideas a tener en cuenta como usted evaluar su estrategia de servicio al cliente. Tomamos esto en serio. Es realmente la piedra angular de su negocio. Es más importante que cualquier otra cosa que se puede hacer en las semanas y meses por venir. Y aquí un último Consejo. Tómese el tiempo para hacer una evaluación honesta de su equipo de atención al cliente. Llamar al azar a algunos clientes que abren tickets de soporte y ver cómo pensaban que había sido lanzado el llamamiento. Encontré una hora a hacer el mes que fue tiempo bien gastado.

unirse a mí en HostingCon en 24 al 27 de julio para más ideas sobre temas de gestión en mi sesión, “la cultura come estrategia para el desayuno” y la velocidad de mesas de gestión.