WordPress hosting ahora un 33% menos caro


desde el lanzamiento de nuestro WordPress hosting administrado plan retorno en el 2016 hemos recibido muchos comentarios. Como resultado, estamos contentos de dar a conocer nuestro plan ligeramente renovada WordPress y siempre estamos escuchando.

nuestra cuenta de WordPress básico comienza ahora £9,95 al mes . Por el precio y las características, pensamos que es el mejor WordPress hosting opción a la mano alta de Reino Unido. El plan actualizado incluye todas las características familiares que vienen con el viejo plan de £14,95:

el cambio principal en nuestro nuevo plan nivel de entrada, es que soporta sólo un sitio de WordPress en la norma. Si necesita alojar varios sitios puede actualizar el plan del campo tres (£14,95) o simplemente comprar planes adicionales de un campo como requerido. Límites de recursos modestamente se bajan demasiado como resultado del Condado de campo más bajo.

por cierto, ahora estamos empezando a oficialmente la ayuda de WordPress multisitio en todas las acciones, también! La opción está en versión beta y si usted quiere ayudarnos a patear los neumáticos y ver si les llegan, que nos conoce.

obtener WordPress Hosting desde sólo 9,95 £ al mes

Informe: Muchos gobierno federal empleados desconocen el Cloud Computing impacto


casi la mitad (40%) de federal empleados no saben si ha tenido un positivo o un impacto negativo en su departamento o agencia, según un nuevo estudio de Deloitte, destacando un gran problema, mientras que agencias gubernamentales continúan en su empuje para la consolidación de data center y la adopción de la nube de computación en la nube.

menos de uno en cuatro (24%) encuestados dijo cloud computing ha tenido un impacto positivo en su organización, según Deloitte maestro informe de migración, que cuenta con 328 empleados en más de 30 departamentos y agencias del gobierno federal.

cuarenta por ciento de los encuestados no saben si adopción nube ha ayudado o impedido su organización, y otro 31 por ciento dice ha tenido un impacto positivo o negativo. Casi todas las categorías en las que “no saben” era una respuesta disponible, era el más común.

la investigación también reveló que “levantar y mover” las estrategias fueron la principal forma de llegar a las primeras nubes políticas del gobierno federal. Sólo uno de cada cinco dijo que su organización ampliamente utilizado aplicaciones en la nube nativa (5%), o incluso aplicaciones de gestión desarrolladas para la nube (14%).

“la promesa de la nube es enorme, pero el viaje no es fácil,” Doug burgués, Director de Deloitte Consulting LLP, dijo en una declaración. “Nube de valor se logra a través de tecnología sola – es gobernanza, seguridad, gente y proceso.” Este informe confirma que la nube en las agencias federales a favor está creciendo, pero la percepción de sus efectos pueden variar ampliamente. Las organizaciones deben repensar su estrategia para ir nube nativa y los principios fundamentales del desarrollo. “

nueve por ciento de los encuestados dicen su migración nube ha tenido éxito, mientras que 41 por ciento caracterizarla como mixta, problemática o inexistente. Como de costumbre, la seguridad ha sido identificada como la mayor preocupación y un reto de la adopción de la nube, seguido por habilidades y límites de presupuesto.

una encuesta realizada el año pasado por MeriTalk reveló que 82 por ciento de los usuarios de la nube pública considera que la Agencia aumentará el gasto en cloud computing en el año 2017.

migración limitada y planes de migración incompletos identificaron tres años después de la adopción de la primera Directiva de la nube 2011 ha sido en gran parte debido a los problemas de dotación de personal y la compra de un informe de Accenture.

Cinco años más tarde, i2Coalition refleja la SOPA/PIPA 2012 ganar


hace cinco años, protección IP Act (PIPA) y detener la piratería online (SOPA) de Bill fueron derrotados, en gran parte gracias a una coalición de software de empresas que incluye muchos hosts nublan de proveedores y compañías de infraestructura de internet y servicio.

que la coalición fue también un catalizador en la creación de la coalición de la infraestructura de Internet (i2Coalition), que celebra el aniversario con una retrospectiva en su sitio de Internet del diálogo social y el cabildeo que llevó a la victoria de SOPA/PIPA.

Vea también: correo electrónico de la AP va a restablecer la confianza de la nube, dijo i2Coalition

el i2Coalition comenzó como una organización conformada por Web hosting empresas, enfocadas en los desafíos que las dos leyes, que fueron pensados para proteger la propiedad intelectual contra la piratería, pesaría sobre las pequeñas y medianas empresas para mantener su papel en la infraestructura de internet. Fue llamado en el inicio del coalición salvar alojamiento y juntar algunas web de empresas para liderar una campaña de cartas y reunirse con miembros del Congreso y la colina de personal.

por invitación de la Asociación de electrónica de consumidor (CEA), i2Coalition, Christian Dawson, así como ‘YouTube empleado #11’ Co-fundador Micah Schaffer, co-fundador de Reddit Alexis Ohanian, Leah Belsky de Kaltura, y ‘Gurú de la publicidad de Internet’ Hamish Chandra se unió a una serie de reuniones del Congreso. Reuniones con el senador Jerry Moran (R -KS) y representantes de la senadora Maria Cantwell (D -WA) llevó al grupo y senador Rand Paul (R -KY), escribió el líder de los demócratas en el Senado, Harry Reid (D -NV) a senador Ron Wyden en empujar para una demora en la votación sobre la legislación.

la campaña de concienciación llevado a cabo durante la demora resultó en día del apagón de Internet, donde miles de sitios han sido black-out’, y la coalición ha colaborado con motor para defensa ha creado una herramienta para llamar con el fin de generar una comunicación con los legisladores sobre el tema. El i2Coalition dijo que miles de llamadas se hizo pero nunca tabulados y Reid aplazó la votación de cierre de la cuenta prevista para el 24 de enero de 2012.

casa poder judicial Presidente de la Comisión Lamar Smith (R -TX) reconoció la necesidad de «amplio acuerdo sobre una solución”en un comunicado. “He escuchado algunas críticas y tomar en serio sus preocupaciones sobre el proyecto de ley para abordar el problema de la piratería en línea,” dijo Smith.

“Fue después de esta batalla política que la coalición Save alojamiento decidió convertirse en una organización permanente,” dijo de la retrospectiva. “En los últimos cinco años, han sido combates similares a este uno. El i2Coalition estaba allí para luchar contra ellos, y nos complace con una promesa a nuestros miembros y socios que estaremos allí para luchar contra la nueva. Este no es nuestro aniversario fundacional, como nuestra primera victoria sobre la legislación que le paralizan la competitividad actual de la Internet, pero es casi tan especial. Gracias a nuestros miembros para ayudar a nosotros por el camino y estamos mirando adelante para servirle en el futuro. “

lucha contra PIPA y SOPA todavía podría ser utilizado como un plan de acción en posibles conflictos futuros con los legisladores en temas como la neutralidad de la red, que los opositores de la nueva administración presidencial. La i2Coalition cabildeado con éxito para la transición de la IANA en 2016, algunos legisladores y el General de abogados del estado había intentado descarrilarlo y actualmente apoya la ley de privacidad de correo electrónico.

, usted puede leer el post completo en el sitio Web de i2Coalition.

¿Cuál será el impacto de AI e-commerce en el 2017?


dos factores que e-commerce el campo perfecto para las tecnologías de inteligencia artificial como el aprender de máquina: e-c comercio está altamente-competitivo y ganar una ventaja competitiva requiere grandes cantidades de rápido tratamiento de los datos.

muchas áreas del comercio electrónico están maduras para la innovación basado en ÉL. Cada eficiencia de mejora logística, marketing, precios y recomendaciones le da a los minoristas una ventaja competitiva. Venta por menor genera y consume monumentales volúmenes de datos de decenas de canales. En realidad, hay mucho demasiados datos para un ser humano a saber donde buscar o incluso lo que están buscando, las condiciones ideales para el aprendizaje de máquina.

el aprender de máquina es el nombre general para los métodos de análisis de datos en la que computadoras son las previsualizaciones en los datos sin que me digan exactamente donde buscar estas ideas. Algoritmos de la máquina de aprendizaje cuando son expuestos a cantidades masivas de datos, puede extraer patrones y usar estos modelos para generar ideas o predicciones de las condiciones futuras.

Cuando subes una foto de un gato para fotos de Google, él sabe que el objeto en la imagen es un gato. El código de ‘identificación de el gato’ no fue escrito por un ser humano: ha desarrollado por lo tanto para exponer un algoritmo para un montón de fotos del gato (y fotos de cosas que no son gatos).

el mismo principio puede aplicarse en muchas áreas del comercio electrónico. Por ejemplo, comerciantes de comercio electrónico llegó a ser muy buena para recomendar productos, pero todos los que tiendas en línea sabe que los motores de recomendación a menudo salen mal.

motores de recomendación se limitan porque tienen acceso a una relativamente poca información y porque eso significa que pueden “razonar” acerca de estos datos son limitados: “Personas que compraron este producto también compraron este producto” no es la mejor manera de predecir compras futuras.

el aprender de máquina ayudará a concesionarios para descubrir mejores maneras de modelar el comportamiento de los usuarios para que puedan hacer recomendaciones más específicas sobre lo que un cliente es probable que esté interesado en la compra.

superíndice aprender algoritmos máquina realmente gran cantidad de historias de compra, medios de comunicación social, web datos datos interacciones y cualquier otra cosa que podría ser relevante, comerciantes pueden construir modelos analíticos automatizados que no están limitados por la capacidad de los seres humanos a la hipótesis acerca de por qué algunas personas compran productos específicos.

no es la tecnología del futuro; ya está en el aprender de máquina y empresas como Boomtrain utilizan técnicas de aprender a construir plataformas de personalización al detalle de la máquina.

personalización dista de ser la única ventaja de aprender de máquina y otras tecnologías de inteligencia artificial. Son ya ampliamente utilizado en lucha contra el fraude , de la fuente y suministro de gestión de la cadena y precios.

en los próximos años, la aplicación de aprendizaje automático e inteligencia artificial para el comercio electrónico se convertirá en un elemento diferenciador más importante de funcionamiento de e-commerce. Los minoristas que no actúen para explotar los beneficios de la gripe aviar el riesgo de ser dejados por los primeros adoptantes que remodelan el mercado de comercio electrónico y las expectativas de los compradores.

sobre el autor

graeme Graeme Caldwell trabaja como un marketing Nexcess entrantes para , el principal proveedor de Hosting WordPress y Magento. Seguir a Nexcess en Twitter a @nexcess, como en Facebook y revisa su blog de hosting y de tecnología, https://blog.nexcess.net/ .

1.5 Kubernetes podría traer, datos en contenedores de Metal desnudo


datacenterknowledgelogo presentado por el centro de datos conocimiento

sensación real contenedorización en el centro de datos – la tendencia que tomó fuego con llegada de Docker hace tres años, es la habilidad para desplegar los elementos de las cargas de trabajo a través de una variedad de servidores y se adapta estas implementaciones hacia arriba o hacia abajo si es necesario.  Esto es diferente de tirar consolas más de varias máquinas virtuales con su servidor integrado y sistemas operativos de gestión egocéntrico y artificialmente cargas de tráfico de equilibrio entre ellos.

que la tendencia se está extendiendo entre los centros de datos en producción, el enfoque se mueve en contenedores propios (por ejemplo, Docker, rkt CoreOS ) para los sistemas de coordinación que mantienen los despliegues de la carga de trabajo en clusters de servidores e incluso entre las nubes.  Después de una serie de retrasos menores que se han convertido en lugar común en la fuente de desarrollo abierto, Kubernetes – la plataforma de la orquestación patrocinado por Google y basado en la arquitectura interna de la propia Google – dijo esta semana un comunicado general para la versión 1.5.

, los datos de razones centro de operadores para mantener artificial entre las fronteras de las cargas de trabajo convencional, centrado en la máquina virtual y más nueva, ampliados, basado en los microservicios cargas de trabajo pueden disminuir una vez más.  En una conferencia del lunes patrocinado por industria de CoreOS, Gerente de producto de Google hace oficial esta configuración basada en la intención de que fecha la granja se ha asociado con CoreOS, Google y bare metal servidor y switch fabricante Supermicro.

su asociación por lo menos como Google y la fecha, dijo, se pretende producir un estándar alrededor de contenedores de datos persistentes – la habilidad para desplegar enormes bases de datos que mantienen estado (“stateful”), en el ambiente de microservicios aparentemente caótica, todos en la misma nube.

la participación de Supermicro pero implica una meta que parece mucho más a un producto físico: es decir configurados previamente ampliados servidores para grandes cargas de trabajo de host a enormes velocidades.  El manejo de estas cargas de trabajo sería mucho más fácil de conseguir con la nueva herramienta de configuración de despliegue de Kubernetes, llamado kubeadm (pronunciado “r-adam” “”) como el primero con la versión 1.5.

el post del blog de la compañía A Datera publicado el martes, dice que el problema planteado por la arquitectura típica microservicios, donde pequeños pedazos de datos se replican entre los miles de contenedores a la vez.  No es un sistema eficaz, y muchas organizaciones (por ejemplo, ClusterHQ) han trabajado para ofrecer alternativas.

solución hasta la fecha, pero contará con el apoyo de CoreOS, que produce la plataforma tectónica – una implementación comercial de Kubernetes.

‘ fecha ha desarrollado una nueva arquitectura de datos desde el suelo hasta la parte superior con el inquilino del kernel de desvincular la aplicación actualizada en el manejo de la infraestructura física, “escribió la empresa.  “ aplicaciones de datos no deben tener ningún conocimiento de los recursos físicos subyacentes”.  Está diseñado para entornos altamente distribuidos , puede ser implementado y administrado como el software de almacenamiento y se integra estrechamente con orquestadores moderno contenedor… a través del volumen de plugins. “

tectónica ya forma parte de algunos servidores Supermicro, entregado desde la máquina servidor, primero en colaboración con CoreOSin en la primavera de 2015.  Y tectónica tiene la bendición de Google para que lo apoyen, ya que Google ha jugado un papel decisivo en el desarrollo de la arquitectura de plugin que comentamos en el blog.

Esto hace una muy familiar para los lectores de persona muy feliz de conocimiento de centro de datos: Digital Realty.

“Yo soy un firme creyente de los contenedores,” anunció Chris Sharp, Digital Realty CTO y Vicepresidente de innovación de servidor, en una entrevista con el conocimiento del centro de datos.

“realmente libera la aplicación bloqueo de que muchas empresas han sofocado por el pasado.  El administrador de estos contenedores y la portabilidad de estas aplicaciones, es sorprendente.  Pero uno de los elementos que se pasa por alto es la interconexión entre los dos destinos.  Incluso si su carga de trabajo es en contenedores, y puede ser usado entre Amazon o Microsoft y su nube privada, las interconexiones que dependen mucho de las personas son muy prohibitivas. “

medido por Sharp, el tiempo medio entre la State of the art en el desarrollo de microservicios y su despliegue en los centros de datos, es todavía cerca de dos años.  Pero dice que ya ha enfrentado a clientes que cuentan con gran cantidad de datos contenedores, brotación en decenas de terabytes de tamaño, para quienes la conectividad ha sido un obstáculo.

por supuesto, intercambio de servicio de Digital Realty, anunció en septiembre pasado, es remedios propuestos de Sharp para el problema de conectividad.  Pero dio la bienvenida a la posibilidad de que una solución como la que se hizo posible por Kubernetes 1.5 y esta alianza ampliada, podría crear más oportunidades para que los clientes proporcionan sus cargas de trabajo más cercano a los puntos de presencia DR.

“Si se mueve una carga de 50 terabytes en un recipiente a través de Internet, es un mes”, dijo Sharp.  “No es muy elástico.  Cuando usted lo mira como un agregado, y debe evolucionar y avanzar en todas estas cosas, es donde usted necesita una conectividad de baja latencia y alta velocidad. “

Líquido Web trae en experto WordPress al producto de la unidad y ha anunciado novedades


líquido Web WordPress Consultor Chris Lema se unirá a la empresa en el nuevo rol como VP de productos e innovaciones. Lema llevar más de 20 años de experiencia en el desarrollo de software, productos y más recientemente trabajó como consultor independiente de la industria.

líquido Web está desarrollando nuevos productos para complementar su negocio de hosting manejado e integración sitios Cloud, que recientemente adquirió por Rackspace. Lema, participarán en estos dos proyectos, además de trabajar con la comunidad de WordPress de la sociedad que ella apoya a más de 250.000 sitios críticos de la misión, con docenas más onboarded diariamente.

VER TAMBIÉN: líquido lanza nuevo gestionado WordPress hosting plataforma Web en WordCamp U.S.

estos esfuerzos pretenden apelar a la base del líquido mercado Web, que CEO Jim Geiger dijo Penton tecnología en noviembre es el segmento entre el producto base y los nichos de IaaS.

“Estamos muy contentos de formar parte del equipo de Chris. “Su experiencia de trabajar con los clientes de destino, las PYMES se centró en la web y los desarrolladores que los atienden, agilizar nuestra búsqueda para crear más productos innovadores para esta comunidad marginada,” líquido Web CTO Joe Oesterling. “Su experiencia de audición combinada con su conocimiento de los CMS y plataformas eCommerce de tecnología significa soluciones escalables y sencillas que hacen la vida más fácil para los diseñadores y desarrolladores, agencias de la PYMES”.

antes de su asesoría, Lema ha trabajado con enfasis y con multitud de favorito, entre otros.

“Líquido Web es un lugar que me ofrece la oportunidad de aprovechar mi talento y experiencia, siendo un lugar donde pueda estirarse, crecer y continuar innovando,”, dijo Lema. “Normalmente digo mayoría hosts tienen solamente un producto – hosting – y este no es lugar para un tipo de producto”. Líquido Web es diferente y estoy mirando adelante para alinear nuestras visiones para el hospedaje de la comunidad. “

la cita es en GoDaddy continuaron las inversiones en su WordPress ofrece ampliar su programa de Pro.

Autenticación de dos factores está ahora vivo


, nos complace anunciar que dos factores (o 2FA para abreviar) autenticación está ahora disponible para todos los clientes de 34SP.com. 2FA añade una capa adicional de seguridad a tu cuenta y animamos a todos nuestros clientes para activar 2FA y asegurar sus cuentas.  Para conseguir comenzado siga nuestra guía simple ‘ cómo habilitar la autenticación de la cuenta de dos factores.

la aplicación utiliza la aplicación móvil de autenticador, que está disponible para su descarga gratuita para iPhone y Android de Google.

¿por qué utilizar la autenticación de dos factores?

T ADJ autenticación también es conocido como ‘autenticación de múltiples factores’ y asegura su cuenta pidiendo no sólo un usuario y contraseña, pero también algo que tú y solo tenga acceso a

confirmando dos independientes de la información, tu cuenta debe ser mucho más difícil para un tercero para tener acceso a. Si alguien quisiera acceder a su cuenta, necesitan tanto el dispositivo que se utiliza para obtener su código de acceso y su contraseña.

rotura de contraseñas se convierte cada vez más fácil, como equipos a ser más de gran alcance y potencia de procesamiento se convierte en más barato. Mismo con los principales sitios web regularmente ser hackeado y usuario de los datos a menudo fundido, las posibilidades de tu cuenta cualquier compromiso es mucho mayor, especialmente si se utiliza la misma combinación de nombre de usuario y contraseña en varios sitios.

doble autentificación proporciona una nueva forma de mejorar la seguridad de su cuenta, los usuarios más prudentes son sensibles a las contraseñas vulnerables. Su cuenta de alojamiento es probablemente uno de sus más valiosos identificadores; con él, puede administrar sus sitios, sus emails y dominios. Con unos pocos clics podrás tener presencia en la web y con un poco más puede ser destruido.

seguridad es algo que tomamos muy en serio en 34SP.com. Con la introducción de la autenticación de dos factores, esperamos que usted es capaz de dormir un poco más profundamente.

Por qué Salesforce compró Ahmed, un centro de datos optimización arranque


datacenterknowledgelogo presentado por el conocimiento de centros de datos

Salesforce hizo un movimiento sorprendente el jueves, Ahmed, arranque de tres años de un Silicon Valley que software utiliza análisis de datos y aprendizaje ayuda empresas del centro de datos inteligentes y automático de las decisiones de adquisición.

en un blog, co-fundador de Michael de Amir Ahmed, que fue utilizada para el diseño del más adelante para los servidores de Facebook y Google, y que fundó Facebook de centro de datos diseño hardware y código abierto, la iniciativa de proyecto Open Compute, dijo Ahmed está trabajando para optimizar la infraestructura de Salesforce.

hasta ahora, el caso parece ser sobre todo Salesforce para mejorar la forma en que construyó y gestiona sus propios centros de datos. Negocio de la empresa vende herramientas de software de negocio basado en la nube, y es poco probable, aunque no imposible – que venderán servicios de gestión de centro de datos basados en la plataforma de ahmed a los demás.

“una vez cerrada la transacción, el equipo de ahmed ayudará Salesforce optimizar su infraestructura porque se adapta para apoyar el crecimiento del cliente en todo el mundo”, escribió Michael. “Continuaré mi trabajo con proyecto abra computar a continuar su misión para crear el material abierto, eficiente y escalable”.

si no estaba ya claro, la adquisición se confirma una vez más que el anuncio de Salesforce a principios de este año que utilizaría Amazon Web Services para implementar sus productos básicos para seleccionar los mercados internacionales significado nube gigante del software Mark Benioff no piensa deshacerse de sus propios datos de centros, arrendado a proveedores de centro de datos.

ni la empresa ha compartido más detalles sobre Salesforce para Ahmed planes más allá de la entrada en el blog de Michael. Alcanzado por teléfono el jueves, Michael dijo que él no podría hablar sobre el caso y ha sido acusado por el contacto de Salesforce, mientras un portavoz de Salesforce, respondiendo a una solicitud de comentario, regresamos a su blog.

Salesforce repensar los centros de datos

recientemente, Salesforce era reorganizar su enfoque en los datos de la infraestructura del centro, tratando de adoptar una estrategia similar a la utilizada por la talla de Google, Facebook y muchos otros. Sus estrategias se basan en la costumbre, despojado de equipos, entre otros de poca variación entre SKU de hardware compatible de diferentes departamentos y automatización muchos.

tecnología de Ahmed y su equipo, de los cuales algunos eran profundamente involucrados en la creación y ejecución de la infraestructura para estos datos web centro de operadores, será útil para los esfuerzos actuales de la infraestructura de Salesforce.

leer más : Salesforce último convertir la manera de escala Web Data Center

plataforma reduce los costos de centro de datos de

ve probable de Salesforce ahmed

la plataforma de software de ahmed como una ventaja competitiva. La plataforma, que inicio ha proporcionado a sus clientes un servicio basado en la nube ayuda a las empresas ahorrar mucho dinero en sus centros de datos.

en un reciente proyecto para un cliente, Ahmed identificado que fuentes de alimentación en servidores del cliente fueron así aproximadamente, dando como resultado 300 000 gérmenes kWh del centro de datos de residuos de energía al año. Este cliente, cuyo nombre no fue revelado a Ahmed, a los servidores de 1 600. Una empresa como Salesforce, que cuenta con la infraestructura del centro global de datos que sigue evolucionando, puede conseguir mucho más de este tipo de mejoras.

leer más : cómo las fuentes de alimentación de servidor están desperdiciando su dinero

es otro ejemplo de aplicación de la plataforma determinar el mejor momento para reemplazar a un servidor. No es un número mágico que funcione para todas las empresas y el costo total de propiedad diferente con el tiempo para diferentes empresas. Ser capaz de determinar cuando una multitud de factores – cosas como el costo del servidor, centro de datos de CAPEX y OPEX, costos de la infraestructura del centro de datos, redes de redes equipos y costo de datos – centro de toda la línea para arriba de manera que transmite una mayor es más caro para reemplazar con un nuevo servidor el tipo de cosa Ahmed es buena

leer más  : Cuál es el mejor momento para retirarse un servidor

el aprender de máquina datos centro gestión

para llegar a sus conclusiones, la plataforma analiza datos operacionales de los datos actuales del cliente, así como centros de datos operativos históricos, reunió desde más allá de las instalaciones del cliente. Almacena todos los datos que recoge en la nube de Amazon, donde una gran parte de su cálculo se realiza también dicho conocimiento de Michael del centro de datos en una entrevista reciente.

Ahmed utiliza máquina de aprender a ayudar para todo, para identificar las ineficiencias de predicción de fallos de componentes de servidor, dijo.

mediante la aplicación de aprendizaje automático para la administración de centro de datos, Ahmed lleva a una página de Google playbook, aunque no sabe si hay en todos las similitudes en la forma de ambas empresas se aplican a él.

Google aplicaciones optimizan sus centros de datos para un tiempo de aprendizaje de máquina. Su último esfuerzo para aplicar su inteligencia artificial llamado DeepMind la tecnología para mejorar la eficiencia energética en centros de datos tiene reportedlyresulted una mejora del 15% en el uso de eficiencia de energía (PUE).

inteligente escala

adquirir Ahmed, Salesforce consigue sus manos en las capacidades de gestión y optimización del centro de datos sofisticados, punta y un equipo de expertos que tienen una gran influencia en la manera en que las nubes más grande de la compañía mundo CRM se basa en su infraestructura en el futuro.

escala es crucial para los proveedores de la nube de hoy, e infraestructura inteligente escala es los que afectan a la capacidad de la empresa para servir a sus clientes con alto rendimiento y tiempo de inactividad mínimo y su capacidad para obtener un beneficio.

Vamos a encriptar gratis SSL certificados


, estamos encantados de anunciar que ciframos los certificados ya están disponibles en 34SP.com.

nos encriptará un libre CA, automatizada y abierta (CA) que ofrece certificados SSL gratis para beneficio del público. Como pagar un certificado SSL, un certificado que encriptará ofrecen protección HTTPS para su sitio Web.

son las principales ventajas de vamos a cifrar:

  • , es no libre, costos ocultos ni cuotas de renovación
  • fácil instalación, puede instalar ciframos en segundos
  • aprobados por todos los principales navegadores

con encriptará

lo que ha pasado por el esfuerzo de instalar su propio certificado SSL será sabe no la proceso más fácil en el mundo, pero nos sería más fácil no va a encriptarlos. Si usted tiene un profesional de hosting, negocio Hosting o WordPress hosting plan, usted podrá configurar su certificado SSL gratis con un solo clic de un botón del ratón. Escribimos una guía útil paso a paso sobre la manera de instalar un certificado SSL para cifrar los vamos a ayudar a empezar.

distribuidor clientes Hosting puede simplemente instalar la extensión ciframos Plesk, que le permite instalar SSL en cualquier sitio web de su elección.

, se recomienda que cualquier persona con VPS hosting o una configuración de servidor dedicado lee la documentación que nos encriptará.


¿qué es SSL y por qué lo necesita?

, aunque a menudo se denomina SSL (Secure Socket Layer) de una anterior encarnación moderna de servidores utilizar seguridad de capa de transporte (TLS) como tecnología de seguridad estándar para el establecimiento de un enlace cifrado entre un servidor web y un navegador. Este enlace asegura que todos los datos se pasan entre el servidor web y los navegadores permanece privada e integral. Ustedes estarán familiarizados con SSL si alguna vez has comprado algo en línea, se utiliza SSL para garantizar la seguridad de su información de tarjeta de crédito. Cada vez que utilice un sitio web sobre SSL, verá un icono de “candado” en el navegador de la dirección de la barra, que indica que SSL está presente y confianza en su navegador.

otros beneficios obvios de seguridad para las transacciones financieras – ¿Cuáles son algunas otras razones utiliza el protocolo SSL?

  1. Google recomienda el uso de SSL para todos los sitios Web. Usted puede mejorar su Google ranking si utiliza SSL, como se puede leer más en detalle en un blog anterior “potenciar su Google ranking Hosting SSL. También puedes ver el blog de Google SSL original aquí.
  2. los clientes tendrán una mayor confianza en su sitio web y marca. Como el mundo en línea se mueve hacia la seguridad más estricta y más estricta, hace falta decir que todos los sitios que ver no con las normas de seguridad más recientes serán los visitantes del sitio. Además, mantener alta seguridad mediante SSL le dice a los visitantes de su sitio Web que aprecias su seguridad y confidencialidad.
  3. SSL mejorará la seguridad de su sitio Web. Aunque existen numerosos métodos para infiltrarse en la seguridad del sitio web, simplemente agregar SSL es un primer paso útil en la reducción de las amenazas cibernéticas.

How Multacom Does Colocation


Kia Jahangiri is an affable tech genius who greets me at the Multacom office, data center and NOC complex in the heart of downtown L.A.’s internet core. As we get to know one another while I’m sipping my coffee in his office he asks me to excuse the stacks of 1 U servers and switches ringing his desk. It becomes apparent that this isn’t your typical colocation and data center complex where you may encounter a front office manager, some sales offices with people in smart suits, and conference rooms in a neat array shielding you from the tech side of the house. In fact, there are no office managers or sales staff at Multacom. It’s pretty much 100 percent engineers – and it shows.

The buzz in the office is around laptops and larger desktop screens running everything from data center analytics to network connectivity stats to custom, purpose-built DDoS mitigation and network optimization software. Written specifically for the ultra-custom configured data center operations of Multacom by partner Ken Joostens, I’m encouraged by Jahangiri, Multacom CEO, to have a look at the sophisticated nature of the program. “Take a look at this,” he says; there’s more tech gliding by the screen than the opening sequence of The Matrix and due to my less than herculean programming skills – I’m a bit lost. “Don’t tell anybody about this stuff, it’s a huge competitive advantage.” Well I’m thinking that it ain’t gonna be a problem as I couldn’t possibly digest enough of the code to even begin to explain it to anyone else. But I fake it pretty well, “Oh yeah – that’s the shit.”

I’m feeling a bit more comfortable as we go through the first of Multacom’s four downtown data centers. Having been through hundreds of data centers across the US and Europe I’m thinking I’ve seen it all – or at least most of it. Raised flooring? Check. UPSs? Check. Liebert units? Check. FM-200 fire suppression? Check. Racks and racks of cool sleek black cabinets with blinking lights? No. That’s because each of the individual server setups at Multacom are a marriage of technology, hardware, engineering and artistry. Every customer’s setup looking oddly different in dimensions, form factors, and connectivity sitting naked out in the open to uniquely match the precise engineering specifications required for that particular job. It’s more like walking through a high tech art exhibit than a data center.

IMG_6994-1

Kia Jahangiri, CEO of Multacom

So who on earth needs this kind of crazy custom data center engineering? A ton of cool companies it turns out. Case in point – a company named Shoutbomb, which operates a software service that allows libraries to send SMS messages to all text message enabled phones. Shoubomb founder, George Quaye, explains why uptime is critical to the company’s success: “We are a small growing company providing a text notification solution and uninterrupted connectivity is crucial. We are intimately integrated with our customers to allow access to their information 24×7. We have developed our solution to be very fault tolerant, however, our experience with Multacom has shown their network to be continuously available, therefore minimizing the work involved in cleaning up after a network outage. As a growing company, each new customer is allocated a fixed set of resources on our server and because of the server infrastructure we can count on adding a lot of new customers before the need to scale up.”

So Jahangiri is the real deal. We’re going through all the data centers and he’s beaming, showing me the tech goodies that make each data center unique and redundancy in power and cooling for each facility. But his big heart comes out when we talk about the customers first, and then his plans with his son that weekend (something to do with off-roading in the desert). Quaye relates the following regarding the customer relationship, ”To be honest, we do not have to think about Multacom, because we trust them as a partner. The services they provide are in-line with our needs.”

So what exactly does Multacom do so well? Engineering and hands-on service – those are their keys to success. They offer what you would expect in a great colocation and data center provider, like the ability to connect to multiple backbone providers in order to scale internet connectivity. Plus, Multacom’s network topology design also includes massive peering with over 200 other network providers worldwide. However, this company is all about “never go down” redundancy.

One unfortunate threat that all providers face is the inevitability of a DDoS attack. If you have been around hosting for very long, then you know that denial of service attacks are a constant source of irritation. Multacom has taken an engineered approach to this important matter as well – they wrote their own custom software to both detect and deal with DDoS attacks. While the details are proprietary, the effect is enormous. Engineers are alerted and action taken the moment any unusual activity is detected. This is often within mere seconds of any malicious attack occurring. In addition, their network optimization software is custom written in-house. It is an approach that errs on the side of ‘N+1’ or higher redundancy model for everything. That includes items that most data centers would settle on – like the cooling system from the chillers to the HVAC unit’s having redundancy.

The company adheres to a strict training regimen (lasting up to a full year) prior to that employee being fully vetted to work solo on a customer’s account. That’s up to 365 days of training prior to touching customer’s data, connectivity or hardware. Mind you, these are not individuals fresh off the street – these are skilled technologists with degrees and experience gained elsewhere who are painstakingly apprenticed to ensure they are conducting business as Multacom sees fit.

Jahangiri explained why this process is so important, ”It is not enough to have knowledge of the technology in use, you have to get very familiar with the setup we have and it is even more important to us that the technical staff understand our way of doing things. Most are surprised at how different the process can be between providers and we can’t risk any negative impact to our clients.”

Here’s something else I found interesting: the way that obsolete data is treated with dedicated server service they offer. When a server is retired or drive removed from use for any reason there may be data left on a drive that is related to customers. The drive is wiped, then the drive is physically destroyed. Is all of this necessary for every bit of customer data? Maybe not, but all data seems to be treated as critical by Multacom.

The typical customer for this colo firm is tech savvy. Customers describe themselves as ‘no frills’ and they are clearly looking for real value in a colocation provider. Not simply the lowest cost vendor – but one that provides a true tech team and engineering approach to deliver each and every client’s solution. Multacom’s customers are looking for an audited vendor as well; Multacom maintains SOC Type 2 reports from Independent Service Auditor’s on Controls Relevant to Security and Availability.

SOC 2 is a comprehensive audit which tests and reports on the design (Type I) and operating (Type II) effectiveness of a service organization’s controls. The core principles of the audit follow ‘Trust Principles’ which are:

Security – The system is protected against unauthorized access (both physical and logical).
Availability – The system is available for operation and use as committed or agreed.
Processing Integrity – System processing is complete, accurate, timely, and authorized.
Confidentiality – Information designated as confidential is protected as committed or agreed.
Privacy – Personal information is collected, used, retained, disclosed and destroyed in conformity with the commitments in the entity’s privacy notice and with criteria set forth in Generally Accepted Privacy Principles issued by the AICPA and CICA.

How does that translate into value for customers? Vision Online provides federal, state and local agencies a wide array of services, among them: database architecting, software development, server security hardening, intrusion countermeasures and Department of Defense Orange Book C5 level secure hosting. Needless to say, bulletproof colocation and connectivity is critical to their operations. Darrell Benvenuto with Vision mentioned that ”uninterrupted connectivity is absolutely essential” and noted that, “the platform is only one part of the puzzle, but if it is unreliable, it would greatly harm the venture.”

Some final mentions from the SOC 2 report – the data center facilities are constantly monitored by digital surveillance video camera systems and access to and movement within the data center facilities is controlled and restricted via a badge access control and biometric identification system. Additionally, building management provides 24 hours per day on-site presence of security officers and field engineers who are responsible for providing physical security services for the multi- tenant office facility and data center infrastructure maintenance and support services, respectively.

Data center cooling and power infrastructure provides redundant services in either a 2(N+1) or N+1 configuration. Agreements are in place with third party specialists to provide regular preventative maintenance inspections of data center infrastructure including the fire detection and suppression, cooling, and power supply equipment to help ensure proper functioning.

The real DNA of Multacom is evidenced by the people on-site and behind the scenes who are constantly thinking about only how to serve their customers better and how to serve data to the internet in a “never go down” manner.