Selladora de Mozilla para los propietarios del sitio web seguridad análisis


la mayoría de los propietarios del sitio no es suficientes para asegurar sus sitios Web, ya que más del 90 por ciento de los 1,4 millones sitios analizados por la nueva seguridad, lanzado por Mozilla herramienta de evaluación recibe una calificación reprobatoria. Mozilla ha lanzado recientemente el Observatorio, que había desarrollado y utilizado internamente, para que los propietarios de sitios a analizar y evaluar su aplicación de una gama de tecnologías de seguridad.

hasta 1,3 1,4 millones de páginas escaneadas, que algunos de los sitios más populares en el mundo, puesto no modernas avanzadas de seguridad, según un artículo del blog del desarrollador de la herramienta.

Mozilla Senior información seguridad Ingeniero abril rey fue inspirado por el éxito que SSL Labs ha sido gamifying el proceso de mejora de la configuración del servidor y decidió hacer lo mismo para motivar la adopción de tecnologías de seguridad existentes.

leer más: SMB grado security sobre todo otra cosa cuando seleccione Cloud hosting

Observatorio analiza sitios para medidas de seguridad como HTTPS, la fijación de las claves públicas y la protección contra ataque de secuencias de comandos multisitio y grados desde A + hasta f el.  También proporciona vínculos a documentación de ayuda sitio los desarrolladores y administradores entender lo que están haciendo mal. Análisis internos de Mozilla demostraron que sus propios sitios no estaban bien protegidos, por lo que los resultados son sorprendentes hasta ahora.

Mozilla Senior información seguridad Ingeniero abril rey “Observatorio realiza multitud de controles en todas las pruebas de una docena,” dijo en el post. “Que no puede haber oído de muchos de ellos, y eso es porque el material extiende por miles de artículos, cientos de sitios Web y docenas de especificaciones. De hecho, a pesar de algunas de las normas de edad para tener hijos, su tasa de uso entre los sitios más populares en la internet millones desde el 30% para HTTPS hasta desesperadamente débil. 005% para el contenido político de la seguridad. “

Mozilla también ofrece un API y las herramientas de línea de comandos para los administradores y desarrolladores que buscan para integrar en sus procesos.

Rey señala que Observatorio evalúa no sólo sus prácticas, las necesidades de seguridad de un sitio, un blog personal, una nota mediocre pueden tan perfectamente adecuada. Mala calidad, sin embargo, representa un gran avance en seguridad para la mayoría de los sitios.

adopción de encriptación por organizaciones en los sectores regulados ha aumentado considerablemente, según un informe reciente por Thales y mejora de la confianza que tienen las empresas en su seguridad, pero claramente hay mucho trabajo por hacer. Los hosts tienen la oportunidad de ayudar a los clientes a sus sitios seguros rápida y fácilmente con una amplia gama de herramientas, incluyendo los de SiteLock o CodeGuard.

Diez más conectado a los centros de datos


datacenterknowledgelogo presentado por el conocimiento de centros de datos

data centers están perpetuamente difíciles de clasificar, principalmente debido que los usuarios ponen diferentes cantidades de valor en cada característica de la granja de servidores del centro de datos diferentes. Redundancia de la infraestructura eléctrica y mecánica puede ser más útil a un banco para un comienzo de nube, por ejemplo, si un proveedor de nube grande puede enfatizar la capacidad del sitio para expandir.

una de las características que surgieron como fundamental en los últimos años es la Conectividad del centro de datos. Concretamente, la variedad de las opciones de conectividad disponibles en un sitio Web. Como más empresas que ofrecen servicios digitales a escala global, con acceso a los muchos proveedores de red posibles que les ayudará a hacen eso es más importante que nunca.

tendencia: lo que Facebook extraídas periódicamente parar por todos los centros de datos

conexión de centro de datos es una de las formas de un nuevo directorio en línea, iniciado por el empresario de internet australiano Bevan Slattery, centros de la clase de datos en el mundo. Empresa Slattery mainport, cuya plataforma de software automatiza el proceso de conexión a proveedores de diferentes servicios en un centro de datos, hizo pública en Australia en diciembre pasado. Fundó un operador de telefonía llamado redes de gasoductos y fundó NextDC, el centro más grande lo datos proveedores Australia, quien regresó al mercado en 2010.

su nueva compañía, llamada Cloudscene, quiere hacer luz enrollada sobre datos centro de mercado mediante la creación de un directorio de internet y cloud 4 200 y unos 4.700 centros proveedores de servicios en 110 países. En un comunicado, Slattery dijo que se sentía frustrado por “la compra tradicional largo y difícil proceso para centros de datos y la empresa servicios en la nube.”

“posibles inquilinos o compradores de casas deben no visitar sitios de inmobiliarias individuales para obtener información sobre más de una década en las inscripciones”, dijo. “Así que ¿por qué es líder en la industria atascada en el pasado cuando se trata de negocios servicios?

hay por lo menos un sitio que pretende ser una lista completa de centros de datos en el mundo (http://www.datacentermap.com/), pero es no clasificar datos conectividad centros, proveedores, tejido de red y vende lo que no Cloudscene.

aquí está el top 10 más de moda los centros de datos, según Cloudscene:

1. SG1

operador: Equinix
Ubicación: número de prestadores de servicios de Singapur
: 312

Directory Equinix SG1

2. LA1

operador: CoreSite
Ubicación: Los Angeles (one Wilshire)
número de prestadores de servicios: 259

directory la1 coresite

3. FR5

operador: Equinix
Ubicación: número de Francfort
de los proveedores de servicios: 246

directory equinix fr5

4. Denver

operador: 910Telecom
Ubicación: número de prestadores de servicio de Denver
: 203

directory 910telecom denver

5. TELEHOUSE North

operador: Telehouse (subsidiaria de KDDI)
Ubicación: número de prestadores de servicios de Londres
: 197

directory telehouse north

6. SY3

operador: Equinix
Ubicación: número de prestadores de servicios de Sydney
: 187

directory equinix sy3

7. SY1

operador: Equinix
Ubicación: número de prestadores de servicios de Sydney
: 184

directory equinix sy1 sydney campus

8. Paris Voltaire

operador: ubicación de Telehouse
: número de prestadores de servicios de Paris
: 155

directory telehouse paris voltaire

9. DC2

operador: Equinix
Ubicación: Ashburn
número de prestadores de servicios: 155

directory equinix dc2

10. Hk1

operador: Equinix
lugar: número de prestadores de servicios de Hong Kong
: 151

directory equinix hk1

imágenes tomadas de los sitios web de los proveedores de centro de datos en esta lista.

ADVERTENCIA: esta clasificación no refleja necesariamente los puntos de vista del conocimiento del centro de datos o su empresa matriz Penton.

Bitglass obtiene UE-Estados Unidos privacidad escudo certificación de que el crecimiento europeo ojos


talkincloud presentado por Talkin ‘ Cloud

corredor de acceso de seguridad Cloud (CASB) Bitglass es el primero de su clase en recibir la certificación UE – escudo de privacidad de Estados Unidos desde el Departamento de comercio de Estados Unidos, la compañía anunció el jueves. Bitglass es una de las 100 empresas certificadas que el nuevo marco ocurre lentamente.

proceso de certificación en los Estados Unidos fue lanzado un mes antes, como el escudo de protección de datos entró en vigor para reemplazar el acuerdo de puerto seguro legal y aprobación de los candidatos para el proceso voluntario no ha sido rápido.

explica que el Departamento de comercio, “privacy shield es un framework desarrollado por el Departamento de comercio de Estados Unidos y la Comisión Europea para proporcionar a empresas en ambos lados del Atlántico un mecanismo para cumplir con los requisitos de protección de datos de EU durante la transferencia de los datos personales de la Unión Europea a los Estados Unidos para apoyar el comercio transatlántico.

“Con la anulación de los ciudadanos de la UE Safe Harbor framework fueron referidos que sus datos serían objeto de abuso y muchas organizaciones basadas en la Unión Europea requieren el respeto de normas de protección de datos,” dijo Nat Kausik, CEO de Bitglass. «Porque Bitglass expande su presencia en Europa, creemos que es esencial para mantener el ritmo con el cambio regulatorio paisaje y región a ser totalmente transparentes con los clientes y prospectos sobre los datos que recogemos y cómo se utiliza esa información.»

un informe en julio por el estudio de la transparencia de los mercados señalada “debido a la regulación entorno está cambiando rápidamente en el mercado de nube, proveedores de almacenamiento de nube dependen cada vez más agentes de seguridad de acceso nube de externalizar sus plataformas.” Se estima que el mercado global de la CASB fue 3371,4 millones de dólares en 2015 y se espera que alcance un valor de 13218,5 millones de dólares en 2024.

competidor de cisco adquirió la CloudLock Bitglass CASB en cuestión de $ 293 millones a principios de este verano.

otras organizaciones que han recibido certificación Privacy Shield ahora servicios de las agencias de viajes, proveedores de tecnología de la información de salud y un puñado de él las empresas, incluyendo los gigantes de la tecnología de Oracle, Microsoft y Salesforce.

una serie de eventos de extensión llevará a cabo en los Estados Unidos y alrededor del mundo en los próximos meses para promover la comprensión de la industria y la adopción del marco, comenzando con un “privacidad protector de Boot Camp” en Nueva York el 12 de septiembre.

Estudio de IBM: híbrido Cloud espuelas innovación, satisfacción al cliente


talkincloud presentado por Talkin ‘ Cloud

líderes decir una abrumadora mayoría son nube hibrida soluciones faciliten la innovación y ayudar a más fácilmente satisfacer las expectativas de los clientes, según un informe publicado esta semana por IBM.

IBM publicó su estudio “ nube de coser hibrida: diseñar la combinación perfecta para la innovación, la eficiencia y el crecimiento ” el jueves, que detecta las empresas que adoptan las nubes son capaces de penetrar nuevas áreas (76%), crear nuevas fuentes de ingresos (71%) y crear nuevos modelos de negocio (69%).

sus resultados eco de los resultados de una encuesta publican anterior IBM de este año que demostró el 26 por ciento de los encuestados dijo que ganar una competencia con nube hibrida.

IBM Institute para el valor de negocio (IBV) encuestó a líderes de más de 1 000 en 18 sectores sobre sus iniciativas de nube. Encontró que casi la mitad de las cargas de trabajo (45%) debe permanecer in situ con servidores dedicados.

Vea también: híbrido nube el futuro de la empresa, ¿es?

‘ las empresas están recurriendo a la nube, incluyendo híbridos, más rápido que todo el mundo debe apoyar su transformación digital de combustible crecimiento y la innovación de modelo de negocio, “Marie Wieck, IBM dijo en un comunicado. “Como los clientes continúan cosechando los beneficios de la integración de su infraestructura local con la nube, vemos aumentar sus inversiones en las nuevas cargas de trabajo en las nubes públicas. Éxito de sus clientes han integrado planes de poner cargas de trabajo donde encajan mejor y estrategia de nube híbrida de IBM proporciona esta rampa para flexibilidad y crecimiento”.

aunque en algunas implementaciones de maneras híbrido cloud para potenciar lo mejor de dos mundos, las organizaciones de seguridad todavía tiene muchas empresas de incorporar totalmente la nube. El estudio muestra que los desafíos de los tres primeros a la adopción de la nube son considerados requisitos (47%), estructura de costos y riesgos de seguridad o de cumplimiento: gasto de capital en comparación con consideraciones OpEx (41%) y un mayor riesgo de interrupciones operativas debido a la nueva solución de cloud computing (38%).

en orden para las empresas “ventaja competitiva sostenible mediante la adopción de la nube del lector” IBM dice que deben combinar las ideas de negocio y en cada etapa de la adopción de la nube y establecer un control estricto en las políticas internas y externas – asegurar que la misma organización de estándares se reúnen proveedores impondría local.

Cómo Facebook hace que su almacén de datos más rápido


datacenterknowledgelogo le trajo por el conocimiento del centro de datos

Facebook dice es la hora de cambiar la forma en que nos comprimen archivos digitales porque los métodos utilizados en casi todas la compresión hoy fueron creados en los años 90, cuando el material y la compresión de problemas a resolver eran muy diferentes.

la compañía ha creado un nuevo algoritmo de compresión – un comienzo de ficción similar problema Pied Piper se convirtió en famoso por resolver en la serie de televisión Silicon Valley – que ya ha resultado en una reducción significativa de almacenamiento y cálculo en el centro de datos necesita de Facebook.

algoritmo de código abierto de Facebook, llamado Zstandard, esta semana, reemplazará a desinflar, el algoritmo principal en Zip, gzip y zlib – compresión de datos estándar es decir, que esperaba que reina durante más de dos décadas.

Vea también: lo que Facebook extraídas periódicamente cerrando todos los centros de datos

Zstandard permite compresión más rápida que se traduce en archivos más pequeños y permite más opciones cuando balanceo de compromiso esencial de la compresión de la velocidad en comparación a la tasa de compresión. Otra gran ventaja: evoluciona. Desinflar, la escala global de la infraestructura de data center en el que los gigantes de internet como Facebook trabajan hoy era inimaginable.

nuevo algoritmo de compresión de Facebook fue creado por Yann Collet, que comenzó a trabajar en de Zstandard versión anterior, llamada lz4, en su tiempo libre mientras trabajaba en el Departamento de marketing de la operadora francesa Orange. El año pasado, se trasladó de París a Menlo Park para Facebook.

, que hizo más 1 350 acepta lz4 en Github y 400 a entropía de estado finito, un método para transformar los símbolos a bits durante la compresión, que es una alternativa para el método Deflate. Entropía de estado finitos desempeña un papel importante en la fabricación de Zstandard más rápido y capaz de ofrecer la mejor tasa de compresión, según un blog por el cuello y la viruta de su colega Turner, un software engineer en Facebook.

collet, compresión para escala de Exabyte

el nuevo algoritmo ha estado funcionando en centros de datos de producción de Facebook durante los últimos seis meses, dijo el martes en una presentación en la Conferencia @Scale de la sociedad de San José. “No tenemos que sacrificar la compresión”, dijo. “Conseguimos más compresión con velocidad”.

Facebook se utiliza para comprimir los datos almacenados en sus bodegas de datos Exabyte-escala. Un único almacén de datos de Facebook es miles de gabinetes de servidores, según collar. En esta escala, se puede transformar incluso una pequeña optimización para reducir la demanda.

“el uno por ciento de un Exabyte es todavía una enorme cantidad de infraestructura,” dijo. “Si prestamos atención a las ganancias en eficiencia, podemos obtener.”

sustitución de zlib por Zstandard ha dado como resultado la reducción de seis por ciento de almacenamiento en almacenes de datos de Facebook, 19 por ciento de reducción en requisitos del procesador para la compresión y la reducción de 40 por ciento en procesador para requerimientos de descompresión, dijo Collet.

aprovechando las ventajas del hardware moderno

a diferencia de los procesadores que estaban allí cuando Deflate se creó, quién hizo una tarea tras otra, en el orden, los procesadores modernos son muy buenos en hacer muchas cosas a la vez y Zstandard aprovecha de esta característica, llamada ejecución en paralelo.

algo más moderno CPU, explota la llamada diseño desprovisto de ramas. En términos simples, si una tarea depende del resultado de otra de las tareas, algo espere por este resultado que el procesador intenta adivinar lo que es el resultado más probable y ejecuta la tarea.

“La apuesta de los procesadores de hoy en día,” pinza y Turner escriben. “Lo hacen de manera inteligente, con un indicador de dirección, que les dice en esencia el resultado más probable.”

el problema es cuando piensan mal, en cuyo caso la CPU debe detener todas las operaciones que comenzaron en esta manera especulativa y empezar de cero. Llama una tubería “RAS”, es muy costoso en términos de recursos de la CPU. Zstandard está diseñado específicamente para estos algoritmos desprovisto de ramas en mente.

, utiliza mucho más memoria que zlib, que se limitaba a una ventana de 32 KB. Técnicamente, no hay límite a la cantidad de memoria que zstandard pueden aprovechar, pero para que sea compatible con muchos sistemas diferentes de recepción, Collet recomienda limitar su uso de la memoria a 8 MB.

‘, es una recomendación de ajuste, está bien, no una limitación de la compresión del formato, “él y Turner, escribir en el blog.

Regreso el jueves: queremos saber dónde tu primer sitio web estaba alojada


8th May 1980:  Four-year-old Antonia Salmon with one of her birthday presents,a computer which used to belong to her father.  (Photo by Hulton Archive/Getty Images)

hermana del sitio Equipamentos el Web Hosting hablar tiene un hilo pidiendo a sus miembros a recordar donde alojan sus primeros sitios. Esto es una pregunta y el otro nos encantaría saber respuestas!

se parece que muchos de ustedes recibieron sus primeros sitios en Geocities, un hosting gratuito que se inició hace 21 años. Geocities realmente existió hasta octubre de 2009 cuando su dueño Yahoo apagarlo. Poco después, varios proyectos para salvar a Geocities contenido incluyendo el equipo del archivo, que ha pasado el contenido de copia de seguridad copia de seguridad de meses y lanzó un torrente de 652 GB de contenido archivado de Geocities. ¿

leer más: donde primero para tu página Web? ¿

, dónde alojar mi primer sitio Web? Google Blogger, que todavía existe hoy.

sabe donde acogió su primer sitio Web en los comentarios o en los medios sociales y asegúrese hablar de Web Hosting para compartir tu historia y ver lo que alberga introdujo sus pares en el maravilloso mundo del alojamiento web.

Siga el PURRING en Twitter

Siga el zumbido en Facebook

socio de discusiones del foro

Nueva plataforma SAP proporciona análisis en tiempo real real, despliega en AWS


varguylogo presentado por el VAR Guy

SAP anunció hoy un nuevo producto dirigido a la siguiente generación de almacenamiento de datos para permitir a las empresas lograr la analítica en tiempo real. SAP BW/4HANA se puede implementar en el Hotel, en Amazon Web Services (AWS) y la nube corporativa de SAP HANA, con otras plataformas de nube de terceros debe seguir. La empresa dice que es una cuestión de ayudar al usuario a ser más ágil y más enfocada en los resultados de la empresa.

“algo que surge en muchos de nuestros clientes es la necesidad de ser capaces de responder rápidamente a las oportunidades de mercado,”, dice Neil McGovern, Director principales profesionales de data warehouse SAP marketing, producto del VAR Guy. “La capacidad de respuesta de su empresa, la capacidad de reaccionar con los nuevos informes, paneles nuevos, respuestas complejas, en horas o días, semanas o meses, impacto significativo en las organizaciones de la línea de fondo.”

SAP espera que el nuevo producto se posicionará mejor para tener a la vanguardia en un almacén de datos en la nube. Tendencias en el crecimiento como la Internet de las cosas (IOT), datos analíticos y los datos de lagos han aumentado demanda de almacenes de datos que generan enormes cantidades de datos estructurados.

“las capacidades de aprovechamiento de HANA, podemos procesar datos streaming en el ITO,”, dijo McGovern. — Y con nuestras capacidades de integración avanzada, podemos vincular BW/4HANA con otras fuentes de datos para crear esta única visión lógica de los datos en el negocio.

en contraste con anteriores productos de almacén de datos SAP que pueden funcionar con Oracle, DB2 o SQL Server, BW/4HANA sólo funciona en SAP HANA, la memoria de base de datos SAP. McGovern dijo evita tratar todas las bases de datos todo también permitieron a la empresa a aprovechar al máximo las capacidades de HANA y dieron origen a los datos más rápido y más flexibles soluciones de almacén a ayudar a las empresas a mantenerse ágil.

“como el primer de SAPBW/4HANA en Amazon AWS, hemos reducido nuestro tiempo para poner fin a la producción final del 50%, lo que nos permite entregar una poderosa nueva plataforma analítica con una mínima inversión inicial en tan sólo tres meses,” Diego Lombardini, jefe de sistemas de financiación, Fairfax Media Pty Ltd, dijo en un comunicado. «Para apoyar la evolución de nuestro negocio, ahora tenemos un Cloud Computing extremadamente flexible, escalable entorno que puede ser capaces de ampliar nuestro negocio.»

entre las nuevas características es una interfaz de usuario mejorada, la habilitación en la nube mayor y modelado simplificado de objetos de desarrollo. Además, BW/4HANA incluye un puerto para entrar datos de temperaturas múltiples en el sistema para que los usuarios pueden clase los datos según la prioridad de la empresa.

“se pueden decir todos los datos que son diez años de edad o menos, caliente, mientras que los datos que son más de un año están calientes. Que se controla automáticamente para usted, “dijo McGovern. «O más bien la edad, puede utilizar el valor de los datos, así que usted puede decirle a todos los clientes en América del norte son en caliente, porque estos son los que utilizamos mucho.» El resto de la clientela del mundo ir caliente, porque nos basamos en los Estados Unidos, por ejemplo. “

futuro

BW/4HANA, fue el resultado de un año de investigación y desarrollo y fue inspirado por los comentarios de los clientes y analistas. SAP, que ha estado en el negocio del almacén de datos desde el comienzo de la década de 1990, tiene una gran clientela ya utilizando los productos de BW estándar precursor, que ha escrito orientación en el desarrollo de nuevos productos. Además, la empresa ha ordenado la investigación y encuestas de todo el mundo con empresas como Analista de Forrester.

en un mercado de tecnología que está cambiando tan rápido como lo es hoy, vendedores disfruten de todas las vías para quedarse por delante. SAP cuenta con un equipo de ingenieros y un montón de nuestra tecnología en el hogar construye, pero también tiene una historia de la adición de elementos clave de la tecnología a su cartera a través de adquisiciones.

adelante, McGovern, que sirvió de paso a los trabajos de Wall Street en sistemas comerciales de alto rendimiento, flash, dice ser más feliz en la promesa de streaming tecnología analítica de ITO.

‘ cuando comenzamos la conexión de decenas de miles, cientos de miles de sensores y comenzar su análisis en tiempo real, es no 5 millones mensajes por segundo de una sola fuente, pero podría ser un mensaje de cientos o millones de fuentes por segundo “, dijo. «Creo que esta información continuamente en el ITO esto requerirá streaming tecnología analítica».

SAP se esfuerza en integrar esta tecnología analítica en sus productos de streaming de Wall Street, y adquisición del año pasado de SciBase, que produce una base de datos ligera ultra, siempre un elemento clave.

“Creo que en la combinación de este borde muy onda blanco analítico con peso pesado interno de SAP, analítica difusión centralizada, será el sistema nervioso”.

SAP dice que BW/4HANA, con su capacidad para analizar los datos que residen, es un gran paso hacia la realización de su visión del almacén de datos de próxima generación.