Presencia de Amazon AWS en Italia puede parecer extrañamente nuclear


datacenterknowledgelogo, presentado por el centro de datos conocimiento

la probable venta cerrada dos, fuel y carbón-leña Central por el mayor proveedor de electricidad en Italia, Enel, a Amazon Web Services para Demons como las instalaciones del centro de datos de nubes, como el descubierto por Reuters el miércoles – parece realmente han estado ocurriendo por algún tiempo.  La empresa atacó agresivamente la urgencia de las fuentes de energía renovables, no sólo por el bien del medio ambiente, sino también sus clientes.

en este tiempo el año pasado, Enel había cerrado algunas plantas no renovables 23 en toda Italia, según la publicación de noticias de lengua inglesa ItalyEurope24.  En aquel momento, le pide una pregunta abierta a lo que hacer con estas instalaciones, explorar ideas como salvajes que convertir las viejas chimeneas en estructuras de soporte para paseos, siembra de terrazas de restaurantes en la parte superior de estas estructuras y la conversión de antiguas instalaciones de generador en centros comerciales.

Montalto di Castro – una provincia hermosa frente al mar Tirreno, a sólo un paseo de dos horas al norte de Roma, fue el sitio de un polycombustible incendio de fábrica, incluyendo los combustibles fósiles.  Fue construido por orden del gobierno italiano en 1989, después de que el país dejó de todas las plantas nucleares y ha detenido la construcción de nuevas instalaciones.  Una nueva planta nuclear ya estaba construyendo allí.

Enel ha funcionado la fábrica termoeléctrica de Alessandro Volta, al lado de Montalto di Castro construyó en parte planta, nunca usado,  Los registros más recientes disponibles muestran que la planta de Montalto había generado sobre 3 600 MW total de energía, principalmente a través de aceite, pero para unos cien generadores de turbina de gas del MW.

en 2010, publicó un informe citando la planta de Volta para producir aproximadamente 1,06 millones de toneladas de CO 2 las emisiones en 2009.  Según la publicación italiana “Whistleblower” Il Fatto Quotidiano , estos espectáculos increíbles podían a través reducción certificada créditos (ERC) muestra sentado Enel, para patrocinar un proyecto basado en China para reducir el CO 2 las emisiones en la misma cantidad.

la “óptica” de este acuerdo, para tomar prestada una frase de campañas presidenciales, no fue buena.  En mayo pasado, Enel ha optado por cerrar la planta.  Bajo ley italiana, luego publicó a una licitación – un concurso abierto de ideas sobre cómo podría reutilizar las instalaciones.

en julio, la publicación del Corriere Della Sera Italia noticias señalaron que ella había descubierto a representantes Amazon AWS hizo visita a Montalto.  Sus fuentes, dijo que la compañía tenía su interés para la instalación de la termoeléctrica de Galileo Ferraris en la provincia de Trino, sino de otra institución.

se puso de relieve la inminencia de un acuerdo el martes, cuando Fabio Veronese, Enel de Gerente de servicios de infraestructura y tecnología, dio una ciruela en la ranura durante la sesión en Amazon re: 2016 inventar Conferencia en Las Vegas.  Aquí, él tomó el crédito para su industria entera haber inventado el modelo de servicio cloud mucho antes de Amazon entró en escena.

“Hemos tenido un modelo de outsourcing total, al servicio de España y América del Sur”, dijo Veronese, “mientras que la Italia y la Europa Oriental fueron los data centers locales.”  Así que nuestra decisión fue clara y sencilla: ir a la nube tan rápidamente como usted puede. “

Veronese llamado su mantenimiento anterior del cliente del modelo”bimodal”en un”neurótico, sentido”outsourcing para el hemisferio occidental durante la operación de los servicios del sitio para el Oriente.  Él ha sido capaz de poner fin a sus operaciones de outsourcing, pero se enfrentó con la reasignación de algunos servidores + 10 000 y de 30 000 procesadores virtuales, en 30 países.

Enel alcanzó esta meta reingeniería en junio de este año, dijo.  Pero en un giro irónico de los acontecimientos que no se puede repetir para la mayoría de las otras clases de empresas, Amazon puede proporcionar información de los activos de Enel en sitio.  O, para ser precisos, ex – locales.

Informe: Deutsche Telekom cae fuera de licitación a Host Europe Group


businessman using smartphone and laptop

, Deutsche Telekom se retiró su oferta para el hoster europeo Grupo Host de Europa (HEG), según un informe de Reuters el martes. Dueño HEG, sociedad de capital riesgo Cinven, comenzó a ir de compras de compradores en abril y Deutsche Telekom iba a ser uno de los principales contendientes.

VEA TAMBIÉN: host Europa dueño dice reactivar ventas siguientes Brexit demora

proveedor de telecomunicaciones decidió no procesar a un caso “debido a la probable evaluación ‘ $ 1,8 billones y la”falta de suficiente las perspectivas de crecimiento orgánico y posibles problemas con HEG de integración en sus actividades existentes”, dijeron fuentes de Reuters.

HEG es una de las empresas en Europa de hosting independiente más grande. Sirve principalmente pequeñas y medianas empresas.

Unidos Internet, Centerbridge de private equity y hosting empresa GoDaddy estancia en la carrera para comprar HEG, señala el informe. Internet Unido recientemente ha decidido retrasar una salida a BOLSA prevista porque vendió una participación del alojamiento a Warburg Pincus.

sobre las discusiones en el foro

Qué llevar a un negocio reunión


, todos sabemos que aspecto dice volúmenes sobre su acercamiento a la vida y obra. Mientras que todos hemos escuchado “no juzgues un libro por su cubierta! -Tendemos también a inferir cosas de la manera de vestir de la gente. Los banqueros usan disfraces. Artistas con cortes únicos y colores locos. Así que ¿qué es generalmente aceptado como “vestido comercial” estos días?

34SP.com pidió algunas de estas preguntas en nuestra encuesta más reciente de casi 1 000 los dueños de pequeños negocios.

basadas en nuestra propia investigación y pruebas desde cualquier lugar en el mundo de los negocios, 34SP.com ha creado esta infografía titulada “cómo vestirse para una reunión de negocios. Disfruta de la información y si usted así lo quieren – no dude en copiar los gráficos en su propio sitio o blog. Por favor dar crédito a 34SP.com. ¡Disfrute!

gráfica original creado por 34SP.com.

Si desea añadir nuestras imágenes en su sitio puede utilizar el código proporcionado a continuación:

los nombres de 34SP.com, Web hosting y dominio

¿Puede matar el tiempo espacio de nube?


datacenterknowledgelogo presentado por el conocimiento de centros de datos

el año pasado, cuando él aprendió sobre el potencial de un fuerte pulso electromagnético del cielo haciendo verdadero daño a la infraestructura eléctrica, Rich Banta parado lo que entonces era un proyecto de su salida de la empresa hacía el centro de datos. El diseño era completo y construcción estaba a punto de comenzar.

Banta pero ahora quería para el rediseño de la instalación para protegerla de un PGA (en la jerga de la comunidad del pulso electromagnético), causado por el clima espacial o criminales de humanos. Nuevo diseño añade alrededor del 60% de los costos del proyecto y extendido su cronología de unos 12 meses. “No es un juego”, dijo.

peligro arriba

la comunidad PMC es no grande, pero consiste de científicos, funcionarios, funcionarios, funcionarios elegida y personas privadas interesadas que una tormenta geomagnética como la que en 1921 podría dañar la infraestructura del país si llegara a suceder hoy. Para poner las cosas en perspectiva, esta tormenta fue diez veces más fuerte que la tormenta geomagnética de 1989 que hizo 6 millones en Quebec sin energía.

, dependemos mucho más electricidad que hicimos en 1921, por supuesto, y todas las capas sociales de infraestructura de clave están más interconectadas que nunca. En un estudio financiado por la NASA, un grupo de investigadores predijo que una tormenta de similares corrientes de magnitud podría llevar a cogeneración en su totalidad en el noroeste del Pacífico, casi todos de la costa y gran parte del medio oeste. Apagones podrían rápidamente interrumpir suministro de agua, destruir todos los suministros de evacuación perecedero alimentos y medicamentos, calefacción y aire acondicionado, aguas residuales, abastecimiento de combustible, etc.

“la noción de interdependencia es evidente en la falta de agua debido a una falla de electricidad a largo plazo – y no ha podido reiniciar un generador sin agua en el sitio. que escriben.

otra gran cosa que dependen probablemente descendería demasiado: la nube. Algunos de los más grandes grupos de centros de datos de servicios Web de Amazon, Microsoft y Google se encuentran en dos “zonas de colapso del sistema eléctrico probable” descritas por los investigadores:

emp map nasa

, usted puede pasar mucho tiempo, argumentando que estos centros de datos de nubes se deben considerar las infraestructuras críticas, pero incluso si usted no cree que debe los centros de datos que soportan los servicios de emergencia, hospitales, servicios públicos, instalaciones de defensa y grandes instituciones financieras son sin lugar a dudas críticas. ¿

para aprender más sobre la amenaza potencial de EMP en la industria de centro de datos y posteriormente nos esfuerzos legislativos para resolver? Profundizar en esta cuestión con un panel de expertos, entre ellos el senador de Texas Bob Hall, en la Conferencia Mundial en septiembre en el centro de datos de Nueva Orleans y Banta.

registro hoy para centro de datos mundial!

Además EMP causados por el clima espacial, cuando el viento solar o una eyección de masa coronal del sol alcanzó e interrumpe la magnetosfera terrestre, ahora es posible que un Estado-nación que es hostil a implementar un ataque de EMP dirigido en una o varias piezas de las infraestructuras críticas. No hay ningún caso de este tipo de ataques, pero son técnicamente posibles. Algunos argumentan, sin embargo, que un ataque cibernético es una forma mucho más fácil para un país para desbaratar la infraestructura enemiga, es poco probable un ataque de EMP.

lifeline Taking Chances con EMP

es casi imposible actualizar una instalación existente para protegerlo de la EMP, Banta dijo, tipo de línea de vida, una compañía que él co-fundó, la construcción de centros de datos de un centro de datos en Fort Wayne (Indiana), que será protegido desde el suelo hacia arriba.

hay dos características principales que protegerán: el conjunto del edificio, así como su copia de seguridad generadores y HVAC sistemas serán envueltas en metal, y líneas de energía entrante habrán especializado filtros, especialmente diseñado para soportar el tipo de aumento rápido que puede producir una EMP.

, servicios de salvavidas Banta se especializa en el centro de datos para clientes con altos requisitos de seguridad y el cumplimiento, tales como agencias federales e instituciones médicas, que explica la disposición a gastar más en la protección de las nuevas instalaciones de un PMC. “nuestro nicho es la gente con un costo muy alto de tiempo de inactividad”, dijo. ¿

Gobierno tomará más en serio amenaza de EMP?

Banta colabora regularmente con un grupo de personas para presionar al gobierno federal que haga más para proteger la red nacional de EMP nosotros. Un proyecto de ley del Senado introdujo el año pasado, llamado la ley de protección de infraestructuras críticas, puede ser un comienzo, ya que aborda la amenaza de la EMP, pero que muy vagamente, dice. Un proyecto de ley que modifica la ley de seguridad nacional de 2002, señaló simplemente que la EMP es algo que debe ser objeto de más investigaciones, dijo Banta.

Comisión del Senado recomienda el proyecto de ley (art. 1846) a considerar más la habitación completa hace un año, y no ha habido ninguna legislación sobre este tema desde entonces. Banta espero ciertas formulaciones más específicas de EMP es incluido como él hizo su manera a través del proceso legislativo.

, conoció a unos moderados en cuanto a si el EMP es una seria amenaza – gente en el gobierno es totalmente apática o en impulsar el tema, dijo. No tome su aliento para muchos un apoyo entusiasta del gobierno en esta etapa, así que su misión hoy es simplemente para informar.

, ‘piensan que toparás con hoja envuelta alrededor de nuestras cabezas,’ dice sobre tipos apáticos. “Esto no es el caso. No somos tipo de hoja de lata [sombrero] de chico. Somos bastante pragmáticos. ¿”

para aprender más sobre la amenaza potencial de EMP en la industria de centro de datos y posteriormente nos esfuerzos legislativos para resolver? Profundizar en esta cuestión con un panel de expertos, entre ellos el senador de Texas Bob Hall, en la Conferencia Mundial en septiembre en el centro de datos de Nueva Orleans y Banta.

Por qué Salesforce compró Ahmed, un centro de datos optimización arranque


datacenterknowledgelogo presentado por el conocimiento de centros de datos

Salesforce hizo un movimiento sorprendente el jueves, Ahmed, arranque de tres años de un Silicon Valley que software utiliza análisis de datos y aprendizaje ayuda empresas del centro de datos inteligentes y automático de las decisiones de adquisición.

en un blog, co-fundador de Michael de Amir Ahmed, que fue utilizada para el diseño del más adelante para los servidores de Facebook y Google, y que fundó Facebook de centro de datos diseño hardware y código abierto, la iniciativa de proyecto Open Compute, dijo Ahmed está trabajando para optimizar la infraestructura de Salesforce.

hasta ahora, el caso parece ser sobre todo Salesforce para mejorar la forma en que construyó y gestiona sus propios centros de datos. Negocio de la empresa vende herramientas de software de negocio basado en la nube, y es poco probable, aunque no imposible – que venderán servicios de gestión de centro de datos basados en la plataforma de ahmed a los demás.

“una vez cerrada la transacción, el equipo de ahmed ayudará Salesforce optimizar su infraestructura porque se adapta para apoyar el crecimiento del cliente en todo el mundo”, escribió Michael. “Continuaré mi trabajo con proyecto abra computar a continuar su misión para crear el material abierto, eficiente y escalable”.

si no estaba ya claro, la adquisición se confirma una vez más que el anuncio de Salesforce a principios de este año que utilizaría Amazon Web Services para implementar sus productos básicos para seleccionar los mercados internacionales significado nube gigante del software Mark Benioff no piensa deshacerse de sus propios datos de centros, arrendado a proveedores de centro de datos.

ni la empresa ha compartido más detalles sobre Salesforce para Ahmed planes más allá de la entrada en el blog de Michael. Alcanzado por teléfono el jueves, Michael dijo que él no podría hablar sobre el caso y ha sido acusado por el contacto de Salesforce, mientras un portavoz de Salesforce, respondiendo a una solicitud de comentario, regresamos a su blog.

Salesforce repensar los centros de datos

recientemente, Salesforce era reorganizar su enfoque en los datos de la infraestructura del centro, tratando de adoptar una estrategia similar a la utilizada por la talla de Google, Facebook y muchos otros. Sus estrategias se basan en la costumbre, despojado de equipos, entre otros de poca variación entre SKU de hardware compatible de diferentes departamentos y automatización muchos.

tecnología de Ahmed y su equipo, de los cuales algunos eran profundamente involucrados en la creación y ejecución de la infraestructura para estos datos web centro de operadores, será útil para los esfuerzos actuales de la infraestructura de Salesforce.

leer más : Salesforce último convertir la manera de escala Web Data Center

plataforma reduce los costos de centro de datos de

ve probable de Salesforce ahmed

la plataforma de software de ahmed como una ventaja competitiva. La plataforma, que inicio ha proporcionado a sus clientes un servicio basado en la nube ayuda a las empresas ahorrar mucho dinero en sus centros de datos.

en un reciente proyecto para un cliente, Ahmed identificado que fuentes de alimentación en servidores del cliente fueron así aproximadamente, dando como resultado 300 000 gérmenes kWh del centro de datos de residuos de energía al año. Este cliente, cuyo nombre no fue revelado a Ahmed, a los servidores de 1 600. Una empresa como Salesforce, que cuenta con la infraestructura del centro global de datos que sigue evolucionando, puede conseguir mucho más de este tipo de mejoras.

leer más : cómo las fuentes de alimentación de servidor están desperdiciando su dinero

es otro ejemplo de aplicación de la plataforma determinar el mejor momento para reemplazar a un servidor. No es un número mágico que funcione para todas las empresas y el costo total de propiedad diferente con el tiempo para diferentes empresas. Ser capaz de determinar cuando una multitud de factores – cosas como el costo del servidor, centro de datos de CAPEX y OPEX, costos de la infraestructura del centro de datos, redes de redes equipos y costo de datos – centro de toda la línea para arriba de manera que transmite una mayor es más caro para reemplazar con un nuevo servidor el tipo de cosa Ahmed es buena

leer más  : Cuál es el mejor momento para retirarse un servidor

el aprender de máquina datos centro gestión

para llegar a sus conclusiones, la plataforma analiza datos operacionales de los datos actuales del cliente, así como centros de datos operativos históricos, reunió desde más allá de las instalaciones del cliente. Almacena todos los datos que recoge en la nube de Amazon, donde una gran parte de su cálculo se realiza también dicho conocimiento de Michael del centro de datos en una entrevista reciente.

Ahmed utiliza máquina de aprender a ayudar para todo, para identificar las ineficiencias de predicción de fallos de componentes de servidor, dijo.

mediante la aplicación de aprendizaje automático para la administración de centro de datos, Ahmed lleva a una página de Google playbook, aunque no sabe si hay en todos las similitudes en la forma de ambas empresas se aplican a él.

Google aplicaciones optimizan sus centros de datos para un tiempo de aprendizaje de máquina. Su último esfuerzo para aplicar su inteligencia artificial llamado DeepMind la tecnología para mejorar la eficiencia energética en centros de datos tiene reportedlyresulted una mejora del 15% en el uso de eficiencia de energía (PUE).

inteligente escala

adquirir Ahmed, Salesforce consigue sus manos en las capacidades de gestión y optimización del centro de datos sofisticados, punta y un equipo de expertos que tienen una gran influencia en la manera en que las nubes más grande de la compañía mundo CRM se basa en su infraestructura en el futuro.

escala es crucial para los proveedores de la nube de hoy, e infraestructura inteligente escala es los que afectan a la capacidad de la empresa para servir a sus clientes con alto rendimiento y tiempo de inactividad mínimo y su capacidad para obtener un beneficio.

Why do plugins break my site?


We regularly get queries along the following lines:

“Thanks for sorting out my website today! Still struggling to understand how plugins can destroy a site. If you have any advice…?”

So what’s the deal with plugins?

WordPress is amazingly versatile and extendable. The way WordPress extends is through plugins and to a lesser extent themes. These give you the ability to transform your WordPress site from a simple blog into an e-commerce site, an events calendar or pretty much whatever you can imagine.

A plugin is a bunch of code normally written in PHP and some JavaScript.  This code hooks into WordPress using a series of actions and filters. This means that a plugin can interact with lots of different parts of WordPress and affect the user experience along the way.

Code is developed by people and within the WordPress community we have a wide range of talents from all walks of life. The plugin you are using is as likely to been developed by a vicar as it is a full time professional software developer. That’s part of what makes WordPress so great, as almost anyone with basic coding experience can build a plugin.

Unfortunately building a plugin that is needed and valuable is not the same as building a plugin that performs well and is error free.

 

So why do plugins break your site?

Simply put, because most of them have bugs. I would go out on a limb and say virtually every plugin, like every piece of software including WordPress itself has some sort of bug. From the mars rover to a Boeing 747, if it has a computer with software there is a good chance it has a bug. The good news is most of these quirks don’t cause too much harm, they simply cause an unexpected result. Other software or human interaction tends to work around these bugs and they get fixed in software updates.

 

How do these bugs manifest themselves?

Well that’s the fun of bugs! There are myriad ways they can manifest themselves but the scariest when it comes to hosting and WordPress is the so-called “white screen of death”. This is where the page appears not to have loaded and instead just a white screen appears. Behind the scenes what has happened is that the plugin or something else has triggered a PHP fatal error. The word fatal gives it away, but this is bad, as it means the whole script couldn’t execute and give any output, leaving the dreaded blank white screen. In some instances you might also see an error message as some servers are configured to show error messages to the screen whilst others record them in log files on the server.

Either way the site won’t load and you are left with nothing working.

The problem is that it’s very easy to cause a fatal error, either by making a mistake in the plugin’s code or where there is a conflict with another plugin. For example:

won’t cause an error but this will:

Can you spot the issue?

Hopefully after some squinting you spotted the missing semi-colon. Now imagine trying to do that for thousands of lines of codes. Thankfully there are tools that can help identify these sorts of errors but you will be amazed how many people don’t use them or even know of their existence.

The above error would trigger every single time the plugin was used, so hopefully a developer would spot it before they released it to the public, but they may not have tested it, or made a last second change and as such the white screen of death may occur.

Another similar issue might be where two functions or classes are named the same for example:

and

If both functions were called by different plugins, PHP wouldn’t know which function to use and so would give a fatal error. When someone says there is a clash of plugins, what they normally mean is that there are identically named functions or classes causing errors.

This type of fatal error is much harder for developers to solve, as they have no idea how other plugins are named. There are solutions built into PHP, but again many developers are not aware or choose not to use them.

A separate issue that can crop up is where a plugin modifies the output or input of a WordPress function via filters or actions to suit its needs and another plugin is expecting the output to match the original WordPress output. This can be nearly impossible to diagnose and ultimately can be responsible for a lot of the “turn off all plugins and reactivate one at a time” type answers you will hear. To make things worse, the order in which plugins activate could affect the output, so simply disabling and re-enabling plugins might fix the issue.

As a WordPress hosting company one of the problems we see regularly is where a developer has used a module for PHP or a command in PHP which is not supported on our hosting. Developers tend to work on their own local machine and may accidentally use code that only works in their particular setup. Often they assume if it worked for them it works for everyone and sadly that’s not always the case.

Sometimes we as a hosting company can provide a way to run with the special component the plugin needs, but other times it wouldn’t be appropriate (they are using something too old or insecure) for us to enable it. You can imagine this causes everyone frustration. It’s worth remembering at such times that it is most likely the plugin that is doing something unusual and that the vast majority of plugins do run fine on our WordPress hosting platform.

Fatal errors are frustrating, but not the end of the world.  If a plugin causes a fatal error then you most likely want to turn it off if you can you can do so by going to the WordPress admin area, plugins and clicking on deactivate. However in some cases the fatal error will affect the admin area. In such cases you will need to use an FTP/SFTP client like Cyberduck to access the files on your server, navigate to the plugins folder and rename (right click on the folder, select rename) the folder containing the offending plugin. If you refresh the WordPress admin page you should see that the fatal error is gone.

With your site back up, check to see if there is an update to WordPress or to the plugin available before reporting the issue to the plugin developer.

 

What if you don’t know which plugin caused the issue?

You could turn all the plugins off and re-enable one by one, however depending on how many plugins you have that could take a very long time so it’s worth looking at your error logs.

Most hosts give you access to error logs, for 34SP.com customers they are in the statistics/logs folder. Error logs look frightening but really they are just a dump of issues your site is having and you don’t need to know anything about coding to look at them. Each log has a time when the entry was made, and what triggered the entry.

This looks something like:

In this case it would appear the example-plugin plugin caused this error, so we can go and disable that plugin.

It may well be that there is no plugin name there, just calls to WordPress include files. This doesn’t mean a plugin is not the issue just that it’s not what is reporting the issue, so unfortunately turning off all the plugins and enabling them one by one is the way to go.

So that covers fatal errors and white screen of death, but what about when the server just stops and hangs, how is a plugin to blame for that?

 

Hanging or timing out sites

Computers and servers make use of RAM to store things in memory. When code is run, the output is stored in memory but it also stores the calculations and all the steps in between. When finished it’s meant to give up that memory for other processes to run.

Most PHP processes take microseconds to complete, even really complicated tasks will normally complete in a matter of seconds. This means that even if lots of people visit your site, each process running to get them their post is taking fraction of second to run before releasing the memory and to a lesser extent CPU usage. However if a process takes longer to run then it’s holding on to memory as a more visitors arrive, the amount of allocated memory maximum is reached and processes start hanging, not having enough memory to complete their tasks or worse just enough to try but very slowly. This scenario slows down your site and possibly other sites.

This issue is a frustrating one for client and host alike.  The quick answer is to increase the resources available to the client.  Often, however, the additional memory will just be consumed.

The problem is that tracking down the plugin causing the issue is hard and to make matters worse there are plenty of other factors that could be causing this such as an abnormal traffic spike, so it might not be a plugin at all!

 

How do I know if a plugin is causing high load?

There is no fool proof way without going into some in depth systems administration to find a plugin’s load.  How much resources a plugin uses will vary from site visitor to site visitor and how it interacts with other plugins. It may be the load is only increased when a cron job is running for example or when a visitor does things in a certain order.

That said, there are tools that can help.  For example P3 Profiler is a plugin that will give a break down of resource usage by plugin. It’s not entirely accurate and if you run it multiple times you will get varying results but it will give you a good guide as to which plugins might be causing issues.

If you use the profiler, don’t forget to turn it off and remove it when you are done as it also uses resources and slows your site down, exacerbating any issues you might have.

While it’s hard to quantify, as you start to regularly use plugins you do get a feel for which plugins will be the misbehaving ones.  There are always exceptions but things that trigger alarm bells are large plugins with lots of features, ones with admin pages that don’t match WordPress or use lots of boxes across your admin area.

 

Caching your way out of things

If your site is slowing down, one possible solution is to use caching as a way to speed up the site.  This works by storing a version of a page or part of a page in memory or as a file on disk. Caching reduces the amount of work WordPress needs to get through, meaning plugins are not called as regularly and as a result the load on the site goes down. Caching is pretty vital for medium to large sites but all sites can benefit. There are many plugins available to help with caching, some of the popular ones include w3TotalCache and SuperCache as well as commercial offerings such as WPRocket.

Your hosting company may also offer caching as part of their hosting package. For example our WordPress Hosting package has 2 forms of caching already in place to help keep your site speedy.

Caching doesn’t fix the problem of resources all together but it helps balance and partly mitigate some badly behaving or resource intensive plugins.

 

So plugins are all bad?

Not at all, there are some amazing plugins out there and while a few will cause issues there is a plugin or theme for every occasion and it’s just a case of finding the right one.

When looking for a plugin, look at the reviews on WordPress.org – not just the 5 stars and 1 stars but the ones in the middle, are people saying it’s fiddly to get working?

Create a test site and load the plugin on your test site before you put it on your live site. Having a test site lets you iron the kinks out before use on your live site.

Ask yourself if you need all the features? Some plugins are really big, because they include everything and the kitchen sink. Do you need all the features, can they be turned off? Is it better to have 2 plugins that just have the features you want, rather than 1 big plugin that has dozens you don’t?

A common myth is you can have too many plugins.  The truth is there is no upper limit to the number of plugins you can have other then the amount of diskspace and resources you have available. You can have 100 plugins activated on most hosting plans with no issues. But, and it’s a big but, you can only have 100 low resource plugins activated; a single bad apple can consume all the resources and cause problems. So when it comes to plugins it’s not the quantity that is an issue, it’s the quality.

There will be times where you need to run a plugin that may be a resource hog, and it may need to be a resource hog to do it’s job. For example a lot of security plugins use up resources as they intercept and inspect everything coming to your site. This is perhaps the most frustrating aspect of plugins, ultimately it may be the case that to run the plugin you want to run, you simply do have to increase the resources allocated to your site.

We have covered a lot in this post, looking at what causes the white screen of death and why sites can slow down to a halt. We’ve looked at some of the ways we can profile plugins to find ones causing high loads as well as some advice on picking plugins.

Hopefully the next white screen of death you come across will be easy to fix but don’t forget your hosting company are always there to help, be it helping you to make sense of log files or recommending alternative plugins or services.

For fully tailored and optimised hosting, why not consider our WordPress Hosting? We provide a fast, secure environment where we have taken care of the security and performance side of things for you, so you don’t need to worry about adding security plugins which might increase resources or caching plugins to try to balance things.

Nubes y recuperación ante desastres: gestión de la carga de trabajo y documentación


nuevos conceptos alrededor de nube permiten centros de datos y negocio para convertirse en mucho más ágil. Esto significa nuevas maneras de entregar aplicaciones, apoyar a nuevos usuarios e incluso a probar nuevas tecnologías. El otro factor importante introduce ahora la nube es en niveles más altos de resistencia. Esto significa que las organizaciones tienen muchas más opciones en la entrega de la carga de trabajo – incluso cuando hay una situación de emergencia.

– vamos a hacer una pausa aquí y hablar de nube, virtualización y trabajo con la recuperación después de un desastre. Cuando se implementa Dr. planificación, muchos otros elementos deben considerarse para que el proyecto tener éxito. Una de ellas es gestionar y trabajar con las cargas de trabajo virtuales. En un entorno virtual, los administradores desplegarán los álbumes de estos – aplicaciones y servidores.

todas las aplicaciones difieren en sus requerimientos y cómo usarlo en un estado virtual. ¿Por supuesto, hay que las aplicaciones preconfiguradas son bastante estándar – pero es personalizado o más aplicaciones de fondo? Aquí hay algunos factores a considerar cuando trabaja con varias aplicaciones:

  • en un entorno virtual, es muy importante vigilar constantemente y mantener el entorno de aplicación. Se trata de utilizar herramientas para ver cómo se ejecuta una aplicación y qué tipo de carga de trabajo, es capaz de manejar. Recuerde que una aplicación sin recursos adecuados funcionan correctamente y garantizan una eficiencia pobre para el usuario final. Incluso si un servidor tiene los recursos, a menos que ellos se asignan correctamente, la aplicación va a sufrir.
  • producción en aplicaciones de un entorno virtual puede necesitar apoyo adicional. Esto significa que el despliegue de herramientas para garantizar un rendimiento óptimo en todo momento de monitoreo. Planificación para el despliegue de una aplicación virtual debe ser así. ¿La aplicación puede trabajar en un entorno de 64 bits? ¿Requiere una conexión especial que se ejecuta en una máquina virtual? ¿Nos puede replicar los datos, el servidor debe bajar? Estas son todas las preguntas que deben cumplirse antes de que una aplicación se coloca en un estado virtual.
  • lo mejor de un entorno virtual es la capacidad de probar y desarrollar metodologías de implementación sin cambiar las condiciones de vida.
    • los administradores son capaces de crear clones de una producción de VM y probar la aplicación de parches, actualizaciones o incluso realizar una prueba de esfuerzo.
    • todo ello en un ambiente seguro y segmentado fueron la producción de datos no se ve afectada. Pruebas de cargas de trabajo reales en un entorno de prueba, los administradores pueden capturar errores y preguntas que puedes hacer sus sistemas de producción.
    • para probar más granular, los administradores son capaces de ejecutar aplicaciones y monitor con gráficos y ajustar los parámetros. Estas medidas se agrupan entonces en un período de tiempo para ayudar a encontrar un rendimiento óptimo de la aplicación basado en el entorno virtual de la infraestructura existente.
  • mejor ambiente de la aplicación administrada es mejor proceso de planificación. Si un administrador no es consciente de cómo sus aplicaciones llevará a cabo durante un desastre o un punto, puede no protegerlo adecuadamente. Pueden ser el más estable y el desarrollo en un entorno controlado, el personal mejor preparado ocurrió un imprevisto.

con todo esto en cuenta – muy a menudo pasado por alto cuando se trabaja con la nube, virtualización y recuperación ante desastres. Conocimiento desempeña un papel importante en la planificación de una iniciativa del Dr. – especialmente en un entorno virtual. Los administradores deben tomar el tiempo para aprender lo más que puede con su carga de trabajo virtual y guardar adecuadamente y su protección.

creación de DR documentación

con Dr. planificación viene la tarea importante de la documentación. Como he mencionado anteriormente, este paso es a menudo olvidado o guardado para el último y el menos importante. Esto no podría ser más equivocada. Documentación de una estrategia de DR es fundamental para el éxito del plan de failover.

los administradores no sólo deben crear documentación distribuido medio ambiente cursos, pero también crean lo que se llama un “libro de la vida Dr.»

  • este libro es un documento verdaderamente global que se desarrollará como los cambios del entorno.
  • el documento reflejará todo lo equipo y sus responsabilidades directas si se produce un evento.
  • este documento se detallan diferentes escenarios para diferentes departamentos.
  • habrá etapas de conversión para cada equipo y cada persona tendrá una tarea cuando una falla o evento pré-désigné.
  • los administradores deben continuamente para presentar este libro a su personal y asegurarse de que entienden sus roles y funciones produjeron un evento.

todo equipo personal y personal de empresas claves debe ser entrenados en caso DR. Debe ocurrir un verdadero desastre, todos las claves involucrados personas, negocios o, conociendo el plan de acción a tomar. Esto incluirá alertas, remediación inmediata y limitar el daño. Recuerde que la única manera de un plan de Dr. pertinentes queda si hay eventos de educación continua en todos los niveles.

DR documentación, formación y concienciación todos servir a un propósito muy fundamental. La idea es simple: ¿Qué es un robusto plan de DR, si no se sabe qué hacer cuando ocurre un desastre? La única manera que un entorno distribuido puede usarse correctamente con la recuperación después de un desastre es si todas las personas son capaces de tomar buenas decisiones basadas en previsto en la Directiva. Empresas de hoy dependen en gran medida su infraestructura de ti – que significa que las empresas interesadas debe tener algo que decir y la acción con el plan de vida Dr.

RagingWire Paris en el Cloud, Big Data con nuevo énfasis en venta por mayor


datacenterknowledgelogo presentado por el conocimiento de centro de datos

una gran parte de la futura infraestructura se compartirán entre los centros de datos y servicios en la nube pública, gran parte de la reunión de este último en estos centros de datos por mayor. Doug Adams, quien fue recientemente designado Presidente del proveedor de datos de centro RagingWire (anteriormente fue Vicepresidente Senior de la empresa), cree que habrá poco espacio para lo que entre estos dos modelos, incluidos los servicios gestionados o alojamiento.

hay nubes pura y pura por un lado en los centros de datos grandes en el otro. Servicios gestionados, dijo, no es un modelo ganador. Por esta razón RagingWire, mayoritaria por las telecomunicaciones japonés gigante NTT Communications, apuesta en el centro de datos por mayor de servicios de su nueva dirección estratégica.

sector de servicios de centro de datos está siendo maduro y banal, y en un mercado maduro y comunes, el precio es rey, dice Adams. Es la forma más efectiva de reducir los precios reducir el costo de la construcción a gran escala, por esta razón RagingWire construido campus del centro de datos masivos.

leer más: RagingWire tiene su centro de datos de gran escala modelo de equipo de lujo en Texas

papel de ampliación de centro de datos Global de NTT NTT

ha dado ambiciones grand globales y centro de servicios de RagingWire desempeña un papel clave en el logro de los objetivos de la compañía de su madre, para extender la presencia de NTT en América del norte mercado de servicios del centro de datos más grande del mundo. Otras adquisiciones de NTT, Girón y e-refugio en Europa andNetMagic en la India, son responsables de hacer lo mismo en sus respectivos mercados.

el gigante Japon planea gastar hasta $ 3 billones en ampliación de centro de datos de aquí a 2020, más de la mitad se destinarán a centros de datos estadounidenses, dijeron Adams.

objetivo de NTT debe tener capacidad de datos substanciales en las ciudades del centro del top 15 que juntos representan 75% del mercado mundial de datos centro de colocación, dijo. Hoy en día, la empresa está cubriendo solamente nueve.

planes de expansión inmediata de RagingWire son implementar centros de datos en otro mercado de la costa oeste, que eventualmente será Los Ángeles, Phoenix o este de Washington, Chicago, Nueva York y Silicon Valley. Refugio e construirá en París y Amsterdam en un futuro cercano, dijo Adams.

big cloud, Big Data, solicitud de Ito volando

Cloud, Big Data, aplicaciones Internet de las cosas explotan y empresas detrás de ellos están engullendo de espacio del centro de datos.

sólo Microsoft arrendado casi 30 MW de mayor capacidad de propagación en tres sitios, el año pasado, según un informe de los centros de datos de América del norte firme bienes raíces comerciales del centro de datos. Oracle ha firmado dos contratos de arrendamiento venta por mayor en América del norte el año pasado, de 5 MW cada una. Apple ha firmado dos contratos de arrendamiento de 6MW y Amazon ha firmado un contrato de arrendamiento de 2 MW en el Canadá y 130 000 pies cuadrados en Silicon Valley, aunque no está claro lo que la capacidad de este último, la empresa habría sido. ¿

leer más: que arrendó el espacio del centro de datos más en 2015?

empresas que ofrecen la infraestructura de Cloud Computing, pero ofrece otros ampliamente utilizan servicios de internet – de la talla de Uber, eBay, Apple y Twitter – además de su web para el usuario final o aplicaciones móviles usando enormes cantidades de capacidad de datos del centro para su máquina analítica de datos de gran tamaño.

Uber, por ejemplo, ha firmado por lo menos tres arrendamientos de centro de datos de gran tamaño el año pasado, para un total de 14MW, según los centros de datos de América del norte. eBay se prepara para otra extensión de la capacidad grande del centro de datos con conmutador en Reno, Nevada.

los fabricantes de automóviles y empresas electrónicas, que invierten mucho dinero en aplicaciones de IOT, derribar también espacio del centro de datos por mayor en grandes pedazos de datos agregados y proceso periférico, dijo Adams. “No puedo decirte cómo enormes bases de datos que tenemos sentado en nuestros centros de datos ahora,” dijo.

la competencia para el negocio de estas compañías entre los proveedores de centro de datos es difícil, y costo mucho decide. “Somos un mercado maduro y mercantilización y fijación de precios se vuelve muy importante.

RagingWire, por supuesto, no está solo en ir tras la posibilidad de proporcionar el centro de datos para proveedores de nube y otros datos principales y empresas enfocadas a la internet, y hay tantos enfoques a su búsqueda porque los proveedores de data center. DuPont Fabros technology reorientado recientemente en puro juego, mientras que el Digital Realty Trust tiene una estrategia híbrida, combinando colo grande venta por menor y a su interconexión, grandes clientes diciendo están siendo capaces de conectarse al rico ecosistema de actores atractivos de colo por menor.

son sólo algunos ejemplos. También hay empresas como Equinix, CoreSite, Vantage, Infomart y servidor granja Realty, entre otros, todos siguen la gran oportunidad en la infraestructura de la casa pues las mayores marcas en la nube.

artículo original fue publicado aquí: RagingWire París en el Cloud, Big Data con nuevo enfoque en grande

¿Son sus servidores de los Hackers en el extranjero seguros?


recientemente, los Estados Unidos y China alcanzaron un acuerdo de las clases. En una reunión entre el presidente estadounidense Barack Obama y el Presidente de China, Xi Jinping, ambos países acordaron que la guerra digital fue conseguir en ninguna parte – excepto, tal vez, la guerra real siempre más cerca de . Llegaron a un acuerdo, reconociendo que cada uno dejaría de tratar de llevar a cabo ataques digitales otros Part.

“hemos acordado que ni Estados Unidos ni el gobierno chino llevar a cabo o apoyar a sabiendas cibernética sobre el robo de propiedad intelectual, incluyendo secretos comerciales u otra información comercial confidencial para obtener ventajas comerciales,” Obama dijo de la reunión. “”

“confrontación y fricción no son la solución ideal para ambas partes,” Xi acordado. “China se opone enérgicamente y lucha contra el robo de secretos comerciales y ataques de hacking.”

por desgracia, parece que no todo el mundo en China está de acuerdo con su Presidente. Desde la reunión entre Obama y Jinping, siete empresas estadounidenses fueron atacadas por hackers chinos. Aunque no está claro si el gobierno chino tuvo un papel directo en los ataques ( seguridad CrowdStrike dice la empresa ), parece poco probable que Jinping violaría el acuerdo con Obama – especialmente teniendo en cuenta que que abiertamente busca inversiones en el sector de tecnología americana .

Jinping negó que su gobierno apoya los ataques.

Esto nos deja con dos opciones de aparente. Jinping es ser hipócrita, o hay una facción dentro del gobierno chino, que sigue funcionando sin el conocimiento de su Presidente. No son particularmente atractivos, y en cualquier caso, está claro que vivimos en una era donde el espionaje digital es muy común.

en otras palabras, si su empresa posee secretos comerciales que puede ser atractivos para un competidor extranjero, existe la posibilidad, puede ser objetivo de los hackers. Y por desgracia, hay solamente tanto cualquier persona puede hacer para protegerse contra estos vuelos. Después de todo, las personas que son buenas – probablemente algunos de los mejores sombreros negro inframundo tiene para ofrecer.

eso no significa que usted no debe ser muy atento a la seguridad de su servidor, por supuesto. Por el contrario. Debe poner más esfuerzo para cada agujero de seguridad, falla y la vulnerabilidad es descubierta y parcheado en tan pronto como sea posible. Esto no es como un pasaje del molino de violación de datos, donde empresas bastante grandes puede simplemente escatimar en su seguridad y poner algo de dinero hacia el inevitable uso del colectivo.

son ataques dirigidos, destinados a robar datos valiosos de los negocios y secretos comerciales. Si cae en manos de un competidor, no sólo está tratando con una marca dañada y algunos clientes furiosos. Usted podría ser golpeado fuera del mercado.

las relaciones entre China y Estados Unidos son todavía calientes, hay buenas posibilidades de que estos ataques disminuirán en frecuencia. CrowdStrike Analista Dmitri Alperovitch permanece optimista de las posibilidades del acuerdo entre China y los Estados Unidos de convertir en algo parecido a la legislación establecida de ciber-espionaje.

era sobre el autor

John Mack John Mack es un escritor técnico para Datarealm, una de las más antiguas de web hosting empresas. Puede seguir Datarealm en Twitter, [de[de19459004]@datarealm, como en Facebook y echa un vistazo más de su artículos en su blog, de http://www.datarealm.com/blog de hospedaje.