51 meneos
917 clics
Envío erróneo o controvertido, por favor lee los comentarios.
Microsoft sumergió un centro de datos en el oceánico, tras dos años dicen que falló sólo un octava que uno en tierra
En junio de 2018 Microsoft anunció uno de sus proyectos más curiosos: Project Natick. La idea era sumergir un centro de datos con 864 servidores en el fondo del océano para ver si es más fácil mantenerlo ahí que en la superficie, donde había un homólogo. Dos años después lo han sacado de nuevo a superficie una vez el experimento ha finalizado. Y parece ser que ha sido todo un éxito: el centro de datos de debajo del agua solamente sufrió una octava parte de fallos con respecto al que se encontraba en tierra firme.
|
comentarios cerrados
Lo mismo para los servidores.
Si vale de ejemplo, ayer retiré una impresora con 7 años y medio de servicio.
En "algún sitio" he llegado a tener máquinas de más de 15 años, y más de 10 años sin soporte directo del fabricante.
Ya no me sorprende nada.
Eso si, no he podido evitar reirme, y mucho, con la frase: "ha estado sumergido a unos 35 metros de profundidad en el fondo del océano durante aproximadamente dos años."
A 35 metros de profundidad aún no has salido de la placa litoral. La profundidad media del océano se estima en casi 4 kilómetros, lo que viene siendo 100 veces más.
CC #18
Conociendo la probabilidad de fallo de cada componente estiman cuanto pueden espaciar el mantenimiento.
Sacarlo del agua es costoso, pero tambien reducen costes en refrigeración, edificios, seguridad, limpieza, etc
Sin ver los números exactos, no me queda claro cuan rentable pueda ser.
Pero les saldrá mejor meterlos en piscinas olímpicas que en océano, solo por la corrosión, les sale mucho mejor.
Y sino, en pantanos.
Algunos no cambian hasta que no deja de funcionar.
Hay que tener en cuenta el coste/beneficio del reemplazo, así como la balanza ecológica del coste energético del mantenimiento actual frente la fabricación de los nuevos.
Hay organismos donde no valoramos únicamente la velocidad de cálculo, o si esa mejora justifica el cambio.
No se, todo dependera de lo que les cueste ese mantenimiento vs el otro...
danielmarin.naukas.com/2013/01/17/como-proteger-a-los-astronautas-de-l
Puede que lo que se busque es tener servidores que sobrevivan a una tormenta solar de las gordas.
La balanza ecológica de tener servidores de 12 años de antigüedad siempre va a ser negativa.
El ejemplo venía por lo de chapuzas, que hay clientes que por más que les insistas no les da la gana y cualquier día se encuentran sin nadie que los atienda.
La ventaja del mar que veo es la homogeneidad en la temperatura. No hay cambios del dia a la noche, ademas de disipar el calor mas facilmente.
Tambien se ha estudiado tener servidores sueltos para calentar casas. Tambien se podrian usar para calentar invernaderos y sinergizar cosas.
Yo tuve que cambiar un disco duro en la zona de quirofanos y estuve toda la mañana. Entre que me vesti de verde, averigüe la averia, llame para que me trajesen el disco, porque yo no podia salir sin cambiarme, el tiempo de prepararlo y traermelo y montarlo.
Arreglar algo tiene que ser un lio y costoso.
Como curiosidad hay un vino que se envejece bajo el mar. Tienen una temperatura constante y el oleaje le puede afectar.
Tambien hay una bebida alcoholica y que se monta en un barco y le dan la vuelta al mundo y no se sabe porque mejorar asi.
Estaria bien estudiar que cosas mejoran bajo el mar.
#6 Si tienes muchos componentes la probabilidad de fallo aumenta y puedes tener suficientes fallos para tener una idea comparativa.
#26 Una piscina puede que necesite una alquiler un pantano puede variar de nivel, puede que el mar tenga ciertas ventajas y desventajas. Es cuestion de analizarlo.
Un pantano suena mas razonable pero entiendo que les interesara la temperatura del agua, no se que masa de liquido y que condiciones serian interesantes para calificar un pantano como viable.
Aparte en españa los pantanos son negocio de las electricas que los tienen y en muchos casos no pagan sus alquileres asi que no hacen nada en ellos no sea que alguien les recuerde que son morosos desde hace 40 años, ignoro como funcionara la hidroelectrica en el resto de europa.
Para los grupos en que yo participo la huella de carbono es algo fundamental. Y si una granja concreta sigue ofreciendo lo resultados antes de que el equipo humano tenga que esperar por ellos mientras prepara la siguiente solicitud, no hay motivo para hacer una inversión que además de costosa, implica adquirir un material de nueva fabricación, prejubilando antes de tiempo unos armarios que seguían dando un buen servicio, alimentándose de energía renovable la mayor parte del tiempo.
No se puede ser tan taxativo con afirmaciones tipo "siempre, nunca" Hay algunos que nos tomamos muy en serio la optimización de recursos y la gestión de servicios.
Y a día de hoy, esa estructura sigue ofreciendo una fiabilidad envidiable. Tanto es así que toooodas las veces que se ha estudiado alguna alternativa basada en nube, alquiler, externalización... las cuentas siempre han sido claras. Tenemos sistema de cálculo para rato. Con un coste de mantenimiento irrisorio.
¿Cómo calculáis la huella de carbono? ¿Has calculado el consumo por núcleo de un servidor de hace 12 años, así como el gasto que produce en espacio y refrigeración?
¿A qué llamas "buen servicio"? ¿A servidores-chatarra cuyos componentes a lo mejor ni se fabrican?
Yo no he hablado de "la nube" en ningún momento, sino del hardware. Si tienes "sistema de cálculo para rato" con máquinas obsoletas es porque tus necesidades no han cambiado en todo ese tiempo, lo cual no es lo habitual, y con una eficiencia energética lamentable. Otra cosa es que la energía que utilices sea renovable, pero estás consumiendo mucha más de la necesaria.
A los nuevos os falta saber optimizar. Tenéis herramientitis aguda. En mi sector nos jugamos muchas cosas. No podemos tomarlo todo como un juego de billeteras para paliar carencia de talento. Estamos obligados a ser profesionales.
Hace 12 años estábamos todavía con procesadores Intel Core 2 de 45 nm. Aquí (véase el Yorkfield XE por poner uno) tienes un ejemplo de un procesador de la época que podía llegar a consumir nada menos que 34 W por núcleo (o incluso más). ¿Me estás diciendo que eso es eficiente? Te sería más eficiente, y lo digo en serio sin exagerar, ir a un desguace, coger ordenadores portátiles o de sobremesa de deshecho e instalarlos en los racks sustituyendo a tus servidores Core 2. Encima ibas incluso a ahorrar espacio con un poco de suerte.
¿Saben tus usuarios las máquinas que utilizáis en tu datacenter? Espero que no tengáis "service level agreements" ni nada de eso con máquinas de hace 12 años. Vaya pofesional estás hecho.
Para mi ya dejaste todas tus cartas a la vista, y no es mi estilo dejar a nadie en evidencia.
Necesitas querer aprender más, usuario.
Vas a necesitar aprender a darte cuenta de que sabes poco, para empezar a aprender. Es una actitud errónea la que tienes. Tanto en actitud, como en formación. Tanto si quieres ser un profesional, como si quieres ser respetado por ello.
Te falta mucho chaval. Mucho. Medita sobre ello.
Si una cosa tienen las empresas grandes es que controlan perfectamente la esperanza de vida de sus equipos. Tengo leido que hay ocasiones en las que pueden incluso anticipar fallos con una buena tasa de acierto antes de que el HW reporte errores.