IBM construye el almacén de datos más grande del mundo
30/08/2011
El banco de datos electrónicos más grande del mundo se está construyendo actualmente en los laboratorios de investigación de IBM en Almaden California. El otrora líder informático está apilando 200,000 discos duros convencionales en una red que, en conjunto, ofrece una capacidad de 120 petabytes (o 120 millones de gigabytes).

Fuente:  www.cronica.com.mx  Fecha:  30.08.2011

Para poner esa exorbitante cifra en perspectiva, podemos decir que ese espacio es capaz de almacenar unas 24 mil millones de canciones en MP3 y es significativamente más amplio que el almacén virtual de datos que hasta hoy ostenta el título del más grande, con capacidad para 15 petabytes.

La empresa desarrolló el sistema para un cliente anónimo que busca realizar simulaciones complejas, pero Bruce Hillsberg, director de Investigación de Almacenamiento de IBM, dice que puede ser sólo cuestión de tiempo antes de que todas las arquitecturas de computación en la nube se muden a sistemas similares.

Y es que los ingenieros detrás del monstruo idearon una arquitectura súper veloz de procesamiento de datos que permite al sistema leer y escribir archivos de forma simultánea a un ritmo vertiginoso, además, cuando un disco duro esté por fallar, toda la información contenida en él migrará a otro disco de forma automática para evitar un pérdidas de datos o un colapso parcial en el sistema que dé como resultado una ralentización de procesos.

Sobre el rango de aplicaciones de un servidor de estas magnitudes, Steve Conway, vicepresidente de IDC, la firma de analistas en cómputo de alto desempeño, dijo al blog TechReview del Massachusetts Institute of Technology (MIT), que podría apoyar a la predicción del clima, el análisis de datos sísmicos en la industria del petróleo y a los estudios genómicos, por mencionar algunos.

Cornway también explicó que la necesidad de estas supercomputadoras obedece a la complejidad de los ejercicios de simulación realizados en las áreas mencionadas y en otras más, en las que se hacen respaldos programados durante el proceso en caso de que no se complete en su totalidad, lo que dispara exponencialmente las necesidades de almacenamiento.