fayerwayer

Exceso de datos: ¿Llegaremos a un colapso?

Se espera que para 2013 se generen 5.000 millones de GB cada 10 minutos.

Dicen que demasiada información puede volverte loco, y quizás eso es lo que le pasa a nuestro mundo en la actualidad. El vicepresidente de supercomputadoras de IBM, Dave Turek, hizo notar en una editorial de BusinessWeek la gran cantidad de datos que estamos generando día a día en el mundo.

Por ejemplo, entre el inicio de la historia humana y el año 2003, nuestra especie generó 5 exabytes (5.000 millones de GB) de información. En 2011, empezamos a generar 5 exabytes de datos cada dos días, y en 2013, se espera que esa cantidad se genere cada 10 minutos. ¿Mucho?

No cabe duda de que la información que producimos es mucha más de la que podemos abarcar – la pregunta es, ¿esto nos volverá locos? ¿Cuánto podemos aguantar antes de que lleguemos a un colapso, mental y financiero?

Muchos tienden a olvidar que los datos, aunque estén “en la nube”, ocupan espacio en servidores y discos duros, y las máquinas que los almacenan deben ser mantenidas, asunto que cuesta mucho dinero en mantener – para IBM, el costo de 1 exabyte está en torno a los USD$10 millones.

Hasta ahora, la mayoría de los ingenieros e investigadores tecnológicos confiaban en que operaría la Ley de Moore, que asegura que la densidad de los transistores de computadoras se doblará cada 18 meses aproximadamente, haciendo que las máquinas – y el almacenamiento – se vuelvan cada vez más pequeños. La predicción de Moore ha funcionado hasta el momento, sin embargo, en la actualidad hay varias voces que sugieren que nos estamos acercando al límite – el final de esta ley.

Dave Turek señala que a medida que los chips se vuelven más densos y más pequeños, también generan más calor, lo que significa que se requiere más energía para enfriarlos. Algunos han sugerido trasladar los datacenter a los extremos polares, una solución que podría no ser muy inteligente si consideramos los daños que podría producir al medioambiente.

Otra sugerencia menos invasiva es crear máquinas de grafeno y otros nanomateriales, o lograr los computadores cuánticos, dejando de lado el silicio. La duda es si esto se logrará en los próximos 10 a 15 años, momento en que se cree que alcanzaremos un límite.

Según explica el físico teórico Michio Kaku, “el problema es que un chip Pentium tiene hoy una capa de apenas 20 átomos de espacio. 20 átomos. Cuando esa capa llegue a unos 5 átomos, se acabó todo. Tienes dos efectos, primero el calor. La generación de calor será tan grande que el chip se derretirá”, explica. “El segundo es la filtración. (…) Ya no sabes dónde está el electrón, lo que significa que podría estar fuera de los cables, fuera del chip o adentro. Hay un límite final impuesto por las leyes de la termodinámica y la mecánica cuántica respecto de cuánto poder computacional puedes lograr con el silicio”, afirma.

Por cierto, también hay una teoría que dice que llegaremos a un límite de la información que podemos producir, debido a nuestra propia inhabilidad mental para procesar todo. De acuerdo a esta teoría, estamos limitados en la cantidad de información que generamos por nuestra habilidad para consumirla.

La solución no está clara, aunque existen varias posibilidades para resolver este problema que no muchas veces tomamos en cuenta. ¿Encontraremos la manera de salir adelante antes de caer en el colapso?

Links:
The case agains digital sprawl (BusinessWeek)
Michio Kaku: Tweaking Moore’s Law ad the computers of the post-silicon era (Big Think)
Is big data leading us to financial and mental bankrupcy? (The Verge)

Tags

Lo Último


Te recomendamos