La muerte prematura del Big Data o El cercano fin de la Ley de Moore

Supongo que ustedes ya habrán leído sobre la famosa Ley de Moore, por la cual en 1965, el doctor en química Gordon E. Moore, cofundador de Intel, predijo que cada dos años se duplicaría la densidad de integración de transistores en un circuito integrado. Esta ley ha venido cumpliéndose de forma sorprendente desde que fue formulada, pero parece ser que en los últimos años su validez se está acercando a su fin.

Y se preguntarán ustedes, ¿Y qué me importa a mí que se cumpla o no esta ley?. Nos puede afectar mucho a todos, puesto que la tecnología hoy en día forma parte indisoluble de nuestra forma y calidad de vida, y que la Ley de Moore deje de cumplirse implica que la progresión de la potencia de los nuevos procesadores informáticos, la progresión de la capacidad de memoria, etc. se verán abruptamente interrumpidas, con todo lo que ello conlleva según analizaremos con más detenimiento más adelante.

El motivo de esta muerte repentina no es baladí, ni más ni menos tiene relación con las leyes de la física de escala subatómica, que son distintas también en electrónica a aquellas del mundo macroscópico, y que hacen que la Ley de Moore esté acercándose a un límite por debajo del cual dejará de poder predecir el futuro de la informática: la progresiva miniaturización de los transistores hacen que a día de hoy empiecen a tener unas dimensiones tan reducidas que sean de un orden de magnitud comparable a las partículas atómicas, con lo cual las interacciones entre componentes y sus propiedades electromagnéticas se ven seriamente alteradas respecto a las que se deberían dar en el mundo macroscópico, imposibilitando el correcto funcionamiento de los futuros chips de silicio o, en todo caso, poniendo un límite claro a la hasta ahora progresiva integración electrónica.

Se podría decir que la humanidad actualmente vive en la Era del Silicio, pero es obvio que, tal y como ha ocurrido tantas veces a lo largo de la historia, más pronto o más tarde, habrá un cambio tecnológico que se basará en la utilización de nuevos materiales y sustratos, que obligará a la formulación de nuevas leyes, y que en este caso concreto puede consistir en utilizar nanotecnología de grafeno y nitruro de boro hexagonal que, a priori, por su propia naturaleza y definición, van a permitir unas escalas de integración muy superiores a la tecnología de silicio actual, pudiendo llegar incluso al primer circuito integrado con el grosor de un solo átomo. Pero estarán de acuerdo en que este posible avance microelectrónico que supondría la utilización del grafeno, a nivel de miniaturización, supondría únicamente un “kicking the can down the road” (es decir, procrastinación o cómo se suele decir “una patada para adelante”), puesto que el átomo es la unidad última que compone la materia, con lo que alcanzar dimensiones de tan sólo un átomo es un límite a priori infranqueable a cuya limitación nos enfrentaremos más pronto que tarde.

Algunos argumentarán que la computación cuántica permite rebasar esa limitación de la escala atómica. Razón no les falta, pero siento decirles que, en mi humilde opinión, es una tecnología que todavía está muy inmadura y dudo mucho que veamos el ordenador cuántico hecho realidad antes de tener que enfrentarnos al límite atómico que les comentaba.

Suponiendo que la llegada de una nueva tecnología se retrase con respecto a cuándo sea imperiosamente necesaria, pasemos a pensar en las consecuencias de un frenazo en seco de la evolución de la potencia de nuestros procesadores y memorias. El primer afectado sería sin lugar a dudas el Big Data. Para los no versados les resumiré que el Big Data se trata principalmente de explotar de forma coherente toda la información que acumulan empresas, organizaciones e instituciones en diferentes bases de datos, lo cual es una ardua labor, no sólo por las complicaciones técnicas de las diferentes tecnologías de cada fabricante, sino principalmente por el tremendo volumen de datos que se guardan en la actualidad y que no son correctamente aprovechados.

La razón por las que les decía que el Big Data sería el primer afectado no es sólo porque se trata de una tecnología en ciernes que todavía no ha alcanzado su punto álgido, sino también por tratarse de un mundo en el cual, como les introducía antes, la característica más destacable es la heterogeneidad y multiplicidad de fuentes de datos, lo cual añadido al gran volumen de los mismos, hacen que el Big Data sea una nueva ola tecnológica que precisará de una capacidad de proceso y una velocidad del mismo de un orden de magnitud muy superior al actual. Sí, están entendiendo lo que les estoy tratando de decir. La coincidencia temporal actual del incipiente Big Data junto con sus voraces necesidades de recursos informáticos pueden hacer que, en caso de que la humanidad no sea capaz de superar en breve la caducidad de la Ley de Moore, el Big Data pueda ser un caso de muerte prematura antes de alcanzar su punto máximo de desarrollo.

Las implicaciones de esto son incuantificables, tal vez el tema del Big Data les sea ajeno, por ahora, pero en todo estudio de impactos hay que tener en cuenta no sólo los problemas actuales, sino también las repercusiones futuras. Y tal vez se digan ustedes, “He vivido hasta hoy sin el Big Data y puedo seguir viviendo sin él”. Sí, esto es cierto, pero también lo es el hecho de que el progreso empresarial, institucional y social que supondría sería no sólo relevante, sino desproporcionado diría yo. Los avances que permitiría son de impacto incuantificable a día de hoy por su importancia. El Big Data nos cambiará la forma de convivir con esta maraña actual de información que supone internet y las intranets. El acceso cuasi-universal a internet ha sido sólo el primer paso. Ahora la información está ahí, pero hay que conseguir explotarla de forma útil y eficiente, y es aquí donde entra en juego el Big Data. Áreas tan importantes como las Smart Cities, la Bioinformática, y otros campos que hagan un uso intensivo de datos, verían truncada su evolución.

Además, es difícil determinar a día de hoy el momento exacto en el que la Ley de Moore dejará de cumplirse, y por lo tanto es posible que esto ocurra cuando el cohete del Big Data ya haya despegado pero todavía no haya alcanzado la cresta de la ola. Con ello quiero decirles que tal vez la interrupción abrupta de la evolución de un Big Data que ya esté en camino sea peor que no haberlo desarrollado nunca. Y a esto es a lo que nos enfrentamos obviando a Moore.

Seguramente veremos una vuelta atrás en la movilidad: los dispositivos más potentes serán necesariamente más grandes, tal y como ocurre ahora, pero sin la tendencia actual de, con el paso del tiempo, reducir el espacio e incrementar la capacidad de proceso. Esto implica una vuelta a los macro Centros de Datos (que realmente nunca nos han acabado de dejar, la nube simplemente los ha ubicado en otros sitios), porque mientras no dejemos atrás la Era del Silicio, y una vez echado el freno a la Ley de Moore, evolución con más potencia implicará necesariamente más espacio. Ya no habrá democratización de la potencia de procesamiento: el espacio, la capacidad, la potencia y la infraestructura serán para los que se la puedan permitir.

Por otro lado, hay otras consecuencias que podemos entrever y que no serían tan catastróficas. En esta categoría se podría incluir el hecho de que la obsolescencia natural de ciertas tecnologías dejaría de ser un hecho, dado que ya no habría un nuevo ordenador más potente que por ejemplo pueda pasar ya a romper en un tiempo razonable una criptografía que hasta el momento era segura.

Pero no me lancen las campanas al vuelo, probablemente la insignificancia relativa de estas ventajas se vea eclipsada por los feroces efectos sobre una industria tecnológica deflacionaria por naturaleza, pero que gracias a la innovación compensa su obsolescencia innata. Posiblemente dejaríamos de esperar a que la tecnología, siempre con un precio de salida desorbitado, fuese poco a poco volviéndose más asequible conforme se vuelve madura. Esta pseudo-democratización de los avances tecnológicos, por la cual las clases medias y bajas sólo tienen que esperar para poder tener acceso a los avances tecnológicos, puede verse interrumpida. Y tengan en cuenta que esta tendencia actual reporta (supuestos) beneficios cuantificables e incuantificables, como son la fatua felicidad que el sistema capitalista nos reporta con esa ilusoria sensación de ser más ricos que antes por poder tener algo que antes no nos podíamos permitir, con efectos sobre la estabilidad social y, cómo no, afectando también al beneficio que el propio sistema capitalista reporta a sus inversores, puesto que a día de hoy, la economía de escala hace que los productos sean más rentables cuando alcanzan su mayor difusión con la comercialización entre el grueso de la población. Por otro lado, seguramente, con el final de la Ley de Moore veríamos una aceleración considerable de la conversión de los recursos informáticos en utility, se compraría capacidad de proceso de forma simplificada y al por mayor, tal y como contratamos actualmente el agua o la electricidad, puesto que el frenazo de la progresión del hardware tendería a homogenizar el producto.

Y no se me equivoquen, no toda evolución tecnológica sufriría un frenazo en seco. Siempre hay lugar para la innovación. Siempre hay nuevas aplicaciones y servicios por idear que requieran poca evolución de la potencia de procesadores y memorias. Y recuerden que, además, la eficiencia está en la escasez, y el tándem evolución conjunta hardware-software ha hecho que muchas veces el uso que se hace del hardware no sea todo lo eficiente que podría ser, puesto que se asume siempre una futura plataforma hardware más potente sobre la que desplegar la siguiente versión de servicios y aplicaciones.

Con esto no quiero apartarme de mi tesis inicial del gran impacto que la muerte de la Ley de Moore tendrá sobre nuestras vidas futuribles, que no se puede calificar más que de muy importante, lo único es que no consideraría este análisis completo sin profundizar en todas estas diferentes facetas.

Me despediré recordándoles que el futuro siempre es apasionante, pero también, por su propia naturaleza, generalmente imprevisible. Es un error dejarse llevar por la deriva de lo que hasta ahora ha sido una forma de vida o de negocio. Todo es susceptible de acabarse en cualquier momento, especialmente en lo que a evolución tecnológica se refiere. Y no hay que adoptar un papel pasivo ante la sucesión de acontecimientos. Los gobiernos deberían tomar partido en la investigación de un nuevo campo tecnológico que puede ser que a día de hoy aún no sea rentable, pero que sea estratégico por la propia amenaza que Moore nos deja como legado. La universalidad de la amenaza hace que la solución sea un bien globalmente necesario o… tal vez no tanto, porque quien desarrolle una nueva tecnología y no la “globalice” compartiéndola con los demás podría dominar el mundo.

Sígueme en Twitter: @DerBlaueMond

Acerca de derblauemond

En la vorágine de la vida diaria que nos ha tocado vivir en esta sociedad del siglo XXI, apenas tenemos tiempo para pararnos a pensar, tiempo para la reflexión, tiempo para averiguar de dónde venimos y a dónde vamos. Acabamos haciendo las cosas de forma rutinaria, mecánica, como auténticos autómatas. Es por ello por lo que he creado este blog con la sana intención de, cada cierto tiempo, reservarme unos minutos de mi vida para darle vueltas a los temas que me interesan y colgarlos después en un post para compartirlos con todos vosotros. Podéis seguirme también en mi cuenta de Twitter @DerBlaueMond

Publicado el 7 marzo, 2013 en Ciencia, Tecnología y etiquetado en , , , , , , , , , , , , , , , , , , , , , , , , , , , . Guarda el enlace permanente. Deja un comentario.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: