Archivo del sitio

Cómo conseguir que su smartphone trabaje por ustedes o La propagación del mundo geek

Hoy tengo dos puntos que tratar con ustedes, y ambos están relacionados entre sí. El primero es una aplicación que cambiará radicalmente el uso que hacen de su smartphone. El segundo son las vertiginosas consecuencias en nuestro modo de vida que aplicaciones así están suponiendo para todos nosotros.

Empecemos por la primera. Tasker. Una aplicación que uso desde hace unos meses y que, entre todas las que he conocido hasta ahora, es la más revolucionaria, pues permite multiplicar por mucho las capacidades de su smartphone. Hasta ahora los smartphones eran herramientas que ejecutan aplicaciones que de alguna manera nos dan un servicio, pero casi siempre había que alimentarlas con datos y acciones que permitían explotarlas. Tasker es diferente. Con Tasker habrá un antes y un después en cómo interacciona usted con su móvil, o más bien, en lo que su móvil hará de forma automática por usted. Sí, como lo oye, con Tasker su móvil por si solo hará por usted muchas cosas sorprendentes.

Por describirles esta potente aplicación un poco más, sin entrar en detalles técnicos, les diré que es una suerte de entorno de desarrollo simplificado que, tras familiarizarse un poco con la herramienta, permite a un usuario medio programar de forma muy simple acciones que su smartphone ejecutará y que normalmente tendría que hacer usted mismo. Por ponerles algunos ejemplos puedo decirles que Tasker permite que su smartphone detecte él solo cuando usted sale de su trabajo y que le envíe un SMS a su mujer avisándole que está de camino a casa (sé que a algunos no les gustará nada esta posibilidad, pero cada cual que le dé el uso que quiera), o por ejemplo que cada  vez que llegue usted al trabajo su smartphone se ponga por sí mismo en modo vibración sólo mientras usted esté trabajando, o que al llegar a casa active la Wifi y se conecte automáticamente a ella, y que cuando detecte que usted ha tomado la autovía de salida más cercana a su casa, que active automáticamente la antena GPS y lance la aplicación de aviso de radares. Las posibilidades son innumerables. Descárguense la herramienta, jugueteen con ella y con su manual de ayuda, y sorpréndanse. La única restricción es que es un tipo de aplicación que solo tiene sentido y es posible en un ecosistema abierto como Android. No es que tenga nada en contra de los Apple-fans, pero la filosofía abierta de Android tiene también sus ventajas, y ésta es una de ellas, que con Tasker se traduce en hacer de nuestros Androids herramientas únicas, sin comparación a día de hoy en el mercado de smartphones. Y el día que se generalice que las aplicaciones permitan ejecutar ciertas acciones invocándolas por línea de comandos desde Tasker, entonces las posibilidades ya serán cuasi-infinitas.

Una vez hechas las presentaciones sobre esta fantástica aplicación, pasemos a la segunda parte, que es la que más nos interesa según les tengo acostumbrados en este blog: el futuro hacia el que nos lleva este tipo de avances. La consecuencia más importante que veo es que, con aplicaciones así, no sólo la tecnología, sino incluso también las auténticas tripas de la tecnología, son accesibles a cualquier usuario con un poco de interés y tiempo. Se acaba la época de los complejos procesos técnicos a ejecutar para conseguir que la tecnología haga para nosotros algo más que lo accesible a la mayoría de usuarios. Se acaba la época en la que hacen falta conocimientos y formación para hacer muchas cosas. Todo eso se acaba. Con la auténtica y revolucionaria democratización de la tecnología que han traído los smartphones, y ahora más aún con aplicaciones como Tasker, todo eso es cosa del pasado. A partir de ahora, casi cualquiera podrá hacer cosas antes reservadas para unos pocos. Salvo determinadas parcelas, el desarrollo informático se vuelve mainstream. Con las apps los ciclos de vida de un nuevo servicio se han reducido extraordinariamente, especialmente la fase en la que era necesario promocionarse y cultivar una comunidad naciente de unos pocos expertos y entendidos que fuesen apoyando año tras año una nueva tecnología y contribuyendo a su popularización. Lo geek, o el frikismo tecnológico, deja de ser algo distintivo de una minoría, y la minoría serán aquellos que no lo sean.

Hay otras consecuencias más generales que traen este tipo de aplicaciones, pero que ya fueron despuntando con la llegada de los smartphones. No sólo se difumina el concepto de geek o tecno-friki, también se difumina el concepto de early-adopter. La sociedad en general ha descubierto con los smartphones la gran utilidad que tiene la tecnología, y ha cambiado la percepción general de los ciudadanos sobre lo técnico. Ahora todos tenemos una gran predisposición a usar nuevas aplicaciones que nos den nuevos servicios que nos permitan comunicarnos con los demás, compartir fotos, informarnos, etc. Desde los albores de internet y hasta hace unos pocos años, los early-adopters eran esas personas que siempre estaban abiertas a usar nuevos servicios y aplicaciones. Hoy en día, casi todos somos conscientes de lo que una nueva aplicación te puede simplificar la vida y ayudarte. Hoy en día, casi todos buscamos soluciones en Google Play o la AppStore. Hoy en día, casi todos nos instalamos en unos segundos una nueva aplicación que nos ha recomendado un amigo… Hoy en día, casi todos somos early-adopters. Los early-adopters han muerto como tales, vivan los nuevos early-adopters.

Con este post no quiero que se queden con la sensación de que ninguneo a los early-adopters y a los geeks. Nada más lejos de mi intención que echar piedras sobre mi propio tejado. Estos grupos, muchas veces coincidentes, han desarrollado y van a seguir desarrollando un papel de punta de lanza fundamental en la tecnificación y progreso tecnológico de nuestra sociedad. Lo único que trato de decirles es que a partir de ahora casi todos seremos geeks y early-adopters de lo que nos haga falta y nos interese. Un gran éxito de la comunidad geek, sí señor, pues éste ha sido normalmente uno de sus grandes y desinteresados objetivos. Como muestra pueden pensar que son muy pocos los geeks que no se sienten realizados cuando ven a su abuela utilizando Whatsapp.

La reflexión con la que les dejo hoy trata de cómo esta tecnificación general de la sociedad, que al fin y al cabo es una suerte de educación en el campo tecnológico, nos puede llevar a nuevas cotas de progreso desconocidas hasta ahora, y puede acelerar aún más un proceso que ya de por sí era exponencial hasta ahora. Por último, déjenme darles una calurosa y esperada bienvenida al mundo de la programación. Les estábamos esperando desde hace años. Sin duda, descubrirán cómo la programación es creatividad en estado puro, y además ayuda a estructurar la mente, especialmente la de los niños y adolescentes. El límite se lo pone sólo el entorno de desarrollo informático, las posibilidades se las dará su propia imaginación. Sin duda, como con cualquier creación propia, disfrutarán y se realizarán con ello, y de paso formarán parte de un futuro que empieza hoy.

Sígueme en Twitter: @DerBlaueMond

Anuncios

La muerte prematura del Big Data o El cercano fin de la Ley de Moore

Supongo que ustedes ya habrán leído sobre la famosa Ley de Moore, por la cual en 1965, el doctor en química Gordon E. Moore, cofundador de Intel, predijo que cada dos años se duplicaría la densidad de integración de transistores en un circuito integrado. Esta ley ha venido cumpliéndose de forma sorprendente desde que fue formulada, pero parece ser que en los últimos años su validez se está acercando a su fin.

Y se preguntarán ustedes, ¿Y qué me importa a mí que se cumpla o no esta ley?. Nos puede afectar mucho a todos, puesto que la tecnología hoy en día forma parte indisoluble de nuestra forma y calidad de vida, y que la Ley de Moore deje de cumplirse implica que la progresión de la potencia de los nuevos procesadores informáticos, la progresión de la capacidad de memoria, etc. se verán abruptamente interrumpidas, con todo lo que ello conlleva según analizaremos con más detenimiento más adelante.

El motivo de esta muerte repentina no es baladí, ni más ni menos tiene relación con las leyes de la física de escala subatómica, que son distintas también en electrónica a aquellas del mundo macroscópico, y que hacen que la Ley de Moore esté acercándose a un límite por debajo del cual dejará de poder predecir el futuro de la informática: la progresiva miniaturización de los transistores hacen que a día de hoy empiecen a tener unas dimensiones tan reducidas que sean de un orden de magnitud comparable a las partículas atómicas, con lo cual las interacciones entre componentes y sus propiedades electromagnéticas se ven seriamente alteradas respecto a las que se deberían dar en el mundo macroscópico, imposibilitando el correcto funcionamiento de los futuros chips de silicio o, en todo caso, poniendo un límite claro a la hasta ahora progresiva integración electrónica.

Se podría decir que la humanidad actualmente vive en la Era del Silicio, pero es obvio que, tal y como ha ocurrido tantas veces a lo largo de la historia, más pronto o más tarde, habrá un cambio tecnológico que se basará en la utilización de nuevos materiales y sustratos, que obligará a la formulación de nuevas leyes, y que en este caso concreto puede consistir en utilizar nanotecnología de grafeno y nitruro de boro hexagonal que, a priori, por su propia naturaleza y definición, van a permitir unas escalas de integración muy superiores a la tecnología de silicio actual, pudiendo llegar incluso al primer circuito integrado con el grosor de un solo átomo. Pero estarán de acuerdo en que este posible avance microelectrónico que supondría la utilización del grafeno, a nivel de miniaturización, supondría únicamente un “kicking the can down the road” (es decir, procrastinación o cómo se suele decir “una patada para adelante”), puesto que el átomo es la unidad última que compone la materia, con lo que alcanzar dimensiones de tan sólo un átomo es un límite a priori infranqueable a cuya limitación nos enfrentaremos más pronto que tarde.

Algunos argumentarán que la computación cuántica permite rebasar esa limitación de la escala atómica. Razón no les falta, pero siento decirles que, en mi humilde opinión, es una tecnología que todavía está muy inmadura y dudo mucho que veamos el ordenador cuántico hecho realidad antes de tener que enfrentarnos al límite atómico que les comentaba.

Suponiendo que la llegada de una nueva tecnología se retrase con respecto a cuándo sea imperiosamente necesaria, pasemos a pensar en las consecuencias de un frenazo en seco de la evolución de la potencia de nuestros procesadores y memorias. El primer afectado sería sin lugar a dudas el Big Data. Para los no versados les resumiré que el Big Data se trata principalmente de explotar de forma coherente toda la información que acumulan empresas, organizaciones e instituciones en diferentes bases de datos, lo cual es una ardua labor, no sólo por las complicaciones técnicas de las diferentes tecnologías de cada fabricante, sino principalmente por el tremendo volumen de datos que se guardan en la actualidad y que no son correctamente aprovechados.

La razón por las que les decía que el Big Data sería el primer afectado no es sólo porque se trata de una tecnología en ciernes que todavía no ha alcanzado su punto álgido, sino también por tratarse de un mundo en el cual, como les introducía antes, la característica más destacable es la heterogeneidad y multiplicidad de fuentes de datos, lo cual añadido al gran volumen de los mismos, hacen que el Big Data sea una nueva ola tecnológica que precisará de una capacidad de proceso y una velocidad del mismo de un orden de magnitud muy superior al actual. Sí, están entendiendo lo que les estoy tratando de decir. La coincidencia temporal actual del incipiente Big Data junto con sus voraces necesidades de recursos informáticos pueden hacer que, en caso de que la humanidad no sea capaz de superar en breve la caducidad de la Ley de Moore, el Big Data pueda ser un caso de muerte prematura antes de alcanzar su punto máximo de desarrollo.

Las implicaciones de esto son incuantificables, tal vez el tema del Big Data les sea ajeno, por ahora, pero en todo estudio de impactos hay que tener en cuenta no sólo los problemas actuales, sino también las repercusiones futuras. Y tal vez se digan ustedes, “He vivido hasta hoy sin el Big Data y puedo seguir viviendo sin él”. Sí, esto es cierto, pero también lo es el hecho de que el progreso empresarial, institucional y social que supondría sería no sólo relevante, sino desproporcionado diría yo. Los avances que permitiría son de impacto incuantificable a día de hoy por su importancia. El Big Data nos cambiará la forma de convivir con esta maraña actual de información que supone internet y las intranets. El acceso cuasi-universal a internet ha sido sólo el primer paso. Ahora la información está ahí, pero hay que conseguir explotarla de forma útil y eficiente, y es aquí donde entra en juego el Big Data. Áreas tan importantes como las Smart Cities, la Bioinformática, y otros campos que hagan un uso intensivo de datos, verían truncada su evolución.

Además, es difícil determinar a día de hoy el momento exacto en el que la Ley de Moore dejará de cumplirse, y por lo tanto es posible que esto ocurra cuando el cohete del Big Data ya haya despegado pero todavía no haya alcanzado la cresta de la ola. Con ello quiero decirles que tal vez la interrupción abrupta de la evolución de un Big Data que ya esté en camino sea peor que no haberlo desarrollado nunca. Y a esto es a lo que nos enfrentamos obviando a Moore.

Seguramente veremos una vuelta atrás en la movilidad: los dispositivos más potentes serán necesariamente más grandes, tal y como ocurre ahora, pero sin la tendencia actual de, con el paso del tiempo, reducir el espacio e incrementar la capacidad de proceso. Esto implica una vuelta a los macro Centros de Datos (que realmente nunca nos han acabado de dejar, la nube simplemente los ha ubicado en otros sitios), porque mientras no dejemos atrás la Era del Silicio, y una vez echado el freno a la Ley de Moore, evolución con más potencia implicará necesariamente más espacio. Ya no habrá democratización de la potencia de procesamiento: el espacio, la capacidad, la potencia y la infraestructura serán para los que se la puedan permitir.

Por otro lado, hay otras consecuencias que podemos entrever y que no serían tan catastróficas. En esta categoría se podría incluir el hecho de que la obsolescencia natural de ciertas tecnologías dejaría de ser un hecho, dado que ya no habría un nuevo ordenador más potente que por ejemplo pueda pasar ya a romper en un tiempo razonable una criptografía que hasta el momento era segura.

Pero no me lancen las campanas al vuelo, probablemente la insignificancia relativa de estas ventajas se vea eclipsada por los feroces efectos sobre una industria tecnológica deflacionaria por naturaleza, pero que gracias a la innovación compensa su obsolescencia innata. Posiblemente dejaríamos de esperar a que la tecnología, siempre con un precio de salida desorbitado, fuese poco a poco volviéndose más asequible conforme se vuelve madura. Esta pseudo-democratización de los avances tecnológicos, por la cual las clases medias y bajas sólo tienen que esperar para poder tener acceso a los avances tecnológicos, puede verse interrumpida. Y tengan en cuenta que esta tendencia actual reporta (supuestos) beneficios cuantificables e incuantificables, como son la fatua felicidad que el sistema capitalista nos reporta con esa ilusoria sensación de ser más ricos que antes por poder tener algo que antes no nos podíamos permitir, con efectos sobre la estabilidad social y, cómo no, afectando también al beneficio que el propio sistema capitalista reporta a sus inversores, puesto que a día de hoy, la economía de escala hace que los productos sean más rentables cuando alcanzan su mayor difusión con la comercialización entre el grueso de la población. Por otro lado, seguramente, con el final de la Ley de Moore veríamos una aceleración considerable de la conversión de los recursos informáticos en utility, se compraría capacidad de proceso de forma simplificada y al por mayor, tal y como contratamos actualmente el agua o la electricidad, puesto que el frenazo de la progresión del hardware tendería a homogenizar el producto.

Y no se me equivoquen, no toda evolución tecnológica sufriría un frenazo en seco. Siempre hay lugar para la innovación. Siempre hay nuevas aplicaciones y servicios por idear que requieran poca evolución de la potencia de procesadores y memorias. Y recuerden que, además, la eficiencia está en la escasez, y el tándem evolución conjunta hardware-software ha hecho que muchas veces el uso que se hace del hardware no sea todo lo eficiente que podría ser, puesto que se asume siempre una futura plataforma hardware más potente sobre la que desplegar la siguiente versión de servicios y aplicaciones.

Con esto no quiero apartarme de mi tesis inicial del gran impacto que la muerte de la Ley de Moore tendrá sobre nuestras vidas futuribles, que no se puede calificar más que de muy importante, lo único es que no consideraría este análisis completo sin profundizar en todas estas diferentes facetas.

Me despediré recordándoles que el futuro siempre es apasionante, pero también, por su propia naturaleza, generalmente imprevisible. Es un error dejarse llevar por la deriva de lo que hasta ahora ha sido una forma de vida o de negocio. Todo es susceptible de acabarse en cualquier momento, especialmente en lo que a evolución tecnológica se refiere. Y no hay que adoptar un papel pasivo ante la sucesión de acontecimientos. Los gobiernos deberían tomar partido en la investigación de un nuevo campo tecnológico que puede ser que a día de hoy aún no sea rentable, pero que sea estratégico por la propia amenaza que Moore nos deja como legado. La universalidad de la amenaza hace que la solución sea un bien globalmente necesario o… tal vez no tanto, porque quien desarrolle una nueva tecnología y no la “globalice” compartiéndola con los demás podría dominar el mundo.

Sígueme en Twitter: @DerBlaueMond

Neurociencia o La próxima gran revolución tecnológica

El final de la década de los noventa, y el principio de la década de 2000 a 2010, se han caracterizado por haber visto una profunda revolución de las telecomunicaciones y la informática. Los reputados visionarios de determinados foros internacionales nos dicen que la próxima gran revolución va a venir de la mano de la medicina y la técnica. Y yo creo que razón no les falta, pero me atrevería en este post a aventurar con mayor nivel de detalle el alcance de estos futuros avances.

Lo que podemos acuñar ya como Neurociencia puede ser una realidad antes de lo que podamos imaginar. Hace ya algunos años, se publicó un exitoso experimento por el cual se conectó un chip electrónico a las neuronas de un ratón, y era posible que los impulsos eléctricos de uno y otro interaccionasen entre sí. Futurista y prometedor, ¿No?. Pero realmente, puede ser más o menos sencillo transmitir impulsos eléctricos cerebrales a un chip y viceversa, puesto que, al fin y al cabo, son ambos señales eléctricas, y, aunque de diferentes voltajes y características, resulta a priori más o menos sencillo concebir su interoperabilidad mediante las conversiones eléctricas que puedan ser necesarias entre medias.

El alcance de la Neurociencia como tal llegaría mucho más allá de esta mera interacción eléctrica. Estoy de acuerdo en que dicha interacción es verdaderamente la base de todo este nuevo campo, pero es una base tan elemental que su mera existencia no deja más que un largo camino por delante. Porque se hagan una idea, esta interacción eléctrica sería el equivalente a poder transmitir un byte de un ordenador a otro a través de un cable. Esto es algo que es necesario, pero sobre ello hay que construir todo internet, con sus protocolos e información para que ese dato a transmitir tenga significado, y sobre ello van después las redes sociales, aplicaciones, etc. Por lo tanto, y comparando con la fecha de la primera transmisión de información entre computadoras, pueden quedarnos décadas de avances en el nuevo campo de la Neurociencia hasta que se pueda traducir en innovadoras aplicaciones prácticas para los seres vivos. Una de ellas sería la virtualización de los seres humanos que les proponía en el post de “Futura revolución: La inversa de Matrix o… no tan inversa” como única salida para el futuro de nuestra civilización: para interaccionar con nuestras vidas virtualizadas sería obviamente necesario disponer de todo un gran sistema, al estilo de The Matrix, con el que los impulsos eléctricos de nuestros cerebros interactuarían.

Pero pasemos a analizar con un poco más de detalle qué implicaciones pueden tener estos avances neurocientíficos y el porqué de su posible complejidad. Empecemos por la base. Un impulso eléctrico es una señal que en electrónica digital traduce un bit de valor “0” por 0 voltios, y un bit de valor “1” por 5 voltios. Desconozco las especificaciones de las señales eléctricas biológicas de nuestros cerebros, si bien a buen seguro son también una señal eléctrica con variaciones de voltaje, aunque de una magnitud muy inferior a un voltio. Pero la similitud de ambas señales está ahí, sólo hace falta una mera conversión de umbrales eléctricos. Y, como decíamos antes, ésta es la base de todo, pero es una base tan elemental que nos queda mucho camino por recorrer.

El primer escollo puede venir por el tipo de señal de los cerebros. Los chips sabemos que son digitales: reducen todos los datos que manejan a ceros y unos (recordemos, 0 voltios o 5 voltios). Pero, ¿Cómo son las señales del cerebro?. Analógicas. ¿Qué quiere decir esto?: que las señales eléctricas que nuestros cerebros emiten y reciben no son una sucesión de ceros y unos, sino que son señales que varían libremente en voltaje dentro de un rango eléctrico determinado. Para que se hagan una idea, podemos usar el símil de la música: ustedes oyen una señal analógica que varía en tono e intensidad según unos patrones determinados (los que produce el grupo musical en concreto que esté interpretando), pero en el CD esa señal está almacenada como una sucesión de ceros y unos que se utilizan para reconstruir una señal analógica continua que hace vibrar el aire y después llega a sus oídos. El símil de la audición se queda corto, puesto que se limita a “grabar” un sonido analógico, traducirlo a digital, almacenar los ceros y unos en el CD, y luego el proceso inverso: recuperar los ceros y unos del CD, reconstruir una señal analógica, y hacer vibrar el aire para que llegue a nuestros oídos. El problema con las señales cerebrales es que no sabemos aún apenas nada sobre ellas, y que su procesado no se limita a grabarlas para luego reproducirlas, sino en descifrar la información que contienen y en base a ello interactuar con chips electrónicos de uno u otro modo. Dado el amplio espectro de funciones del cerebro, la cantidad de información contenida en estas señales analógicas es tan enorme que no hay que descartar que se pueda dar cierto nivel de multiplexación (coexistencia de diferentes señales con información sobre una única señal de salida resultante), lo cual no añade sino un nivel más de complejidad al asunto. Y el gran escollo es que a día de hoy apenas tenemos idea de cómo el cerebro almacena, procesa y transmite esas cantidades ingentes de información a cada segundo.

Pero vayamos un paso más allá. Analicemos con un poco más de detalle el funcionamiento del cerebro haciendo símiles con la arquitectura de los ordenadores que todos tenemos en casa (es el invento humano que más similitud puede tener con el cerebro). A grandes rasgos, podemos diferenciar entre almacenamiento y procesamiento. Almacenamiento es lo que hace la RAM o el disco duro, guardar datos. Procesamiento es lo que hace la CPU o procesador, transformar información y hacer cálculos para obtener un resultado.

Empecemos por el almacenamiento. Las principales características del mismo son la persistencia de los datos y su direccionamiento. La persistencia es obvia, pues un dato debe estar ahí cuando vamos a buscarlo… eso sí, hemos podido olvidarlo ya en el caso del cerebro, o puede haber sufrido una corrupción de datos en el caso del ordenador. Para el tema que nos ocupa, la persistencia no es algo sobre lo que debamos profundizar. Caso diferente es el direccionamiento, pero es un concepto sencillo: para almacenar o recuperar un dato, hemos de saber su ubicación: dónde está almacenado. En un ordenador esto se limita a una ristra de bits (ceros y unos) que indican la posición en el chip donde está el dato a grabar o leer. Sencillo, ¿No?. Pero, ¿Cómo será en el caso del cerebro?. ¿Cómo sabe el cerebro dónde ha de guardar un dato u otro?, ¿Y cómo sabe dónde ir a buscarlo después?. La cuestión además se complica puesto que se sabe que nuestro cerebro tiene diferentes tipos de memoria en base a la procedencia de los estímulos: visual, olfativa, táctil, auditiva, de los propios pensamientos… y diferentes tipos de memoria en base a su persistencia: instantánea, reciente, pasada… Desconozco las respuestas a todas estas cuestiones que les acabo de plantear, y sobre ellas posiblemente algún programa de Eduardo Punset pueda arrojar algo más de luz, pero a buen seguro todavía siguen siendo en buena medida misterios insondables para la ciencia.

¿Y qué me dicen respecto a la capacidad de proceso?. Si les digo que, al menos en arquitectura de computadores, la memoria es el caso fácil, no se me echen a temblar, que no voy a abordar en este párrafo el lenguaje ensamblador de nuestros cerebros, podemos hacernos una idea del asunto con cuestiones sencillas. ¿Dónde reside nuestra conciencia?, ¿Es algo similar a nuestra “alma” con una ubicación determinada en el cerebro o está distribuida por varias regiones cerebrales?, ¿Hay en el cerebro un punto físico único por el que discurran todos nuestros pensamientos, a modo de red troncal, donde poder “pinchar” cables que puedan permitirnos interactuar totalmente con chips electrónicos?. Dado que podemos tener en paralelo varios pensamientos diferentes a un mismo tiempo, ¿Cómo codifica ésto el cerebro en señales?, ¿Se trata de una única señal multiplexada entre neuronas o varias señales diferentes?. Es relativamente sencillo almacenar una sensación visual, auditiva… pues se trata simplemente de “copiar” en la memoria la señal que viene del sentido correspondiente, pero ¿Cómo se memoriza un pensamiento?. ¿Y qué me dicen de la creatividad?: es, junto con los sentimientos, uno de los principales factores diferenciales entre una mente humana y una artificial (ya abordamos este tema en otro post: “En el futuro todo el mundo será famoso durante 15 minutos o Redes Sociales vs Inteligencia Artificial”). ¿Cómo genera el cerebro una nueva idea?, ¿Cómo se procesa la información de la que disponemos para que se nos ocurra algo nuevo?. Siento decirles de nuevo que no tengo respuestas, pero realmente la intención de éste párrafo y el anterior se limitaba a hacerles entrever el alcance y la complejidad de los avances que tenemos por delante en este campo.

Pero aventurémonos un poco con aplicaciones prácticas de estos supuestos avances de la Neurociencia. Dada la idea de la complejidad que el análisis anterior nos ha permitido tener, podríamos decir que veremos primeramente implantes de memoria que nos permitan multiplicar tanto el número de datos que somos capaces de recordar, como incrementar o hacer que su persistencia sea mayor, o incluso perpetua. Como veíamos, la memoria es conceptualmente mucho más sencilla de manejar desde un punto de vista funcional. Y les confesaré que, a partir de cierta edad, éste sería un avance con un impacto social importante, puesto que la evolución del raciocinio, y la pérdida de memoria, son dos hechos constatados con el paso de los años en la especie humana. ¿Se imaginan dónde llegaría nuestra especie si pudiésemos actuar con la experiencia de un sexagenario y la memoria de un niño?. Posteriormente tal vez veamos implantes de capacidad de proceso para ampliar la potencia de cálculo y pensamiento de nuestros cerebros, tema que se me antoja mucho más complejo. Con todo ello, lo único que puede diferenciar a una persona de avanzada edad de una joven será la experiencia adquirida con el paso de los años, aunque tal vez ése sea el siguiente paso a realizar: que vendan a la gente joven implantes neuronales para poder razonar y pensar como una persona que tiene ya una dilatada experiencia en la vida. Estarán de acuerdo conmigo en que las implicaciones socioeconómicas de todo esto son de una magnitud insondable. Pero algo que deberá preocuparnos en su momento será que estos avances no nos lleven a una oligarquía, en la que las personas con más recursos económicos sean las que más capacidades psíquicas puedan bioimplantarse, y por lo tanto sean las clases que se perpetúen como directivos de nuestras empresas y gobiernos por ser las más capacitadas e “inteligentes” (si, ya sé que en nuestras democracias los más capacitados o “inteligentes” no tienen por qué coincidir con los directivos de empresas o gobiernos, pero es cierto que ayuda a llegar más alto).

Pero no se desanimen, este es un futuro que está ahí, y puede que la complejidad que les he hecho entrever haga que tarde un poco más en llegar, si bien está claro que, más pronto o más tarde, lo veremos hecho realidad, el infinito temporal es lo único que tenemos por delante, eso sí, si no nos autoextinguimos antes.

Para finalizar, me gustaría disculparme por el nivel técnico de este post. He intentado simplificar y hacer entendible para cualquier persona los conceptos que hemos manejado, pero para el tema sobre el que hemos reflexionado, era imposible no abordar estos aspectos.

Sígueme en Twitter: @DerBlaueMond

A %d blogueros les gusta esto: