Archivo de la categoría: Ciencia

El impacto del pánico colectivo sobre el progreso o El lógico miedo ante lo desconocido

Hace algún tiempo leí un extracto de prensa de finales del siglo XIX en el cual el autor reflejaba la preocupación existente en la época por las velocidades alcanzadas por el entonces revolucionario ferrocarril. Más concretamente, la sociedad se preguntaba por los efectos sobre la salud de viajar a una velocidad tan desorbitada como los 60Kmh alcanzados en la época, pues en muchos círculos se pensaba que a largo plazo era perjudicial para el cuerpo humano.

Obviamente, el discurrir de los años y el progreso han demostrado que aquellos miedos eran totalmente infundados, y hoy en día viajamos a velocidades muy superiores sin efectos nocivos para la salud. Pero no es este hecho concreto en el que me quiero detener para reflexionar con ustedes. Lo que nos interesa de este tema es cómo el miedo ante lo desconocido puede frenar el progreso, o, si se mira desde el otro punto de vista, cómo un supuesto avance puede desencadenar un cataclismo socio-sanitario en el planeta.

Para empezar, es justo decir que el miedo es humano y… necesario para nuestra supervivencia, puesto que implica precaución, lo cual permite anticiparse a futuros problemas. Pero, ¿Hasta qué punto en estos temas nos estamos preocupando por algo real, o estamos frenando el progreso humano con miedos vanos e infundados?. Cada tema en el que se nos plantea este tipo de disyuntiva es total y técnicamente distinto, por lo que es imposible generalizar. Pero es cierto que lo desconocido es imprevisible por nuestra propia ignorancia en el tema, con lo que lo menos que podemos hacer es poner las tecnologías en cuarentena gradual y controlada, hasta que el paso de los años vaya demostrando si verdaderamente son inocuas. El problema es que, cuando hay negocio detrás, este “gradual y controlada” puede pasar a obedecer más a necesidades de mercado que a prudencia y reglamentación sanitaria.

Con la evolución exponencial de la tecnología que se da en nuestros días, tenemos diversos campos y ejemplos en los que nos enfrentamos a estos problemas. Por la generalización de las comunicaciones móviles, tal vez el más mediático de ellos sea el de cómo las radiaciones electromagnéticas pueden afectar a la salud. Algo que no está demostrado que sea perjudicial… pero que tampoco está demostrado que sea inocuo.

Otro campo de ignorancia en el que la evolución la tecnología es superior al de nuestros conocimientos sobre su impacto en la salud, es el del modo de vida del siglo XXI. La masiva disponibilidad de información, así como su inmediatez, se traducen en una sobre-estimulación sensorial y de actividad cerebral que no se ha dado nunca antes en la historia de la humanidad. Ya no hay esperas mirando el techo, ya no hay ratos de aburrimiento, casi todo es híper-conexión y permanente actividad mental, bien sea leyendo, bien sea escribiendo. Los niños tampoco están a salvo de esta tendencia, puesto que, aunque su grado de contacto con la tecnología suela ser inferior al que tienen los adultos, hay una tendencia generalizada a sobre-estimularlos permanentemente con actividades que, si bien en cierta medida pueden ser beneficiosas, llevadas a los niveles habituales de hoy en día algunos opinan que pueden ser causa de diversas anomalías de comportamiento, que muchas veces no veremos hasta que sean mayores dentro de unos años.

Un último avance en torno al cual se está creando cierto pánico colectivo es el que se refiere a las pantallas retroiluminadas y sus efectos sobre la visión. Las pantallas LCD emiten mucha más luz de onda corta que la existente en nuestro entorno natural. Es por ello por lo que ciertos sectores están alertando de los efectos a largo plazo sobre la visión que puede provocar leer en las pantallas de smartphones, tablets y pantallas planas. De nuevo, no sabemos a ciencia cierta qué es real y qué infundado, pero hay gente que cree que el “Ensayo sobre la ceguera” de José Saramago puede ser más factible de lo que pensamos.

Me despediré hoy aconsejándoles que, aunque no es cuestión de volverse un Amish, no es conveniente abusar de tecnologías cuyas consecuencias son aún desconocidas a largo plazo. Tal vez en unos años ciertas precauciones les sonarán ridículas, al igual que les parecerá hoy en día la del ferrocarril del siglo XIX que abría este post, pero lo que es seguro es que es preferible pensar que uno se ha pasado de prudente, a pagar unas consecuencias que pueden afectar gravemente a nuestra salud y la de los que nos rodean. No cometan el error de creerse más inteligentes que sus antepasados de hace dos siglos, la genética no avanza tan rápido. Somos igual de inteligentes, tan sólo estamos técnicamente más avanzados. Si ustedes hubiesen nacido hace doscientos años, seguramente tendrían los mismos miedos y se harían las mismas preguntas sobre la velocidad. Y recuerden, por mucha opinión formada que puedan tener sobre un tema, por mucha información que hayan podido leer al respecto, nadie, repito nadie, puede adivinar el futuro. Y ante la incertidumbre, lo mejor es optar por la prudencia en su justa medida.

Sígueme en Twitter: @DerBlaueMond

La realidad virtual como método de empatía y solidaridad u Homo Homini Lupus

¿Puede la tecnología ayudarnos a ser más empáticos y solidarios con otras personas? Es la intrigante pregunta que trataremos de responder en este post y que se desprende de una reciente investigación realizada por el Laboratorio de Ambientes Virtuales de la Universidad de Barcelona (EventLAB). Dicha investigación se resume en el siguiente artículo “Un laboratorio para probarse cuerpos”.

Para los que no tengan el tiempo o las ganas de leer la noticia completa, les resumiré el artículo en este párrafo. Hay dos frases que nos interesan especialmente para este post: “El comportamiento de las personas varía en función del avatar de realidad virtual en el que se encarnan”, y “A pesar de que nuestro cuerpo nos parezca que es algo firmemente establecido e inamovible, parece que el cerebro lo está recalibrando casi continuamente y que hay un ‘refresco’ continuo de la representación corporal”. El experimento en cuestión, entre otras cosas, hacía que una persona delgada viese a través de unas gafas de realidad virtual que su cuerpo en realidad tenía barriga, y sorprendentemente la sentía como propia. También se experimentó con avatares de otras razas, y una de las conclusiones fue que encarnarse en un cuerpo de otra raza modifica los prejuicios raciales. Todo se basa en el llamado «Efecto Proteo», que es la versatilidad de las personas para comportarse de distinta manera en escenarios virtuales en función de los distintos avatares que encarnan; es algo conocido desde hace tiempo en la industria de los videojuegos, que han sido la primera aproximación tecnológica a encarnar otro personaje con ciertas dotes de realismo (con permiso de los actores de cine y teatro).

Y es momento de ir entrando en la cuestión central de este post. Una vez leídas las conclusiones de estos experimentos, ¿Creen ustedes que la realidad virtual aumentará la empatía y la solidaridad en nuestra sociedad?. Pónganse en situación. Piensen. ¿Acaso no están ustedes más sensibilizados con el maltrato cuando es alguien de sus círculos el o la que lo ha sufrido? ¿Acaso no son más conscientes de la problemática de los síndrome de Down cuando es un amigo o amiga suya la que ha tenido un hijo con este problema? Aunque la realidad virtual no nos permita por ejemplo sentirnos con síndrome de Down, puesto que es algo que trasciende la mera apariencia, éstas son preguntas cuyas respuestas nos van a permitir contestarnos la cuestión que abría este post. Estarán de acuerdo en que, en el fondo, todos somos más proclives a solidarizarnos con alguien cuando nos identificamos con él o ella. Es una forma de egoísmo bastante extendida: muchas veces las personas no estamos demasiado sensibilizadas con problemas o amenazas que no sentimos que nos puedan afectar a nosotros también. Podemos pues afirmar que, a la vista de los resultados del experimento y de las conclusiones anteriores, la realidad virtual sí puede ayudar a hacer a nuestra sociedad más solidaria. Obviamente hablamos de la generalidad pues hay casos y casos, y siempre hay gente que es ya de por sí muy empática y de espíritu solidario por naturaleza, sin necesidad de ninguna realidad virtual.

No obstante, no lancen las campanas al vuelo todavía. La realidad virtual no es la panacea para esas actitudes insolidarias y censurables que todos hemos visto alguna vez. Igual que hay individuos empáticos y solidarios por naturaleza, también hay individuos tremendamente egoístas por naturaleza, que no se solidarizan con nadie ni por asomo, ni siquiera consigo mismos. ¿Acaso no han visto ustedes a gente que ha estado en una situación problemática (caldo de cultivo propicio para solidarizarse) y cuando a otra persona le pasa lo mismo no se solidariza con ella? ¿No conocen ustedes a personas que un día defienden una idea con uñas y dientes porque es lo que más les interesa en ese momento, y a la semana siguiente pueden defender igual de vehementemente lo contrario porque es lo que les interesa ahora? Y son capaces de hacerlo sin que ni siquiera se les despeine el flequillo. Por eso les digo que hay casos de gente que no se solidariza ni consigo misma: simplemente son egoístas per sé, y no dan más de sí ni son capaces de ponerse en el lugar de los demás. Es más, me atrevería a preguntarles: ¿Acaso no se han sentido ustedes mismos así alguna vez en cierto grado?

Pero si nos preguntábamos si la realidad virtual es capaz de hacer más solidaria nuestra sociedad en su conjunto, las actitudes de ciertos individuos concretos no son relevantes en el balance global; ahora bien, la siguiente pregunta que debemos plantearnos es: ¿Cuál es la proporción en nuestra sociedad de este tipo de individuos insolidarios y egoístas sin remedio? Y lo que es más importante e inquietante, en unas empresas e instituciones mayormente dirigidas por objetivos con un claro interés particular ¿Es este tipo de personalidades las que la sociedad promociona a puestos de responsabilidad para dirigirnos? ¿O por el contrario las personas que terminan ocupando estos puestos muchas veces se acaban volviendo así porque piensan que es como deben actuar y lo que se espera de ellas? Siento decirles que no tengo una respuesta para estas preguntas, o más bien, sí que la tengo, pero es una percepción tan personal que tiene exactamente el mismo peso que las respuestas que puedan darse ustedes a sí mismos. Por ello, una vez más, a su conciencia me remito. Homo homini lupus: algunos son ovejas, y otros auténticos lobos. ¿Es más grande el rebaño, o la manada? A veces uno se siente tentado a pensar que es mejor que el casi siempre impredecible futuro no les llegue a quitar la piel de cordero a los lobos camuflados. Es muy probable que sean muchos más de los que a priori cabría pensar. Pero, por si acaso una volada de viento deja los lobeznos lomos al descubierto, mi mejor consejo es que, en su día a día, escuchen discretamente si los individuos que les rodean balan o aúllan; más que nada para que puedan elegir al tipo de personas que quieren que les rodeen, y no llevarse luego sorpresas desagradables.

Sígueme en Twitter: @DerBlaueMond

Bio-hacking para tomar el control de su cerebro o El ilusionismo perversamente llevado a la tecnología

¿Han oído alguna vez hablar del Bio-Hacking?. Si hasta el momento no han oído hablar de ello, no duden que en unos años estará en boca de todos. El Bio-Hacking será el nuevo campo de batalla de una seguridad que ya traspasa el plano informático, y entra de lleno en la seguridad personal en el sentido más amplio de la palabra.

Pero empecemos por el principio. ¿Qué es el Bio-Hacking?. Pues no es ni más ni menos que hackear (principalmente) el cerebro, es decir, aprovecharse de las debilidades y defectos de nuestros cerebros para obtener algo a cambio, incluido el mero placer de superar un reto. Ya ven como en realidad el Bio-Hacking lleva con nosotros muchos años. La magia y el ilusionismo son buena prueba de ello, puesto que se aprovechan de cómo nuestro cerebro percibe y procesa la información de los sentidos para engañarle con ilusiones que no existen en la realidad. Otro buen ejemplo son los ladrones sin violencia, que le empujan a uno con fuerza por la espalda para luego disculparse, y mientras nuestro cerebro está procesando el fuerte empentón, no es capaz de percibir el sutil roce de nuestra cartera siendo sacada del bolsillo por los hábiles dedos del carterista.

Nada nuevo hasta el momento, ¿Por qué les saco pues a colación este tema ahora?. La respuesta está en el hecho de que uno de los campos en los que más progreso vamos a ver en las próximas décadas es en las disciplinas híbridas entre medicina, psiquiatría, telecomunicaciones e informática. Sí, ya les he hablado en otras ocasiones de ello, es la neurociencia. El profundo conocimiento del cerebro que van a traer consigo estos avances, permitirá conocer nuevas vulnerabilidades de nuestros cerebros, que pueden ser aprovechadas por criminales bien para hacerse simplemente con su billetera, bien para conseguir que se quede usted fácilmente inconsciente o incluso con la voluntad anulada. Nosotros somos nuestro cerebro. El Bio-Hacking abrirá peligrosas puertas de atrás en nuestras mentes a merced de los bio-hackers. Prácticamente casi todo lo que somos y lo que sabemos puede quedar expuesto a los bio-criminales.

Pero no se alerten tanto todavía, sin duda lo peor no son estas amenazas. Si que les roben la cartera o les dejen inconscientes fácilmente les puede producir inseguridad, tengo que decirles que esto no es más que la punta del iceberg. El Bio-Hacking traerá consigo acciones que a día de hoy no somos capaces ni de imaginar. Un ejemplo que se me puede ocurrir de primeras es por ejemplo que el bio-hacker pueda alterar su memoria y borrar rápidamente los recuerdos que tiene del crimen que acaba de presenciar casualmente en plena calle, o que pueda hacer un volcado completo de su memoria y recuerdos a un disco duro, e incluso que pueda luego restaurar su cerebro y sus recuerdos en un clon que pudiese suplantarle.

¿Y si intentamos imaginar un futuro de neurociencia con componentes bio-electrónicos y cerebros conectados a una red de ordenadores?. No duden que algún día esto llegará, y abrirá la puerta a que los bio-hackers puedan infiltrarse en su cerebro igual que ahora entran en su ordenador personal: desde el sillón de sus escondrijos y simplemente pulsando las teclas de su teclado. O peor me lo ponen, tal vez acabemos en una suerte de 1984 versión internet. Los que se aprovechen del Bio-Hacking no tienen por qué ser seres underground que se cuelan sin permiso entre sus neuronas. Tal vez cuenten con su propio beneplácito. Tal vez salgan en los telediarios. Recuerden que, en la novela de George Orwell, cuando iba a subir el precio del chocolate, la prensa decía que en realidad lo estaban bajando, y alteraba todas las ediciones anteriores para poner un precio anterior del chocolate efectivamente más alto. Ahora eso será mucho más fácil, simplemente hay que apretar un botón y The Matrix actualizará todos nuestros recuerdos aprovechándose de alguna puerta de atrás del Bio-Hacking.

Así que ya saben, a medida que la neurociencia avance, por favor, si acabamos teniendo un conector implantado que permita conectarse a nuestro cerebro, llévenlo bien protegido. Aunque tal vez ni aún con esas sea suficiente, ya que estoy convencido de que la neurociencia acabará desarrollando dispositivos que interactúen con nuestros cerebros con señales electromagnéticas, sin necesidad de cables ni conectores de ningún tipo. Por ello, por su propia seguridad, yo me iría mirando un casco de plomo que actúe como caja de Faraday, blindando su cerebro frente a señales electromagnéticas externas. Y sobre todo, mantengan actualizado su antivirus neuronal. Un antivirus actualizado no les evitará una gripe, pero sí tal vez evitará que le borren de la memoria las claves y el saldo del banco. Aún así tengan en cuenta que, al igual que todo cerrajero les asegurará que no hay cerradura segura, en el futuro todo bio-hacker les dirá que no hay ningún cerebro a salvo. Si van a por usted en concreto por el motivo que fuere, no duden que, con la neurociencia en la mano, serán perfectamente capaces de acabar consiguiendo su propósito sea cual sea.

Sígueme en Twitter: @DerBlaueMond

La creatividad en la locura o El delicado equilibrio de la cordura

Recientemente he tenido la ocasión de vivir de cerca los problemas mentales de un amigo íntimo, y sus involuntarias incursiones en el mundo de los «renglones torcidos de Dios». Estos problemas, así como sus creativas cualidades personales, me han hecho plantearme ciertas reflexiones que me gustaría compartir aquí con ustedes.

Es necesario empezar quitando algo de hierro a las enfermedades mentales. Es cierto que son afecciones graves, y que por lo general hacen sufrir al paciente más que otras dolencias, pero lo cierto es que la mayor parte de las personas se ven afectadas a lo largo de su vida por algún tipo de trastorno mental. Evidentemente hay un estigma asociado a este tipo de desórdenes, por lo que muchas veces se oculta celosamente un sufrimiento que debería inspirar más solidaridad que otra cosa. Nadie trata de ocultar que se ha roto un brazo, pero cuando es nuestra mente lo que falla, parece que reconocerlo abiertamente es motivo de incomprensión e incluso de exclusión social.

Por otro lado, esas líneas divisorias entre cuerdos y no cuerdos que tan artificialmente traza la sociedad, no son más que un difuso límite de falsa autoprotección que no existe en la realidad. Todos somos muy cuerdos para ciertas cosas, y podemos llegar a ser seres delirantes para otras. La diferencia sólo estriba en la situación que nos toca vivir en cada momento. El que hoy es cuerdo, mañana no lo es. El que es muy cuerdo para unas cosas, es a la vez poco equilibrado para otras.

Lo que tantas veces hemos leído sobre famosos genios de la humanidad, he tenido ocasión de corroborarlo con el modesto caso de mi amigo. Hay cierto grado de locura en la genialidad, y cierto grado de genialidad en la locura. Las personas con trastornos mentales suelen ser capaces de desarrollar extraordinarias dotes de creatividad, y a la vez las personas más creativas tienen personalidades que flirtean con las líneas que borrosamente dividen el mundo de los cuerdos del mundo de los no tan cuerdos. Esto tiene una clara explicación, y es que la imaginación y la creatividad son armas de doble filo, que tan pronto nos permiten crear nuevas realidades, ideas u obras, como nos trasladan a un irreal mundo paralelo. No hay más que escarbar. El precio de poder ver donde los demás no ven, y poder crear partiendo de un lienzo o un folio en blanco, puede tener una amarga contrapartida mental.

La estabilidad emocional y mental es algo que te viene dado, no tiene mérito. Yo valoro en esta vida lo que cuesta esfuerzo conseguir, por ello me gusta más la estabilidad inestable del que se esfuerza por caminar sobre el límite entre la cordura y la locura sin caerse al otro lado. Además, los monstruos que están más allá de la raya, a pesar de infundir terror y sufrimiento, hacen que al traspasarla siempre se vuelva al mundo de los cuerdos, además de con fantasmas mentales, con alguna idea creativa y original que se puede desarrollar desde la cordura recién recuperada.

La locura del genio no es algo que se elija, es algo con lo que se nace, y que se manifiesta según los disparaderos en los que nos pone la vida. La cordura absoluta no existe, y en todo caso, la poca cordura que de verdad queda en este mundo nos viene dada. La cordura no tiene mérito alguno. Lo que tiene mérito es la determinación por no parar de intentar mantenerse continuamente en el lado de los cuerdos. Tengan cuenta que lo que hace bella a la bailarina es su esfuerzo constante por mantener el equilibrio.

Sígueme en Twitter: @DerBlaueMond

El Mundo Feliz de Aldous Huxley como imperativo socioeconómico o La ingeniería social en una raza de superdotados

Hace unos días publicaron un interesante artículo sobre cómo la ingeniería genética podría conseguir super-humanos con coeficientes intelectuales de hasta 1.000 puntos. Pero antes de abordar un cambio tan radical, deberíamos plantearnos cuestiones éticas y socioeconómicas de vital importancia para la sostenibilidad y la justicia en las sociedades humanas. El artículo en cuestión es “Superintelligent humans with IQ of 1000”.

Me gustaría antes de nada resumir a grandes rasgos los aspectos de la magnífica y visionaria obra de Aldous Huxley “Un Mundo Feliz”. En ella el autor teoriza con una sociedad en la que engendran artificialmente individuos diseñados genéticamente con una capacidad intelectual segmentada. Hay varios tipos de perfiles, y cada cual tiene una inteligencia pre-establecida. De esta manera, cada individuo perteneciente a cada perfil tiene pre-diseñada su evolución laboral y profesional en la vida, acorde a sus aptitudes. Con ello, en este mundo feliz, no hay insatisfacción social, no hay lucha de clases, no hay ansia profesional desmedida… Cada cual aspira sólo a lo que puede aspirar en base al intelecto que la ingeniería genética le ha dado. Este mundo feliz de Huxley es una bonita teoría con implicaciones éticas que sin duda son lo más importante del asunto.

Ahora bien, volviendo a la noticia que nos ocupa, ¿Sería sostenible una sociedad en la que todos los individuos tuviesen un coeficiente intelectual de 1.000?. La primera respuesta debería ser un NO rotundo. En líneas generales, se podría pensar que la proporción de mentes alienadas desempeñando trabajos para los que están sobre-cualificados sería insostenible, con todas las implicaciones e impacto social que ello conlleva. Pero pensando un poco más allá, la respuesta debería ser un NO con matices. Con matices porque por un lado la robotización de las labores fabriles más alienantes es un factor en continua expansión, y por otro porque incluso hoy en día tener un coeficiente intelectual alto no es garantía de nada en el mundo laboral: estamos ya rodeados de personas muy inteligentes que están desempeñando tareas totalmente alienantes.

Por otro lado, también es cierto que es mucho más alienante apretar tuercas con un coeficiente intelectual de 100 que si se tiene uno de 1.000. Y también es cierto que hoy en día la disparidad tanto de coeficientes intelectuales como de otras aptitudes humanas hace que haya una heterogeneidad en la sociedad que permite (o debería permitir) una selección más eficiente de cada perfil de candidato para cada puesto en cuestión. Ambos factores se tornarían perversos en un mundo diseñado genéricamente y con sólo coeficientes de 1.000. El nivel de frustración sería insoportable para los individuos que se dediquen a los trabajos más alienantes, y la homogeneidad intelectual haría que los procesos de selección fuesen injustos por naturaleza, puesto que la mayor parte de los candidatos podrían hacer el trabajo de forma cuasi-óptima, y la selección probablemente se volvería discriminación.

Mención aparte, y en cierta medida admiración, merecen aquellos individuos a los que, siendo muy inteligentes, no les aliena desempeñar trabajos para los que están sobre-cualificados, porque han aprendido a valorar y disfrutar de la vida en otros planos que no sean el laboral, y para los que el trabajo es simplemente un medio que les da recursos para hacer lo que realmente les realiza. Les daré la razón en que hay pocas personas así en nuestras sociedades, y también en que se puede disfrutar igualmente fuera del trabajo con el dinero que éste nos reporta, pero eso no quita que además podamos tener un trabajo que también nos haga disfrutar durante nuestra jornada laboral.

Entonces habíamos llegado al punto en el cual creemos que una sociedad diseñada genéticamente para tener en su conjunto un coeficiente de 1.000 no es viable, al menos de momento, pero, ¿Es algo que podamos evitar?. Piensen ustedes un poco sobre el tema. Para empezar hay regímenes en el mundo donde la justicia y la ética brillan por su ausencia, y además ni siquiera construir un mundo ético y justo está entre sus objetivos. Si a esto añadimos el hecho de que para un país en concreto es una gran ventaja competitiva disponer de una población con coeficiente intelectual 1.000 cuando los demás países no lo tienen, ya tenemos en la coctelera todos los ingredientes para un coctel de alta graduación: siempre va a haber un primer país que se lance a ganar esa ventaja competitiva y empiece a “crear” población con genes de coeficiente 1.000. A partir de ahí sólo hay dos opciones: los países que no puedan o no quieran ir por ese camino, y los países que se lancen a la carrera con ése mismo objetivo 1.000. Seguramente habrá casos de ambos lados, pero obviamente los que no acaben teniendo una población con coeficiente 1.000 serán países automáticamente discriminados en casi todos los aspectos, siendo origen de desigualdades y una nueva forma de injusticia internacional. La brecha de este futuro es una brecha intelectual, y se mide en genes manipulados.

Si éste es un futuro inevitable, y además es un futuro de dudosa ética, justicia y sostenibilidad, ¿Qué podemos hacer para evitar los posibles problemas o al menos minimizarlos?. Ahí está la solución, tal vez las opciones no sean tan negras como las pintamos, puesto que hay una nueva disciplina que abrirá toda una gama de grises que hay que conseguir: la ingeniería social. Sí, amigos, sí, he aquí una nueva ciencia que sin duda en unos años será fundamental para la estructuración de nuestras sociedades. Para que una sociedad sea sostenible deberá regirse por ciertos principios aún por formular y, lo que es más arriesgado, aún por comprobar.

Pero un momento, ¿Acaso la selección genética de Huxley que determinaba el coeficiente intelectual de cada estrato social no era una forma de ingeniería social?. Sin lugar a dudas, sí que lo era. Aunque hoy en día hay muchos más aspectos, opciones y tecnologías sobre la mesa para sentar las bases de esta incipiente ingeniería social, léase por ejemplo las redes sociales. Sin duda, la anticipatoria visión de Huxley está ahí, y seguro que el resultado final de algunas sociedades no difiere mucho de lo que él imaginó. El campo de batalla está marcado, de todos nosotros depende poner las reglas del juego a tiempo, eso sí, mucho me temo en que, en algo tan importante geoestratégicamente, siempre va a haber alguien que juegue con las cartas marcadas. De ahí el riesgo casi cierto, y lo negro de los nubarrones de este futuro que les he pintado. Tal vez sea mejor vivir feliz en la ignorancia del infradotado que vivir alienado en la capacidad del superdotado. Decidan ustedes por sus hijos, de tener que tomar esta decisión por ellos no les librará nadie en el futuro, porque ellos nacerán producto ya de una u otra opción: alea jacta est.

Sígueme en Twitter: @DerBlaueMond

Ni Asimov llegó nunca a imaginar algo así o Cloud Robotics como la última tendencia en Cloud Computing

Hace unas semanas leí una noticia que yo creo que el mismo Isaac Asimov, tras su celebérrima Saga de la Fundación, habría calificado como entre las más futuristas y premonitorias de las últimas décadas. La noticia en cuestión es la siguiente: «Los robots quieren convertir a internet en su cerebro colectivo«. Para los que no tengan el tiempo o las ganas de leer el artículo entero, les resumiré que la noticia relata cómo ya hay varias universidades de prestigio mundial poniendo en marcha un piloto para que haya en internet un repositorio de “conocimiento” compartido entre robots. De esta manera se replica en el mundo de la robótica una de las facetas más importantes que ha aportado internet a los seres humanos: lo que el sistema de inteligencia artificial de cualquier robot haya aprendido en cualquier punto del planeta, estará a disposición de todos los demás robots para que puedan incorporarlo a sus tomas de decisiones sin necesidad de que ni siquiera se les haya planteado todavía el mismo problema. Aprender de la robótica experiencia ajena, vamos. Y todo ello con la rigurosidad y falta de subjetivismo que supone que los robots estén gobernados por programas informáticos, un subjetivismo que en el caso de los humanos muchas veces nos ciega y no nos permite valorar adecuadamente datos y conclusiones de otros humanos, errores que no se cometerían en el caso de los robots.

El carácter innegablemente innovador por seguir una tendencia lógica en el sector de la tecnología, puede tener a largo plazo implicaciones revolucionarias si lo miramos desde una óptica futurista. Pero revolucionarias de verdad, y tal vez no para el bienestar humano precisamente.

Empecemos por los argumentos que les expuse en el post «En el futuro todo el mundo será famoso durante 15 minutos o Redes Sociales vs Inteligencia Artificial”. Ahí les comentaba que las redes sociales y la web 2.0 iban a permitir que, mediante la compartición global, los seres humanos conservasen y potenciasen su principal valor añadido frente a las máquinas: la creatividad y la imaginación.

El caso es que el Cloud Robotics ha iniciado sus andaduras como la compartición de conocimientos entre robots, pero no va a pararse ahí. No hay nada que impida que el conocimiento humano que hay en la red sea también aprovechado por los sistemas de aprendizaje y de toma de decisiones de los robots. Me explico, la Web 2.0 implica que a largo plazo todos los humanos acabarán poniendo en la red de una u otra manera las conclusiones y resultados de su creatividad e imaginación, y la conjunción de esto con el Cloud Robotics hará que dicha información estará accesible para que todos los robots la repliquen, utilicen y aprendan de ella. La compartición 2.0 que inicialmente les expuse como la tabla de salvación de las capacidades humanas, con este nuevo avance en robótica se ha tornado en una soga al cuello. Digo una soga al cuello porque, partiendo de la disponibilidad de la misma información, un robot siempre va a tener una memoria infinitamente más fidedigna que un ser humano, y además en sus búsquedas de información y consideración de la misma es mucho más metódico, objetivo, y riguroso que un ser humano. Y ahora, como parte de esa información 2.0, estarán disponibles para ellos también los resultados de los factores clave de diferenciación la preciada mente humana. En un futuro tal vez menos lejano de lo que parece, puede ser que los seres humanos pasen a ser un recurso fabril más para alimentar a la verdadera inteligencia colectiva de la nueva civilización (que ya no humanidad): la inteligencia artificial.

Pero vayamos más allá. En otro post «La Teoría del Caos 2.0 o La potencialidad de un comentario en las Redes Sociales” les expuse cómo las redes sociales y la web 2.0 permitían hacer extensiva la Teoría del Caos a la humanidad. Un tuit o un comentario publicado por cualquier persona en cualquier punto del planeta podría en cuestión de horas cambiar el parecer de (potencialmente) la humanidad entera, y por lo tanto cambiar el curso de la Historia. Esto ahora se podrá aplicar a los robots. Ya no habrá una inteligencia artificial parcelada, dependiente del algoritmo que un fabricante haya programado en un autómata producto de un proceso industrial de fabricación. Ahora, con el Cloud Robotics, lo que un simple robot de juguete aprenda en Japón sobre la expresión facial de su dueño para saber si siente miedo, puede ser utilizado de forma instantánea por un robot bélico en la otra punta del planeta para aterrorizar aún más a la persona a cuyo interrogatorio está asistiendo. O incluso aún más, entrando en el terreno de la ciencia ficción, podríamos pensar en cómo en una futurista guerra entre humanos y androides, que un robot en el frente de Nueva York aprenda sobre la mortal utilidad en humanos de una nueva cepa de virus desarrollada en un clandestino laboratorio androide, implicará que instantáneamente todos los robots del planeta dispongan de esa información y sepan cómo sintetizar su ADN para imprimir en el acto nuevas cepas en 3D, y así derrotar a los biológicamente vulnerables humanos.

Fantasías aparte, como poso de este futurista y controvertido post, me gustaría que se quedasen con que los robots van a ser muchos más, más especializados, más inteligentes, más creativos y más imaginativos que los humanos. En principio (sólo en principio), los robots no tienen por qué ser nuestros enemigos, sino más bien todo lo contrario. Eso sí, si en el futuro la fantasía robótico-belicista se vuelve realidad, y algún día los robots nos tratan de extinguirnos, a ver cómo se las arreglan sin nosotros. Les dejo con una frase del genial Isaac Asimov: “Sólo hay una guerra que puede permitirse el ser humano, la guerra contra su extinción”. Pero yo añadiría que tal vez el quid de la cuestión no sea si los robots van a extinguirnos o no, sino que más bien el riesgo es que intenten subyugarnos y esclavizarnos para seguir alimentando con nuestras creativas ideas sus sintéticas mentes.

Sígueme en Twitter: @DerBlaueMond

La lacra de la ciencia y el I+D en España o La malograda carrera técnica

¿No se han preguntado por qué la ciencia y el I+D en España es, salvo honrosas excepciones, poco más que unas subvenciones estatales y unas becas que dejan muchísimo que desear?. ¿No han tenido la posibilidad en su vida profesional de dar el salto a puestos de gestión y dejar la técnica, y lo han aceptado para mejorar sus condiciones económicas y la proyección en su empresa?. Si llevan ustedes ya unos años en la arena laboral, a poco que les interese la innovación y/o si han estudiado una carrera técnica, posiblemente su respuesta a ambas preguntas sea un rotundo sí.

Es cierto, admitámoslo, salvo unos pocos puestos relevantes a nivel nacional y el sector universitario (que sobrevive también en parte por la docencia), los técnicos y los científicos que se mantienen como tales durante toda su carrera se puede decir que lo hacen por amor al arte, porque lo que es por estar retribuidos dignamente y por hacer carrera, la verdad, no es motivo.

Expongamos claramente la situación actual. Hay dos patas del I+D: los científicos y los técnicos. Generalmente los científicos de carrera tienen unas condiciones laborales precarias, mayormente con becas de asignaciones ínfimas o puestos interinos que en el mejor de los casos se van renovando cada cierto tiempo, con poca continuidad o estabilidad económico-laboral. Como les decía, tan sólo algunos puestos contados a nivel nacional tienen buenas condiciones, y en la universidad tal vez hay un panorama algo mejor, pero es cierto que también es debido principalmente a que casi siempre combinan la investigación con labores docentes. En el caso de los técnicos el panorama no es mucho más halagüeño. Son los técnicos los que en las empresas y en las instituciones tienen capacidad para optimizar procesos, dar con nuevas e innovadoras soluciones o desarrollar nuevo hardware, software o productos industriales. ¿Qué me dicen ustedes si les comento que habitualmente los técnicos, que en realidad son los que producen algo tangible, casi son los peor retribuidos en puestos de oficina en las empresas?. ¿Qué me dicen si les indico que normalmente, a un buen técnico que ha demostrado tener cualidades personales y profesionales, se le ofrece pasar a puestos de gestión como plan de carrera?. Pues créanme cuando les digo que lo que les expongo es la triste norma general.

Pasemos a analizar las consecuencias de este desolador panorama nacional. La consecuencia más inmediata es obvia, los mejores investigadores y técnicos van pasando a puestos de gestión, para los que tal vez estén peor dotados, y dejando una ciencia y una técnica en la que tienen mucho que decir: doble pérdida. Además, las generalmente muy mejorables condiciones de los que se quedan, con el paso del tiempo, les hace ir cayendo en la desmotivación, lo cual suele influir en su estado de ánimo y por ello también en su preciada creatividad y capacidad de innovación. Al ser esto así, una consecuencia de segundo orden es que en España se inventa, investiga e innova mucho menos de lo que se podría potencialmente, y lo que se hace es mayormente gracias a esos estupendos profesionales que tenemos que a veces se mantienen fieles a su pasión científico-técnica más por amor al arte que por otra cosa. La verdad, en estas condiciones me sorprende que aún consigamos lo que vamos consiguiendo a nivel nacional, y es sin duda gracias a la calidad personal y profesional de los científicos y técnicos que nos quedan. Y si empezamos con las comparaciones, y nos miramos en el espejo de otros países más avanzados en estos campos como USA, Alemania o Japón, vemos cómo nos sacan los colores por número de patentes, por nuevos productos, por nuevas tecnologías, por innovaciones, por artículos de investigación, etc. Lo más triste de todo es que, en las jerarquías de base, materia prima, formación, pasión y voluntad hay mucha y buena, si no ya les digo que estaríamos aún peor de lo que estamos.

Pero, para poder buscar una solución a tan importante problema, preguntémonos el porqué esto es así. La situación llama aún más la atención cuando curiosamente todo el mundo en la sociedad, en las instituciones y en las empresas están de acuerdo en que el I+D es esencial y así lo reconocen públicamente, pero luego la realidad que muchos dirigentes y directivos practican en la trastienda dista mucho de lo que predican, y el I+D se ve más como un gasto de resultados inciertos que como una inversión de futuro. Yo diría que es un problema de mentalidad y casi cultural. Me atrevería a decir que incluso es un problema de emprendimiento.  Y por qué no decirlo, también de financiación. En mecas de la innovación como Silicon Valley es mucho más sencillo encontrar individuos o instituciones con recursos económicos y dispuestos a invertir en proyectos novedosos, nuevas tecnologías o start-ups.

Pero seamos constructivos, propongamos cómo solucionar esta lacra. Como les decía antes, deberíamos mirar a otros países que lo estén haciendo mejor que nosotros. En USA, Alemania y Japón el I+D no es como aquí, en estos países se puede perfectamente hacer una carrera profesional de por ejemplo programador informático, y si se es bueno, llegar a tener un salario y una reputación considerable. La realidad indiscutible es que estos tres casos son mecas del I+D y la ingeniería a nivel global, lógicamente, y como consecuencia, con economías líderes. ¿La gran diferencia de estos países con España?. Como parte de la voluntad política y directiva que les comentaba antes, es verdad que en general en España hay pavor a arriesgar, a fracasar, en parte probablemente por la poca tolerancia al fallo y al fracaso que hay en nuestra sociedad, tal y como tratábamos en el post «El ansiado y fatuo éxito profesional en España o Cómo la mayoría intenta ocultar sus errores«.

Tal y como les decía entonces, tenemos que cambiar de una vez por todas la tan nociva cultura nacional del éxito por la de la tolerancia al fallo, ya no sólo por las consecuencias socioeconómicas, el bienestar personal, y ambiente profesional que les expuse en su momento en el post del link anterior, sino también porque el I+D también depende de ello, es el sector más estratégico y de futuro que hay en una economía, y con la mentalidad actual les puedo garantizar que no vamos a ningún sitio. Hay que plantearse de una vez por todas por qué en España vender humo, gestionar personas o gestionar proyectos está mucho mejor retribuido que desarrollar una buena idea, investigación o producto; es algo muy indicativo de que algo va mal en nuestra sociedad: el éxito, el cortoplacismo o la autoridad sobre otras personas o sobre recursos económicos se valoran mucho más que el aprender de los propios errores, los beneficios a largo plazo, la creatividad o la iniciativa. ¿Que cómo se hacen estos cambios tan necesarios?. Es un proceso difícil y lento a nivel colectivo, pero en estas situaciones hay que ir de abajo a arriba, y el principio del cambio empieza por nosotros mismos, porque si tenemos que esperar a que cambie por sí sólo lo que tenemos por encima, a la vista están los resultados a lo largo de estas últimas décadas. Por ello les pido que traten de estar al día en estos temas, y que cuando vean un producto novedoso, que les solucione un problema, que les facilite la vida, etc. no lo duden, promuevan el I+D y cómprenlo, cuéntenlo a sus amistades, retuitéenlo en Twitter, postéenlo en Facebook, y con más motivo si se trata de un producto “Made in Spain”, que buena falta le hace a nuestra economía. Con ello no me gustaría que se quedasen con la impresión de que les echo la culpa a ustedes de la situación actual, eso sería muy injusto por mi parte, tan sólo les pido que participen en la solución en la medida de sus posibilidades: entre todos podemos conseguirlo.

Sígueme en Twitter: @DerBlaueMond

La Teoría del Caos 2.0 o La potencialidad de un comentario en las Redes Sociales

La Teoría del Caos es uno de esos temas que siempre me han apasionado desde hace años, aunque soy consciente de que todavía no les he hablado en mis posts de ella. Esta teoría estaría en el origen de la explicación de fenómenos naturales tan aparentemente azarosos como la forma cambiante que va adoptando un cubito de hielo al derretirse o el serpentear de una manguera suelta y descontrolada echando agua, en ciencias como la meteorología, o en patrones como el comportamiento mismo de la bolsa. Son este tipo de sistemas tan complejos los que son objeto de explicación por parte de la Teoría del Caos, dejando a un lado la aparente arbitrariedad que clásicamente se les ha atribuido. Esta teoría fue formulada por el matemático y meteorólogo Edward Lorenz en 1963, y se basa en que una variación, aunque sea imperceptible, en las condiciones iniciales de estos sistemas dinámicos y complejos puede llevar a resultados radicalmente diferentes. Es de aquí de donde se origina esa famosa metáfora por la cual Lorenz dijo que el aleteo de una mariposa en Brasil podía originar un tornado en Tejas.

Hasta aquí nada nuevo, sólo he tratado de ponerles en antecedentes y me he limitado a resumirles los principios básicos de esta teoría. Es a raíz de un reciente tuit en Twitter de @AgustinSaGa, por lo que me he decidido a analizar el tema a continuación desde una nueva perspectiva actual y (creo) interesante.

Desde que fue formulada hasta nuestros días, la Teoría del Caos, si bien en su esencia permanece siendo vigente de la misma forma, en su aplicabilidad a nuestro entorno ha cambiado sensiblemente con los tiempos. Me explico. Uno de los sistemas más complejos conocidos sobre la faz de La Tierra es el ser humano, y por ende, las sociedades humanas pueden ser calificadas igualmente de gran complejidad, o incluso superior por su naturaleza agregativa de las diferentes complejidades individuales subyacentes. En las últimas décadas ha habido cambios significativos en nuestras sociedades y en la forma de interrelacionarse en ellas, que están teniendo y van a tener sin duda un gran impacto en el presente y futuro de nuestros sistemas socioeconómicos.

Tal y como  les introducía en mi post «En el futuro todo el mundo será famoso durante 15 minutos o Redes Sociales vs Inteligencia Artificial«, la sociedad hiperconectada y la viralidad que fomenta son elementos claramente diferenciadores de las sociedades del siglo XXI, fruto principalmente de la llegada de la web 2.0. Es precisamente esta viralidad la que permite y sirve de base en la aplicabilidad de la Teoría del Caos a las sociedades actuales. Una pequeña variación en el pensamiento de un individuo a priori insignificante en el conjunto de la raza humana, puede rápidamente propagarse por los diferentes círculos sociales hasta volverse un pensamiento global, ejerciendo una poderosa influencia sobre todos los individuos y, por lo tanto, condicionando también la futura evolución del sistema socioeconómico en sí mismo. Esta conclusión coincide con la esencia misma de la Teoría del Caos que les explicaba antes: imperceptibles variaciones en las condiciones iniciales conducen a resultados radicalmente diferentes. Es lo que podríamos acuñar como Teoría del Caos 2.0.

Y me dirán ustedes, ¿Y de qué me sirve ser consciente de la existencia de una Teoría del Caos 2.0 si no me permite ni siquiera anticipar futuras tendencias sociales y socioeconómicas?. Les reconozco que la aceptación de la Teoría del Caos 2.0 como realidad de nuestra sociedad no es más que el reconocimiento de la propia ignorancia ante un problema cuya complejidad excede nuestras posibilidades técnicas e intelectuales actuales. Pero supongo que estarán de acuerdo en que, en todo caso, siempre es un avance el tener la Teoría del Caos que pensar que las tormentas se deben a los cambios de humor de Zeus como hacían los griegos. Algunos argumentarán que pasar de delegar la arbitrariedad en Zeus a delegarla en una fórmula matemática meteorológica indescifrable son dos caras de la misma moneda, y razón no les falta, pero una cosa es atribuir facultades a un Dios griego, y otra reconocer la existencia de leyes físicas, solo que son demasiado complejas para ser formuladas en su totalidad de forma consistente a día de hoy.

Por otro lado, a buen seguro, los estados represivos tratan o tratarán de bloquear este fenómeno del Caos 2.0, como también comentamos en el post «La profecía de George Orwell o El 1984 de las Redes Sociales«, puesto que las mismas herramientas sirven tanto de base para la Teoría del Caos 2.0, como también para su represión. Una bipolaridad que aprovecharán ciertos estamentos para intentar apagar lo que verán como un posible foco de inestabilidad, y que, en última instancia, pueden incluso aprovechar para, mediante los mismos medios, tratar de imponer su pensamiento único.

Piensen, reflexionen, imaginen, ideen, creen… lo que parta de sus mentes puede influirles de forma importante tanto a ustedes mismos como al resto de la humanidad. No todo es tan azaroso como puede parecer a simple vista, solo que hay cosas que trascienden nuestras posibilidades y leyes científicas actuales. Como siempre les digo, sean responsables, porque tienen sobre sus hombros muchas más responsabilidades de las que ustedes piensan, y el Caos 2.0 posiblemente sea la más influyente, poderosa e impredecible de todas ellas.

Sígueme en Twitter: @DerBlaueMond

La muerte prematura del Big Data o El cercano fin de la Ley de Moore

Supongo que ustedes ya habrán leído sobre la famosa Ley de Moore, por la cual en 1965, el doctor en química Gordon E. Moore, cofundador de Intel, predijo que cada dos años se duplicaría la densidad de integración de transistores en un circuito integrado. Esta ley ha venido cumpliéndose de forma sorprendente desde que fue formulada, pero parece ser que en los últimos años su validez se está acercando a su fin.

Y se preguntarán ustedes, ¿Y qué me importa a mí que se cumpla o no esta ley?. Nos puede afectar mucho a todos, puesto que la tecnología hoy en día forma parte indisoluble de nuestra forma y calidad de vida, y que la Ley de Moore deje de cumplirse implica que la progresión de la potencia de los nuevos procesadores informáticos, la progresión de la capacidad de memoria, etc. se verán abruptamente interrumpidas, con todo lo que ello conlleva según analizaremos con más detenimiento más adelante.

El motivo de esta muerte repentina no es baladí, ni más ni menos tiene relación con las leyes de la física de escala subatómica, que son distintas también en electrónica a aquellas del mundo macroscópico, y que hacen que la Ley de Moore esté acercándose a un límite por debajo del cual dejará de poder predecir el futuro de la informática: la progresiva miniaturización de los transistores hacen que a día de hoy empiecen a tener unas dimensiones tan reducidas que sean de un orden de magnitud comparable a las partículas atómicas, con lo cual las interacciones entre componentes y sus propiedades electromagnéticas se ven seriamente alteradas respecto a las que se deberían dar en el mundo macroscópico, imposibilitando el correcto funcionamiento de los futuros chips de silicio o, en todo caso, poniendo un límite claro a la hasta ahora progresiva integración electrónica.

Se podría decir que la humanidad actualmente vive en la Era del Silicio, pero es obvio que, tal y como ha ocurrido tantas veces a lo largo de la historia, más pronto o más tarde, habrá un cambio tecnológico que se basará en la utilización de nuevos materiales y sustratos, que obligará a la formulación de nuevas leyes, y que en este caso concreto puede consistir en utilizar nanotecnología de grafeno y nitruro de boro hexagonal que, a priori, por su propia naturaleza y definición, van a permitir unas escalas de integración muy superiores a la tecnología de silicio actual, pudiendo llegar incluso al primer circuito integrado con el grosor de un solo átomo. Pero estarán de acuerdo en que este posible avance microelectrónico que supondría la utilización del grafeno, a nivel de miniaturización, supondría únicamente un “kicking the can down the road” (es decir, procrastinación o cómo se suele decir “una patada para adelante”), puesto que el átomo es la unidad última que compone la materia, con lo que alcanzar dimensiones de tan sólo un átomo es un límite a priori infranqueable a cuya limitación nos enfrentaremos más pronto que tarde.

Algunos argumentarán que la computación cuántica permite rebasar esa limitación de la escala atómica. Razón no les falta, pero siento decirles que, en mi humilde opinión, es una tecnología que todavía está muy inmadura y dudo mucho que veamos el ordenador cuántico hecho realidad antes de tener que enfrentarnos al límite atómico que les comentaba.

Suponiendo que la llegada de una nueva tecnología se retrase con respecto a cuándo sea imperiosamente necesaria, pasemos a pensar en las consecuencias de un frenazo en seco de la evolución de la potencia de nuestros procesadores y memorias. El primer afectado sería sin lugar a dudas el Big Data. Para los no versados les resumiré que el Big Data se trata principalmente de explotar de forma coherente toda la información que acumulan empresas, organizaciones e instituciones en diferentes bases de datos, lo cual es una ardua labor, no sólo por las complicaciones técnicas de las diferentes tecnologías de cada fabricante, sino principalmente por el tremendo volumen de datos que se guardan en la actualidad y que no son correctamente aprovechados.

La razón por las que les decía que el Big Data sería el primer afectado no es sólo porque se trata de una tecnología en ciernes que todavía no ha alcanzado su punto álgido, sino también por tratarse de un mundo en el cual, como les introducía antes, la característica más destacable es la heterogeneidad y multiplicidad de fuentes de datos, lo cual añadido al gran volumen de los mismos, hacen que el Big Data sea una nueva ola tecnológica que precisará de una capacidad de proceso y una velocidad del mismo de un orden de magnitud muy superior al actual. Sí, están entendiendo lo que les estoy tratando de decir. La coincidencia temporal actual del incipiente Big Data junto con sus voraces necesidades de recursos informáticos pueden hacer que, en caso de que la humanidad no sea capaz de superar en breve la caducidad de la Ley de Moore, el Big Data pueda ser un caso de muerte prematura antes de alcanzar su punto máximo de desarrollo.

Las implicaciones de esto son incuantificables, tal vez el tema del Big Data les sea ajeno, por ahora, pero en todo estudio de impactos hay que tener en cuenta no sólo los problemas actuales, sino también las repercusiones futuras. Y tal vez se digan ustedes, “He vivido hasta hoy sin el Big Data y puedo seguir viviendo sin él”. Sí, esto es cierto, pero también lo es el hecho de que el progreso empresarial, institucional y social que supondría sería no sólo relevante, sino desproporcionado diría yo. Los avances que permitiría son de impacto incuantificable a día de hoy por su importancia. El Big Data nos cambiará la forma de convivir con esta maraña actual de información que supone internet y las intranets. El acceso cuasi-universal a internet ha sido sólo el primer paso. Ahora la información está ahí, pero hay que conseguir explotarla de forma útil y eficiente, y es aquí donde entra en juego el Big Data. Áreas tan importantes como las Smart Cities, la Bioinformática, y otros campos que hagan un uso intensivo de datos, verían truncada su evolución.

Además, es difícil determinar a día de hoy el momento exacto en el que la Ley de Moore dejará de cumplirse, y por lo tanto es posible que esto ocurra cuando el cohete del Big Data ya haya despegado pero todavía no haya alcanzado la cresta de la ola. Con ello quiero decirles que tal vez la interrupción abrupta de la evolución de un Big Data que ya esté en camino sea peor que no haberlo desarrollado nunca. Y a esto es a lo que nos enfrentamos obviando a Moore.

Seguramente veremos una vuelta atrás en la movilidad: los dispositivos más potentes serán necesariamente más grandes, tal y como ocurre ahora, pero sin la tendencia actual de, con el paso del tiempo, reducir el espacio e incrementar la capacidad de proceso. Esto implica una vuelta a los macro Centros de Datos (que realmente nunca nos han acabado de dejar, la nube simplemente los ha ubicado en otros sitios), porque mientras no dejemos atrás la Era del Silicio, y una vez echado el freno a la Ley de Moore, evolución con más potencia implicará necesariamente más espacio. Ya no habrá democratización de la potencia de procesamiento: el espacio, la capacidad, la potencia y la infraestructura serán para los que se la puedan permitir.

Por otro lado, hay otras consecuencias que podemos entrever y que no serían tan catastróficas. En esta categoría se podría incluir el hecho de que la obsolescencia natural de ciertas tecnologías dejaría de ser un hecho, dado que ya no habría un nuevo ordenador más potente que por ejemplo pueda pasar ya a romper en un tiempo razonable una criptografía que hasta el momento era segura.

Pero no me lancen las campanas al vuelo, probablemente la insignificancia relativa de estas ventajas se vea eclipsada por los feroces efectos sobre una industria tecnológica deflacionaria por naturaleza, pero que gracias a la innovación compensa su obsolescencia innata. Posiblemente dejaríamos de esperar a que la tecnología, siempre con un precio de salida desorbitado, fuese poco a poco volviéndose más asequible conforme se vuelve madura. Esta pseudo-democratización de los avances tecnológicos, por la cual las clases medias y bajas sólo tienen que esperar para poder tener acceso a los avances tecnológicos, puede verse interrumpida. Y tengan en cuenta que esta tendencia actual reporta (supuestos) beneficios cuantificables e incuantificables, como son la fatua felicidad que el sistema capitalista nos reporta con esa ilusoria sensación de ser más ricos que antes por poder tener algo que antes no nos podíamos permitir, con efectos sobre la estabilidad social y, cómo no, afectando también al beneficio que el propio sistema capitalista reporta a sus inversores, puesto que a día de hoy, la economía de escala hace que los productos sean más rentables cuando alcanzan su mayor difusión con la comercialización entre el grueso de la población. Por otro lado, seguramente, con el final de la Ley de Moore veríamos una aceleración considerable de la conversión de los recursos informáticos en utility, se compraría capacidad de proceso de forma simplificada y al por mayor, tal y como contratamos actualmente el agua o la electricidad, puesto que el frenazo de la progresión del hardware tendería a homogenizar el producto.

Y no se me equivoquen, no toda evolución tecnológica sufriría un frenazo en seco. Siempre hay lugar para la innovación. Siempre hay nuevas aplicaciones y servicios por idear que requieran poca evolución de la potencia de procesadores y memorias. Y recuerden que, además, la eficiencia está en la escasez, y el tándem evolución conjunta hardware-software ha hecho que muchas veces el uso que se hace del hardware no sea todo lo eficiente que podría ser, puesto que se asume siempre una futura plataforma hardware más potente sobre la que desplegar la siguiente versión de servicios y aplicaciones.

Con esto no quiero apartarme de mi tesis inicial del gran impacto que la muerte de la Ley de Moore tendrá sobre nuestras vidas futuribles, que no se puede calificar más que de muy importante, lo único es que no consideraría este análisis completo sin profundizar en todas estas diferentes facetas.

Me despediré recordándoles que el futuro siempre es apasionante, pero también, por su propia naturaleza, generalmente imprevisible. Es un error dejarse llevar por la deriva de lo que hasta ahora ha sido una forma de vida o de negocio. Todo es susceptible de acabarse en cualquier momento, especialmente en lo que a evolución tecnológica se refiere. Y no hay que adoptar un papel pasivo ante la sucesión de acontecimientos. Los gobiernos deberían tomar partido en la investigación de un nuevo campo tecnológico que puede ser que a día de hoy aún no sea rentable, pero que sea estratégico por la propia amenaza que Moore nos deja como legado. La universalidad de la amenaza hace que la solución sea un bien globalmente necesario o… tal vez no tanto, porque quien desarrolle una nueva tecnología y no la “globalice” compartiéndola con los demás podría dominar el mundo.

Sígueme en Twitter: @DerBlaueMond

Neurociencia o La próxima gran revolución tecnológica

El final de la década de los noventa, y el principio de la década de 2000 a 2010, se han caracterizado por haber visto una profunda revolución de las telecomunicaciones y la informática. Los reputados visionarios de determinados foros internacionales nos dicen que la próxima gran revolución va a venir de la mano de la medicina y la técnica. Y yo creo que razón no les falta, pero me atrevería en este post a aventurar con mayor nivel de detalle el alcance de estos futuros avances.

Lo que podemos acuñar ya como Neurociencia puede ser una realidad antes de lo que podamos imaginar. Hace ya algunos años, se publicó un exitoso experimento por el cual se conectó un chip electrónico a las neuronas de un ratón, y era posible que los impulsos eléctricos de uno y otro interaccionasen entre sí. Futurista y prometedor, ¿No?. Pero realmente, puede ser más o menos sencillo transmitir impulsos eléctricos cerebrales a un chip y viceversa, puesto que, al fin y al cabo, son ambos señales eléctricas, y, aunque de diferentes voltajes y características, resulta a priori más o menos sencillo concebir su interoperabilidad mediante las conversiones eléctricas que puedan ser necesarias entre medias.

El alcance de la Neurociencia como tal llegaría mucho más allá de esta mera interacción eléctrica. Estoy de acuerdo en que dicha interacción es verdaderamente la base de todo este nuevo campo, pero es una base tan elemental que su mera existencia no deja más que un largo camino por delante. Porque se hagan una idea, esta interacción eléctrica sería el equivalente a poder transmitir un byte de un ordenador a otro a través de un cable. Esto es algo que es necesario, pero sobre ello hay que construir todo internet, con sus protocolos e información para que ese dato a transmitir tenga significado, y sobre ello van después las redes sociales, aplicaciones, etc. Por lo tanto, y comparando con la fecha de la primera transmisión de información entre computadoras, pueden quedarnos décadas de avances en el nuevo campo de la Neurociencia hasta que se pueda traducir en innovadoras aplicaciones prácticas para los seres vivos. Una de ellas sería la virtualización de los seres humanos que les proponía en el post de “Futura revolución: La inversa de Matrix o… no tan inversa” como única salida para el futuro de nuestra civilización: para interaccionar con nuestras vidas virtualizadas sería obviamente necesario disponer de todo un gran sistema, al estilo de The Matrix, con el que los impulsos eléctricos de nuestros cerebros interactuarían.

Pero pasemos a analizar con un poco más de detalle qué implicaciones pueden tener estos avances neurocientíficos y el porqué de su posible complejidad. Empecemos por la base. Un impulso eléctrico es una señal que en electrónica digital traduce un bit de valor “0” por 0 voltios, y un bit de valor “1” por 5 voltios. Desconozco las especificaciones de las señales eléctricas biológicas de nuestros cerebros, si bien a buen seguro son también una señal eléctrica con variaciones de voltaje, aunque de una magnitud muy inferior a un voltio. Pero la similitud de ambas señales está ahí, sólo hace falta una mera conversión de umbrales eléctricos. Y, como decíamos antes, ésta es la base de todo, pero es una base tan elemental que nos queda mucho camino por recorrer.

El primer escollo puede venir por el tipo de señal de los cerebros. Los chips sabemos que son digitales: reducen todos los datos que manejan a ceros y unos (recordemos, 0 voltios o 5 voltios). Pero, ¿Cómo son las señales del cerebro?. Analógicas. ¿Qué quiere decir esto?: que las señales eléctricas que nuestros cerebros emiten y reciben no son una sucesión de ceros y unos, sino que son señales que varían libremente en voltaje dentro de un rango eléctrico determinado. Para que se hagan una idea, podemos usar el símil de la música: ustedes oyen una señal analógica que varía en tono e intensidad según unos patrones determinados (los que produce el grupo musical en concreto que esté interpretando), pero en el CD esa señal está almacenada como una sucesión de ceros y unos que se utilizan para reconstruir una señal analógica continua que hace vibrar el aire y después llega a sus oídos. El símil de la audición se queda corto, puesto que se limita a “grabar” un sonido analógico, traducirlo a digital, almacenar los ceros y unos en el CD, y luego el proceso inverso: recuperar los ceros y unos del CD, reconstruir una señal analógica, y hacer vibrar el aire para que llegue a nuestros oídos. El problema con las señales cerebrales es que no sabemos aún apenas nada sobre ellas, y que su procesado no se limita a grabarlas para luego reproducirlas, sino en descifrar la información que contienen y en base a ello interactuar con chips electrónicos de uno u otro modo. Dado el amplio espectro de funciones del cerebro, la cantidad de información contenida en estas señales analógicas es tan enorme que no hay que descartar que se pueda dar cierto nivel de multiplexación (coexistencia de diferentes señales con información sobre una única señal de salida resultante), lo cual no añade sino un nivel más de complejidad al asunto. Y el gran escollo es que a día de hoy apenas tenemos idea de cómo el cerebro almacena, procesa y transmite esas cantidades ingentes de información a cada segundo.

Pero vayamos un paso más allá. Analicemos con un poco más de detalle el funcionamiento del cerebro haciendo símiles con la arquitectura de los ordenadores que todos tenemos en casa (es el invento humano que más similitud puede tener con el cerebro). A grandes rasgos, podemos diferenciar entre almacenamiento y procesamiento. Almacenamiento es lo que hace la RAM o el disco duro, guardar datos. Procesamiento es lo que hace la CPU o procesador, transformar información y hacer cálculos para obtener un resultado.

Empecemos por el almacenamiento. Las principales características del mismo son la persistencia de los datos y su direccionamiento. La persistencia es obvia, pues un dato debe estar ahí cuando vamos a buscarlo… eso sí, hemos podido olvidarlo ya en el caso del cerebro, o puede haber sufrido una corrupción de datos en el caso del ordenador. Para el tema que nos ocupa, la persistencia no es algo sobre lo que debamos profundizar. Caso diferente es el direccionamiento, pero es un concepto sencillo: para almacenar o recuperar un dato, hemos de saber su ubicación: dónde está almacenado. En un ordenador esto se limita a una ristra de bits (ceros y unos) que indican la posición en el chip donde está el dato a grabar o leer. Sencillo, ¿No?. Pero, ¿Cómo será en el caso del cerebro?. ¿Cómo sabe el cerebro dónde ha de guardar un dato u otro?, ¿Y cómo sabe dónde ir a buscarlo después?. La cuestión además se complica puesto que se sabe que nuestro cerebro tiene diferentes tipos de memoria en base a la procedencia de los estímulos: visual, olfativa, táctil, auditiva, de los propios pensamientos… y diferentes tipos de memoria en base a su persistencia: instantánea, reciente, pasada… Desconozco las respuestas a todas estas cuestiones que les acabo de plantear, y sobre ellas posiblemente algún programa de Eduardo Punset pueda arrojar algo más de luz, pero a buen seguro todavía siguen siendo en buena medida misterios insondables para la ciencia.

¿Y qué me dicen respecto a la capacidad de proceso?. Si les digo que, al menos en arquitectura de computadores, la memoria es el caso fácil, no se me echen a temblar, que no voy a abordar en este párrafo el lenguaje ensamblador de nuestros cerebros, podemos hacernos una idea del asunto con cuestiones sencillas. ¿Dónde reside nuestra conciencia?, ¿Es algo similar a nuestra “alma” con una ubicación determinada en el cerebro o está distribuida por varias regiones cerebrales?, ¿Hay en el cerebro un punto físico único por el que discurran todos nuestros pensamientos, a modo de red troncal, donde poder “pinchar” cables que puedan permitirnos interactuar totalmente con chips electrónicos?. Dado que podemos tener en paralelo varios pensamientos diferentes a un mismo tiempo, ¿Cómo codifica ésto el cerebro en señales?, ¿Se trata de una única señal multiplexada entre neuronas o varias señales diferentes?. Es relativamente sencillo almacenar una sensación visual, auditiva… pues se trata simplemente de “copiar” en la memoria la señal que viene del sentido correspondiente, pero ¿Cómo se memoriza un pensamiento?. ¿Y qué me dicen de la creatividad?: es, junto con los sentimientos, uno de los principales factores diferenciales entre una mente humana y una artificial (ya abordamos este tema en otro post: “En el futuro todo el mundo será famoso durante 15 minutos o Redes Sociales vs Inteligencia Artificial”). ¿Cómo genera el cerebro una nueva idea?, ¿Cómo se procesa la información de la que disponemos para que se nos ocurra algo nuevo?. Siento decirles de nuevo que no tengo respuestas, pero realmente la intención de éste párrafo y el anterior se limitaba a hacerles entrever el alcance y la complejidad de los avances que tenemos por delante en este campo.

Pero aventurémonos un poco con aplicaciones prácticas de estos supuestos avances de la Neurociencia. Dada la idea de la complejidad que el análisis anterior nos ha permitido tener, podríamos decir que veremos primeramente implantes de memoria que nos permitan multiplicar tanto el número de datos que somos capaces de recordar, como incrementar o hacer que su persistencia sea mayor, o incluso perpetua. Como veíamos, la memoria es conceptualmente mucho más sencilla de manejar desde un punto de vista funcional. Y les confesaré que, a partir de cierta edad, éste sería un avance con un impacto social importante, puesto que la evolución del raciocinio, y la pérdida de memoria, son dos hechos constatados con el paso de los años en la especie humana. ¿Se imaginan dónde llegaría nuestra especie si pudiésemos actuar con la experiencia de un sexagenario y la memoria de un niño?. Posteriormente tal vez veamos implantes de capacidad de proceso para ampliar la potencia de cálculo y pensamiento de nuestros cerebros, tema que se me antoja mucho más complejo. Con todo ello, lo único que puede diferenciar a una persona de avanzada edad de una joven será la experiencia adquirida con el paso de los años, aunque tal vez ése sea el siguiente paso a realizar: que vendan a la gente joven implantes neuronales para poder razonar y pensar como una persona que tiene ya una dilatada experiencia en la vida. Estarán de acuerdo conmigo en que las implicaciones socioeconómicas de todo esto son de una magnitud insondable. Pero algo que deberá preocuparnos en su momento será que estos avances no nos lleven a una oligarquía, en la que las personas con más recursos económicos sean las que más capacidades psíquicas puedan bioimplantarse, y por lo tanto sean las clases que se perpetúen como directivos de nuestras empresas y gobiernos por ser las más capacitadas e “inteligentes” (si, ya sé que en nuestras democracias los más capacitados o “inteligentes” no tienen por qué coincidir con los directivos de empresas o gobiernos, pero es cierto que ayuda a llegar más alto).

Pero no se desanimen, este es un futuro que está ahí, y puede que la complejidad que les he hecho entrever haga que tarde un poco más en llegar, si bien está claro que, más pronto o más tarde, lo veremos hecho realidad, el infinito temporal es lo único que tenemos por delante, eso sí, si no nos autoextinguimos antes.

Para finalizar, me gustaría disculparme por el nivel técnico de este post. He intentado simplificar y hacer entendible para cualquier persona los conceptos que hemos manejado, pero para el tema sobre el que hemos reflexionado, era imposible no abordar estos aspectos.

Sígueme en Twitter: @DerBlaueMond

A %d blogueros les gusta esto: