Archivo de la categoría: Tecnología

La lacra de la ciencia y el I+D en España o La malograda carrera técnica

¿No se han preguntado por qué la ciencia y el I+D en España es, salvo honrosas excepciones, poco más que unas subvenciones estatales y unas becas que dejan muchísimo que desear?. ¿No han tenido la posibilidad en su vida profesional de dar el salto a puestos de gestión y dejar la técnica, y lo han aceptado para mejorar sus condiciones económicas y la proyección en su empresa?. Si llevan ustedes ya unos años en la arena laboral, a poco que les interese la innovación y/o si han estudiado una carrera técnica, posiblemente su respuesta a ambas preguntas sea un rotundo sí.

Es cierto, admitámoslo, salvo unos pocos puestos relevantes a nivel nacional y el sector universitario (que sobrevive también en parte por la docencia), los técnicos y los científicos que se mantienen como tales durante toda su carrera se puede decir que lo hacen por amor al arte, porque lo que es por estar retribuidos dignamente y por hacer carrera, la verdad, no es motivo.

Expongamos claramente la situación actual. Hay dos patas del I+D: los científicos y los técnicos. Generalmente los científicos de carrera tienen unas condiciones laborales precarias, mayormente con becas de asignaciones ínfimas o puestos interinos que en el mejor de los casos se van renovando cada cierto tiempo, con poca continuidad o estabilidad económico-laboral. Como les decía, tan sólo algunos puestos contados a nivel nacional tienen buenas condiciones, y en la universidad tal vez hay un panorama algo mejor, pero es cierto que también es debido principalmente a que casi siempre combinan la investigación con labores docentes. En el caso de los técnicos el panorama no es mucho más halagüeño. Son los técnicos los que en las empresas y en las instituciones tienen capacidad para optimizar procesos, dar con nuevas e innovadoras soluciones o desarrollar nuevo hardware, software o productos industriales. ¿Qué me dicen ustedes si les comento que habitualmente los técnicos, que en realidad son los que producen algo tangible, casi son los peor retribuidos en puestos de oficina en las empresas?. ¿Qué me dicen si les indico que normalmente, a un buen técnico que ha demostrado tener cualidades personales y profesionales, se le ofrece pasar a puestos de gestión como plan de carrera?. Pues créanme cuando les digo que lo que les expongo es la triste norma general.

Pasemos a analizar las consecuencias de este desolador panorama nacional. La consecuencia más inmediata es obvia, los mejores investigadores y técnicos van pasando a puestos de gestión, para los que tal vez estén peor dotados, y dejando una ciencia y una técnica en la que tienen mucho que decir: doble pérdida. Además, las generalmente muy mejorables condiciones de los que se quedan, con el paso del tiempo, les hace ir cayendo en la desmotivación, lo cual suele influir en su estado de ánimo y por ello también en su preciada creatividad y capacidad de innovación. Al ser esto así, una consecuencia de segundo orden es que en España se inventa, investiga e innova mucho menos de lo que se podría potencialmente, y lo que se hace es mayormente gracias a esos estupendos profesionales que tenemos que a veces se mantienen fieles a su pasión científico-técnica más por amor al arte que por otra cosa. La verdad, en estas condiciones me sorprende que aún consigamos lo que vamos consiguiendo a nivel nacional, y es sin duda gracias a la calidad personal y profesional de los científicos y técnicos que nos quedan. Y si empezamos con las comparaciones, y nos miramos en el espejo de otros países más avanzados en estos campos como USA, Alemania o Japón, vemos cómo nos sacan los colores por número de patentes, por nuevos productos, por nuevas tecnologías, por innovaciones, por artículos de investigación, etc. Lo más triste de todo es que, en las jerarquías de base, materia prima, formación, pasión y voluntad hay mucha y buena, si no ya les digo que estaríamos aún peor de lo que estamos.

Pero, para poder buscar una solución a tan importante problema, preguntémonos el porqué esto es así. La situación llama aún más la atención cuando curiosamente todo el mundo en la sociedad, en las instituciones y en las empresas están de acuerdo en que el I+D es esencial y así lo reconocen públicamente, pero luego la realidad que muchos dirigentes y directivos practican en la trastienda dista mucho de lo que predican, y el I+D se ve más como un gasto de resultados inciertos que como una inversión de futuro. Yo diría que es un problema de mentalidad y casi cultural. Me atrevería a decir que incluso es un problema de emprendimiento.  Y por qué no decirlo, también de financiación. En mecas de la innovación como Silicon Valley es mucho más sencillo encontrar individuos o instituciones con recursos económicos y dispuestos a invertir en proyectos novedosos, nuevas tecnologías o start-ups.

Pero seamos constructivos, propongamos cómo solucionar esta lacra. Como les decía antes, deberíamos mirar a otros países que lo estén haciendo mejor que nosotros. En USA, Alemania y Japón el I+D no es como aquí, en estos países se puede perfectamente hacer una carrera profesional de por ejemplo programador informático, y si se es bueno, llegar a tener un salario y una reputación considerable. La realidad indiscutible es que estos tres casos son mecas del I+D y la ingeniería a nivel global, lógicamente, y como consecuencia, con economías líderes. ¿La gran diferencia de estos países con España?. Como parte de la voluntad política y directiva que les comentaba antes, es verdad que en general en España hay pavor a arriesgar, a fracasar, en parte probablemente por la poca tolerancia al fallo y al fracaso que hay en nuestra sociedad, tal y como tratábamos en el post «El ansiado y fatuo éxito profesional en España o Cómo la mayoría intenta ocultar sus errores«.

Tal y como les decía entonces, tenemos que cambiar de una vez por todas la tan nociva cultura nacional del éxito por la de la tolerancia al fallo, ya no sólo por las consecuencias socioeconómicas, el bienestar personal, y ambiente profesional que les expuse en su momento en el post del link anterior, sino también porque el I+D también depende de ello, es el sector más estratégico y de futuro que hay en una economía, y con la mentalidad actual les puedo garantizar que no vamos a ningún sitio. Hay que plantearse de una vez por todas por qué en España vender humo, gestionar personas o gestionar proyectos está mucho mejor retribuido que desarrollar una buena idea, investigación o producto; es algo muy indicativo de que algo va mal en nuestra sociedad: el éxito, el cortoplacismo o la autoridad sobre otras personas o sobre recursos económicos se valoran mucho más que el aprender de los propios errores, los beneficios a largo plazo, la creatividad o la iniciativa. ¿Que cómo se hacen estos cambios tan necesarios?. Es un proceso difícil y lento a nivel colectivo, pero en estas situaciones hay que ir de abajo a arriba, y el principio del cambio empieza por nosotros mismos, porque si tenemos que esperar a que cambie por sí sólo lo que tenemos por encima, a la vista están los resultados a lo largo de estas últimas décadas. Por ello les pido que traten de estar al día en estos temas, y que cuando vean un producto novedoso, que les solucione un problema, que les facilite la vida, etc. no lo duden, promuevan el I+D y cómprenlo, cuéntenlo a sus amistades, retuitéenlo en Twitter, postéenlo en Facebook, y con más motivo si se trata de un producto “Made in Spain”, que buena falta le hace a nuestra economía. Con ello no me gustaría que se quedasen con la impresión de que les echo la culpa a ustedes de la situación actual, eso sería muy injusto por mi parte, tan sólo les pido que participen en la solución en la medida de sus posibilidades: entre todos podemos conseguirlo.

Sígueme en Twitter: @DerBlaueMond

La Teoría del Caos 2.0 o La potencialidad de un comentario en las Redes Sociales

La Teoría del Caos es uno de esos temas que siempre me han apasionado desde hace años, aunque soy consciente de que todavía no les he hablado en mis posts de ella. Esta teoría estaría en el origen de la explicación de fenómenos naturales tan aparentemente azarosos como la forma cambiante que va adoptando un cubito de hielo al derretirse o el serpentear de una manguera suelta y descontrolada echando agua, en ciencias como la meteorología, o en patrones como el comportamiento mismo de la bolsa. Son este tipo de sistemas tan complejos los que son objeto de explicación por parte de la Teoría del Caos, dejando a un lado la aparente arbitrariedad que clásicamente se les ha atribuido. Esta teoría fue formulada por el matemático y meteorólogo Edward Lorenz en 1963, y se basa en que una variación, aunque sea imperceptible, en las condiciones iniciales de estos sistemas dinámicos y complejos puede llevar a resultados radicalmente diferentes. Es de aquí de donde se origina esa famosa metáfora por la cual Lorenz dijo que el aleteo de una mariposa en Brasil podía originar un tornado en Tejas.

Hasta aquí nada nuevo, sólo he tratado de ponerles en antecedentes y me he limitado a resumirles los principios básicos de esta teoría. Es a raíz de un reciente tuit en Twitter de @AgustinSaGa, por lo que me he decidido a analizar el tema a continuación desde una nueva perspectiva actual y (creo) interesante.

Desde que fue formulada hasta nuestros días, la Teoría del Caos, si bien en su esencia permanece siendo vigente de la misma forma, en su aplicabilidad a nuestro entorno ha cambiado sensiblemente con los tiempos. Me explico. Uno de los sistemas más complejos conocidos sobre la faz de La Tierra es el ser humano, y por ende, las sociedades humanas pueden ser calificadas igualmente de gran complejidad, o incluso superior por su naturaleza agregativa de las diferentes complejidades individuales subyacentes. En las últimas décadas ha habido cambios significativos en nuestras sociedades y en la forma de interrelacionarse en ellas, que están teniendo y van a tener sin duda un gran impacto en el presente y futuro de nuestros sistemas socioeconómicos.

Tal y como  les introducía en mi post «En el futuro todo el mundo será famoso durante 15 minutos o Redes Sociales vs Inteligencia Artificial«, la sociedad hiperconectada y la viralidad que fomenta son elementos claramente diferenciadores de las sociedades del siglo XXI, fruto principalmente de la llegada de la web 2.0. Es precisamente esta viralidad la que permite y sirve de base en la aplicabilidad de la Teoría del Caos a las sociedades actuales. Una pequeña variación en el pensamiento de un individuo a priori insignificante en el conjunto de la raza humana, puede rápidamente propagarse por los diferentes círculos sociales hasta volverse un pensamiento global, ejerciendo una poderosa influencia sobre todos los individuos y, por lo tanto, condicionando también la futura evolución del sistema socioeconómico en sí mismo. Esta conclusión coincide con la esencia misma de la Teoría del Caos que les explicaba antes: imperceptibles variaciones en las condiciones iniciales conducen a resultados radicalmente diferentes. Es lo que podríamos acuñar como Teoría del Caos 2.0.

Y me dirán ustedes, ¿Y de qué me sirve ser consciente de la existencia de una Teoría del Caos 2.0 si no me permite ni siquiera anticipar futuras tendencias sociales y socioeconómicas?. Les reconozco que la aceptación de la Teoría del Caos 2.0 como realidad de nuestra sociedad no es más que el reconocimiento de la propia ignorancia ante un problema cuya complejidad excede nuestras posibilidades técnicas e intelectuales actuales. Pero supongo que estarán de acuerdo en que, en todo caso, siempre es un avance el tener la Teoría del Caos que pensar que las tormentas se deben a los cambios de humor de Zeus como hacían los griegos. Algunos argumentarán que pasar de delegar la arbitrariedad en Zeus a delegarla en una fórmula matemática meteorológica indescifrable son dos caras de la misma moneda, y razón no les falta, pero una cosa es atribuir facultades a un Dios griego, y otra reconocer la existencia de leyes físicas, solo que son demasiado complejas para ser formuladas en su totalidad de forma consistente a día de hoy.

Por otro lado, a buen seguro, los estados represivos tratan o tratarán de bloquear este fenómeno del Caos 2.0, como también comentamos en el post «La profecía de George Orwell o El 1984 de las Redes Sociales«, puesto que las mismas herramientas sirven tanto de base para la Teoría del Caos 2.0, como también para su represión. Una bipolaridad que aprovecharán ciertos estamentos para intentar apagar lo que verán como un posible foco de inestabilidad, y que, en última instancia, pueden incluso aprovechar para, mediante los mismos medios, tratar de imponer su pensamiento único.

Piensen, reflexionen, imaginen, ideen, creen… lo que parta de sus mentes puede influirles de forma importante tanto a ustedes mismos como al resto de la humanidad. No todo es tan azaroso como puede parecer a simple vista, solo que hay cosas que trascienden nuestras posibilidades y leyes científicas actuales. Como siempre les digo, sean responsables, porque tienen sobre sus hombros muchas más responsabilidades de las que ustedes piensan, y el Caos 2.0 posiblemente sea la más influyente, poderosa e impredecible de todas ellas.

Sígueme en Twitter: @DerBlaueMond

La muerte prematura del Big Data o El cercano fin de la Ley de Moore

Supongo que ustedes ya habrán leído sobre la famosa Ley de Moore, por la cual en 1965, el doctor en química Gordon E. Moore, cofundador de Intel, predijo que cada dos años se duplicaría la densidad de integración de transistores en un circuito integrado. Esta ley ha venido cumpliéndose de forma sorprendente desde que fue formulada, pero parece ser que en los últimos años su validez se está acercando a su fin.

Y se preguntarán ustedes, ¿Y qué me importa a mí que se cumpla o no esta ley?. Nos puede afectar mucho a todos, puesto que la tecnología hoy en día forma parte indisoluble de nuestra forma y calidad de vida, y que la Ley de Moore deje de cumplirse implica que la progresión de la potencia de los nuevos procesadores informáticos, la progresión de la capacidad de memoria, etc. se verán abruptamente interrumpidas, con todo lo que ello conlleva según analizaremos con más detenimiento más adelante.

El motivo de esta muerte repentina no es baladí, ni más ni menos tiene relación con las leyes de la física de escala subatómica, que son distintas también en electrónica a aquellas del mundo macroscópico, y que hacen que la Ley de Moore esté acercándose a un límite por debajo del cual dejará de poder predecir el futuro de la informática: la progresiva miniaturización de los transistores hacen que a día de hoy empiecen a tener unas dimensiones tan reducidas que sean de un orden de magnitud comparable a las partículas atómicas, con lo cual las interacciones entre componentes y sus propiedades electromagnéticas se ven seriamente alteradas respecto a las que se deberían dar en el mundo macroscópico, imposibilitando el correcto funcionamiento de los futuros chips de silicio o, en todo caso, poniendo un límite claro a la hasta ahora progresiva integración electrónica.

Se podría decir que la humanidad actualmente vive en la Era del Silicio, pero es obvio que, tal y como ha ocurrido tantas veces a lo largo de la historia, más pronto o más tarde, habrá un cambio tecnológico que se basará en la utilización de nuevos materiales y sustratos, que obligará a la formulación de nuevas leyes, y que en este caso concreto puede consistir en utilizar nanotecnología de grafeno y nitruro de boro hexagonal que, a priori, por su propia naturaleza y definición, van a permitir unas escalas de integración muy superiores a la tecnología de silicio actual, pudiendo llegar incluso al primer circuito integrado con el grosor de un solo átomo. Pero estarán de acuerdo en que este posible avance microelectrónico que supondría la utilización del grafeno, a nivel de miniaturización, supondría únicamente un “kicking the can down the road” (es decir, procrastinación o cómo se suele decir “una patada para adelante”), puesto que el átomo es la unidad última que compone la materia, con lo que alcanzar dimensiones de tan sólo un átomo es un límite a priori infranqueable a cuya limitación nos enfrentaremos más pronto que tarde.

Algunos argumentarán que la computación cuántica permite rebasar esa limitación de la escala atómica. Razón no les falta, pero siento decirles que, en mi humilde opinión, es una tecnología que todavía está muy inmadura y dudo mucho que veamos el ordenador cuántico hecho realidad antes de tener que enfrentarnos al límite atómico que les comentaba.

Suponiendo que la llegada de una nueva tecnología se retrase con respecto a cuándo sea imperiosamente necesaria, pasemos a pensar en las consecuencias de un frenazo en seco de la evolución de la potencia de nuestros procesadores y memorias. El primer afectado sería sin lugar a dudas el Big Data. Para los no versados les resumiré que el Big Data se trata principalmente de explotar de forma coherente toda la información que acumulan empresas, organizaciones e instituciones en diferentes bases de datos, lo cual es una ardua labor, no sólo por las complicaciones técnicas de las diferentes tecnologías de cada fabricante, sino principalmente por el tremendo volumen de datos que se guardan en la actualidad y que no son correctamente aprovechados.

La razón por las que les decía que el Big Data sería el primer afectado no es sólo porque se trata de una tecnología en ciernes que todavía no ha alcanzado su punto álgido, sino también por tratarse de un mundo en el cual, como les introducía antes, la característica más destacable es la heterogeneidad y multiplicidad de fuentes de datos, lo cual añadido al gran volumen de los mismos, hacen que el Big Data sea una nueva ola tecnológica que precisará de una capacidad de proceso y una velocidad del mismo de un orden de magnitud muy superior al actual. Sí, están entendiendo lo que les estoy tratando de decir. La coincidencia temporal actual del incipiente Big Data junto con sus voraces necesidades de recursos informáticos pueden hacer que, en caso de que la humanidad no sea capaz de superar en breve la caducidad de la Ley de Moore, el Big Data pueda ser un caso de muerte prematura antes de alcanzar su punto máximo de desarrollo.

Las implicaciones de esto son incuantificables, tal vez el tema del Big Data les sea ajeno, por ahora, pero en todo estudio de impactos hay que tener en cuenta no sólo los problemas actuales, sino también las repercusiones futuras. Y tal vez se digan ustedes, “He vivido hasta hoy sin el Big Data y puedo seguir viviendo sin él”. Sí, esto es cierto, pero también lo es el hecho de que el progreso empresarial, institucional y social que supondría sería no sólo relevante, sino desproporcionado diría yo. Los avances que permitiría son de impacto incuantificable a día de hoy por su importancia. El Big Data nos cambiará la forma de convivir con esta maraña actual de información que supone internet y las intranets. El acceso cuasi-universal a internet ha sido sólo el primer paso. Ahora la información está ahí, pero hay que conseguir explotarla de forma útil y eficiente, y es aquí donde entra en juego el Big Data. Áreas tan importantes como las Smart Cities, la Bioinformática, y otros campos que hagan un uso intensivo de datos, verían truncada su evolución.

Además, es difícil determinar a día de hoy el momento exacto en el que la Ley de Moore dejará de cumplirse, y por lo tanto es posible que esto ocurra cuando el cohete del Big Data ya haya despegado pero todavía no haya alcanzado la cresta de la ola. Con ello quiero decirles que tal vez la interrupción abrupta de la evolución de un Big Data que ya esté en camino sea peor que no haberlo desarrollado nunca. Y a esto es a lo que nos enfrentamos obviando a Moore.

Seguramente veremos una vuelta atrás en la movilidad: los dispositivos más potentes serán necesariamente más grandes, tal y como ocurre ahora, pero sin la tendencia actual de, con el paso del tiempo, reducir el espacio e incrementar la capacidad de proceso. Esto implica una vuelta a los macro Centros de Datos (que realmente nunca nos han acabado de dejar, la nube simplemente los ha ubicado en otros sitios), porque mientras no dejemos atrás la Era del Silicio, y una vez echado el freno a la Ley de Moore, evolución con más potencia implicará necesariamente más espacio. Ya no habrá democratización de la potencia de procesamiento: el espacio, la capacidad, la potencia y la infraestructura serán para los que se la puedan permitir.

Por otro lado, hay otras consecuencias que podemos entrever y que no serían tan catastróficas. En esta categoría se podría incluir el hecho de que la obsolescencia natural de ciertas tecnologías dejaría de ser un hecho, dado que ya no habría un nuevo ordenador más potente que por ejemplo pueda pasar ya a romper en un tiempo razonable una criptografía que hasta el momento era segura.

Pero no me lancen las campanas al vuelo, probablemente la insignificancia relativa de estas ventajas se vea eclipsada por los feroces efectos sobre una industria tecnológica deflacionaria por naturaleza, pero que gracias a la innovación compensa su obsolescencia innata. Posiblemente dejaríamos de esperar a que la tecnología, siempre con un precio de salida desorbitado, fuese poco a poco volviéndose más asequible conforme se vuelve madura. Esta pseudo-democratización de los avances tecnológicos, por la cual las clases medias y bajas sólo tienen que esperar para poder tener acceso a los avances tecnológicos, puede verse interrumpida. Y tengan en cuenta que esta tendencia actual reporta (supuestos) beneficios cuantificables e incuantificables, como son la fatua felicidad que el sistema capitalista nos reporta con esa ilusoria sensación de ser más ricos que antes por poder tener algo que antes no nos podíamos permitir, con efectos sobre la estabilidad social y, cómo no, afectando también al beneficio que el propio sistema capitalista reporta a sus inversores, puesto que a día de hoy, la economía de escala hace que los productos sean más rentables cuando alcanzan su mayor difusión con la comercialización entre el grueso de la población. Por otro lado, seguramente, con el final de la Ley de Moore veríamos una aceleración considerable de la conversión de los recursos informáticos en utility, se compraría capacidad de proceso de forma simplificada y al por mayor, tal y como contratamos actualmente el agua o la electricidad, puesto que el frenazo de la progresión del hardware tendería a homogenizar el producto.

Y no se me equivoquen, no toda evolución tecnológica sufriría un frenazo en seco. Siempre hay lugar para la innovación. Siempre hay nuevas aplicaciones y servicios por idear que requieran poca evolución de la potencia de procesadores y memorias. Y recuerden que, además, la eficiencia está en la escasez, y el tándem evolución conjunta hardware-software ha hecho que muchas veces el uso que se hace del hardware no sea todo lo eficiente que podría ser, puesto que se asume siempre una futura plataforma hardware más potente sobre la que desplegar la siguiente versión de servicios y aplicaciones.

Con esto no quiero apartarme de mi tesis inicial del gran impacto que la muerte de la Ley de Moore tendrá sobre nuestras vidas futuribles, que no se puede calificar más que de muy importante, lo único es que no consideraría este análisis completo sin profundizar en todas estas diferentes facetas.

Me despediré recordándoles que el futuro siempre es apasionante, pero también, por su propia naturaleza, generalmente imprevisible. Es un error dejarse llevar por la deriva de lo que hasta ahora ha sido una forma de vida o de negocio. Todo es susceptible de acabarse en cualquier momento, especialmente en lo que a evolución tecnológica se refiere. Y no hay que adoptar un papel pasivo ante la sucesión de acontecimientos. Los gobiernos deberían tomar partido en la investigación de un nuevo campo tecnológico que puede ser que a día de hoy aún no sea rentable, pero que sea estratégico por la propia amenaza que Moore nos deja como legado. La universalidad de la amenaza hace que la solución sea un bien globalmente necesario o… tal vez no tanto, porque quien desarrolle una nueva tecnología y no la “globalice” compartiéndola con los demás podría dominar el mundo.

Sígueme en Twitter: @DerBlaueMond

Neurociencia o La próxima gran revolución tecnológica

El final de la década de los noventa, y el principio de la década de 2000 a 2010, se han caracterizado por haber visto una profunda revolución de las telecomunicaciones y la informática. Los reputados visionarios de determinados foros internacionales nos dicen que la próxima gran revolución va a venir de la mano de la medicina y la técnica. Y yo creo que razón no les falta, pero me atrevería en este post a aventurar con mayor nivel de detalle el alcance de estos futuros avances.

Lo que podemos acuñar ya como Neurociencia puede ser una realidad antes de lo que podamos imaginar. Hace ya algunos años, se publicó un exitoso experimento por el cual se conectó un chip electrónico a las neuronas de un ratón, y era posible que los impulsos eléctricos de uno y otro interaccionasen entre sí. Futurista y prometedor, ¿No?. Pero realmente, puede ser más o menos sencillo transmitir impulsos eléctricos cerebrales a un chip y viceversa, puesto que, al fin y al cabo, son ambos señales eléctricas, y, aunque de diferentes voltajes y características, resulta a priori más o menos sencillo concebir su interoperabilidad mediante las conversiones eléctricas que puedan ser necesarias entre medias.

El alcance de la Neurociencia como tal llegaría mucho más allá de esta mera interacción eléctrica. Estoy de acuerdo en que dicha interacción es verdaderamente la base de todo este nuevo campo, pero es una base tan elemental que su mera existencia no deja más que un largo camino por delante. Porque se hagan una idea, esta interacción eléctrica sería el equivalente a poder transmitir un byte de un ordenador a otro a través de un cable. Esto es algo que es necesario, pero sobre ello hay que construir todo internet, con sus protocolos e información para que ese dato a transmitir tenga significado, y sobre ello van después las redes sociales, aplicaciones, etc. Por lo tanto, y comparando con la fecha de la primera transmisión de información entre computadoras, pueden quedarnos décadas de avances en el nuevo campo de la Neurociencia hasta que se pueda traducir en innovadoras aplicaciones prácticas para los seres vivos. Una de ellas sería la virtualización de los seres humanos que les proponía en el post de “Futura revolución: La inversa de Matrix o… no tan inversa” como única salida para el futuro de nuestra civilización: para interaccionar con nuestras vidas virtualizadas sería obviamente necesario disponer de todo un gran sistema, al estilo de The Matrix, con el que los impulsos eléctricos de nuestros cerebros interactuarían.

Pero pasemos a analizar con un poco más de detalle qué implicaciones pueden tener estos avances neurocientíficos y el porqué de su posible complejidad. Empecemos por la base. Un impulso eléctrico es una señal que en electrónica digital traduce un bit de valor “0” por 0 voltios, y un bit de valor “1” por 5 voltios. Desconozco las especificaciones de las señales eléctricas biológicas de nuestros cerebros, si bien a buen seguro son también una señal eléctrica con variaciones de voltaje, aunque de una magnitud muy inferior a un voltio. Pero la similitud de ambas señales está ahí, sólo hace falta una mera conversión de umbrales eléctricos. Y, como decíamos antes, ésta es la base de todo, pero es una base tan elemental que nos queda mucho camino por recorrer.

El primer escollo puede venir por el tipo de señal de los cerebros. Los chips sabemos que son digitales: reducen todos los datos que manejan a ceros y unos (recordemos, 0 voltios o 5 voltios). Pero, ¿Cómo son las señales del cerebro?. Analógicas. ¿Qué quiere decir esto?: que las señales eléctricas que nuestros cerebros emiten y reciben no son una sucesión de ceros y unos, sino que son señales que varían libremente en voltaje dentro de un rango eléctrico determinado. Para que se hagan una idea, podemos usar el símil de la música: ustedes oyen una señal analógica que varía en tono e intensidad según unos patrones determinados (los que produce el grupo musical en concreto que esté interpretando), pero en el CD esa señal está almacenada como una sucesión de ceros y unos que se utilizan para reconstruir una señal analógica continua que hace vibrar el aire y después llega a sus oídos. El símil de la audición se queda corto, puesto que se limita a “grabar” un sonido analógico, traducirlo a digital, almacenar los ceros y unos en el CD, y luego el proceso inverso: recuperar los ceros y unos del CD, reconstruir una señal analógica, y hacer vibrar el aire para que llegue a nuestros oídos. El problema con las señales cerebrales es que no sabemos aún apenas nada sobre ellas, y que su procesado no se limita a grabarlas para luego reproducirlas, sino en descifrar la información que contienen y en base a ello interactuar con chips electrónicos de uno u otro modo. Dado el amplio espectro de funciones del cerebro, la cantidad de información contenida en estas señales analógicas es tan enorme que no hay que descartar que se pueda dar cierto nivel de multiplexación (coexistencia de diferentes señales con información sobre una única señal de salida resultante), lo cual no añade sino un nivel más de complejidad al asunto. Y el gran escollo es que a día de hoy apenas tenemos idea de cómo el cerebro almacena, procesa y transmite esas cantidades ingentes de información a cada segundo.

Pero vayamos un paso más allá. Analicemos con un poco más de detalle el funcionamiento del cerebro haciendo símiles con la arquitectura de los ordenadores que todos tenemos en casa (es el invento humano que más similitud puede tener con el cerebro). A grandes rasgos, podemos diferenciar entre almacenamiento y procesamiento. Almacenamiento es lo que hace la RAM o el disco duro, guardar datos. Procesamiento es lo que hace la CPU o procesador, transformar información y hacer cálculos para obtener un resultado.

Empecemos por el almacenamiento. Las principales características del mismo son la persistencia de los datos y su direccionamiento. La persistencia es obvia, pues un dato debe estar ahí cuando vamos a buscarlo… eso sí, hemos podido olvidarlo ya en el caso del cerebro, o puede haber sufrido una corrupción de datos en el caso del ordenador. Para el tema que nos ocupa, la persistencia no es algo sobre lo que debamos profundizar. Caso diferente es el direccionamiento, pero es un concepto sencillo: para almacenar o recuperar un dato, hemos de saber su ubicación: dónde está almacenado. En un ordenador esto se limita a una ristra de bits (ceros y unos) que indican la posición en el chip donde está el dato a grabar o leer. Sencillo, ¿No?. Pero, ¿Cómo será en el caso del cerebro?. ¿Cómo sabe el cerebro dónde ha de guardar un dato u otro?, ¿Y cómo sabe dónde ir a buscarlo después?. La cuestión además se complica puesto que se sabe que nuestro cerebro tiene diferentes tipos de memoria en base a la procedencia de los estímulos: visual, olfativa, táctil, auditiva, de los propios pensamientos… y diferentes tipos de memoria en base a su persistencia: instantánea, reciente, pasada… Desconozco las respuestas a todas estas cuestiones que les acabo de plantear, y sobre ellas posiblemente algún programa de Eduardo Punset pueda arrojar algo más de luz, pero a buen seguro todavía siguen siendo en buena medida misterios insondables para la ciencia.

¿Y qué me dicen respecto a la capacidad de proceso?. Si les digo que, al menos en arquitectura de computadores, la memoria es el caso fácil, no se me echen a temblar, que no voy a abordar en este párrafo el lenguaje ensamblador de nuestros cerebros, podemos hacernos una idea del asunto con cuestiones sencillas. ¿Dónde reside nuestra conciencia?, ¿Es algo similar a nuestra “alma” con una ubicación determinada en el cerebro o está distribuida por varias regiones cerebrales?, ¿Hay en el cerebro un punto físico único por el que discurran todos nuestros pensamientos, a modo de red troncal, donde poder “pinchar” cables que puedan permitirnos interactuar totalmente con chips electrónicos?. Dado que podemos tener en paralelo varios pensamientos diferentes a un mismo tiempo, ¿Cómo codifica ésto el cerebro en señales?, ¿Se trata de una única señal multiplexada entre neuronas o varias señales diferentes?. Es relativamente sencillo almacenar una sensación visual, auditiva… pues se trata simplemente de “copiar” en la memoria la señal que viene del sentido correspondiente, pero ¿Cómo se memoriza un pensamiento?. ¿Y qué me dicen de la creatividad?: es, junto con los sentimientos, uno de los principales factores diferenciales entre una mente humana y una artificial (ya abordamos este tema en otro post: “En el futuro todo el mundo será famoso durante 15 minutos o Redes Sociales vs Inteligencia Artificial”). ¿Cómo genera el cerebro una nueva idea?, ¿Cómo se procesa la información de la que disponemos para que se nos ocurra algo nuevo?. Siento decirles de nuevo que no tengo respuestas, pero realmente la intención de éste párrafo y el anterior se limitaba a hacerles entrever el alcance y la complejidad de los avances que tenemos por delante en este campo.

Pero aventurémonos un poco con aplicaciones prácticas de estos supuestos avances de la Neurociencia. Dada la idea de la complejidad que el análisis anterior nos ha permitido tener, podríamos decir que veremos primeramente implantes de memoria que nos permitan multiplicar tanto el número de datos que somos capaces de recordar, como incrementar o hacer que su persistencia sea mayor, o incluso perpetua. Como veíamos, la memoria es conceptualmente mucho más sencilla de manejar desde un punto de vista funcional. Y les confesaré que, a partir de cierta edad, éste sería un avance con un impacto social importante, puesto que la evolución del raciocinio, y la pérdida de memoria, son dos hechos constatados con el paso de los años en la especie humana. ¿Se imaginan dónde llegaría nuestra especie si pudiésemos actuar con la experiencia de un sexagenario y la memoria de un niño?. Posteriormente tal vez veamos implantes de capacidad de proceso para ampliar la potencia de cálculo y pensamiento de nuestros cerebros, tema que se me antoja mucho más complejo. Con todo ello, lo único que puede diferenciar a una persona de avanzada edad de una joven será la experiencia adquirida con el paso de los años, aunque tal vez ése sea el siguiente paso a realizar: que vendan a la gente joven implantes neuronales para poder razonar y pensar como una persona que tiene ya una dilatada experiencia en la vida. Estarán de acuerdo conmigo en que las implicaciones socioeconómicas de todo esto son de una magnitud insondable. Pero algo que deberá preocuparnos en su momento será que estos avances no nos lleven a una oligarquía, en la que las personas con más recursos económicos sean las que más capacidades psíquicas puedan bioimplantarse, y por lo tanto sean las clases que se perpetúen como directivos de nuestras empresas y gobiernos por ser las más capacitadas e “inteligentes” (si, ya sé que en nuestras democracias los más capacitados o “inteligentes” no tienen por qué coincidir con los directivos de empresas o gobiernos, pero es cierto que ayuda a llegar más alto).

Pero no se desanimen, este es un futuro que está ahí, y puede que la complejidad que les he hecho entrever haga que tarde un poco más en llegar, si bien está claro que, más pronto o más tarde, lo veremos hecho realidad, el infinito temporal es lo único que tenemos por delante, eso sí, si no nos autoextinguimos antes.

Para finalizar, me gustaría disculparme por el nivel técnico de este post. He intentado simplificar y hacer entendible para cualquier persona los conceptos que hemos manejado, pero para el tema sobre el que hemos reflexionado, era imposible no abordar estos aspectos.

Sígueme en Twitter: @DerBlaueMond

Futura revolución: La inversa de Matrix o… no tan inversa

¿Recuerdan cuando vieron aquella rompedora primera parte de la archiconocida película Matrix?. Es difícil encontrar a alguien de mi generación y anexas que no la haya visto, pues se ha convertido en la película de culto por excelencia de finales del siglo pasado, pero para no revelar la clave de la película, simplemente les diré que el argumento se basaba en enormes complejos en los cuales los seres humanos servían a las máquinas (no les cuento más). En nuestro mundo de hoy en día, todos sabemos que es a la inversa. Con el advenimiento de internet y del Cloud Computing, el mundo se está poblando de descomunales Centros de Datos donde miles de máquinas sirven de soporte para toda nuestra vida y datos virtuales.

image

El impacto de estos centros de datos sobre la economía global es cada vez más relevante, tanto por sus necesidades de infraestructura física e informática, como de personal técnico, como por la forma en que cambian el día a día de nuestras vidas, como por su consumo energético (hay estimaciones que lo cifran ya en un 2% del total) y así hasta completar un largo etcétera. El caso es que, lo queramos a no, el impacto de la sociedad de la información en nuestras vidas y economías ha venido para quedarse, y está alcanzando día a día una relevancia esencial para el bienestar de la raza humana.

Es por este hecho por el que cambios que a priori puede parecer que no tengan gran importancia, en un futuro, pueden impactar de forma importante en nuestro modo de vivir. El alargamiento continuo del ciclo de vida de nuestros datos, así como el crecimiento sostenido de la esperanza de vida humana, hacen que cada vez nuestras sociedades necesiten más y más capacidad de almacenamiento, de computación y de ancho de banda. Esto no tiene por qué ser así para siempre. Podemos pensar que en un futuro aún lejano podamos sufrir lo que podemos acuñar como una “Recesión de Datos”, por ejemplo debida a un nuevo y revolucionario algoritmo de compresión que reduzca lo que ocupa nuestra información. Esto sería sin duda un avance importante, pero al igual que con la generalización del uso de maquinaria en la primera revolución industrial, tendría un impacto inicial negativo sobre la economía hasta que ésta se adapte al nuevo escenario. Nuestra economía, basada en un teórico futuro en una sociedad de información ávida de Gigabytes, Gigaherzios y Gigabits por segundo, pasaría a reducir radicalmente sus necesidades productivas al respecto, con el consiguiente impacto negativo sobre el tejido industrial y tecnológico del momento.

Hasta aquí nada nuevo con respecto a la mayoría de los avances que ha realizado el hombre a lo largo de la Historia. Lo que puede preocupar al respecto es que, el ejemplo histórico más drástico, que podemos tomar como referencia, la primera revolución industrial, fue un proceso de convergencia tecnológica más bien lento, fruto de años de progreso, que necesitaba tiempo para fabricar máquinas, sustituir procesos fabriles, etc. Pero, ¿Qué hay de la rapidez con la que se puede por ejemplo desarrollar un nuevo y revolucionario algoritmo de compresión?. Puede ser cuestión de días o semanas lo que alguien tarde en tener una idea feliz, desarrollarla, generar un algoritmo, y que éste se despliegue en los Centros de Datos de todo el mundo. Así de fácil, así de impactante. ¿Estará nuestra economía del futuro preparada para un devenir de la evolución tecnológica tan rápido?. Posiblemente no, es imposible tener un tejido productivo físico que se adapte tan rápido a cambios virtuales tan importantes. Lo virtual siempre evolucionará infinitamente más rápido que lo real. La física limitará nuestra evolución. A no ser que ocurra algo así como en Matrix, donde el límite entre lo virtual y lo físico sea muy pero que muy difuso. ¿Será ésta la clave de la sostenibilidad de nuestra futura sociedad?. Virtualización de nuestras vidas pero, no por un sometimiento a las máquinas, sino por evolución lógica (y tal vez inevitable) de nuestro sistema socioeconómico.

Otra buena razón para apostar por nuestra virtualización como única opción de futuro es que, además, nuestro actual sistema socioeconómico sólo funciona bien en entornos de crecimiento poblacional. Esto es evidente en sistemas de reparto, en los cuales las pensiones, sanidad, etc. de toda la población son pagadas por los trabajadores en activo más jóvenes, con lo que, para la sostenibilidad del sistema, forzosamente ha de haber más cotizantes jóvenes que mayores. Pero sorprendentemente, esto ha de ser también así si se está en un sistema “a la chilena”, donde un cotizante a lo largo de su vida va acumulando unos fondos que cuando se jubile le serán devueltos en forma de asignación mensual. Este esquema, que a priori puede parecer que independiza el sistema de pensiones del crecimiento de la población, no es tal, puesto que esos fondos que un cotizante va acumulando a lo largo de toda su vida, van a ser invertidos en activos, que si se quiere que tengan una rentabilidad positiva en el momento de su jubilación, han de sufrir cierta “inflación de activos” y que su precio se incremente a lo largo de la vida del cotizante, y esto sólo puede ser así o bien si el número de cotizantes aumenta año a año, o bien si los nuevos cotizantes más jóvenes tienen cada vez mayores recursos económicos. La segunda alternativa es complicada y ha probado no ser la realidad que se impone en nuestros sistemas socioeconómicos, con lo que nos queda, de nuevo, la única alternativa del crecimiento de la población.

Me gustaría matizar para los no versados que la citada “inflación de activos” es necesaria no sólo con la finalidad de que un nuevo pensionista reciba sus réditos con una rentabilidad positiva, respecto a lo cual se puede pensar que siempre los más previsores, aún a costa de perder dinero con el tiempo, preferirían un canje de rentabilidad a cambio de la seguridad de obtener una asignación al jubilarse (la “deflación de activos” no fomenta en absoluto el ahorro, pero puede haber gente dispuesta a asumir una rentabilidad negativa a cambio de asegurarse una futura asignación y tener una vejez más decente). Pero más allá de las pensiones tenemos el funcionamiento general de la economía. Los entornos deflacionarios son catastróficos para la economía. La depreciación constante de los activos repercute muy negativamente en el funcionamiento del tejido empresarial, y aunque hay sectores como el tecnológico, que son deflacionarios por naturaleza y sobreviven hoy en día, en ellos la depreciación de los activos se compensa con la continua salida al mercado de productos más innovadores, cosa que no puede ser generalizable a todos los sectores económicos.

Llegados a este punto, todos tenemos claro que somos para La Tierra una auténtica plaga que no puede parar de crecer y crecer. Este crecimiento sostenido tiene un impacto cada vez más importante sobre el medioambiente y sobre el consumo de los recursos naturales del planeta, que son, evidentemente, limitados. Esta evolución exponencial es insostenible a largo plazo. Pónganse en situación. Piénsenlo detenidamente. Nuestra virtualización sería una solución a la ecuación y una auténtica revolución.

Ahondando un poco más en el concepto de virtualización que les propongo, éste no distaría mucho del presentado en la citada película Matrix. Estaríamos todos conectados a máquinas que nos suministrarían los nutrientes necesarios y retirarían los residuos de nuestros cuerpos físicos, y además, y ésta es la parte más importante, mediante conexiones neuronales recibirían y enviarían impulsos eléctricos desde y hacia nuestras neuronas, estableciendo una interacción hombre-máquina que nos permitiría percibir lo que el sistema informático quiere que sintamos sin que sea real, sino solamente producto de los impulsos eléctrico-neuronales que el programa genera para nosotros. De la misma manera, el sistema se alimentaría de las señales bioeléctricas de nuestro cerebro para incorporar a su realidad virtual nuestros movimientos, nuestras palabras, nuestras relaciones con otros individuos virtualizados, etc. Literalmente viviríamos dentro de una simulación informática. La realidad sería un lujo, o una desgracia, reservada únicamente para los pocos seres humanos encargados del mantenimiento de la infraestructura y dispositivos que soportan el mundo virtual de todos los demás.

Pero nuestra virtualización no sólo es la solución para los dos problemas expuestos anteriormente: la limitación de lo físico a nuestro progreso frente a los avances virtuales, y la necesariamente expansiva población humana; hay otros aspectos positivos como la flexibilidad y versatilidad de una vida virtual sin limitaciones físicas. Teletransportarse sería una realidad al alcance de cualquiera, también el vivir universos virtuales paralelos en los que cada persona pueda tomar una decisión, mientras que otra persona puede vivir una vida con esa persona asumiendo que decide otra opción más a su gusto, al igual que viajar en el tiempo hacia el pasado… hacia el futuro sería también posible, pero en este caso se trataría de una proyección del futuro que no tendría por qué coincidir con la que luego se volverá realidad… pero ¿Qué importa?, estamos hablando de vidas virtuales, ¿Qué es realidad y qué es ficción?… tan sólo hay una tenue frontera que nos permite que la vida se adapte más a nuestros deseos que lo que lo hace la vida física del siglo XXI.

Y la gran ventaja, que refundaría sin duda el sistema capitalista, es que podríamos consumir y consumir productos para nuestra vida virtual que no implicarían ninguna fabricación física ni consumo de recursos naturales del planeta. No habría soporte físico para nuestras pertenencias, tan sólo diseño y poco más. Con todas las ventajas que ello conlleva.

Por otro lado, mirándolo desde un plano más humano, no duden que seríamos más felices, puesto que el acontecimiento más doloroso en la vida del ser humano, la muerte, podría ser obviado, ya que una vez virtualizado, poco costará mantener sistemas expertos que, cuando el cuerpo físico de una persona haya dejado de mantenerse vivo, puedan “emular” su comportamiento e interrelaciones con el resto de personas de su círculo social virtual. ¿Que un mundo en el que no haya muertes y cuya población no pare de crecer no es sostenible?. Recuerden que seremos seres virtuales, ocuparemos unos Gigabytes y un espacio físico para nuestro cuerpo mientras éste esté vivo (después ya ni eso). Claro que será sostenible, posiblemente mucho más que el actual, cuya explotación del planeta y sus recursos naturales tienden al agotamiento futuro del modelo.

Debido principalmente a este último punto, Stephen Hawking declaró hace algunos meses, que la única escapatoria para el ser humano será colonizar otros planetas. Si el Sr. Hawking me lo permite, y también ustedes, me tomaré la libertad de dar una alternativa a tamaña empresa, y la alternativa, a buen seguro más eficiente, barata y sostenible, es la virtualización de todos nosotros de la que hablamos.

Pero no todo son aspectos positivos. La amenaza vendría, como ya hemos comentado en otros posts, y como profetiza Matrix, por la facilidad de dominación de nuestras vidas virtuales que, en el caso de que nosotros mismos ya sólo existamos como virtualizaciones, adquiere un matiz más dramático y preocupante. No les negaré que éste tipo de cuestiones producen un vértigo insondable ante lo que puede ser nuestra única solución de futuro. Pero tal vez no nos tengamos que ver nunca en la disquisición de decidirnos por una vida virtual o no, ni tengamos que sopesar los pros y los contras. Tal vez no, porque seguramente no tendremos alternativa. ¿Virtualización o auto-extinción?, ¿Qué prefieren ustedes?. Realmente la cuestión es qué llegará antes, puesto que, aun suponiendo que se optase por la virtualización, tengo mis reservas de que nuestro mundo virtual llegue a ser una realidad (valga la contradicción) antes de que el ser humano acabe por completo con el planeta.

Asumiendo que la opción más optimista de la virtualización llegue a tiempo, una vez dado el salto a lo virtual, no habrá marcha atrás, pero, si no somos conscientes de ello, y somos felices en nuestro alter ego, ¿Qué más da?. Recuerden que es una cuestión de mera supervivencia de la raza humana. ¡Ah!, váyanse comprando unas gafas de sol al estilo Matrix y, dentro de unos años, saluden a Neo y a Trinity de mi parte.

Sígueme en Twitter: @DerBlaueMond

La profecía de George Orwell o El 1984 de las Redes Sociales

Empezaré este post disculpándome por elegir un asunto tan quemado como el de “Gran Hermano” de George Orwell. Sinceramente, el famoso Reality Show de televisión ha hecho que todo lo referido a este tema se relacione con el programa, y que todo aquello que lo cita pase inmediatamente a carecer de la más mínima originalidad. Pero no desisto en reivindicar la extraordinaria capacidad de profetizar del maestro Orwell, ni en comentar cómo nuestro mundo tiende a parecerse a aquel que describe en su famosa novela “1984”, ni en insistir en que más allá de mero título “Gran Hermano” hay toda una filosofía socioeconómica que trasciende de largo la mera observación de los individuos en la que se basa el programa presentado por Mercedes Milá.

Me gustaría no obstante aclarar con ustedes que el hecho de que los ciudadanos se sientan libres de opinar sobre cualquier tema de la vida pública y política de un país, es un signo inequívoco de madurez democrática. Sólo ocurre en aquellos países en los que la tradición democratizadora, y la sensación de seguridad jurídica e ideológica, hacen que los individuos no tengan miedo de expresar sus opiniones libremente y en cualquier foro. Las transiciones de sistemas dictatoriales a democracias consolidadas, son fases convulsas en las que la población hereda el miedo a opinar, no sin motivo, puesto que a menudo siguen presentes en la mente de los ciudadanos las razias de las fuerzas represoras. Ocurrió en la España de la guerra civil y sus consecuencias aún las podemos sentir hoy en día con el eco en nuestras cabezas de los consejos de nuestros abuelos de que no se opina en público sobre política. Es una lección que les costó mucho sufrimiento aprender, pero que el velo de las décadas de democracia borra lenta e inexorablemente.

Personalmente les confesaré que, de todas formas, existe en nuestra sociedad una saturación de la necesidad de opinar. Todo el mundo se siente con juicio y capacidad para opinar sobre cualquier tema, aún a sabiendas de que no se tiene toda la información y/o toda la formación para emitir una opinión correcta. Arreglar el mundo en las reuniones familiares o con los amigos en la tasca es el deporte nacional. Es por evitar este mal común por lo que muchas veces yo me esfuerzo por opinar sólo sobre aquellas cuestiones en las que me he podido detener a reflexionar o sobre las que creo que tengo capacidad y juicio para emitir una opinión digna de consideración. Es difícil que me oigan ustedes opinar sobre temas subjetivos o en los que carezco de información y/o formación. Es esta tendencia a opinar sobre todo lo que se mueve, y que yo trato de evitar, la que contribuye al fenómeno que les comentaba antes, indicativo no obstante, como les decía, de la consolidación democrática.

Pero cambiemos de prisma. Pasemos a plantearnos la forma en que la gente emite hoy en día sus opiniones. Es innegable que la llegada de las Redes Sociales ha encauzado esta necesidad de opinar sobre todo. Todos tenemos nuestros timelines llenos de opiniones personales, algunas fundamentadas y otras no. Twitter y Facebook han hecho que se multipliquen las opciones para que la gente opine sobre todo y lo dé a conocer al mundo. Y he aquí el peligro de ello: el soporte. Sí, el soporte informático hace que, como todos ustedes saben, por un coste reducido en espacio de almacenamiento, todos nuestros “likes” y “tweets” se queden registrados para la posteridad, y lo que hoy en día es la insignificante opinión de un ciudadano cualquiera, puede volverse el día de mañana en la clave para arrestar por cuestiones ideológicas a un individuo. ¿Se imaginan ustedes el poder de un órgano represivo con la información de Facebook o Twitter?. Es el dorado de la información clasificada sobre los ciudadanos de a pie, y somos todos nosotros los que lo hemos construido voluntaria y libremente en una demostración de democratización de nuestra sociedad, pero sentando las bases de un peligro futuro en caso de que sea mal utilizada.

Y ya no es sólo el hecho de que queden registradas las opiniones de toda la población hiperconectada, es que también se registran sus relaciones de afinidad y amistad. Cierto ideólogo decía “Para dominar a una persona debes conocer quiénes son sus amigos y sus enemigos”. De los enemigos por ahora no hay red social que los registre (en el futuro ya veremos), pero los amigos y la afinidad son evidentes en Facebook o Twitter. Lo que a un servicio secreto le costaba semanas o meses averiguar, a base de interrogatorios interminables, ahora lo tiene al alcance de un solo click.

Y es éste el “Gran Hermano” de verdad, y no el de la televisión. Todas nuestras opiniones, todas nuestras relaciones, todo detalladamente inventariado y clasificado, a disposición de cualquiera que quiera acceder a ello. Vamos, que Himmler soñaba con lo que ahora regalamos a cambio tan sólo de poder usar una herramienta de forma gratuita. Por ahora nuestra información personal se segmenta y se vende sólo para hacer marketing, pero ¿Quién sabe lo que nos deparará el futuro?.

Sígueme en Twitter: @DerBlaueMond

Nota del autor: si le ha gustado este post, he escrito posteriormente una segunda parte que creo que encontrará igualmente interesante: «El Gobierno del Software o Cómo controlar
a las masas con las redes sociales
«

Democracia real y la contribución de las redes sociales

A estas alturas de la evolución tecnológica de la sociedad, está ya claro que se podría implementar sistemas que permitiesen una democracia más participativa, más justa y más real que lo que tenemos a día de hoy en la mayoría de los países occidentales. Con la llegada de internet, y más todavía, con la llegada de internet móvil, hay una base de ciudadanos permanentemente conectados y con opciones de participar en las decisiones que conducen el devenir de los países. Sí, estoy hablando de popularizar los referéndums gracias a la tecnología móvil. No es nada nuevo, Suiza es la democracia más participativa del mundo, donde las cuestiones mayores se suelen decidir por referéndums, y el sistema funciona, sólo que con la tecnología, la convocatoria de referéndums es mucho más rápida, sencilla y cómoda para todos los llamados a votación.

Pero, antes de seguir desarrollando la idea, parémonos un poco a pensar en su viabilidad. La población general no dispone ni de la formación (aunque algunos políticos tampoco), ni del tiempo, ni de la información necesaria para asegurarnos que se toma la decisión más correcta posible. Esto limita un poco el ámbito de los referéndums que estamos proponiendo. Nunca deberían convocarse sobre cuestiones técnicas, ni sobre temas que requieran mucho tiempo para informarse adecuadamente, ni sobre temas que requieran acceso a información clasificada y un largo etcétera; pero sí que se puede ir a un referéndum para todas las cuestiones de opinión.

La tecnología hace que estas votaciones puedan ser mucho más frecuentes y útiles en la consecución de una democracia más real, en la que verdaderamente se decida lo que la mayoría del país piensa, y no lo que tenemos actualmente, que es lo que prefieren una serie de personas a la que la mayoría da la capacidad de decidir casi lo que quieran durante cuatro años. Y decimos una serie de personas por respeto al congreso, porque lo que la disciplina de voto impone en realidad es que ya no sea ni siquiera eso, sino lo que las cabezas de partido deciden en cada momento.

Pero, esto que a priori parece lógico, alcanzable y justo, siento decirles que es difícil que se implemente en un futuro próximo. El gran poder de los políticos emana de su poder de decisión sobre todos los aspectos de la vida de los ciudadanos; es un poder real, que les reporta réditos partidistas, autocomplacencia a su ego y lamentablemente hasta beneficios a su economía personal en algunos casos, y no nos engañemos, a todo esto no van a renunciar fácilmente. Y como son esos mismos políticos los que tendrían que aprobar un cambio tan radical de la concepción de la democracia en nuestros países, en la actual situación, no veo visos de que se puedan realizar estos cambios.

Y en todo este tinglado, ¿Dónde encajan las redes sociales?. Internet es el sustrato sobre el que han germinado otras tecnologías más evolucionadas como la Web 2.0. Este tipo de tecnologías son más avanzadas y harían las consultas populares más participativas en una segunda ola del proceso de democratización de Occidente (y ojalá que de todo el mundo), con unas implicaciones sin precedentes en la historia de las sociedades humanas. Las características de movilidad y de Web 2.0 implantadas en los últimos años acentúan las posibilidades de la tecnología y su aplicación a la democracia:

  • Permiten el voto instantáneo y secreto desde cualquier lugar y en cualquier momento, evitando la incomodidad de tener que ir a votar a los colegios electorales.
  • Multiplican las posibilidades de información desde diferentes fuentes y corrientes de opinión por parte de los ciudadanos, de tal forma que se fomenta el protagonismo del votante y su elección de leer las opiniones de uno y otro lado para formarse su propia opinión.
  • Sirven de vehículo para fomentar el debate, de forma que se incentiva el intercambio de opiniones, tanto en los propios círculos de relaciones personales, como a nivel global de la sociedad.
  • Además permiten que la interacción sea  cuasi-inmediata.

El caso es que otra democracia es sí que posible, y si no miren a Suiza, criticable en muchos aspectos, pero en este nos llevan claramente la delantera, y habría que tomar ejemplo de ellos. Ellos, sin las facilidades del mundo actual, ya pusieron hace décadas en marcha un modelo de democracia más participativo. Con las ventajas tecnológicas de hoy en día, la democracia real cobra un sentido mucho más pleno: la Democracia Móvil.

Hace tiempo tuiteé que el principal problema de la democracia es que las cualidades personales para ganar las elecciones son radicalmente diferentes a las necesarias para ser un buen gobernante (que conste que tuiteé esto antes de que Martin Varsavsky tuitease exactamente la misma idea: a los históricos de Twitter me remito). La Democracia Móvil  que estamos proponiendo no soluciona este problema, pero sí que lo minimiza, puesto que evita que en temas de opinión, como suelen ser los que se prometen en las campañas (no se suele entrar en temas demasiado técnicos), se prometa con palabrerías vanas, y luego una vez en el gobierno se haga lo que al político de turno le viene en gana. Con la Democracia Móvil, al menos en las decisiones de opinión, nos aseguraríamos que se decide lo que la mayoría quiere, y nos evitaríamos en parte el esperpéntico espectáculo que supone comparar el contenido de los programas electorales con las medidas adoptadas desde los posteriores gobiernos.

Como colofón final les diré que las redes sociales cada día tienen más aplicaciones que las básicas iniciales. Sinceramente, con internet hemos inventado la rueda, pero aún no sabemos que nos sirve para inventar el automóvil. Tenemos un largo camino por delante lleno de cambios apasionantes.

Sígueme en Twitter: @DerBlaueMond