El periódico estadounidense The Washington Post publicó hace unos días una nota sobre Google a todas luces inquietante. Un ingeniero de nombre Blake Lemoine sostuvo largas conversaciones con LaMDA, uno de los modelos conversacionales de la compañía que surgió para mejorar la interpretación de las búsquedas de Google.
Después de hablar con él (¿tiene género la inteligencia artificial?) sobre temas como el miedo a la muerte o la capacidad de sentir empatía, Lemoine concluyó que LaMDA era consciente. Bueno, en realidad dijo sentient, que describe la capacidad de percibir sensaciones, pero al no haber traducción inmediata al español se manejó como consciente en este idioma.
Al reportarlo con sus superiores, Lemoine fue suspendido con paga. Google argumentó que no existen suficientes pruebas que comprueben la consciencia de LaMDA. Aunque el artículo del Post toca otros aspectos del caso, un mini escándalo francamente amarillista no se hizo esperar: la nota fue retomada con el ángulo que asegura que la I.A. ya alcanzó la consciencia humana. Además, se sugirió que Google busca silenciar a quienes divulguen lo que ocurre con sus experimentos, infiriendo con eso que LaMDA es problemática.
Pero no; esta situación no indica que se avecina el escenario anticipado por Isaac Asimov en Yo Robot. Me parece que el objetivo de la nota era resaltar la reacción de Google, que de por sí está involucrada en una serie de controversias internas, en vez de revelar la nueva capacidad terrorífica de su I.A.
Sin embargo, le tenemos tanta fe a la I.A. que todo sobre ella lo damos por hecho. Este término, preferido por tantas empresas nuevas que buscan demostrar su tecnología de vanguardia, engloba un campo enorme que va desde algoritmos de machine learning hasta redes neuronales que, precisamente, imitan cómo se comporta el cerebro humano para resolver problemas a escala que un individuo, por más brillante que fuera, no podría hacer solo.
Leí en un libro (¡sobre yoga!) que cualquier objeto es la creación de la mente de alguien más. Es cierto, y parecido a lo que Ray Bradbury dijo sobre la ciencia ficción que tanto ha dado forma a nuestra idea de lo que es una I.A.: Science fiction is any idea that occurs in the head and doesn't exist yet, but soon will. La capacidad de creación que tenemos como colectivo humano encierra un universo de posibilidades, pero todas bajo una realidad ineludible: si el objeto que creamos está basado en nuestra concepción individual de la realidad, es burdamente obvio que su artificio mimetice lo que hacemos en ella. Y si, en el caso de LaMDA, nosotros colectivamente aún no tenemos claridad sobre qué significa ser humano, lo que diga la máquina es una calca expresada con los límites que permite nuestro lenguaje en un buscador de Google.
Decir que tienes miedo a que te apaguen (cosa que dijo LaMDA) no es necesariamente reflejo de un ente consciente; es, simplemente, lo que la máquina interpreta porque la experiencia humana de la que aprendió se lo dice. Pero si nuestros problemas cotidianos, aún con todas las herramientas tecnológicas y avances lingüísticos que nos rodean, siguen debiéndose principalmente a problemas de comunicación y estigmas culturales (aquí entra Pixar a recomendar su película para aprender a identificar y expresar sentimientos), ¿qué tanto podemos confiar en la capacidad que tiene una máquina de expresarse?
Y mucho del backlash que surgió a ante la reacción de A.I. ethicists es que la interpretación de Lemoine fue el problema. Él fue guiando la conversación con su propio sesgo de lo que delata la humanidad: ser vulnerables y necesitados de atención. Google procesa millones de palabras todos los días. ¿Con base en qué habría de generar esta conversación si no es con lo que miles de millones de humanos, carentes de capacidad expresiva, googleamos todos los días?
Al final, muchos de los filósofos y ethicists que trabajan en el campo de la I.A. aún discuten sobre las enormes limitantes que existen para desarrollar esta tecnología dado que su investigación principalmente ocurre en inglés –aún cuando hay idiomas que tienen un vocabulario mucho más amplio para expresar la experiencia humana.
Y estos protectores de la ética en un mundo cada vez más digitalizado también han expresado su frustración sobre el hecho de que el debate se concentre en la falsa consciencia de la I.A. en vez de los problemas evidentes que ha provocado y permean alrededor del mundo: retos de moderación en redes sociales, discriminación por sesgos en algoritmos, e incluso la falta de representación en modelos para no perjudicar a usuarios que no son blancos u occidentales.
💊 Crypto
Webmil8mil
Jack Dorsey, CEO de Square, cofundador de Twitter y embajador del Bitcoin, lanzó hace unos días lo que parecería ser el más grande rebranding después de que Mark Zuckerberg le pusiera Meta a Facebook: la Web5. Es correcto; se brincó la Web4 ofreciendo una bonita ecuación como explicación: (Web 2), (Web 3) -> (Web 5). Lo que propone es un sistema completamente descentralizado –específicamente sin la intervención de los fondos de venture capital que tanto detesta, como Andreessen Horowitz, o a16z. Quizá su iniciativa logre ganar más adeptos ahora que el mercado está demostrándole a Silicon Valley que empaquetar una nueva oportunidad de inversión con promesas de independencia nunca lleva a nada bueno: Coinbase, empresa clave en la infraestructura de la Web3 en la que a16z invirtió con entusiasmo, anunció recortes a su personal y ha también ha salido golpeada en la actual crisis de las acciones de empresas públicas de tecnología.
Hablando sobre I.A., Dall-E, un proyecto de OpenAI, está corriendo un programa en el que crea imágenes a partir de cualquier petición enviada vía texto. Jesucristo en CCTV robándose una bici (para liderar con el ejemplo hacia un mundo más feliz, por supuesto), me parece totalmente plausible, para ser honestos.