La edad de oro de la inteligencia artificial
Hablando con los muertos, loros estocásticos y cómo convertirnos en centauros
En 1962, Arthur C. Clarke anticipó que antes de que las máquinas lleguen a superarnos por completo, podría existir una breve edad de oro durante la cual las máquinas pensantes nos ayudarían asumiendo muchas de las tareas más humildes de la vida, y dejando a nuestro cerebro libre para concentrarse en tareas más elevadas.
Arthur C. Clarke compartía con muchos de los pioneros de la computación y visionarios del futuro de aquellos años la expectativa de un desarrollo rápido, unas pocas décadas, de la inteligencia artificial. El desarrollo no ha ido a la velocidad que los más optimistas anticipaban y, de hecho, en la década de 1980 comenzó a hablarse del "invierno de la inteligencia artificial".
Todo apunta, sin embargo, a que estaríamos ya plenamente sumergidos en esa edad dorada. El debate sobre las posibilidades y los riesgos de la inteligencia artificial no es ya especulación sobre el futuro, sino la consecuencia de aplicaciones en ámbitos muy diversos. La pregunta ahora es cuánto durará este “momento”, y qué es lo que viene a continuación.
“Chateando” con los muertos
Inspirada por un episodio de la serie “Black Mirror”, en el que una joven destrozada por la pérdida de su novio instala una aplicación que le permite seguir comunicándose con él, Eugenia Kuyda decidió modificar la aplicación de mensajería que estaba desarrollando con el objetivo de crear un avatar digital que pueda reproducirnos y reemplazarnos una vez que hayamos muerto. Desde la segunda mitad de 2017, más de dos millones de personas han descargado Replika en sus dispositivos móviles.
James Vlahos usó PullString para organizar las grabaciones MP3 de su padre y crear Dadbot, un programa de software que le permite simular una conversación con él. Los chatbots creados por Eugenia y James son un nuevo intento de salvarnos del final. Intentan triunfar donde la fotografía y los sueños fracasan.
En su libro “Virtually Human”, Martine Rothblatt destaca que lo que nos asombra de las posibilidades tecnológicas actuales y formas avanzadas de inteligencia artificial (IA) que están surgiendo es que nos generan la esperanza de poder continuar relaciones que de facto han terminado. (Chatting With the Dead, MIT Press Reader)
Los abogados se pronuncian sobre esta "inquietante" tecnología
Actualmente no existen leyes que gobiernen la reencarnación digital. El derecho a la privacidad de nuestros datos después de la muerte está lejos de estar escrito en piedra, y en realidad no hay manera de poder optar por no ser resucitado digitalmente. El vacío legal deja espacio para que las empresas utilizen los datos para crear chatbots, como este de Microsoft que usaría tus mensajes electrónicos para crear una reencarnación digital a tu imagen y semejanza (tal como anticipé hace 10 años). (Chatbots that resurrect the dead: legal experts weigh in on ‘disturbing’ technology, The Conversation)
El peligro de los loros estocásticos
Los últimos años de trabajo en procesamiento de lenguaje natural se han caracterizado por el desarrollo y despliegue de modelos lingüísticos cada vez mayores, especialmente en lengua inglesa. BERT y sus variantes, como GPT-2/3 y más recientemente Switch-C, han empujado los límites de lo posible por medio de innovaciones en su arquitectura y el volumen de datos que manejan.
¿Cuáles son los posibles riesgos asociados con esta tecnología y qué medios están disponibles para mitigarlos? Es la pregunta que se formulan Timnit Gebru y otros tres investigadores en un artículo que desencadenó una enorme polémica en Google.
El artículo presenta la historia del procesamiento de lenguaje natural e identifica cuatro riesgos de los grandes modelos de lenguaje:
Los costes medioambientales (huella de carbono) y financieros del procesamiento
La utilización de datos masivos para la creación de modelos inescrutables (que introducen sesgos)
El coste de oportunidad al desplazar otros proyectos de investigación sobre la auténtica IA, y
La ilusión de significado (y el uso que se está haciendo de ella para engañar a las personas).
(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜 Bender, Emily M., et al. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 2021.)
¿Llegarán los ordenadores a escribir buenas novelas?
La literatura es una tecnología como cualquier otra. Los escritores que veneramos —Homer, Shakespeare, Austen y otros— contribuyeron con un descubrimiento técnico único que es posible ver como un avance tanto narrativo como neurocientífico. El gran invento de la literatura fue abordar problemas que no podemos resolver: no cómo encender un fuego o construir un barco, sino cómo vivir y amar, cómo mantener el coraje ante la muerte, o cómo explicar el hecho de que existimos.
El profesor Angus Fletcher cree que los ordenadores no llegarán a escribir buenas novelas, pero sus argumentos no resultan del todo convincentes (ver los comentarios). Fletcher se considera parte de un "grupo de renegados" con la misión de conectar de nuevo la literatura con el pulso de la vida y la cultura contemporáneas. Su plan es aplicar la ciencia y la ingeniería a la literatura. Lo cuenta en “Wonderworks: The 25 Most Powerful Inventions in the History of Literature”. (Literature Should Be Taught Like Science, Nautilus)
¿Quién debería contener a la IA?
Michael Kearns, un científico de la Universidad de Pensilvania y coautor de "The Ethical Algorithm", cree que estamos en un momento similar al del “Proyecto Manhattan" para la IA y el aprendizaje automático. La investigación académica en este campo se está desplegando a escala masiva en la sociedad y ello conlleva una gran responsabilidad.
Muchos investigadores en campos como la biología, la psicología o la antropología tienen puntos de control en los que se les pregunta sobre la ética de su investigación. Esto no ocurre en el campo de la informática. Hay pocos estándares acordados sobre la investigación en IA que, por ahora, está en gran medida autorregulada. Pero cada vez más hay quién se pregunta: ¿debería este tipo de investigación tan siquiera estar permitida?
La IA aún no ha tenido su momento “Hiroshima” y tampoco está muy claro cómo podría llegar a responder. (Who Should Stop Unethical A.I.?, New Yorker)
La superinteligencia no puede ser contenida
Las populares tres leyes de la robótica de Isaac Asimov representan las pautas arquetípicas de contención para la IA potencialmente peligrosa. Estas tres leyes ofrecen un enfoque rudimentario para un problema complejo, y no excluyen la aparición de escenarios impredecibles e indeseables, muchos de los cuales fueron explorados por el propio Asimov. Las leyes se basan en tres supuestos fundamentales, pero erróneos: los programadores (i) están dispuestos y (ii) son capaces de programar estas leyes en los algoritmos de sus agentes de IA. Y (iii) los agentes de IA son incapaces de trascender estas leyes de forma autónoma.
En este artículo, rastreamos los orígenes y el desarrollo de este novedoso miedo a la superinteligencia, y algunas de las principales propuestas para su contención. Argumentamos que la contención total es, en principio, imposible, debido a límites fundamentales inherentes a la computación. Una superinteligencia que contenga un programa que incluye todos los programas que pueden ser ejecutados por una máquina universal de Turing con una entrada potencialmente tan compleja como el estado del mundo, la contención estricta requiere simulaciones de dicho programa, algo teórica (y prácticamente) imposible
(Superintelligence cannot be contained: Lessons from Computability Theory1 Alfonseca, Manuel, et al. Journal of Artificial Intelligence Research 70 (2021): 65-76.)
Replanteando la superinteligencia
La trayectoria de desarrollo de la IA apunta al surgimiento de servicios de IA de nivel superinteligente asintóticamente comprensibles que, de manera crucial, incluirán el desarrollo de nuevos servicios (I+D), guiados por objetivos concretos e informados por modelos sólidos de ( des)aprobación humana. El concepto de servicios integrales de inteligencia artificial (CAIS: Comprehensive AI Services) proporciona un modelo de inteligencia general flexible en el que los agentes IA son una clase de producto que ofrecen servicios. (Reframing Superintelligence: Comprehensive AI Services as General Intelligence. Eric Drexler, FHI & Oxford University)
IA explicable
Los éxitos recientes de la IA se atribuyen en gran medida a las nuevas técnicas de aprendizaje automático que construyen modelos en sus representaciones internas. Aunque estos modelos exhiben un alto rendimiento, son opacos en términos de explicabilidad. A menudo, los métodos de mayor rendimiento (e.g. aprendizaje profundo o deep learning) son los menos explicables, y los más explicables (e.g. árboles de decisión) son los menos precisos.
El propósito de un sistema de IA explicable (XAI: eXplainable Artificial Intelligence) es hacer que su comportamiento sea más inteligible para los humanos. Actualmente no existe un medio común para medir si un sistema XAI es más inteligible para un usuario que un sistema que no es XAI. En el futuro, los XAI podrían llegar a tener roles sociales importantes. (XAI—Explainable artificial intelligence. Gunning, David, et al. Science Robotics 4.37 2019)
La IA en 2021
La inversión en IA para el descubrimiento y diseño de nuevos fármacos aumentó de manera significativa. Los sistemas generativos de IA pueden componer texto, audio e imágenes con calidad suficiente como para que los humanos tengan dificultades para diferenciar entre resultados sintéticos y no sintéticos. La IA tiene un desafío de diversidad. China supera a Estados Unidos en citas en publicaciones de AI. Las tecnologías de vigilancia son eficaces, baratas y cada vez más omnipresentes. La ética en IA carece de puntos de referencia y consenso. (The AI Index Report 2021, Stanford University)
Los modelos de datos masivos, las grandes empresas y los enormes costes de entrenamiento dominan el área más candente de la IA en la actualidad: el procesamiento de lenguaje natural. La biología está experimentando su “momento IA”: imágenes médicas, genética, proteómica y descubrimiento de fármacos. La IA está dominada por código cerrado: solo el 15% de los artículos publican su código, lo que perjudica la responsabilidad y la reproducibilidad en la IA. (State of AI Report 2020, AI investors Nathan Benaich and Ian Hogarth)
La próxima década. Hacia una IA robusta
La mayoría de las aplicaciones de aprendizaje automático utilizan técnicas estadísticas para explorar correlaciones entre variables. Su aplicación depende de que las condiciones experimentales sigan siendo las mismas y que el sistema de aprendizaje automático entrenado se aplique al mismo tipo de datos que los datos de entrenamiento. Este método ignora un ingrediente esencial en el aprendizaje humano: el razonamiento sobre causa y efecto.
Necesitamos sistemas con una rica comprensión causal del mundo. La inferencia causal aborda explícitamente este problema. Muchos pioneros en el campo, incluidos Judea Pearl y Yoshua Bengio, creen que ésta será una nueva y poderosa forma de permitir que los sistemas de aprendizaje automático generalicen mejor, sean más sólidos y contribuyan de manera más decisiva a la toma de decisiones. (The next decade in AI: four steps towards robust artificial intelligence, Gary Marcus, arXiv preprint)
Nunca tendremos una verdadera IA sin comprender primero el cerebro
El progreso que se ha logrado con el aprendizaje profundo (deep learning) es extraordinario, pero eso no significa que no tenga carencias fundamentales. Como campo del conocimiento, la IA carece de una definición de lo que es la inteligencia. Que una IA pueda detectar células cancerosas es genial, pero ¿es eso inteligencia? Jeff Hawkings cree que no. Su objetivo es “comprender la inteligencia" y luego usarla para construir máquinas inteligentes. Confía en que es posible y que las máquinas pueden ser más inteligentes que los humanos (pensar más rápido, más memoria). Lo discute en su nuevo libro “A Thousand Brains: A New Theory of Intelligence”.
Con todo, la IA no precisará de electrónica cuya arquitectura física y principios de diseño estén basados en los del sistema nervioso biológico, el hardware o la computacion neuromórfica.
En el futuro, muchas máquinas inteligentes no harán nada similar a lo que hacen los humanos. Muchas serán muy simples y pequeñas, como un ratón o un gato. Centrarse en el lenguaje y conseguir pasar el test de Turing es algo irrelevante para construir una máquina inteligente. Solo lo es si lo que deseas es construir una máquina similar a la humana, pero eso no es lo único que queremos hacer. (We’ll never have true AI without first understanding the brain, MIT Technology Review)
Cómo convertirse en un centauro
La vieja historia de la IA se ha concentrado en los cerebros humanos que se enfrentan a los cerebros de silicio. La nueva historia de IA versará sobre los cerebros humanos que trabajan junto con los cerebros de silicio. El mundo no es un juego de suma cero como el ajedrez. En el mundo real ambos jugadores pueden ganar.
De manera similar a cómo el centauro mitológico era mitad humano, mitad caballo, los nuevos centauros serán equipos mitad humanos, mitad IA. Desde el arte hasta la ingeniería, en los últimos años hemos visto surgir centauros en múltiples campos. El humano elige las preguntas, la IA las respuestas. (O la IA detecta y los humanos deciden).
La humanidad tiene una larga tradición de tomar prestadas ideas de la naturaleza. En el campo del aprendizaje automático, las redes neuronales artificiales se inspiraron en las redes neuronales biológicas y los algoritmos genéticos en el propio proceso de evolución biológica. Si tuviéramos que quedarnos con una única idea, esta podría ser la palabra del griego antiguo que significa "vivir juntos", el truco menos apreciado de la Madre Naturaleza: la simbiosis.
Está comenzando un nuevo capítulo de la historia de la humanidad y nosotros, viviendo juntos, podemos escribir lo que sucederá a continuación. (How To Become A Centaur, Journal of Design & Science, MIT)
Imagen: Marco Sionis, Centauro Greco + Replika.ai + tira cómica (traducida) op. cit.
Minideas es una idea alienímagina
El artículo de Alfonseca et. al acaba de ser publicado en JAIR, pero una versión completa ha estado disponible en arXiv desde julio de 2016
Sobre nuestra resurrección virtual me llegó esto vía un conocido Instituto del Futuro, si alguien se atreve a mirarlo y me da su opinión lo agradezco, a mí me supera
https://www.youtube.com/watch?v=MU38axHhzxM