La edad de oro de la inteligencia artificial. Suma y sigue
Dos llamadas de atención, reacciones de los gurús y el debate reciente sobre los modelos grandes de lenguaje (LLM).
En los dos años transcurridos desde la publicación de “La edad de oro de la inteligencia artificial”, la carrera por el desarrollo de la inteligencia artificial se ha acelerado. Las grandes empresas que llevan años invirtiendo en el desarrollo de lo que han pasado a denominarse modelos fundacionales, generativos y modelos grandes de lenguaje (LLM1), se han lanzado a la conquista del mercado y la narrativa.
El año pasado 2023 fue el año de Dall-E y ChatGPT, desarrollos de OpenAI que han roto expectativas en la generación de imágenes y texto, y que han cogido a alguno de los grandes (Google?) con el pie cambiado y forzado a otros (Microsoft) a desembolsos tan onerosos como oportunistas. Las espadas están en alto.
Pero más apasionante incluso que los desarrollos, que lo son, es el acalorado debate que los productos, los anuncios, y una gran dosis de especulación, en muchos casos muy mal informada, han generado. Sobre la IA (general?) que está llegando o ha llegado ya para quedarse, ha escrito todo aquel que se precia de tener algo que decir sobre la tecnología, la innovación y el futuro, desde los muchos gurús que están o han estado en algún momento con las manos metidas en la masa, y saben por tanto de lo que están hablando (otra cosa es lo que digan), hasta los periodistas que anticipan desconsolados la desaparición de su arte, pasando por escritores reconocidos como Ted Chiang o Naomi Klein.
Las minideas que se recogen a continuación son solo una muestra mínima, pequeñas perlas de este debate imposible de acotar. Me centro en los dos últimos meses, protagonizados por las reacciones al manifiesto lanzado por el Future of Life institute (FLI), en mi opinión tan ingenuo como oportuno. Sin duda ha cumplido con el objetivo de intensificar el debate.
La historia, por supuesto continúa.
Dos llamadas de atención
Pausar experimentos gigantes de IA. Una carta abierta
Los “Principios de Asilomar”, ampliamente respaldados, establecen que la IA avanzada podría representar un cambio profundo en la historia de la vida sobre la Tierra. Este cambio debe planificarse y administrarse con el cuidado y los recursos correspondientes. Por desgracia, este nivel de planificación y gestión no es lo que está sucediendo.
Por lo tanto, hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de todos los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable.
Future of Life Institute, Pause Giant AI Experiments: An Open Letter
NOTA. En el momento de publicar este artículo, el llamamiento cuenta con 27.565 firmas registradas. No son demasiadas.
Trabajando juntos en nuestro futuro con la IA
Los recientes avances en las tecnologías de inteligencia artificial (IA) han generado tanto entusiasmo como preocupación. La IA ya está enriqueciendo nuestras vidas, a menudo de formas que quizás no apreciamos. Garantizar que la IA se emplee para obtener el máximo beneficio requerirá una amplia participación. Apoyamos firmemente un enfoque constructivo, colaborativo y científico.
Alentamos a la comunidad de investigadores en IA, y específicamente a la Asociación para el Avance de la Inteligencia Artificial (AAAI) y todos sus miembros, a redoblar sus múltiples esfuerzos por la seguridad y confiabilidad de la IA, la ética y el beneficio para la sociedad.
Association for the Advancement of Artificial Intelligence (AAAI), Working together on our future with AI
Algunas reacciones de gurús destacados
Stuart Russell. los experimentos deben ser pausados
Se han liberado sistemas con habilidades que exceden la capacidad humana. Si las grandes empresas de tecnología se niegan a ver los riesgos, los gobiernos deben intervenir.
Stuart Russell, AI has much to offer humanity. It could also wreak terrible harm. It must be controlled, The Guardian
Eliezer Yudkowsky. Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo
La intención abiertamente declarada de OpenAI es hacer que alguna IA futura se encargue de nuestra tarea de alineación de la IA. Escuchar este es el plan debería ser suficiente para que cualquier persona sensata entre en pánico. El otro laboratorio de inteligencia artificial líder, DeepMind de Google, no tiene ningún plan.
Esto es lo que realmente debería hacerse: La moratoria sobre nuevos entrenamientos debe ser indefinida y mundial. No puede haber excepciones, incluso para gobiernos o militares. Si la política comienza con los EE. UU., entonces China debe ver que los EE. UU. no buscan una ventaja, sino que intentan evitar una tecnología terriblemente peligrosa.
Apaguemos todos los grandes clústeres de GPU. Cerrémoslo todo.
Eliezer Yudkowsky, Pausing AI Developments Isn't Enough. We Need to Shut it All Down. TIME
Sam Altman. Ni si ni no, sino todo lo contrario
El mejor de los casos de uso de la IA es tan increíblemente bueno que es difícil incluso imaginarlo. En cuanto al caso peor, y es importante decir esto, sería como si se apagaran las luces para todos nosotros.
Puedo ver claramente el caso de uso indebido accidental y es muy malo. Así que creo que es imposible exagerar la importancia del trabajo de alineación y seguridad de la IA. Me gustaría ver mucho más sucediendo.
Creo que estamos al final de la era de los modelos gigantes. Los mejoraremos de otras maneras
Altman está de acuerdo en que se necesitaban mejores pautas de seguridad. Pero la carta del FLI no es la forma correcta de hacerlo.
Será necesaria la regulación de la IA para ayudar a mantenernos a salvo.
Transcript of Sam Altman's interview touching on AI safety, Lesswrong
OpenAI’s CEO Says the Age of Giant AI Models Is Already Over, Wired
Sam Altman Says Regulation of AI Will Be Needed to Help Keep Us Safe, Metaverse Post
OpenAI CEO Sam Altman addresses letter from Musk and other tech leaders calling for A.I. pause, CNBC
OpenAI's Sam Altman on AI regulation: We can manage this for sure
Ray Kurzweil. ¿Una pausa en el desarrollo de AI? No
Con respecto a la Carta Abierta para ‘pausar’ la investigación sobre IA ‘más poderosa que GPT-4’, el criterio es demasiado vago para ser práctico. La propuesta enfrenta un serio problema de coordinación: aquellos que estén de acuerdo con una pausa pueden quedar muy atrás de las corporaciones o naciones que no estén de acuerdo. Hay enormes beneficios derivados del avance de la IA en campos críticos como la medicina y la salud, la educación, la búsqueda de fuentes de energía renovables para reemplazar los combustibles fósiles y muchos otros campos. No lo firmé porque creo que podemos abordar las preocupaciones de seguridad de los firmantes de una manera más personalizada que no comprometa estas líneas vitales de investigación.
Participé en la Conferencia sobre los Principios de IA de Asilomar en 2017 y participé activamente en la creación de pautas para crear Inteligencia Artificial de manera ética. Así que sé que la seguridad es un tema crítico. Pero se necesitan más flexibilidad, matices, si deseamos desbloquear las profundas ventajas de la IA en la salud y la productividad mientras evitamos los peligros reales.
Ray Kurzweil On AI Pause: No, Forbes
Robin Hanson, Una moratoria de IA sería un error.
La humanidad pronto podría dar a luz a un nuevo tipo de descendiente: las IA, nuestros hijos mentales (Mind Children). Muchos temen que estos descendientes eventualmente puedan eclipsarnos o representar una amenaza para nosotros si sus intereses difieren de los nuestros. Por lo tanto, los agoreros nos instan a pausar o finalizar la investigación de IA hasta que podamos garantizar el control total.
Una moratoria de este tipo no solo sería inviable, sino que sería un error. La antigua Unión Soviética temía que sus ciudadanos expresaran creencias o valores “no alineados” y reprimió ferozmente cualquier indicio de desviación. No terminó bien. Por el contrario, en los EE. UU. liberamos a nuestras organizaciones superinteligentes y las inducimos a que nos ayuden y no nos perjudiquen a través de la competencia y la legalidad, en lugar de creencias o valores compartidos.
En lugar de intentar cambiar este nuevo tipo de superinteligencia, sería mejor que continuáramos con nuestro enfoque de libertad, competencia y derecho para las IA.
Robin Hanson, What Are Reasonable AI Fears? Although there are some valid concerns, an AI moratorium would be misguided, Quillette
Tyler Cowen, Riesgo existencial, IA y el giro inevitable en la historia humana
La realidad es que nadie cuando llegó la imprenta tenía una idea real de los cambios que traería. Nadie al comienzo de la era de los combustibles fósiles tenía mucha idea de los cambios que traerían. Nadie es bueno para predecir los resultados a largo plazo o incluso a medio plazo de estos cambios tecnológicos radicales (podemos hacerlo a corto plazo, aunque de manera imperfecta). Nadie. Ni tú, ni Eliezer, ni Sam Altman, ni tu vecino de al lado.
Sí, tenemos una expresión para ello “jugar con fuego”. Lo es.
Y dada esta incertidumbre radical es normal preguntarse si debemos detener o ralentizar los avances de la IA. “¿Te subirías a un avión si tuvieras una incertidumbre radical sobre si podría aterrizar de manera segura?” Escucho que algunos dicen.
Pero ¿qué tipo de civilización es la que se aleja del desafío de lidiar con más... inteligencia? ¿Una civilización que no tiene el desparpajo para afrontar confiada una gran dosis de más inteligencia? Me atrevo a preguntarme si tales sociedades podrían perecer bajo su nivel de vigilancia actual, con o sin IA ¿De verdad quieres presionar el botón, dándonos ese tipo de civilización estadounidense?
Deberíamos dar el paso. Si alguien está discutiendo obsesivamente sobre los detalles de la tecnología de IA hoy y los argumentos sobre LessWrong de hace once años, no lo verán. No se deje engañar para morder su anzuelo. Cuanto más larga sea la perspectiva histórica que adopte, más obvio será este punto. Deberíamos dar el paso. Nosotros ya hemos dado el paso. Diseñamos y toleramos nuestra sociedad descentralizada para poder dar ese paso.
Tyler Cowen, Existential risk, AI, and the inevitable turn in human history, Marginal Revolution
Jerome Glenn, Problemas y oportunidades de la inteligencia artificial general
1. Dado que puede ser difícil lograr que los principales países y corporaciones se pongan de acuerdo sobre un texto de tratado AGI, la UE podría tomar el liderazgo con un texto que podría usarse para ayudar a acelerar los acuerdos entre las otras naciones y corporaciones para un tratado AGI.
2. Coordinar con otras organizaciones internacionales como la OCDE, la UIT, la OMC, la Asociación Global sobre IA (GPAI) y la Oficina del secretario general de las Naciones Unidas para iniciar discusiones con los principales gobiernos, corporaciones, ONG y universidades de AGI para un tratado sobre AGI.
3. Aunque el sector privado está cada vez más involucrado en el desarrollo de AGI, la regulación de AGI no ocurrirá sin la participación de gobiernos y organizaciones multilaterales. Por lo tanto, la Comisión Europea y otras organizaciones multilaterales deberían liderar el desarrollo de acuerdos internacionales sobre AGI.
4. Emitir convocatorias de investigación para desarrollar condiciones para la AGI beneficiosa y modelos de gobernanza para hacerlas cumplir.
5. Emitir convocatorias sobre cómo las firmas de auditoría podrían desarrollar sistemas de auditoría para AGI.
6. Iniciar conversaciones con Interpol sobre la aplicación de reglas que incluyan la prevención del desarrollo, uso y venta ilegales de AGI.
7. Las recomendaciones del “Manifiesto sobre la Aplicación de la Ley en la Era de la “Inteligencia Artificial” del Grupo de Reflexión Transatlántico sobre la Democracia y el Estado de Derecho están en consonancia con estas propuestas. Aunque se refieren a inteligencia artificial débil (ANI) más que general (AGI), estas recomendaciones deben ser consideradas en el desarrollo del texto para un futuro tratado sobre AGI.
8. Invertir en la educación y capacitación de los profesionales de la Comisión para gestionar la transición de inteligencia artificial débil a AGI.
9. Considerar si la Unión Europea debería ofrecer sus capacidades en IA a los países de bajos ingresos para evitar que otros países o corporaciones pongan a su disposición ANI y AGI no regulados, si los acuerdos internacionales aún no se han completado y aplicado.
Jerone Glenn, Artificial General Intelligence Issues and Opportunities, Millennium Project
Geoffrey Hinton y Yann LeCun, Es solo cuestión de tiempo
Aunque entre “El padrino de la IA” y uno de sus más fervientes defensores del momento, pueden existir diferencias significativas de parecer, en una cosa están de acuerdo. Y no son los únicos:
No hay duda de que las máquinas se volverán más inteligentes que los humanos, en todos los dominios en los que los humanos son inteligentes, en el futuro. La cuestión no es si lo harán, sino cuándo y cómo.
Algunas ideas recientes
Chispas de inteligencia general artificial.
Sostenemos que (esta primera versión de) GPT-4 es parte de una nueva cohorte de modelos grandes de lenguaje -LLM- (junto con ChatGPT y PaLM de Google, por ejemplo) que exhiben una inteligencia más general que los modelos de IA anteriores. Demostramos que, más allá de su dominio del lenguaje, GPT-4 puede resolver tareas novedosas y difíciles que abarcan las matemáticas, la codificación, la visión, la medicina, el derecho, la psicología y más, sin necesidad de indicaciones especiales. Además, en todas estas tareas, el rendimiento de GPT-4 es sorprendentemente cercano al rendimiento a nivel humano y, a menudo, supera con creces a los modelos anteriores, como ChatGPT. Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (pero aún incompleta) de un sistema de inteligencia general artificial (AGI).
Ocho cosas que hay que saber sobre los modelos grandes de lenguaje.
Como cabría esperar, los LLM se vuelven más capaces con el aumento de la inversión, incluso sin una innovación específica.
Muchos comportamientos LLM significativos surgen de manera impredecible como un subproducto del aumento de la inversión.
Los LLM a menudo parecen aprender y usar representaciones del mundo exterior.
No existen técnicas confiables para dirigir el comportamiento de los LLM.
Los expertos aún no pueden interpretar el funcionamiento interno de los LLM.
El desempeño humano en una tarea no es un límite superior para el desempeño de LLM.
Los LLM no tienen por qué expresar los valores de sus creadores ni los valores codificados en el texto web.
Las interacciones breves con LLM a menudo son engañosas.
Las tres eras del aprendizaje automático.
Antes de 2010, el cómputo de entrenamiento creció de acuerdo con la ley de Moore, duplicándose aproximadamente cada 20 meses. Desde la llegada de Deep Learning a principios de la década de 2010, el escalado de la informática de entrenamiento se ha acelerado, duplicándose aproximadamente cada 6 meses. A fines de 2015, surgió una nueva tendencia a medida que las empresas desarrollaron modelos de aprendizaje automático a gran escala con requisitos de 10 a 100 veces mayores en el cómputo de entrenamiento. A partir de estas observaciones, la historia de la computación en aprendizaje automático puede dividirse en tres eras:
La era previa al aprendizaje profundo
La Era del aprendizaje Profundo
La era de la gran escala (modelos grandes de lenguaje)
Catalizando la inteligencia artificial de próxima generación a través de NeuroAI.
Para acelerar el progreso de la IA y aprovechar su vasto potencial, debemos invertir en investigación fundamental en "NeuroAI".
Hasta hace poco, ningún sistema artificial podía acercarse a pasar la prueba de Turing. Sin embargo, una clase de sistemas modernos de IA llamados modelos grandes de lenguaje (LLM) ahora pueden entablar conversaciones sorprendentemente convincentes. En parte, su éxito revela cuán fácilmente podemos ser engañados para imputar inteligencia, agencia e incluso conciencia a nuestro interlocutor. Por impresionantes que sean estos sistemas, debido a que no están basados en experiencias del mundo real, continúan luchando con muchos aspectos básicos del razonamiento causal y el sentido común físico.
Por lo tanto, proponemos una amplicación del Test de Turing, una "prueba de Turing embebida" que incluye habilidades sensoriomotoras avanzadas.
NOTA técnico cínica:
"Neuro" algo siempre ha sido un gran refugio para los charlatanes.
Nicholas Nassim Taleb
El debate sobre la comprensión en los modelos grandes de lenguaje en AI.
Sostenemos que es posible desarrollar una ciencia ampliada de la inteligencia que proporcione información sobre distintos modos de comprensión, sus fortalezas y limitaciones, y el desafío de integrar diversas formas de cognición.
La observación las redes neuronales mejoran significativamente a medida que aumenta su número de parámetros y el tamaño de los corpus de entrenamiento ha llevado a algunos en el campo a afirmar que los LLM, tal vez en una versión multimodal, conducirán a inteligencia y capacidad de entendimiento a nivel humano, dadas redes y conjuntos de datos de entrenamiento suficientemente grandes. Ha surgido un nuevo mantra de IA: "Escala es todo lo que se necesita".
Hay una sensación de optimismo de que estamos comenzando a ver el surgimiento de sistemas imbuidos de conocimiento que tienen un grado de inteligencia general. Quienes rechazan tales afirmaciones son criticados por promover el "negacionismo de la IA. Una encuesta de 2022 realizada a investigadores activos en la comunidad de procesamiento del lenguaje natural muestra la marcada división existente sobre este debate. De las 480 personas que respondieron, esencialmente la mitad (51 %) estuvo de acuerdo y la otra mitad (49 %) no estuvo de acuerdo.
Aunque la "comprensión similar a la humana" no tiene una definición rigurosa, no parece estar basada en el tipo de modelos estadísticos masivos de aprendizaje que utilizan los LLM hoy. Se basaría en conceptos: modelos mentales internos de categorías, situaciones y eventos externos, y del propio estado interno del "yo".
Si bien los LLM exhiben una competencia lingüística formal extraordinaria, la capacidad de generar un lenguaje gramaticalmente fluido y similar al humano, todavía carecen de la comprensión conceptual necesaria para las habilidades lingüísticas funcionales similares a las humanas.
Se puede establecer un paralelismo interesante entre este tipo de comprensión funcional y el éxito de las técnicas matemáticas formales aplicadas en las teorías físicas. Por ejemplo, una crítica habitual a la mecánica cuántica es que proporciona un medio eficaz de cálculo sin proporcionar comprensión conceptual.
Las preguntas clave del debate sobre la comprensión en los LLM son las siguientes:
¿Es cierto que estos modelos no son, y nunca serán, el tipo de entidad que puede llegar a entender? O por el contrario
Estos sistemas (o sus sucesores a corto plazo) en realidad, incluso en ausencia de experiencia física, ¿crearán algo similar a los ricos modelos mentales basados en conceptos que son centrales para la comprensión humana? Y si es así,
¿Escalar estos modelos creará conceptos cada vez mejores?
Si los LLM y los modelos relacionados tienen éxito al explotar las correlaciones estadísticas a una escala impensable hasta ahora, tal vez esto podría considerarse una forma novedosa de "comprensión", que permite una capacidad predictiva extraordinaria y sobrehumana, como en el caso de los sistemas AlphaZero y AlphaFold de DeepMind, que respectivamente parecen proporcionar una forma de intuición "alienígena" a los dominios del juego de ajedrez o la predicción de la estructura de proteínas.
En conclusión
En algún lugar entre los viejos profesionales de la IA que se niegan a dejarse impresionar por ChatGPT y los novatos sobreexcitados se encuentra la verdad.
Pedro Domingos
Imágenes: El nuevo icono del momento, Sam Altman interpretado por Midjourney, las tres eras del aprendizaje automática y el test de Turing embebido (editadas).
LLM: Large Language Model