Las 5 historias más importantes de Inteligencia Artificial de 2022
Más de una vez este año, los expertos en inteligencia artificial han repetido un estribillo familiar: “Por favor, reduzcan la velocidad”. Las noticias de Inteligencia Artificial (IA) en 2022 han sido rápidas e implacables; en el momento en que supieras dónde se encuentran actualmente las cosas en IA, un nuevo artículo o descubrimiento haría que esa comprensión quedara obsoleta.
Podría decirse que en 2022, llegamos a la rodilla de la curva en lo que respecta a la IA generativa que puede producir obras creativas compuestas de texto, imágenes, audio y video. Este año, la IA de aprendizaje profundo surgió de una década de investigación y comenzó a abrirse paso en aplicaciones comerciales, lo que permitió a millones de personas probar la tecnología por primera vez. Las creaciones de IA inspiraron asombro, crearon controversias, provocaron crisis existenciales y llamaron la atención.
Aquí hay una mirada retrospectiva a las 5 noticias de IA más importantes del año. Fue difícil elegir solo 5, pero si no lo acortamos en alguna parte, seguiríamos escribiendo sobre los eventos de este año hasta bien entrado el 2023 y más allá.
Abril: DALL-E 2 sueños en imágenes
En abril, OpenAI anunció DALL-E 2, un modelo de síntesis de imágenes de aprendizaje profundo que sorprendió con su capacidad aparentemente mágica para generar imágenes a partir de indicaciones de texto. Entrenado con cientos de millones de imágenes extraídas de Internet, DALL-E 2 supo cómo hacer combinaciones novedosas de imágenes gracias a una técnica llamada difusión latente.
Twitter pronto se llenó de imágenes de astronautas a caballo, osos de peluche vagando por el antiguo Egipto y otras obras casi fotorrealistas. La última vez que escuchamos sobre DALL-E fue un año antes, cuando la versión 1 del modelo tuvo problemas para representar una silla de aguacate de baja resolución; de repente, la versión 2 estaba ilustrando nuestros sueños más salvajes con una resolución de 1024 × 1024.
Al principio, debido a las preocupaciones sobre el uso indebido, OpenAI solo permitió que 200 probadores beta usaran DALL-E 2. Los filtros de contenido bloquearon las indicaciones violentas y sexuales. Gradualmente, OpenAI permitió que más de un millón de personas participaran en una prueba cerrada y DALL-E 2 finalmente estuvo disponible para todos a finales de septiembre.
Julio: ingeniero de Google cree que LaMDA es consciente
A principios de julio, el Washington Post dio a conocer la noticia de que un ingeniero de Google llamado Blake Lemoine fue suspendido debido a su creencia de que LaMDA (Language Model for Dialogue Applications) de Google era sensible y que merecía los mismos derechos que un ser humano.
Mientras trabajaba como parte de la organización de inteligencia artificial responsable de Google, Lemoine comenzó a conversar con LaMDA sobre religión y filosofía y creyó ver verdadera inteligencia detrás del texto.
“Conozco a una persona cuando hablo con ella”. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona”.
Google respondió que LaMDA solo le estaba diciendo a Lemoine lo que quería escuchar y que LaMDA, de hecho, no era sensible. Al igual que la herramienta de generación de texto GPT-3, LaMDA se había capacitado previamente en millones de libros y sitios web.
En el camino, Lemoine supuestamente violó la política de confidencialidad de Google al contarles a otros sobre el trabajo de su grupo. Más tarde en julio, Google despidió a Lemoine por violar las políticas de seguridad de datos.
Julio: DeepMind AlphaFold predijo casi todas las estructuras proteicas conocidas
En julio, DeepMind anunció que su modelo AlphaFold AI había predicho la forma de casi todas las proteínas conocidas de casi todos los organismos de la Tierra con un genoma secuenciado. Anunciado originalmente a mediados de 2021, AlphaFold había predicho anteriormente la forma de todas las proteínas humanas. Pero un año después, su base de datos de proteínas se expandió para contener más de 200 millones de estructuras de proteínas.
DeepMind puso a disposición estas estructuras proteicas predichas en una base de datos pública alojada por el Instituto Europeo de Bioinformática en el Laboratorio Europeo de Biología Molecular (EMBL-EBI). Esto permitió a investigadores de todo el mundo acceder a ellos y utilizar los datos para investigaciones relacionadas con la medicina y las ciencias biológicas.
Las proteínas son componentes básicos de la vida, y conocer sus formas puede ayudar a los científicos a controlarlas o modificarlas. Eso es particularmente útil cuando se desarrollan nuevos medicamentos.
“Casi todos los medicamentos que han llegado al mercado en los últimos años se han diseñado en parte a través del conocimiento de las estructuras de las proteínas”.
Janet Thornton, científica sénior y directora emérita de EMBL-EBI
Agosto: Stable Diffusion hizo que la síntesis de imágenes sea de código abierto
El 22 de agosto, Stability AI y CompVis lanzaron Stable Diffusion 1.4, un modelo de síntesis de imágenes similar a DALL-E 2 de OpenAI. Pero mientras DALL-E se lanzó como un modelo cerrado con restricciones significativas, Stable Diffusion llegó como un proyecto de código abierto, completo con código fuente y archivos de punto de control. (Los datos de entrenamiento del modelo se procesaron en la nube por una suma de $600,000). Su apertura permitió la generación sin restricciones de cualquier contenido sintetizado. Además, a diferencia de DALL-E 2, las personas pueden usar Stable Diffusion de forma local y privada en sus PC con una GPU lo suficientemente buena.
Sin embargo, el movimiento de Stability AI no fue aclamado universalmente como un triunfo tecnológico. Los críticos se quejaron del potencial del software para crear desinformación política, pornografía no consentida, material de abuso sexual infantil e historias alternativas. Los artistas se quejaron de que podría robar el estilo de los artistas vivos y potencialmente dejarlos sin trabajo. El sesgo en el conjunto de datos utilizado para entrenar al modelo también generó críticas, y las técnicas utilizadas para construir su conjunto de datos de imágenes resultaron problemáticas cuando alguien descubrió que sus fotos médicas privadas habían sido extraídas de la web sin posibilidad de eliminación.
Mientras tanto, algunos aficionados adoptaron por completo Stable Diffusion y rápidamente construyeron un ecosistema de código abierto a su alrededor. Algunos productos integraron su motor en sus propios sitios y aplicaciones. Muchos modelos derivados de IA, entrenados en temas específicos, como el arte, los zapatos o la pornografía de Disney, surgieron gracias a una técnica llamada Dreambooth que podría ajustar fácilmente el modelo Stable Diffusion. Ahora, con el lanzamiento de la versión 2.1, Stable Diffusion sigue ocupando un lugar preponderante en el espacio de síntesis de imágenes.
Diciembre: ChatGPT habla con el mundo
El último día de noviembre, OpenAI anunció ChatGPT, un chatbot basado en su modelo de lenguaje GPT-3. OpenAI lo puso a disposición de forma gratuita a través de su sitio web. Esto para poder recopilar datos y comentarios del público sobre cómo ajustar el modelo para producir resultados más precisos y menos dañinos.
Cinco días después del lanzamiento, el CEO de OpenAI, Sam Altman, tuiteó que ChatGPT llegó a más de 1 millón de usuarios. La gente lo usaba para ayudar con las tareas de programación, simular una sesión de consola Linux, generar recetas, escribir poesía y mucho más. Los investigadores también descubrieron rápidamente cómo usar ataques de inyección rápida para subvertir las restricciones de la herramienta para no responder preguntas potencialmente dañinas.
Si bien ChatGPT canalizó lo mejor de lo que GPT-3 ya había estado proporcionando desde 2020 (con algunas mejoras notables bajo el capó), el precio gratuito significaba que era la primera vez que una audiencia masiva veía lo que la tecnología GPT de OpenAI puede hacer. Sorprendía por su aparente capacidad para comprender preguntas complejas, si tan solo pudiera producir respuestas fiables y precisas . Esa parte, admite el CEO de OpenAI, es un trabajo en progreso. Pero la puerta se ha abierto, mostrándonos un indicio de un futuro impulsado por IA.