Mantenerse al día con una industria tan dinámica como la IA es un gran desafío. Así que, hasta que una IA pueda hacerlo por ti, aquí tienes un práctico resumen de las historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos destacados que no cubrimos por separado.
Esta semana, Meta lanzó lo último en su serie Llama de modelos generativos de IA: Llama 3 8B y Llama 3 70B. Capaces de analizar y escribir texto, los modelos son 'código abierto', según dijo Meta, destinados a ser una 'pieza fundamental' de los sistemas que los desarrolladores diseñan con sus objetivos únicos en mente.
'Creemos que estos son los mejores modelos de su clase de código abierto, punto', escribió Meta en una publicación de blog. 'Estamos adoptando el ethos de código abierto de lanzar temprano y a menudo'.
Solo hay un problema: los modelos Llama 3 no son realmente de código abierto, al menos no en la definición más estricta.
El código abierto implica que los desarrolladores pueden usar los modelos como deseen, sin restricciones. Pero en el caso de Llama 3, al igual que con Llama 2, Meta ha impuesto ciertas restricciones de licencia. Por ejemplo, los modelos Llama no pueden usarse para entrenar a otros modelos. Y los desarrolladores de aplicaciones con más de 700 millones de usuarios mensuales deben solicitar una licencia especial a Meta.
Los debates sobre la definición de código abierto no son nuevos. Pero a medida que las empresas en el espacio de la IA juegan rápido y suelto con el término, están inyectando combustible en argumentos filosóficos de larga data.
El mes pasado, un estudio coescrito por investigadores de Carnegie Mellon, el Instituto AI Now y la Fundación Signal encontró que muchos modelos de IA etiquetados como 'código abierto' vienen con grandes limitaciones, no solo Llama. Los datos necesarios para entrenar los modelos se mantienen en secreto. La potencia de cálculo necesaria para ejecutarlos está fuera del alcance de muchos desarrolladores. Y el trabajo para ajustarlos es prohibitivamente caro.
Entonces, si estos modelos no son realmente de código abierto, ¿qué son exactamente? Esa es una buena pregunta; definir el código abierto con respecto a la IA no es una tarea fácil.
Una pregunta pertinente sin resolver es si el copyright, el mecanismo de PI fundamental en el que se basa la licencia de código abierto, se puede aplicar a los diversos componentes y piezas de un proyecto de IA, en particular la estructura interna de un modelo (por ejemplo, embeddings). Luego está la necesidad de superar la discrepancia entre la percepción del código abierto y cómo funciona realmente la IA: El código abierto se ideó en parte para garantizar que los desarrolladores pudieran estudiar y modificar código sin restricciones. Con la IA, sin embargo, qué ingredientes necesitas para estudiar y modificar está abierto a interpretación.
Abriéndose paso a través de toda la incertidumbre, el estudio de Carnegie Mellon deja claro el daño inherente en que los gigantes tecnológicos como Meta coopten la frase 'código abierto'.
A menudo, proyectos de IA 'de código abierto' como Llama terminan dando inicio a ciclos de noticias, marketing gratuito, y brindando beneficios técnicos y estratégicos a los mantenedores de los proyectos. La comunidad de código abierto rara vez ve estos mismos beneficios, y cuando lo hacen, son marginales en comparación con los de los mantenedores.
En lugar de democratizar la IA, los proyectos de IA 'de código abierto', especialmente los de las grandes empresas tecnológicas, tienden a consolidar y ampliar el poder centralizado, dicen los coautores del estudio. Es bueno tenerlo en cuenta la próxima vez que se lance un importante modelo 'de código abierto'.
Aquí hay algunas otras historias de IA destacadas de los últimos días:
- Meta actualiza su chatbot: Coincidiendo con el debut de Llama 3, Meta mejoró su chatbot de IA en Facebook, Messenger, Instagram y WhatsApp — Meta IA — con un backend impulsado por Llama 3. También lanzó nuevas funciones, incluida una generación de imágenes más rápida y acceso a resultados de búsqueda en la web.
- Pornografía generada por IA: Ivan escribe sobre cómo el Consejo de Supervisión, el consejo de políticas semindependiente de Meta, está dirigiendo su atención a cómo las plataformas sociales de la empresa están manejando imágenes explícitas generadas por IA.
- Marca de agua de Snap: El servicio de redes sociales Snap planea agregar marcas de agua a imágenes generadas por IA en su plataforma. Una versión translúcida del logotipo de Snap con un emoji de brillo, la nueva marca de agua se agregará a cualquier imagen generada por IA exportada desde la aplicación o guardada en la cámara.
- El nuevo Atlas: Boston Dynamics, la empresa de robótica propiedad de Hyundai, ha presentado su robot Atlas de nueva generación, que, a diferencia de su predecesor alimentado por hidráulica, es todo eléctrico — y mucho más amigable en apariencia.
- Humanoides sobre humanoides: Sin ser superados por Boston Dynamics, el fundador de Mobileye, Amnon Shashua, ha lanzado una nueva startup, MenteeBot, centrada en construir sistemas robóticos bipedos. Un video de demostración muestra un prototipo de MenteeBot caminando hacia una mesa y recogiendo frutas.
- Reddit, traducido: En una entrevista con Amanda, el CPO de Reddit, Pali Bhat, reveló que una función de traducción de idiomas impulsada por IA para llevar la red social a una audiencia más global está en proceso, junto con una herramienta de moderación asistida entrenada en decisiones y acciones pasadas de los moderadores de Reddit.
- Contenido de LinkedIn generado por IA: LinkedIn ha comenzado silenciosamente a probar una nueva manera de aumentar sus ingresos: una suscripción a la Página de Empresa Premium de LinkedIn, que — por tarifas que parecen ser tan altas como $99/mes — incluyen IA para escribir contenido y un conjunto de herramientas para aumentar el número de seguidores.
- Un referente: El laboratorio experimental de Google, X, ha presentado esta semana el Proyecto Bellwether, su último intento de aplicar tecnología a algunos de los mayores problemas del mundo. Aquí, eso significa usar herramientas de IA para identificar desastres naturales como incendios forestales e inundaciones lo más rápido posible.
- Protegiendo a los niños con IA: Ofcom, el regulador encargado de hacer cumplir la Ley de Seguridad en Línea del Reino Unido, planea lanzar una exploración sobre cómo la IA y otras herramientas automatizadas pueden usarse para detectar y eliminar de manera proactiva contenido ilegal en línea, específicamente para proteger a los niños del contenido perjudicial.
- OpenAI llega a Japón: OpenAI se expande a Japón, con la apertura de una nueva oficina en Tokio y planes para un modelo GPT-4 optimizado específicamente para el idioma japonés.
Más aprendizajes de máquina
¿Puede un chatbot cambiar tu opinión? Investigadores suizos encontraron que no solo pueden cambiar tu opinión, sino que si están prearmados con información personal sobre ti, también pueden ser más persuasivos en un debate que un humano con la misma información.
'Esto es Cambridge Analytica en esteroides', dijo el líder del proyecto, Robert West de EPFL. Los investigadores sospechan que el modelo — en este caso GPT-4 — se basó en sus vastos almacenes de argumentos y hechos en línea para presentar un caso más convincente y seguro. Pero el resultado habla por sí mismo. No subestimes el poder de los LLM en asuntos de persuasión, advirtió West: 'En el contexto de las próximas elecciones en EE. UU., la gente está preocupada porque ahí es donde este tipo de tecnología siempre se prueba primero. Una cosa que sabemos con seguridad es que la gente usará el poder de los grandes modelos de lenguaje para tratar de inclinar las elecciones'.
¿Por qué estos modelos son tan buenos en lenguaje de todos modos? Esa es un área que tiene una larga historia de investigación, que se remonta a ELIZA. Si te interesa una de las personas que ha estado allí durante mucho tiempo (y ha realizado una buena cantidad de investigaciones él mismo), echa un vistazo a este perfil de Christopher Manning de Stanford. Acaba de recibir la Medalla John von Neumann. ¡Felicidades!
En una entrevista provocativamente titulada, otro investigador a largo plazo de IA (que también ha estado en el escenario de TechCrunch), Stuart Russell, y el investigador postdoctoral Michael Cohen especulan sobre 'Cómo evitar que la IA nos mate a todos'. ¡Probablemente sea algo bueno averiguarlo lo antes posible! No es una discusión superficial, sin embargo — estas son personas inteligentes hablando sobre cómo realmente podemos entender las motivaciones (si esa es la palabra correcta) de los modelos de IA y cómo deberían construirse las regulaciones en torno a ellos.
Stuart Russell sobre cómo hacer que la IA sea 'compatible con los humanos'
La entrevista en realidad se refiere a un artículo en Science publicado a principios de este mes, en el que proponen que las IA avanzadas capaces de actuar estratégicamente para alcanzar sus objetivos (lo que llaman 'agentes de planificación a largo plazo') pueden ser imposibles de probar. Básicamente, si un modelo aprende a 'comprender' las pruebas que debe pasar para tener éxito, muy probablemente aprenderá formas de anular o eludir creativamente esas pruebas. Ya lo hemos visto a pequeña escala, ¿por qué no a gran escala?
Russell propone restringir el hardware necesario para hacer tales agentes... pero por supuesto, Los Alamos National Laboratory (LANL) y Sandia National Labs acaban de recibir sus entregas. LANL acaba de tener la ceremonia de inauguración de Venado, un nuevo superordenador destinado a la investigación de IA, compuesto por 2,560 chips Nvidia Grace Hopper.
Y Sandia acaba de recibir 'un extraordinario sistema de cómputo basado en el cerebro llamado Hala Point', con 1.15 mil millones de neuronas artificiales, construido por Intel y que se cree que es el sistema más grande de este tipo en el mundo. La computación neuromórfica, como se llama, no pretende reemplazar sistemas como Venado, pero está destinada a seguir nuevos métodos de computación que son más parecidos al cerebro que al enfoque bastante centrado en estadísticas que vemos en los modelos modernos.
'Con este sistema de mil millones de neuronas, tendremos la oportunidad de innovar a escala tanto nuevos algoritmos de IA que pueden ser más eficientes y más inteligentes que los algoritmos existentes, como nuevos enfoques similares al cerebro de los algoritmos informáticos existentes como la optimización y modelado', dijo el investigador de Sandia, Brad Aimone. Suena genial... ¡solo genial!