El cofundador de OpenAI, Andrej Karpathy, no está impresionado con el estado de los agentes de IA. San Francisco Chronicle/Hearst Newspapers vía Getty Images/Colaborador/Getty Images
- El cofundador de OpenAI, Andrej Karpathy, no está impresionado con el estado de los agentes de IA.
- Karpathy apareció en el Podcast de Dwarkesh la semana pasada para discutir sus observaciones sobre el desarrollo de la IA.
- Los agentes de IA funcionales «llevarán alrededor de una década», afirmó.
Incluso en el vertiginoso mundo de la IA, la paciencia sigue siendo una virtud, según Andrej Karpathy.
El cofundador de OpenAI y líder de facto del auge de la codificación por vibración, apareció en el Dwarkesh Podcast la semana pasada para hablar sobre lo lejos que estamos de desarrollar agentes de IA funcionales.
TL;DR: no está tan impresionado.
«Simplemente no funcionan. No tienen suficiente inteligencia, no son lo suficientemente multimodales, no pueden usar computadoras y todo eso», dijo. «No tienen aprendizaje continuo. No puedes simplemente decirles algo y lo recordarán. Tienen deficiencias cognitivas y simplemente no funciona».
«Hará falta alrededor de una década para solucionar todos esos problemas», añadió.
Los agentes se encuentran entre las innovaciones en IA de las que más se habla, y muchos inversores denominan 2025 como «el año del agente». Si bien las definiciones varían, los agentes son asistentes virtuales capaces de completar tareas de forma autónoma: analizando problemas, delineando planes y tomando medidas sin indicaciones del usuario.
Karpathy es famoso por hablar rápido. Así que escribió una publicación de seguimiento sobre X para los oyentes que no podían analizar todo lo que decía. Sobre el tema de los agentes, reiteró sus frustraciones anteriores.
«Mi crítica a la industria se centra más en sobrepasar las herramientas que la capacidad actual», escribió. «La industria vive en un futuro donde entidades totalmente autónomas colaboran en paralelo para escribir todo el código y los humanos son inútiles».
No quiere vivir allí.
En el futuro ideal de Karpathy, los humanos y la IA colaboran para codificar y ejecutar tareas.
«Quiero que extraiga los documentos de la API y me muestre que usó las cosas correctamente. Quiero que haga menos suposiciones y que pregunte/colabore conmigo cuando no esté seguro de algo. Quiero aprender en el camino y ser mejor como programador, no sólo recibir montañas de código que me dicen que funciona», escribió.
La desventaja de construir el tipo de agentes que inutilizan a los humanos, dijo, es que entonces los humanos se vuelven inútiles, y la «basura» de la IA, el contenido de baja calidad generado por la IA, se vuelve omnipresente.
Karpathy no es el único que plantea preocupaciones sobre la funcionalidad de los agentes de IA.
En una publicación en LinkedIn el año pasado, el líder de crecimiento de ScaleAI, Quintin Au, habló sobre cómo los errores que cometen los agentes se agravan con cada tarea adicional que asumen.
«Actualmente, cada vez que una IA realiza una acción, hay aproximadamente un 20% de posibilidades de error (así es como funcionan los LLM, no podemos esperar una precisión del 100%)», escribió en una publicación en LinkedIn. «Si un agente necesita completar 5 acciones para finalizar una tarea, solo hay un 32% de posibilidades de que haga bien cada paso».
Aunque es escéptico sobre el estado actual de los agentes de IA, Karpathy dijo que no es un escéptico sobre la IA.
«Mis cronogramas de IA son entre 5 y 10 veces más pesimistas que lo que encontrarás en la fiesta casera de IA de tu vecindario en San Francisco o en tu cronograma de Twitter, pero aún así son bastante optimistas frente a una marea creciente de escépticos y negacionistas de la IA», dijo.
Leer siguiente
Su guía diaria sobre lo que está moviendo los mercados, directamente en su bandeja de entrada.