El CEO de Operai, Sam Altman (izquierda) y el CEO de Microsoft, Satya Nadella Joel Saget/AFP y Loren Elliott a través de Getty Images
- Una parte clave de la asociación Operai y Microsoft depende de la startup que logra AGI.
- Microsoft obtiene enormes beneficios financieros de Operai hasta que se logra AGI, influyendo en el debate.
- Se me ocurren nuevas pruebas del mundo real que se mostrarán cuándo se logra AGI.
AGI es un debate bastante tonto. Solo es realmente importante de una manera: gobierna cómo cambiará la asociación de IA más importante del mundo en los próximos meses. Ese es el trato entre Openai y Microsoft.
Esta es la situación en este momento: hasta que OpenAi logra la inteligencia general artificial, donde las capacidades de IA superan las de los humanos, Microsoft obtiene muchos beneficios tecnológicos y financieros valiosos de la startup. Por ejemplo, Openai debe compartir una parte significativa de sus ingresos con Microsoft. Eso es miles de millones de dólares.
Uno podría argumentar razonablemente que esta podría ser la razón por la cual Sam Altman golpea sobre Operai acercándose a AGI pronto.
Muchos otros expertos en el campo de la IA no hablan de esto, o piensan que el debate de AGI está fuera de lugar de varias maneras, o simplemente no es tan importante. Incluso el CEO Anthrope Dario Amodei, uno de los mayores impulsores de IA del planeta, no le gusta hablar de AGI.
La CEO de Microsoft, Satya Nadella, ve las cosas de manera muy diferente. ¿No lo harías? Si se requiere contractualmente que otra empresa le dé montones de dinero si no llegan a AGI, ¡entonces probablemente no piense que estamos cerca de AGI!
Nadella ha llamado el empuje hacia la «piratería de referencia» de AGI, que es muy deliciosa. Esto se refiere a los investigadores de IA y los laboratorios que diseñan modelos de IA para funcionar bien en los puntos de referencia de la industria inestable, en lugar de en la vida real.
Aquí está la definición oficial de OpenAI de AGI: «Sistemas altamente autónomos que superan a los humanos a la mayoría de los trabajos económicamente valiosos».
Otros expertos lo han definido de manera ligeramente diferente. Pero el punto principal es que las máquinas y el software de IA deben ser mejores que los humanos en una amplia variedad de tareas útiles. Ya puede entrenar a un modelo de IA para que sea mejor en una o dos cosas específicas, pero para llegar al artificial general Inteligencia, las máquinas deben poder hacer muchas cosas diferentes mejor que los humanos.
Mis pruebas AGI del mundo real
En los últimos meses, he ideado varias pruebas del mundo real para ver si hemos llegado a AGI. Estas son cosas cotidianas divertidas o molestas que deberían funcionar en un mundo de AGI, pero en este momento no lo hacen. También revasé la opinión de los lectores de mi boletín de memorando tecnología y aproveché mi red fuente para sugerencias divertidas.
Aquí están mis pruebas del mundo real que demostrarán que hemos llegado a AGI:
- Los departamentos de relaciones públicas de OpenAi y Anthrope utilizan su propia tecnología AI para responder a la pregunta de cada periodista. En este momento, estas compañías están contratando a una tonelada de periodistas humanos y otros expertos en comunicaciones para manejar un aluvión de preguntas de reporteros sobre la IA y el futuro. Cuando me acerco a estas compañías, los humanos responden cada vez. ¡Inaceptable! A menos que esto cambie, no estamos en AGI.
- Esta sugerencia es de un contacto con el fondo de cobertura, y me encanta: por favor, por favor, ¿puede mi sistema de correo electrónico de Microsoft Outlook dejar de enterrar correos electrónicos importantes sin dejar de dejar el spam? Este parece ser algo que Microsoft y OpenAi podrían resolver con su tecnología AI. Todavía no he visto una solución.
- En una línea similar, ¿alguien puede evitar que Cactus Warehouse me envíe un mensaje de texto cada 2 días con ofertas de 20% de descuento en suculentas? ¡Solo compré un cactus de ustedes una vez! ¡Vamos, ai, esto seguramente puede resolverse!
- Mi rendimiento 2024 Tesla Model 3 alcanza los baches en FSD. No es de extrañar que los neumáticos tengan que ser reemplazados con tanta frecuencia en estos EV. Como humano, puedo evitar los baches mucho mejor. Elon, el Gauntlet Agi ha sido arrojado. Ponte en esto ahora.
- ¿Pueden los modelos de IA y los chatbots hacer predicciones valiosas sobre el futuro, o en su mayoría simplemente regurgitan lo que ya se sabe en Internet? Probé esto recientemente, justo después de que Estados Unidos bombardeó a Irán. La capacidad de selección de stock de ChatGPT se puso a prueba versus un solo analista humano. Mira los resultados aquí. Tl; dr: no estamos cerca de agi en este caso.
- Hay un gran anuncio de Google Gemini TV donde un niño está ayudando a su padre a reunir una red de baloncesto. El hijo está usando un teléfono Android para pedirle a Gemini las instrucciones y señalar la cámara a su pobre padre que lucha con piezas y herramientas. Es realmente impresionante ver cómo Gemini encuentra el manual de instrucciones en línea con solo «ver» lo que está sucediendo en vivo con el ensamblaje del producto. Para que Agi esté aquí, sin embargo, la IA solo necesita Construye la maldita red en sí misma. Puedo sentarme allí y leer instrucciones de una manera molesta, mientras que alguien más trabaja con tareas de ensamblaje complicada, todos podemos hacer eso.
Sí, sé que estas pruebas parecen un poco tontas, pero los puntos de referencia de IA no son el mundo real, y pueden ser jugados con bastante fácilmente.
Esa última prueba de red de baloncesto es particularmente reveladora para mí. Obtener un sistema de IA y un software para ensamblar una red de baloncesto, eso podría suceder pronto. Pero, ¿obtener el mismo sistema para hacer muchas otras cosas de manipulación del mundo físico mejor que los humanos también? Muy duro y probablemente no sea posible durante mucho tiempo.
A medida que Operai y Microsoft intentan resolver sus diferencias, las compañías pueden aprovechar a los expertos para evaluar si la startup ha alcanzado AGI o no, según los términos de su contrato existente, según la información. Estoy feliz de ser un asesor experto aquí. ¡Sam y Satya, avísame si quieres ayuda!
Por ahora, dejaré las palabras finales a un verdadero experto en IA. Konstantin Mishchenko, un científico de investigación de IA en Meta, tuiteó recientemente esto, mientras citaba un blog de otro experto respetado en el campo, Sergey Levine:
«Si bien LLMS aprendió a imitar la inteligencia de los datos de Internet, nunca tuvieron que vivir y adquirir esa inteligencia directamente. Carecen del algoritmo central para aprender de la experiencia. Necesitan un humano para hacer ese trabajo por ellos», escribió Mishchenko, refiriéndose a modelos de IA conocidos como modelos de idiomas grandes.
«Esto sugiere, al menos para mí, que la brecha entre LLM y la inteligencia genuina podría ser más amplia de lo que pensamos. A pesar de que se habla de que AGI ya está aquí o que viene el próximo año, no puedo sacudir la sensación de que no es posible hasta que se nos ocurriera algo mejor que un modelo de idioma imitando nuestra propia idea de cómo debería verse un AI», concluyó.
Regístrese en el boletín de memo tecnológicos de BI aquí. Comuníquese conmigo por correo electrónico al abarr@businessinsider.com.