Hablando en el simposio “Generative AI: Shaping the Future” el 28 de noviembre, el evento inaugural de la Generative AI Week del MIT, el orador principal y cofundador de iRobot, Rodney Brooks, advirtió a los asistentes contra la sobreestimación acrítica de las capacidades de esta tecnología emergente, que sustenta cada vez más herramientas poderosas como ChatGPT de OpenAI y Bard de Google.
“La exageración conduce a la arrogancia, la arrogancia conduce a la arrogancia y la arrogancia conduce al fracaso”, advirtió Brooks, quien también es profesor emérito del MIT, ex director del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y fundador de Robust. .AI.
«Ninguna tecnología ha superado jamás a todas las demás», añadió.
El simposio, que atrajo a cientos de Los asistentes del mundo académico y de la industria al Auditorio Kresge del Instituto, estuvo plagado de mensajes de esperanza sobre las oportunidades que ofrece la IA generativa para hacer del mundo un lugar mejor, incluso a través del arte y la creatividad, intercalados con historias de advertencia sobre lo que podría salir mal si estas herramientas de IA no se desarrollan responsablemente.
La IA generativa es un término para describir modelos de aprendizaje automático que aprenden a generar material nuevo que se parece a los datos con los que fueron entrenados. Estos modelos han exhibido algunas capacidades increíbles, como la capacidad de producir escritura creativa similar a la humana, traducir idiomas, generar código de computadora funcional o crear imágenes realistas a partir de indicaciones de texto.
En sus palabras de apertura para lanzar el simposio, la presidenta del MIT, Sally Kornbluth, destacó varios proyectos que profesores y estudiantes han emprendido para utilizar la IA generativa para generar un impacto positivo en el mundo. Por ejemplo, el trabajo de Axim Collaborative, una iniciativa de educación en línea lanzada por el MIT y Harvard, incluye explorar los aspectos educativos de la IA generativa para ayudar a los estudiantes desatendidos.
El Instituto también anunció recientemente subvenciones iniciales para 27 proyectos de investigación interdisciplinarios de profesores centrados en cómo la IA transformará la vida de las personas en toda la sociedad.
Al organizar la Semana de la IA Generativa, el MIT espera no sólo mostrar este tipo de innovación, sino también generar «colisiones colaborativas» entre los asistentes, dijo Kornbluth.
La colaboración que involucre a académicos, formuladores de políticas y la industria será fundamental si queremos integrar de manera segura una tecnología en rápida evolución como la IA generativa de manera que sea humana y ayude a los humanos a resolver problemas, dijo a la audiencia.
“Honestamente, no puedo pensar en un desafío más alineado con la misión del MIT. Es una responsabilidad profunda, pero tengo plena confianza en que podemos afrontarla, si la afrontamos de frente y como comunidad”, dijo.
Si bien la IA generativa tiene el potencial de ayudar a resolver algunos de los problemas más apremiantes del planeta, la aparición de estos poderosos modelos de aprendizaje automático ha desdibujado la distinción entre ciencia ficción y realidad, dijo la directora de CSAIL, Daniela Rus, en sus comentarios de apertura. Ya no se trata de si podemos fabricar máquinas que produzcan nuevos contenidos, dijo, sino de cómo podemos utilizar estas herramientas para mejorar los negocios y garantizar la sostenibilidad.
«Hoy discutiremos la posibilidad de un futuro en el que la IA generativa no sólo exista como una maravilla tecnológica, sino que sea una fuente de esperanza y una fuerza para el bien», dijo Rus, quien también es profesor Andrew y Erna Viterbi en el Departamento de Ingeniería Eléctrica e Informática.
Pero antes de que la discusión profundizara en las capacidades de la IA generativa, primero se pidió a los asistentes que reflexionaran sobre su humanidad, mientras el profesor del MIT Joshua Bennett leía un poema original.
A Bennett, profesor de la Sección de Literatura del MIT y catedrático distinguido de Humanidades, se le pidió que escribiera un poema sobre lo que significa ser humano y se inspiró en su hija, que nació hace tres semanas.
El poema cuenta sus experiencias cuando era niño viendo Star Trek con su padre y habló de la importancia de transmitir las tradiciones a la siguiente generación.
En su discurso de apertura, Brooks se propuso desentrañar algunas de las cuestiones científicas profundas que rodean la IA generativa, así como explorar lo que la tecnología puede decirnos sobre nosotros mismos.
Para empezar, trató de disipar parte del misterio que gira en torno a las herramientas de inteligencia artificial generativa como ChatGPT explicando los conceptos básicos de cómo funciona este gran modelo de lenguaje. ChatGPT, por ejemplo, genera texto palabra por palabra determinando cuál debería ser la siguiente palabra en el contexto de lo que ya se ha escrito. Mientras que un humano puede escribir una historia pensando en frases completas, ChatGPT solo se centra en la siguiente palabra, explicó Brooks.
ChatGPT 3.5 se basa en un modelo de aprendizaje automático que tiene 175 mil millones de parámetros y ha estado expuesto a miles de millones de páginas de texto en la web durante el entrenamiento. (La iteración más reciente, ChatGPT 4, es aún más grande). Aprende correlaciones entre palabras en este enorme corpus de texto y utiliza este conocimiento para proponer qué palabra podría aparecer a continuación cuando se le dé una indicación.
El modelo ha demostrado algunas capacidades increíbles, como la capacidad de escribir un soneto sobre robots al estilo del famoso Soneto 18 de Shakespeare. Durante su charla, Brooks mostró el soneto que le pidió a ChatGPT que escribiera al lado de su propio soneto.
Pero aunque los investigadores aún no comprenden completamente exactamente cómo funcionan estos modelos, Brooks aseguró a la audiencia que las capacidades aparentemente increíbles de la IA generativa no son mágicas y eso no significa que estos modelos puedan hacer cualquier cosa.
Sus mayores temores sobre la IA generativa no giran en torno a modelos que algún día podrían superar la inteligencia humana. Más bien, lo que más le preocupa son los investigadores que pueden desperdiciar décadas de excelente trabajo que se acercaba a un gran avance, sólo para lanzarse a nuevos y brillantes avances en IA generativa; firmas de capital de riesgo que pululan ciegamente hacia tecnologías que pueden generar los márgenes más altos; o la posibilidad de que toda una generación de ingenieros se olvide de otras formas de software e inteligencia artificial.
Al final del día, quienes creen que la IA generativa puede resolver los problemas del mundo y quienes creen que solo generará nuevos problemas tienen al menos una cosa en común: ambos grupos tienden a sobreestimar la tecnología, dijo.
“¿Cuál es la presunción de la IA generativa? La presunción es que de alguna manera conducirá a la inteligencia artificial general. Por sí solo, no lo es”, dijo Brooks.
Después de la presentación de Brooks, un grupo de profesores del MIT habló sobre su trabajo utilizando IA generativa y participó en un panel de discusión sobre avances futuros, temas de investigación importantes pero poco explorados y los desafíos de la regulación y las políticas de IA.
El panel estuvo formado por Jacob Andreas, profesor asociado del Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) del MIT y miembro de CSAIL; Antonio Torralba, profesor de Electrónica Delta de la EECS y miembro del CSAIL; Ev Fedorenko, profesor asociado de ciencias cognitivas y del cerebro e investigador del Instituto McGovern de Investigación del Cerebro del MIT; y Armando Solar-Lezama, Profesor Distinguido de Computación y director asociado de CSAIL. Fue moderado por William T. Freeman, profesor Thomas y Gerd Perkins de EECS y miembro de CSAIL.
Los panelistas discutieron varias posibles direcciones futuras de investigación en torno a la IA generativa, incluida la posibilidad de integrar sistemas de percepción, recurriendo a sentidos humanos como el tacto y el olfato, en lugar de centrarse principalmente en el lenguaje y las imágenes. Los investigadores también hablaron sobre la importancia de colaborar con los formuladores de políticas y el público para garantizar que las herramientas de IA generativa se produzcan y desplieguen de manera responsable.
“Uno de los grandes riesgos de la IA generativa hoy en día es el riesgo de la trampa digital. Existe un gran riesgo de que salgan al mercado muchos productos que afirman hacer cosas milagrosas pero que a la larga podrían ser muy dañinos”, dijo Solar-Lezama.
La sesión de la mañana concluyó con un extracto de la novela de ciencia ficción de 1925 “Metropolis”, leída por Joy Ma, estudiante de física y artes teatrales, seguida de una mesa redonda sobre el futuro de la IA generativa. La discusión incluyó a Joshua Tenenbaum, profesor del Departamento de Ciencias Cognitivas y del Cerebro y miembro de CSAIL; Dina Katabi, profesora Thuan y Nicole Pham en EECS e investigadora principal en CSAIL y la Clínica Jameel del MIT; y Max Tegmark, profesor de física; y fue moderado por Daniela Rus.
Uno de los focos de la discusión fue la posibilidad de desarrollar modelos generativos de IA que puedan ir más allá de lo que podemos hacer como humanos, como herramientas que puedan detectar las emociones de alguien mediante el uso de señales electromagnéticas para comprender cómo cambian la respiración y el ritmo cardíaco de una persona.
Pero una clave para integrar una IA como ésta en el mundo real de forma segura es garantizar que podamos confiar en ella, afirmó Tegmark. Si sabemos que una herramienta de IA cumplirá con las especificaciones en las que insistimos, entonces “ya no tendremos que tener miedo de construir sistemas realmente poderosos que salgan y hagan cosas por nosotros en el mundo”, afirmó.