Al hablar con ejecutivos minoristas en 2010, Rama Ramakrishnan llegó a dos conclusiones. En primer lugar, aunque los sistemas minoristas que ofrecían a los clientes recomendaciones personalizadas estaban recibiendo mucha atención, estos sistemas a menudo proporcionaban pocos beneficios a los minoristas. En segundo lugar, para muchas de las empresas, la mayoría de los clientes compraban sólo una o dos veces al año, por lo que las empresas realmente no sabían mucho sobre ellos.
«Pero si somos muy diligentes a la hora de anotar las interacciones que un cliente tiene con un minorista o un sitio de comercio electrónico, podemos crear una imagen compuesta muy bonita y detallada de lo que hace esa persona y lo que le importa», dice Ramakrishnan, profesor de la práctica en MIT Sloan School of Management. «Una vez que tenga eso, podrá aplicar algoritmos probados de aprendizaje automático».
Estos descubrimientos llevaron a Ramakrishnan a fundar CQuotient, una startup cuyo software ahora se ha convertido en la base de la plataforma de comercio electrónico de inteligencia artificial ampliamente adoptada de Salesforce. «Sólo en el Black Friday, la tecnología CQuotient probablemente ve e interactúa con más de mil millones de compradores en un solo día», afirma.
Después de una carrera empresarial de gran éxito, en 2019 Ramakrishnan regresó al MIT Sloan, donde había obtenido una maestría y un doctorado en investigación de operaciones en la década de 1990. Enseña a los estudiantes “no sólo cómo funcionan estas increíbles tecnologías, sino también cómo tomarlas y cómo ponerlas en práctica de manera pragmática en el mundo real”, dice.
Además, a Ramakrishnan le gusta participar en la educación ejecutiva del MIT. «Esta es una gran oportunidad para mí de transmitir las cosas que he aprendido, pero también, lo que es más importante, de aprender lo que piensan estos altos ejecutivos y de guiarlos y empujarlos en la dirección correcta», afirma.
Por ejemplo, es comprensible que los ejecutivos estén preocupados por la necesidad de cantidades masivas de datos para entrenar sistemas de aprendizaje automático. Ahora puede guiarlos hacia una gran cantidad de modelos previamente entrenados para tareas específicas. «La capacidad de utilizar estos modelos de IA previamente entrenados y adaptarlos muy rápidamente a su problema empresarial particular es un avance increíble», afirma Ramakrishnan.
Rama Ramakrishnan – Utilización de la IA en aplicaciones del mundo real para el trabajo inteligente
Vídeo: Programa de enlace industrial del MIT
Comprender las categorías de IA
«La IA es la búsqueda de dotar a las computadoras de la capacidad de realizar tareas cognitivas que normalmente sólo los humanos pueden realizar», afirma. Comprender la historia de este paisaje complejo y sobrealimentado ayuda a explotar las tecnologías.
El enfoque tradicional de la IA, que básicamente resolvía problemas aplicando reglas si/entonces aprendidas de los humanos, resultó útil para relativamente pocas tareas. «Una razón es que podemos hacer muchas cosas sin esfuerzo, pero si nos piden que expliquemos cómo las hacemos, en realidad no podemos articular cómo las hacemos», comenta Ramakrishnan. Además, esos sistemas pueden verse desconcertados por nuevas situaciones que no coinciden con las reglas consagradas en el software.
El aprendizaje automático adopta un enfoque radicalmente diferente: el software aprende fundamentalmente con el ejemplo. «Le das muchos ejemplos de entradas y salidas, preguntas y respuestas, tareas y respuestas, y haces que la computadora aprenda automáticamente cómo pasar de la entrada a la salida», dice. La calificación crediticia, la toma de decisiones sobre préstamos, la predicción de enfermedades y la previsión de la demanda se encuentran entre las muchas tareas que realiza el aprendizaje automático.
Pero el aprendizaje automático sólo funcionó bien cuando los datos de entrada estaban estructurados, por ejemplo en una hoja de cálculo. «Si los datos de entrada no estaban estructurados, como imágenes, vídeo, audio, ECG o rayos X, no era muy bueno pasar de eso a una salida prevista», dice Ramakrishnan. Eso significa que los humanos tuvieron que estructurar manualmente los datos no estructurados para entrenar el sistema.
Alrededor de 2010, el aprendizaje profundo comenzó a superar esa limitación, brindando la capacidad de trabajar directamente con datos de entrada no estructurados, afirma. Basado en una estrategia de inteligencia artificial de larga data conocida como redes neuronales, el aprendizaje profundo se volvió práctico debido a la avalancha global de datos, la disponibilidad de hardware de procesamiento paralelo extraordinariamente poderoso llamado unidades de procesamiento de gráficos (inventadas originalmente para videojuegos) y avances en algoritmos y matemáticas.
Finalmente, dentro del aprendizaje profundo, los paquetes de software de IA generativa que aparecieron el año pasado pueden crear resultados no estructurados, como texto con sonido humano, imágenes de perros y modelos tridimensionales. Los modelos de lenguaje grande (LLM), como ChatGPT de OpenAI, van desde entradas de texto hasta salidas de texto, mientras que los modelos de texto a imagen como DALL-E de OpenAI pueden producir imágenes de apariencia realista.
Rama Ramakrishnan – Tomar nota de los pequeños datos para mejorar el servicio al cliente
Vídeo: Programa de enlace industrial del MIT
Lo que la IA generativa puede (y no puede) hacer
Capacitado en los inimaginablemente vastos recursos de texto de Internet, la “capacidad fundamental de un LLM es predecir la siguiente palabra más probable y plausible”, dice Ramakrishnan. «Luego adjunta la palabra a la oración original, predice la siguiente palabra nuevamente y continúa haciéndolo».
«Para sorpresa de muchos, incluidos muchos investigadores, un LLM puede hacer cosas muy complicadas», dice. “Puede componer poesía maravillosamente coherente, escribir episodios de Seinfeld y resolver algunos tipos de problemas de razonamiento. Es realmente sorprendente cómo la predicción de la siguiente palabra puede conducir a estas increíbles capacidades”.
“Pero siempre hay que tener en cuenta que lo que está haciendo no es tanto encontrar la respuesta correcta a su pregunta sino encontrar una respuesta plausible a su pregunta”, enfatiza Ramakrishnan. Su contenido puede ser inexacto, irrelevante, tóxico, parcial u ofensivo.
Eso impone a los usuarios la carga de asegurarse de que el resultado sea correcto, relevante y útil para la tarea en cuestión. «Debe asegurarse de que haya alguna manera de verificar si hay errores en la salida y corregirlos antes de que se publique», dice.
Se están realizando intensas investigaciones para encontrar técnicas que aborden estas deficiencias, añade Ramakrishnan, quien espera muchas herramientas innovadoras para hacerlo.
Encontrar los roles corporativos adecuados para los LLM
Dado el asombroso progreso en los LLM, ¿cómo debería pensar la industria acerca de aplicar el software a tareas como la generación de contenido?
En primer lugar, aconseja Ramakrishnan, hay que considerar los costos: “¿Es un esfuerzo mucho menos costoso tener un borrador que usted corrija, en lugar de crearlo todo?” En segundo lugar, si el LLM comete un error que pasa desapercibido y el contenido erróneo se publica al mundo exterior, ¿puede vivir con las consecuencias?
«Si tienes una aplicación que satisface ambas consideraciones, entonces es bueno realizar un proyecto piloto para ver si estas tecnologías realmente pueden ayudarte con esa tarea en particular», dice Ramakrishnan. Destaca la necesidad de tratar el proyecto piloto como un experimento y no como un proyecto informático normal.
En este momento, el desarrollo de software es la aplicación corporativa de LLM más madura. «ChatGPT y otros LLM son de entrada y salida de texto, y un programa de software es simplemente de salida de texto», dice. “Los programadores pueden pasar de la entrada de texto en inglés a la salida de texto en Python, así como también del inglés al inglés o del inglés al alemán. Hay muchas herramientas que te ayudan a escribir código utilizando estas tecnologías”.
Por supuesto, los programadores deben asegurarse de que el resultado funcione correctamente. Afortunadamente, el desarrollo de software ya ofrece infraestructura para probar y verificar el código. «Este es un hermoso punto óptimo», afirma, «donde es mucho más económico que la tecnología escriba el código por usted, porque puede comprobarlo y verificarlo muy rápidamente».
Otro uso importante de LLM es la generación de contenido, como redactar textos de marketing o descripciones de productos de comercio electrónico. «Nuevamente, puede ser mucho más barato arreglar el borrador de ChatGPT que escribirlo todo», dice Ramakrishnan. «Sin embargo, las empresas deben tener mucho cuidado para asegurarse de que haya un ser humano al tanto».
Los LLM también se están extendiendo rápidamente como herramientas internas para buscar documentos empresariales. A diferencia de los algoritmos de búsqueda convencionales, un chatbot LLM puede ofrecer una experiencia de búsqueda conversacional, porque recuerda cada pregunta que usted hace. «Pero, de nuevo, ocasionalmente inventará cosas», dice. «En términos de chatbots para clientes externos, estamos en una etapa muy temprana, debido al riesgo de decir algo incorrecto al cliente».
En general, señala Ramakrishnan, vivimos en un momento extraordinario para lidiar con los potenciales y obstáculos en rápida evolución de la IA. «Ayudo a las empresas a descubrir cómo tomar estas tecnologías tan transformadoras y ponerlas en práctica, para hacer que los productos y servicios sean mucho más inteligentes, los empleados mucho más productivos y los procesos mucho más eficientes», afirma.