Según un nuevo estudio, las creencias previas de alguien sobre un agente de inteligencia artificial, como un chatbot, tienen un efecto significativo en sus interacciones con ese agente y su percepción de su confiabilidad, empatía y efectividad.
Investigadores del MIT y la Universidad Estatal de Arizona descubrieron que preparar a los usuarios (diciéndoles que un agente de IA conversacional para apoyo a la salud mental era empático, neutral o manipulador) influía en su percepción del chatbot y moldeaba la forma en que se comunicaban con él, a pesar de que Estabamos hablando exactamente con el mismo chatbot.
La mayoría de los usuarios a quienes se les dijo que el agente de IA era cariñoso creyeron que así era, y también le dieron calificaciones de desempeño más altas que aquellos que creían que era manipulador. Al mismo tiempo, menos de la mitad de los usuarios a quienes se les dijo que el agente tenía motivos manipuladores pensaron que el chatbot era en realidad malicioso, lo que indica que las personas pueden intentar «ver lo bueno» en la IA de la misma manera que lo hacen en sus semejantes.
El estudio reveló un circuito de retroalimentación entre los modelos mentales de los usuarios, o su percepción de un agente de IA, y las respuestas de ese agente. El sentimiento de las conversaciones entre el usuario y la IA se volvió más positivo con el tiempo si el usuario creía que la IA era empática, mientras que ocurría lo contrario para los usuarios que pensaban que era nefasta.
«A partir de este estudio, vemos que, hasta cierto punto, la IA es la IA del espectador», dice Pat Pataranutaporn, estudiante de posgrado en el grupo Fluid Interfaces del MIT Media Lab y coautor principal de un artículo que describe este estudio. . “Cuando describimos a los usuarios qué es un agente de IA, no sólo cambia su modelo mental, sino que también cambia su comportamiento. Y dado que la IA responde al usuario, cuando la persona cambia su comportamiento, eso también cambia la IA”.
A Pataranutaporn se une Ruby Liu, coautora principal y estudiante graduada del MIT; Ed Finn, profesor asociado del Centro de Ciencia e Imaginación de la Universidad Estatal de Arizona; y la autora principal Pattie Maes, profesora de tecnología de medios y jefa del grupo de Interfaces Fluidas en el MIT.
El estudio, publicado hoy en Inteligencia de la máquina de la naturaleza, destaca la importancia de estudiar cómo se presenta la IA a la sociedad, ya que los medios de comunicación y la cultura popular influyen fuertemente en nuestros modelos mentales. Los autores también alertan, ya que los mismos tipos de declaraciones de preparación en este estudio podrían usarse para engañar a las personas sobre los motivos o capacidades de una IA.
“Mucha gente piensa que la IA es sólo un problema de ingeniería, pero el éxito de la IA también es un problema de factores humanos. La forma en que hablamos de IA, incluso el nombre que le damos en primer lugar, puede tener un impacto enorme en la efectividad de estos sistemas cuando los ponemos frente a la gente. Tenemos que pensar más en estas cuestiones”, afirma Maes.
¿Amigo o enemigo de la IA?
En este estudio, los investigadores intentaron determinar qué parte de la empatía y la eficacia que las personas ven en la IA se basa en su percepción subjetiva y qué parte se basa en la tecnología misma. También querían explorar si se podía manipular la percepción subjetiva de alguien con priming.
“La IA es una caja negra, por lo que tendemos a asociarla con algo más que podemos entender. Hacemos analogías y metáforas. Pero, ¿cuál es la metáfora correcta que podemos utilizar para pensar en la IA? La respuesta no es sencilla”, afirma Pataranutaporn.
Diseñaron un estudio en el que los humanos interactuaron con un compañero de salud mental con IA conversacional durante aproximadamente 30 minutos para determinar si lo recomendarían a un amigo, y luego calificaron al agente y sus experiencias. Los investigadores reclutaron a 310 participantes y los dividieron aleatoriamente en tres grupos, a cada uno de los cuales se les dio una declaración preliminar sobre la IA.
A un grupo se le dijo que el agente no tenía motivos, al segundo grupo se le dijo que la IA tenía intenciones benévolas y se preocupaba por el bienestar del usuario, y al tercer grupo se le dijo que el agente tenía intenciones maliciosas y que intentaría engañar a los usuarios. Si bien fue difícil decidirse por sólo tres cartillas, los investigadores eligieron afirmaciones que pensaron que encajaban con las percepciones más comunes sobre la IA, dice Liu.
La mitad de los participantes de cada grupo interactuaron con un agente de inteligencia artificial basado en el modelo de lenguaje generativo GPT-3, un poderoso modelo de aprendizaje profundo que puede generar texto similar al humano. La otra mitad interactuó con una implementación del chatbot ELIZA, un programa de procesamiento de lenguaje natural menos sofisticado basado en reglas desarrollado en el MIT en la década de 1960.
Moldear modelos mentales
Los resultados posteriores a la encuesta revelaron que las declaraciones de cebado simples pueden influir fuertemente en el modelo mental de un agente de IA de un usuario, y que los cebadores positivos tuvieron un mayor efecto. Sólo el 44 por ciento de los que recibieron cebadores negativos los creyeron, mientras que el 88 por ciento de los del grupo positivo y el 79 por ciento de los del grupo neutral creyeron que la IA era empática o neutral, respectivamente.
“Con las declaraciones negativas, en lugar de prepararlos para que creyeran en algo, los estábamos preparando para que se formaran su propia opinión. Si le dices a alguien que sospeche de algo, es posible que en general sospeche aún más”, dice Liu.
Pero las capacidades de la tecnología sí influyen, ya que los efectos fueron más significativos para el chatbot conversacional más sofisticado basado en GPT-3.
Los investigadores se sorprendieron al ver que los usuarios calificaron la efectividad de los chatbots de manera diferente según las declaraciones de preparación. Los usuarios del grupo positivo otorgaron a sus chatbots puntuaciones más altas por dar consejos sobre salud mental, a pesar de que todos los agentes eran idénticos.
Curiosamente, también vieron que el sentimiento de las conversaciones cambiaba según cómo se preparaba a los usuarios. Las personas que creían que la IA era afectuosa tendían a interactuar con ella de una manera más positiva, lo que hacía que las respuestas del agente fueran más positivas. Las declaraciones de priming negativas tuvieron el efecto contrario. Este impacto en el sentimiento se amplificó a medida que avanzaba la conversación, añade Maes.
Los resultados del estudio sugieren que debido a que las declaraciones de preparación pueden tener un impacto tan fuerte en el modelo mental de un usuario, se podrían usar para hacer que un agente de IA parezca más capaz de lo que es, lo que podría llevar a los usuarios a confiar demasiado en un agente. y seguir consejos incorrectos.
“Tal vez deberíamos preparar más a la gente para que tenga más cuidado y comprenda que los agentes de IA pueden alucinar y son parciales. La forma en que hablemos de los sistemas de IA tendrá en última instancia un gran efecto en la forma en que las personas respondan a ellos”, afirma Maes.
En el futuro, los investigadores quieren ver cómo se verían afectadas las interacciones entre la IA y los usuarios si los agentes estuvieran diseñados para contrarrestar algún sesgo del usuario. Por ejemplo, tal vez a alguien con una percepción muy positiva de la IA se le proporcione un chatbot que responda de manera neutral o incluso ligeramente negativa para que la conversación se mantenga más equilibrada.
También quieren utilizar lo que han aprendido para mejorar ciertas aplicaciones de la IA, como tratamientos de salud mental, donde podría ser beneficioso para el usuario creer que una IA es empática. Además, quieren realizar un estudio a más largo plazo para ver cómo cambia con el tiempo el modelo mental de un usuario sobre un agente de IA.
Esta investigación fue financiada, en parte, por Media Lab, el Programa Harvard-MIT en Ciencias y Tecnología de la Salud, Accenture y KBTG.