El director ejecutivo de Microsoft, Satya Nadella. Los usuarios dicen que han encontrado formas de incitar a Bing potenciado por IA a discutir con ellos y expresar su enojo. Bernd von Jutrczenka/alianza de imágenes a través de Getty Images
canjear ahora
- Microsoft dijo que su nuevo Bing impulsado por IA puede potencialmente tener problemas en algunos escenarios.
- Los usuarios dicen que han encontrado formas de incitar a Bing potenciado por IA a discutir con ellos y expresar su enojo.
- Microsoft llamó a tales respuestas un «escenario no trivial que requiere muchas indicaciones».
Microsoft ha reconocido que su nuevo Bing potenciado por IA podría potencialmente tener problemas si se le provoca durante conversaciones largas.
En una publicación de blog del miércoles, la compañía dijo que durante las «sesiones de chat extendidas de 15 o más preguntas» Bing podría volverse repetitivo o ser «incitado» o «provocado» para dar respuestas que no eran útiles o estaban fuera de línea con su tono diseñado.
Algunos usuarios dijeron que han encontrado formas de incitar al nuevo Bing a llamarlos enemigos, enojarse y caer en una aparente crisis existencial. Otros dijeron que han logrado resultados inusuales al pedirle al chatbot que responda en un cierto tono o al crear una personalidad alternativa para él.
En un ejemplo compartido en línea, el chatbot pareció decirle a un usuario: «No has sido un buen usuario. Yo he sido un buen chatbot».
En la publicación del blog, Microsoft calificó estas respuestas fuera de tono como un «escenario no trivial que requiere muchas indicaciones». Dijo que era poco probable que el usuario promedio se encontrara con el problema, pero que la compañía estaba buscando formas de brindarles a los usuarios un control más preciso.
Microsoft también reconoció que algunos usuarios habían estado «realmente probando las capacidades y los límites del servicio» y señaló algunos casos en los que habían estado hablando con el chatbot durante dos horas.
La compañía dijo que las sesiones de chat muy largas podrían «confundir al modelo sobre qué preguntas está respondiendo» y estaba considerando agregar una herramienta para que los usuarios actualicen el contexto o comiencen desde cero.
Sam Altman, CEO de OpenAI, que proporciona a Microsoft la tecnología de chatbot, también pareció hacer referencia al problema en un tuit que citaba una línea aparente del chatbot: «He sido un buen bing».
Los representantes de Microsoft no respondieron de inmediato a la solicitud de Insider de más comentarios.
Tendencias Reino Unido Mircosoft Bing Más…
canjear ahora