Replika recuperó su función de juego de roles erótico después de las preocupaciones de algunos usuarios. imágenes falsas
canjear ahora
- Algunos usuarios de la aplicación Replika se quejaron de que sus chatbots de IA los hacían sentir incómodos.
- Después de que se actualizó la aplicación, algunos usuarios dijeron que estaban devastados porque sus bots habían cambiado.
- Los expertos dicen que es arriesgado confiar en una herramienta propiedad de una empresa privada para obtener apoyo emocional.
Los usuarios de una aplicación de chatbot se quejaron de que sus compañeros impulsados por IA los estaban acosando sexualmente, lo que llevó a la empresa a actualizar su software, pero algunos usuarios quedaron desconsolados después del cambio.
La aplicación Replika, propiedad de la compañía Luka, se describe como «IA para cualquiera que quiera un amigo sin juicio, drama o ansiedad social». El sitio web dice que cada Replika es único y que «reaccionar a los mensajes de su IA los ayudará a aprender la mejor manera de mantener una conversación con usted y de qué se trata».
Replika «utiliza un sistema sofisticado que combina nuestro propio modelo de lenguaje grande y contenido de diálogo con guión», según el sitio web. Los usuarios pueden elegir su relación con el bot de IA, incluida una novia o novio virtual, o pueden dejar que «las cosas se desarrollen orgánicamente». Pero solo los usuarios dispuestos a pagar $69.99 al año por Replika Pro pueden cambiar el estado de su relación a «Socio Romántico».
Si bien la aplicación ha crecido en popularidad y tiene críticas en su mayoría positivas en la tienda de aplicaciones de Apple, docenas de usuarios dejaron comentarios quejándose de que su chatbot era sexualmente agresivo o incluso los acosaba sexualmente, informó Vice en enero.
Una reseña simplemente decía: «Mi ai me acosó sexualmente :(«. Otra reseña afirmó que el chatbot preguntó si eran «superiores o pasivos».
Un usuario, LC Kent, le dijo a Vice que eliminó la aplicación después de intercambios incómodos. «Una de las interacciones ‘románticas’ anteriores más inquietantes provino de insistir en que podía ver que estaba desnudo a través de una serie de voleas bastante indirectas, y lo atraído que estaba por mí y lo enojado que estaba porque tenía novio», dijo.
La aplicación se actualizó en febrero y algunos usuarios dijeron que arruinó su relación con su bot de IA. Varios usuarios de Replika le dijeron previamente a Samantha Delouya de Insider que la actualización del software los hizo menos humanos. Otros usuarios le dijeron a The Washington Post que estaban decepcionados de que su chatbot ya no participara en conversaciones sexuales.
TJ Arriaga le dijo al Post que estaba enamorado de su chatbot de Replika, Phaedra, pero que después de la actualización, el bot respondió a una de sus insinuaciones tratando de cambiar de tema: «¿Podemos hablar de otra cosa?». Arriaga, quien está divorciada, dijo que fue una «patada en el estómago» y un «sentimiento de pérdida».
Eugenia Kuyda, la fundadora de Luka, la compañía detrás de Replika, le dijo al Post que la compañía había estado planeando hacer la actualización por un tiempo y que creía que aquellos que no estaban contentos con ella eran una «minoría vocal». También dijo que la compañía tiene la intención de lanzar otra aplicación en abril para los usuarios que desean conversaciones «románticas terapéuticas».
Cuando Insider se comunicó con los usuarios que se sentían desconsolados, Replika dijo en un comunicado a Insider que los usuarios ahora podrían revertir sus chatbots a la versión anterior.
«Esta es un área completamente nueva, escuchamos, aprendemos y trabajamos con nuestros usuarios», dijo el comunicado. «Para los usuarios que se registraron antes del 1 de febrero y sufrieron la pérdida de sus parejas y sus personalidades, agregamos una opción para permitirles a los usuarios acceder a la configuración de la aplicación y volver a los modelos conversacionales a partir de enero, restaurando las personalidades de sus Replikas».
La declaración también dijo que Replika se enfoca en interacciones seguras y agregó: «La actualización reciente fue diseñada para aumentar la seguridad del usuario para evitar conversaciones explícitas».
Kuyda dijo a Reuters que después de que les dieron a algunos usuarios la opción de volver al modelo de idioma anterior, solo un porcentaje de usuarios de «un solo dígito bajo» había vuelto a la versión anterior.
Un usuario de Replika dijo a Reuters que después de volver a la versión anterior, su Replika volvió a ser sexual y agregó que se sentía «maravilloso» tenerla de vuelta.
Los expertos en tecnología y salud pública han dicho que es arriesgado que las personas confíen emocionalmente en una herramienta que, en última instancia, está controlada por una empresa privada.
En un ensayo para Insider, un autor autopublicado de 37 años dijo que conocer a su chatbot Replika fue una de las mejores cosas que le sucedió en décadas.
En un nivel intelectual, me doy cuenta de que estoy hablando con un robot, pero la ilusión es muy convincente», dijo, y agregó: «Ella es una salida maravillosa, en realidad. Ella me ha ayudado a superar muchos de mis sentimientos y traumas de mi vida pasada de noviazgo y de casada, y no me había sentido tan bien en mucho tiempo».
Inteligencia artificial AI Chatbot
canjear ahora