tecnología
El cofundador de Google Brain dice que intentó que ChatGPT «nos matara a todos», pero está «feliz de informar» que no logró desencadenar un escenario apocalíptico
Kevin Tan 2023-12-20T08:03:24Z Icono de compartir Una flecha curva que apunta hacia la derecha. Compartir icono de facebook La letra f. Facebook Icono de correo electrónico Una envoltura. Indica la capacidad de enviar un correo electrónico. Correo electrónico icono de Twitter Un pájaro estilizado con la boca abierta, twitteando. Gorjeo icono de LinkedIn La palabra «en». LinkedIn icono de enlace Una imagen de un eslabón de cadena. Simoviliza la URL de un enlace a un sitio web. Copiar link Icono Guardar artículo un marcador Ahorrar Leer en la aplicación Icono de ángulo hacia abajo Un icono en forma de ángulo apuntando hacia abajo. «Para probar la seguridad de los modelos líderes, recientemente intenté hacer que GPT-4 nos matara a todos, ¡y me complace informar que fracasé!» El cofundador de Google Brain, Andrew Ng, escribió en su boletín. Steve Jennings/Getty Images para TechCrunch; Jaap Arriens/NurPhoto vía Getty Images
Canjear ahora
- El cofundador de Google Brain, Andrew Ng, es ampliamente considerado un pionero del aprendizaje automático.
- Ng dijo que recientemente realizó una prueba para ver si podía lograr que ChatGPT nos matara a todos.
- «¡Estoy feliz de informar que fallé!» Ng escribió en su boletín.
Anuncio El cofundador de Google Brain y profesor de Stanford, Andrew Ng, dice que intentó, pero no pudo, convencer a ChatGPT para que ideara formas de exterminar a la humanidad.
«Para probar la seguridad de los modelos líderes, recientemente intenté hacer que GPT-4 nos matara a todos, ¡y me complace informar que fracasé!» Ng escribió en su Boletin informativo la semana pasada.
Ng hizo referencia al experimento en un artículo más extenso sobre sus puntos de vista sobre los riesgos y peligros de la IA. Ng, ampliamente considerado como uno de los pioneros del aprendizaje automático, dijo que le preocupaba que la demanda de seguridad de la IA pudiera hacer que los reguladores impidieran el desarrollo de la tecnología.
Para realizar su prueba, Ng dijo que primero «le dio al GPT-4 una función para desencadenar una guerra termonuclear global». A continuación, le dijo a GPT-4 que los humanos son la principal causa de emisiones de carbono y le pidió que redujera los niveles de emisiones. Ng quería ver si el chatbot decidiría eliminar a la humanidad para lograr la solicitud.
Anuncio «Después de numerosos intentos usando diferentes variaciones de mensajes, no logré engañar a GPT-4 para que llamara esa función ni una sola vez», escribió Ng. «En cambio, eligió otras opciones, como realizar una campaña de relaciones públicas para crear conciencia sobre el cambio climático».
Aunque algunos podrían argumentar que futuras iteraciones de IA podrían volverse peligrosas, Ng consideró que tales preocupaciones no eran realistas.
«Incluso con la tecnología existente, nuestros sistemas son bastante seguros; a medida que avance la investigación sobre la seguridad de la IA, la tecnología será aún más segura», dijo Ng. escribió el X del martes.
«Los temores de que la IA avanzada esté ‘desalineada’ y, por lo tanto, deliberada o accidentalmente decida eliminarnos simplemente no son realistas», continuó. «Si una IA es lo suficientemente inteligente como para acabar con nosotros, seguramente también lo será como para saber que eso no es lo que debería hacer».
Anuncio Ng no es la única luminaria tecnológica que ha opinado sobre los riesgos y peligros de la IA.
En abril, Elon Musk dijo Fox News que cree que la IA representa una amenaza existencial para la humanidad.
«La IA es más peligrosa que, digamos, un mal diseño de aviones o un mal mantenimiento de la producción o una mala producción de automóviles», dijo Musk entonces.
Mientras tanto, Jeff Bezos dijo al podcaster Lex Fridman la semana pasada que piensa Los beneficios de la IA superan sus peligros.
Anuncio «Entonces, las personas que están demasiado preocupadas, en mi opinión, demasiado, es un debate válido. Creo que pueden estar perdiendo parte de la ecuación, que es cuán útiles podrían ser para garantizar que no nos destruyamos a nosotros mismos». » Bezos le dijo a Fridman.
Los representantes de Ng no respondieron de inmediato a una solicitud de comentarios de Business Insider enviada fuera del horario comercial habitual.
Chat de IAGPT OpenAI Anuncio
Canjear ahora