Durante una reunión de la Clase 6.C40/24.C40 (Ética de la computación), el profesor Armando Solar-Lezama plantea la misma pregunta imposible para sus alumnos que a menudo se pregunta en la investigación que dirige con el grupo de programación asistida por computadora en el MIT:
«¿Cómo nos aseguramos de que una máquina haga lo que queremos y solo lo que queremos?»
En este momento, lo que algunos consideran la edad de oro de la IA generativa, esto puede parecer una nueva pregunta urgente. Pero Solar-Lezama, el distinguido profesor de informática en el MIT, se apresura a señalar que esta lucha es tan antigua como la propia humanidad.
Comienza a volver a contar el mito griego del Rey Midas, el monarca al que se le otorgó el poder divino para transformar cualquier cosa que tocara en el oro sólido. Como era de esperar, el deseo fracasó cuando Midas accidentalmente convirtió a todos los que amaba en piedra dorada.
«Tenga cuidado con lo que pides porque podría otorgarse de una manera que no espere», dice, advirtiendo a sus alumnos, muchos de ellos aspirantes a matemáticos y programadores.
Cavando en los archivos del MIT para compartir diapositivas de fotografías granuladas en blanco y negro, narra la historia de la programación. Escuchamos sobre la máquina Pygmalion de la década de 1970 que requirió señales increíblemente detalladas, para el software informático de finales de los 90 que llevó a los equipos de los años de ingenieros y un documento de 800 páginas para programar.
Si bien es notable en su tiempo, estos procesos tardaron demasiado en llegar a los usuarios. No dejaron espacio para el descubrimiento espontáneo, el juego e innovación.
Solar-Lezama habla sobre los riesgos de construir máquinas modernas que no siempre respetan las señales de un programador o las líneas rojas, y que son igualmente capaces de exigir daño como salvar vidas.
Titus Roesler, un senior que se especializa en ingeniería eléctrica, asiente a sabiendas. Roesler está escribiendo su documento final sobre la ética de los vehículos autónomos y el peso de quién es moralmente responsable cuando uno golpea y mata hipotéticamente a un peatón. Su argumento cuestiona los supuestos subyacentes detrás de los avances técnicos y considera múltiples puntos de vista válidos. Se apoya en la teoría de la filosofía del utilitarismo. Roesler explica: «Según el utilitarismo, lo moral que debe hacer provoca lo más bueno para el mayor número de personas».
El filósofo del MIT Brad Skow, con quien Solar-Lezama se desarrolló y está enseñando en equipo el curso, se inclina hacia adelante y toma notas.
Una clase que exige experiencia técnica y filosófica
La ética de la computación, ofrecida por primera vez en el otoño de 2024, se creó a través del terreno común para la educación informática, una iniciativa de la Facultad de Computación del MIT Schwarzman que reúne a múltiples departamentos para desarrollar y enseñar nuevos cursos y lanzar nuevos programas que combinen la computación. con otras disciplinas.
Los instructores alternan los días de conferencia. Skow, el profesor de filosofía de Laurance S. Rockefeller, trae la lente de su disciplina para examinar las implicaciones más amplias de los problemas éticos de hoy, mientras que Solar-Lezama, quien también es director asociado y director de operaciones del Laboratorio de Informática e Inteligencia Artificial del MIT. perspectiva a través de la suya.
Skow y Solar-Lezama asisten a las conferencias de los demás y ajustan sus sesiones de clase de seguimiento en respuesta. La introducción del elemento del aprendizaje entre sí en tiempo real ha hecho conversaciones de clase más dinámicas y receptivas. Una recitación para desglosar el tema de la semana con estudiantes graduados de filosofía o informática y una discusión animada combina el contenido del curso.
«Un extraño podría pensar que esta será una clase que se asegurará de que estos nuevos programadores de computadoras que MIT siempre hagan lo correcto», dice Skow. Sin embargo, la clase está diseñada intencionalmente para enseñar a los estudiantes un conjunto de habilidades diferentes.
Decidido a crear un curso impactante de un semestre que hizo más que darles a los estudiantes sobre lo correcto o lo incorrecto, el profesor de filosofía Caspar Hare concibió la idea de la ética de la informática en su papel como decano asociado de las responsabilidades sociales y éticas de la informática. Hare reclutó a Skow y Solar-Lezama como instructores principales, ya que sabía que podían hacer algo más profundo que eso.
«Pensar profundamente sobre las preguntas que surgen en esta clase requieren experiencia técnica y filosófica. No hay otras clases en el MIT que colocen tanto al lado», dice Skow.
Eso es exactamente lo que Drew Senior Alek Wallover para inscribirse. El doble importante de matemáticas y ciencias de la computación explica: «Mucha gente está hablando de cómo se verá la trayectoria de la IA en cinco años. Pensé que era importante tomar una clase que me ayudará a pensar más en eso».
Westover dice que se siente atraído por la filosofía debido a un interés en la ética y al deseo de distinguir lo correcto de lo incorrecto. En las clases de matemáticas, ha aprendido a escribir una declaración del problema y recibir una claridad instantánea sobre si lo ha resuelto con éxito o no. Sin embargo, en la ética de la informática, ha aprendido cómo hacer argumentos escritos para «preguntas filosóficas complicadas» que pueden no tener una respuesta correcta única.
Por ejemplo, «un problema del que podríamos preocuparnos es, ¿qué sucede si construimos poderosos agentes de IA que pueden hacer cualquier trabajo que un humano pueda hacer?» Westover pregunta. «Si estamos interactuando con estos AIS en ese grado, ¿deberíamos pagarles un salario? ¿Cuánto debemos preocuparnos por lo que quieren?»
No hay una respuesta fácil, y Westover asume que encontrará muchos otros dilemas en el lugar de trabajo en el futuro.
«Entonces, ¿Internet está destruyendo el mundo?»
El semestre comenzó con una profunda inmersión en el riesgo de IA, o la noción de «si la IA presenta un riesgo existencial para la humanidad», desempaquetando el libre albedrío, la ciencia de cómo nuestros cerebros toman decisiones bajo incertidumbre y debates sobre las responsabilidades a largo plazo, y regulación de AI. Una segunda unidad más larga se centró en «Internet, la World Wide Web y el impacto social de las decisiones técnicas». El final del término analiza la privacidad, el sesgo y la libertad de expresión.
Un tema de clase se dedicó a preguntar provocativamente: «Entonces, ¿Internet está destruyendo el mundo?»
Senior Caitlin Ogoe se está especializando en el curso 6-9 (cálculo y cognición). Estar en un entorno en el que pueda examinar este tipo de problemas es precisamente por qué la autodenomitada «tecnología escéptica» inscrita en el curso.
Al crecer con una madre que tiene discapacidad auditiva y una hermana pequeña con una discapacidad del desarrollo, Ogoe se convirtió en el miembro predeterminado de la familia cuyo papel era llamar a los proveedores de soporte técnico o iPhones de programas. Ella aprovechó sus habilidades en un trabajo a tiempo parcial arreglando teléfonos celulares, lo que allanó el camino para que ella desarrollara un profundo interés en el cálculo y un camino hacia el MIT. Sin embargo, una prestigiosa comunión de verano en su primer año le hizo preguntas la ética detrás de cómo los consumidores se vieron afectados por la tecnología que estaba ayudando a programar.
«Todo lo que he hecho con la tecnología es desde la perspectiva de las personas, la educación y la conexión personal», dice Ogoe. «Este es un nicho que me encanta. Tomar clases de humanidades en torno a la política pública, la tecnología y la cultura es una de mis grandes pasiones, pero este es el primer curso que he tomado que también involucra a un profesor de filosofía».
La semana siguiente, Skow da conferencias sobre el papel del sesgo en la IA, y Ogoe, que ingresa a la fuerza laboral el próximo año, pero planea asistir a la facultad de derecho para concentrarse en regular los problemas relacionados, plantea la mano para hacer preguntas o compartir contrapuntos cuatro veces. .
Skow profundiza en el examen de Compas, un controvertido software de IA que utiliza un algoritmo para predecir la probabilidad de que las personas acusadas de crímenes se vuelvan a ofender. Según un artículo de ProPublica 2018, las compas probablemente marcaran a los acusados negros como futuros delincuentes y dieron falsos positivos al doble de la tasa como lo hizo con los acusados blancos.
La sesión de clase se dedica a determinar si el artículo garantiza la conclusión de que el sistema Compas está sesgado y debe suspenderse. Para hacerlo, Skow presenta dos teorías diferentes sobre la justicia:
«La justicia sustantiva es la idea de que un resultado particular podría ser justo o injusto», explica. «La equidad procesal se trata de si el procedimiento por el cual se produce un resultado es justo». Luego se introducen una variedad de criterios conflictivos de equidad, y la clase discute que fueron plausibles, y qué conclusiones justificaron sobre el sistema de compas.
Más tarde, los dos profesores suben a la oficina de Solar-Lezama para informar sobre cómo había ido el ejercicio ese día.
«¿Quién sabe?» dice Solar-Lezama. «Tal vez dentro de cinco años, todos se reirán de cómo las personas estaban preocupadas por el riesgo existencial de la IA. Pero uno de los temas que veo atravesar esta clase es aprender a abordar estos debates más allá del discurso de los medios y llegar al fondo de pensar rigurosamente sobre estos problemas «.