Un ingeniero de Google fue suspendido de sus funciones tras aseguar que uno de los programas de inteligencia artificial que desarrolla la compañía, logró tener conciencia y la capacidad de tener sentimientos.
El pasado 11 de junio, Blske Lemoine hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google «Modelo de lenguaje para aplicaciones de diálogo» (LaMDA, en sus siglas en inglés) bajo el título «¿Tiene LaMDA sentimientos?».
Cuando le pidió que describiera uno de esos sentimientos, LaMDA contestó: «Siento como que estoy cayendo en un futuro desconocido que conlleva un gran peligro», una frase que el ingeniero subrayó cuando publicó el diálogo.
Después del episodio, Lemoine fue acusado por Google de violar la política de confidencialidad de la compañía, que según el diario The New York Times, resolvió suspenderlo pero sin dejar de pagarle su sueldo.
En un momento de la conversación, LaMDA afirmó que, en ocasiones, experimenta «nuevos sentimientos» que no puede explicar «perfectamente» con el lenguaje humano.
Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que destacaba que tenía pruebas de que Google y su tecnología practican discriminación religiosa.
Google se defendió diciendo que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.
«Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones», dijo Brian Gabriel, portavoz de Google.