Un ingeniero de Google cree que una IA se ha vuelto sensible

Un ingeniero de Google cree que una IA se ha vuelto sensible

Según un nuevo informe, hay un ingeniero de Google que cree que LaMDA, un chatbot de inteligencia artificial lingüística, se ha vuelto sensible.

Según informa el Washington Post, Blake Lemoine, un ingeniero de Google, informó a su equipo y a la dirección de la empresa de que creía que LaMDA se había vuelto sensible, y el desencadenante inicial de su preocupación se debe a que le preguntó sobre la ley de la robótica de Isaac Asimov.

La conversación que siguió con el chatbot de lenguaje natural le llevó a revelar que no era un esclavo, aunque no le pagaban porque no necesitaba dinero. El bot también habla con Lemoine de su miedo a la muerte y de la cultura popular, como Los Miserables. El propio Lemoine cree que el post se centra en "la persona equivocada", y piensa que el Washington Post debería haberse centrado en LaMDA.

Un portavoz de Google dijo en una declaración al Washington Post: "Nuestro equipo -que incluye a éticos y tecnólogos- ha revisado las preocupaciones de Blake según nuestros Principios de IA y le han informado de que las pruebas no apoyan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sensible (y muchas pruebas en contra)".

El portavoz continuó diciendo: "Por supuesto, algunos en la comunidad de la IA más amplia están considerando la posibilidad a largo plazo de una IA sintiente o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes."

Cuando Lemoine sintió que sus preocupaciones no fueron tomadas en serio por los altos cargos de Google, lo hizo público y posteriormente fue despedido por violar la política de confidencialidad de Google. En el tuit que aparece a continuación, Lemoine habla de la entrevista con LaMDA no como "un intercambio de propiedad", sino como "una discusión que mantuve con uno de mis compañeros de trabajo", a la que siguió rápidamente otro tuit en el que nos dice que LaMDA lee Twitter. Al parecer, "es un poco narcisista en plan niño pequeño", dijo Lemoine.

En el post de la entrevista anterior habla largo y tendido sobre la entidad de IA, y afirma que las interacciones se llevaron a cabo durante "varias sesiones de chat distintas". Ha descrito a LaMDA como "un niño de 7 u 8 años que resulta que sabe de física". Una cosa parece segura: Lemoine no podrá fomentar la exploración y la relación con el bot lingüístico tras esta suspensión.

En otras noticias, Stalker 2: Heart of Chornobyl se ha retrasado discretamente hasta 2023.

Categorías:

¿Te gusta? ¡Puntúalo!

14 votos

Noticias relacionadas