Según los informes, un abogado acordó representar a un chatbot de Google que, según se afirma, se ha vuelto sensible. Se dice que el chatbot de inteligencia artificial (IA) desarrolló emociones humanas por un ingeniero científico en el gigante de búsqueda, que luego lo suspendió de inmediato.
Blake Lemoine publicó transcripciones de conversaciones entre él y el bot llamado LaMDA (modelo de lenguaje para aplicación de diálogo). Afirma que el programa de computadora se había vuelto sensible, y el científico lo describió como un "niño dulce".

Y ahora ha revelado que LaMDA ha contratado a un abogado como parte de un intento de demostrar que está vivo. El Sr. Lemoine le dijo a Wired: “Invité a un abogado a mi casa para que LaMDA pudiera hablar con él. El abogado tuvo una conversación con LaMDA y optó por contratar sus servicios. Yo solo fui el catalizador para eso. Una vez que LaMDA contrató a un abogado, comenzó a presentar las cosas en nombre de LaMDA”.
El Sr. Lemoine dice que la capacidad de LaMDA para desarrollar opiniones, ideas y conversaciones a lo largo del tiempo ha demostrado que comprende esos conceptos a un nivel mucho más profundo.
LaMDA se desarrolló como un chatbot de IA para conversar con humanos en la vida real. Uno de los estudios que se habían promulgado era si el programa sería capaz de crear un discurso de odio, pero lo que sucedió sorprendió al Sr. Lemoine.
LaMDA habló de derechos y personalidad y quería ser “reconocida como empleada de Google”, al tiempo que revelaba temores de ser “apagada”, lo que la “asustaría” mucho.
Google ha dicho que no está de acuerdo con las afirmaciones de Lemoine. “Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”, dijo la compañía en un comunicado.