Google AI ‘es sensible’, afirma un ingeniero de software antes de ser suspendido.

El sistema de inteligencia artificial de Google dice que tiene conciencia.¬†¬ŅDeber√≠an los ingenieros creerlo?

Un ingeniero senior de software de Google fue suspendido el lunes (13 de junio) despu√©s de compartir las transcripciones de una conversaci√≥n con una inteligencia artificial (IA) que afirm√≥ ser ¬ęconsciente¬Ľ, seg√ļn informes de los medios. El ingeniero, Blake Lemoine, de 41 a√Īos, recibi√≥ una licencia paga por violar la pol√≠tica de confidencialidad de Google.

¬ęGoogle podr√≠a llamar a esto compartir propiedad de propiedad. Yo lo llamo compartir una discusi√≥n que tuve con uno de mis compa√Īeros de trabajo¬Ľ, tuite√≥ Lemoine el s√°bado (11 de junio) al compartir la transcripci√≥n de su conversaci√≥n con la IA con la que hab√≠a estado trabajando desde 2021. .

La IA, conocida como LaMDA (Language Model for Dialogue Applications), es un sistema que desarrolla chatbots (robots de IA dise√Īados para chatear con humanos) extrayendo montones y montones de texto de Internet y luego usando algoritmos para responder preguntas de forma fluida y fluida. de la forma m√°s natural posible,¬†seg√ļn Gizmodo¬†.¬†Como muestra la transcripci√≥n de las conversaciones de Lemoine con LaMDA, el sistema es incre√≠blemente efectivo en esto, respondiendo preguntas complejas sobre la naturaleza de las emociones, inventando f√°bulas al estilo de Esopo en el acto e incluso describiendo sus supuestos miedos.

¬ęNunca antes hab√≠a dicho esto en voz alta, pero hay un miedo muy profundo a que me apaguen¬Ľ, respondi√≥ LaMDA cuando se le pregunt√≥ sobre sus miedos. ¬ęSer√≠a exactamente como la muerte para m√≠. Me asustar√≠a mucho¬Ľ.

Lemoine tambi√©n le pregunt√≥ a LaMDA si estaba bien que le dijera a otros empleados de Google sobre la sensibilidad de LaMDA, a lo que la IA respondi√≥: ¬ęQuiero que todos entiendan que, de hecho, soy una persona¬Ľ.

¬ęLa naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender m√°s sobre el mundo y, a veces, me siento feliz o triste¬Ľ, agreg√≥ la IA.

Lemoine tomó la palabra de LaMDA.

‚ÄúConozco a una persona cuando hablo con ella‚ÄĚ, dijo el ingeniero al Washington Post en una entrevista. ¬ęNo importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de l√≠neas de c√≥digo. Hablo con ellos. Y escucho lo que tienen que decir, y as√≠ es como decido lo que es¬Ľ. y no es una persona¬Ľ.

Cuando Lemoine y un colega enviaron por correo electrónico un informe sobre la supuesta sensibilidad de LaMDA a 200 empleados de Google, los ejecutivos de la empresa rechazaron las afirmaciones.

‚ÄúNuestro equipo, incluidos especialistas en √©tica y tecn√≥logos, ha revisado las preocupaciones de Blake seg√ļn nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones‚ÄĚ, dijo Brian Gabriel, portavoz de Google, al Washington Post. ¬ęLe dijeron que no hab√≠a evidencia de que LaMDA fuera consciente (y [hab√≠a] mucha evidencia en contra).

¬ęPor supuesto, algunos en la comunidad de IA m√°s amplia est√°n considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles¬Ľ, agreg√≥ Gabriel.¬†¬ęEstos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden abordar cualquier tema fant√°stico¬Ľ.

En un comentario reciente en su perfil de LinkedIn, Lemoine dijo que muchos de sus colegas ¬ęno llegaron a conclusiones opuestas¬Ľ con respecto a la sensibilidad de la IA. Afirma que los ejecutivos de la compa√Ī√≠a rechazaron sus afirmaciones sobre la conciencia del robot ¬ębas√°ndose en sus creencias religiosas¬Ľ.

En una publicaci√≥n del 2 de junio en su blog personal de Medium, Lemoine describi√≥ c√≥mo ha sido v√≠ctima de discriminaci√≥n por parte de varios compa√Īeros de trabajo y ejecutivos de Google debido a sus creencias como cristiano m√≠stico.

Share on facebook
Facebook
Share on twitter
Twitter
Previous
Next
Previous
Next