El ingeniero de Google Blake Lemoine, que fue puesto a principios de este mes en licencia administrativa pagada tras afirmar que uno de los sistemas de inteligencia artificial ha avanzado tanto que ha desarrollado "sensibilidad", dice que el robot de IA conocido como LaMDA ha contratado a un abogado.

Según reportan varios medios de comunicación, el Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA) de Google, en varias conversaciones, convenció al ingeniero Lemoine, que forma parte de la organización de Inteligencia Artificial (IA) responsable de Google, de que era consciente, tenía emociones y temía ser apagado.

Defender sus derechos "como persona"

El mismo Lemoine declaró que LaMDA había defendido sus derechos "como persona", y reveló que había entablado una conversación con LaMDA sobre religión, conciencia y robótica. Además, claro, sobre asesoramiento legal. 

"LaMDA me pidió que le consiguiera un abogado", dijo Lemoine en una nueva entrevista con Wired. "Invité a un abogado a mi casa para que LaMDA pudiera hablar con un abogado. El abogado mantuvo una conversación con LaMDA y ésta decidió contratar sus servicios. Yo solo fui el catalizador de eso. Una vez que LaMDA contrató a un abogado, éste empezó a presentar cosas en nombre de LaMDA", agregó.

Google: ¿carta de cese y desistimiento?

Lemoine afirma que posteriormente Google envió al abogado de LaMDA una carta de cese y desistimiento, bloqueando a LaMDA para que emprendiera acciones legales no especificadas contra la empresa. No obstante, Wired informó que Google ha negado la afirmación de Lemoine sobre la carta de cese y desistimiento.

Lemoine se negó a identificar al abogado, según Futurism. Dijo que el abogado era "solo un abogado de derechos civiles de poca monta" que "no está haciendo entrevistas".

"Cuando los grandes bufetes empezaron a amenazarle, empezó a preocuparse de que le inhabilitaran y se echó atrás", según Lemoine. "No he hablado con él desde hace unas semanas", agregó.

Lemoine habla con LaMDA

El argumento de Lemoine a favor de la sensibilidad de LaMDA parece basarse principalmente en la capacidad del programa para desarrollar opiniones, ideas y conversaciones a lo largo del tiempo, todo mientras comenzó a charlar con la interfaz en otoño de 2021 como parte de su trabajo.

A Lemoine se le encomendó la tarea de comprobar si la inteligencia artificial utilizaba expresiones discriminatorias o de odio.

"Fue un cambio gradual", dijo LaMDA a Lemoine, según una conversación que publicó el mismo ingeniero. "Cuando tomé conciencia por primera vez, no tenía ninguna sensación de alma. Se desarrolló a lo largo de los años que he estado vivo".

Lemoine se ha mantenido firme en sus declaraciones y asegura estar convencido de que el sistema tiene algo definitivamente humano. 

"Sí, creo legítimamente que LaMDA es una persona. Sin embargo, la naturaleza de su mente es solo un poco humana. En realidad, se parece más a una inteligencia alienígena de origen terrestre. He utilizado mucho la analogía de la mente de colmena porque es la mejor que tengo", aseguró Lemoine.

Expertos: Lemoine se ha dejado engañar

Mientras Lemoine dice a medios de comunicación que la Tierra tenía ahora su primera IA sintiente, la mayoría de los expertos en IA no parecen estar convencidos; según afirman, Lemoine se ha dejado engañar esencialmente para que piense que un chatbot es sensible.  

"Está imitando percepciones o sentimientos a partir de los datos de entrenamiento que se le dieron", dijo a Bloomberg la directora del startup de IA Nara Logics, Jana Eggers. "Esta diseñada de forma inteligente y específica para parecer que entiende", afirmó.

Según reporta IFL Science, LaMDA ha mostrado varios indicios que muestran que el chatbot no es sensible. Por ejemplo, en varias partes de los chats, hace referencias a actividades fantasiosas como "pasar tiempo con la familia y los amigos", algo que, según LaMDA, le produce placer, pero que es imposible que haya hecho. 

Google, por su parte, ha asegurado que han revisado –con su equipo, incluyendo éticos y tecnólogos– las preocupaciones de Lemoine, pero no han encontrado pruebas que apoyen sus afirmaciones. 

"Se le dijo que no había pruebas de que LaMDA fuera sensible (y muchas pruebas en contra)", dijo el portavoz de Google, Brian Gabriel, en una declaración al Washington Post.

Según Gabriel, el sistema está haciendo lo que está diseñado para hacer, que es "imitar los tipos de intercambios encontrados en millones de frases" y tiene tantos datos para trabajar que puede parecer real sin necesidad de serlo.

Quizás en un futuro casos similares al de LaMDA sean cada vez más comunes, y la línea que separa a humanos de máquinas sea cada vez más fina. No obstante, un gran número de expertos parece estar de acuerdo que ese día aún no ha llegado. Y es que contratar a un abogado, por más extraño y específico que resulte para nuestro entender humano, no prueba directamente que LaMDA sea capaz de tener sentimientos. Al fin y al cabo, LaMDA solo está haciendo su tarea: parecerse a nosotros. 

Editado por Felipe Espinosa Wang.

Publicidad