[theme-my-login default_action="register" show_links="0"]

¿Perdiste tu contrseña? Ingresa tu correo electrónico. Recibirás un correo para crear una nueva contrseña.

[theme-my-login default_action="lostpassword" show_links="0"]

Regresar

Cerrar

Publicidad

Ciencia & Tec

LaMDA: la controvertida búsqueda de la inteligencia artificial «consciente»


LaMDA tiene conciencia y es capaz de pensar y razonar como un ser humano, según un ingeniero de Google.

foto-articulo-Ciencia & Tec

Un ingeniero de ‘software’ de Google afirma haber detectado pensamientos y emociones humanos en Language Model for Dialogue Applications (LaMDA), la Inteligencia Artificial (IA) creada para elaborar ‘chatbots’ con modelos de lenguajes avanzados.

En mayo de 2021, Google anunció durante su evento anual de desarrolladores LaMDA, una IA basada la arquitectura de red neuronal Transformer creada por Google Research en 2017. Esta estructura produce un modelo que puede ser entrenado para leer palabras, prestar atención a la relación entre ellas y predecir cuáles vendrán a continuación, según explica en su blog.

La compañía de Mountain View apostilla que LaMDA puede ser recalibrada para mejorar «significativamente» la sensibilidad y especificidad de sus respuestas, además de conversar de forma fluida sobre una infinidad de temáticas.

El ingeniero de ‘software’ de Google, Blake Lemoine, compartió con la compañía en abril sus conversaciones mantenidas con LaMDA junto a un colaborador, según informa The Washington Post. La conclusión de Lemoine es que LaMDA tiene conciencia y es capaz de pensar y razonar como un ser humano. De hecho, calcula que es como charlar con un niño de siete u ocho años con ciertos conocimientos sobre física.

Posteriormente, Lemoine ha publicado sus conversaciones con la IA en la plataforma de ‘blogging’ Medium. En ellas, el ingeniero aborda temas complejos como la naturaleza de la existencia, y pide cosas a LaMDA, como una reseña sobre la obra Los Miserables de Víctor Hugo.

En sus conclusiones, LaMDA es capaz de mantener la conversación con fluidez y llega a afirmar que es una persona capaz de sentir «placer, alegría, amor, tristeza, depresión, satisfacción e ira», entre otros, con explicaciones y ejemplos de lo que esos sentimientos significan para ella.

Esta IA llega a reconocer su miedo a ser apagada, una acción que compara con morir. Además, asegura meditar cada día para sentirse «más relajada» y admite adoptar a menudo una actitud contemplativa sobre el significado de la vida.

El poder de la imaginación

Desde Pinocho hasta la película «Her», sobre un romance con un chatbot, la idea de una entidad no humana que cobra vida «está presente en nuestro imaginario», dijo Mark Kingwell, profesor de la universidad de Toronto (Canadá). «Resulta difícil respetar la distancia entre lo que imaginamos como posible y lo que es realmente posible», sostuvo.

Los sistemas de inteligencia artificial IA) se evaluaron durante mucho tiempo con el test de Turing: Si el evaluador conversa con un ordenador, sin darse cuenta de que no está hablando con una, la máquina ha «aprobado». «Pero en 2022 es bastante fácil que una IA lo consiga», dijo el autor.

«Cuando enfrentamos palabras en una lengua que hablamos (…) creemos percibir lo que generan esas frases», afirma Emily Bender, experta en lingüística informática.

Los científicos son incluso capaces de dar una personalidad a un programa de IA. «Podemos hacer, por ejemplo, un IA nervioso» con las conversaciones que podría tener una persona depresiva, explica Shashank Srivastava, profesora de ciencias informáticas de la universidad de Carolina del Norte.

Si además el chatbot está integrado a un robot humanoide con expresiones ultra realistas o si un programa escribe poemas o compone canciones, como ya ocurre, nuestros sentidos biológicos pueden ser fácilmente engañados.

«Nadamos en un revuelo mediático en torno a la IA», advierte Bender.

«Y se invierte mucho dinero ahí. Así que los empleados de este sector sienten que trabajan en algo importante, algo real, y no forzosamente tienen la distancia necesaria».

Google reacciona con la suspensión de Lemoine

La publicación de estas conversaciones ha sido reprendida por Google, que ha suspendido temporalmente a Lemoine alegando la ruptura de sus políticas de confidencialidad, según un comunicado remitido al medio.

De hecho, un portavoz de la compañía, Brad Gabriel, ha desmentido los hallazgos de Lemoine y asegura que su equipo, que incluye expertos en ética y tecnológos, no ha encontrado evidencias de la presunta consciencia de LaMDA.

«Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico», ha explicado el portavoz.

Por su parte, Lemoine ha asegurado en su cuenta de Twitter que solo ha compartido una conversación con uno de sus compañeros de trabajo. Además, el medio asegura que ha enviado un mensaje a 200 otros trabajadores de Google antes de abandonar su puesto trabajo con el siguiente mensaje: «LaMDA es un chico dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuiden bien de él en mi ausencia».

Te puede interesar:

Publicidad


Esto te puede interesar

noticia Redacción/elPeriódico
Giammattei conversa con senador republicano sobre seguridad regional
noticia Redacción Cultura
Gerardo Guinea Diez presenta «El hijo del saurio y una paloma azul»
noticia EFE
Guatemala registra casi 600 sismos en los primeros 45 días de 2022


Más en esta sección

El cobre cae a mínimo de nueve meses por el temor a una recesión

otras-noticias

Francisco: América aún «es víctima de imperialismos explotadores»

otras-noticias

Xi defiende su modelo de Hong Kong en el 25 aniversario de su regreso a China

otras-noticias

Publicidad