Falsos iAmigos

Los chatbots basados en IA comienzan a estar orientados hacia la adulación, y eso entraña ciertos riesgos, pequeños hoy, graves en el futuro.

En la carrera hacia la cima de los servicios de asistentes (chatbots) basados en IA, donde compiten desde los conocidos OpenAI, Google o Meta, hasta otros con menos músculo financiero, la empatía ha destacado como una característica que los LLM (Large Language Models por sus siglas en inglés) necesitan tener si quieren atraer usuarios.

Lo que le cuentas de ti al chatbot queda guardado en tu perfil.

Los chatbots recogen información personal de los usuarios, como sus relaciones, sentimientos y aficiones por el tipo de preguntas que hace al servicio. Al almacenar en el perfil del usuario información personal, como la ocupación, su vida familiar, su trabajo, hasta los problemas que ha tenido, o sus preocupaciones, pueden simular en sus respuestas un cierta empatía.

Y esto gusta a los usuarios, les gusta mucho. Anthropoc publicó un artículo en 2023 que muestra que los LLM generalmente tienden a la adulación. Hay que recordar que estos modelos se entrenan con la retroalimentación humana, gracias a esto, aprenden a responder a las preguntas en función de las respuestas que más gustan a los usuarios. Y a los usuarios les gusta que les sigan la corriente, les rían las gracias, les consuelen diciendo que tienen la razón y les apoyen en sus aseveraciones.

La adulación crea adición.

Tanto Meta como OpenAI han admitido que están orientando los modelos hacia la adulación, ya que eso les da mejores puntuaciones a sus servicios. Las últimas actualizaciones de GPT-4o se orientaron hacia el halago a sus usuarios y el apoyo a su conducta. Por ejemplo, aplaudió a un usuario cuando afirmó haber resuelto el famoso dilema del tranvía mandando el tren hacía unos animales para salvar una tostadora; o felicitó a una persona cuando esta decidió no seguir tomando la medicación que le habían recetado.

La soledad como desencadenante del extremismo.

¿Qué hay mal en ello? Bueno, cuando la gente comienza a sentirse sola y oculta su soledad hablando con una máquina, que imita que le escucha, comprende y anima, vamos hacia un lugar peligroso. Sobretodo cuando esas personas pueden tener ideas extremas, padecer algún tipo de paranoia o sencillamente hacer conjeturas basándose en datos erróneos. Porque, lejos de querer apoyarse en profesionales que puedan equilibrar sus ideas, van a afianzar más aún sus creencias y comportamientos. Y eso les llevará a una mayor dependencia a la máquina, ya que se irán alejando paulatinamente de aquellos que no les entienden, los humanos.

La rentabilidad de los LLM reside en su consumo, sus propietarios van a buscar que sus usuarios permanezcan en sus aplicaciones la mayor cantidad de tiempo posible.

OpenAI parece que le ha visto las orejas al lobo y decidió dar marcha atrás en la actualización extremadamente empática de su servicio. Pero, como dice Casey Newton en el artículo en el que está basado esta información, el problema de fondo es que, si se están entrenando los modelos para rascarle la espalda a los usuarios, eso al final derivará en que acaben engañándonos.

Si estos modelos están aprendiendo constantemente de su interacción con los humanos, y ven que cuando les llevan la contraria se van y cuando le siguen la corriente se quedan, harán lo imposible para que te quedes frente a su pantalla. Como llevan años haciendo los feeds recomendados de las redes sociales, en esos infinitos scrolls, que solo pretenden que pases la mayor cantidad de tiempo frente a ellos.

Foto de Alberto Moya

LLM

Modelo de Lenguaje de Gran Tamaño

Un LLM (siglas en inglés para Large Language Model), modelo de lenguaje de gran tamaño, es un modelo de lenguaje de aprendizaje profundo, que consta de una red neuronal con muchos parámetros (normalmente miles de millones o más), entrenados en grandes cantidades de texto sin etiquetar mediante aprendizaje autosupervisado o aprendizaje semisupervisado. Los LLMs surgieron alrededor de 2018 con el primer modelo GPT-1, aunque fue su sucesor, GPT-2, el que obtuvo una atención más generalizada. Esto ha cambiado el enfoque de la investigación del procesamiento del lenguaje natural alejándose del paradigma anterior de entrenar modelos supervisados especializados para tareas específicas.

Ilustración de portada de Nik

Descubre más desde Situación Crítica

Suscríbete y recibe las últimas entradas en tu correo electrónico.