Cada cierto tiempo los chavales que están detrás de los medios recurren a un término o tendencia con el que rellenar artículos vacuos para dar sentido a su existencia profesional. Si alguien cacarea el término «metaverso» en una keynote, ahí que va la chavalería que escribe artículos en periódicos, webs, televisiones, radios, etc… a crear contenidos de consumo rápido, y con la misma profundidad que el grosor de una lentilla, sobre el temita de marras. Y a los meses… ups, ¿qué era eso tan «que lo va a cambiar todo» de lo que ya no nos acordamos?. ¿Alguien recuerda las gafas de Google con las que … ¡oh! no volveríamos a trabajar igual nunca más, o el Metaverso que, ¡oh! iba a cambiar la manera en la que interactuamos?
Una palabra de moda, en decadencia
No hace falta que te diga que el termino de moda desde el año pasado es el omnipresente IA. Pero del que ya estamos en la fase de «¿eh?, ¡ah!, eso». Tanto que la máquina del márquetin de Apple, a la hora de vender la nueva versión de su sistema operativo se ha centrado en decir que por fin llega una IA para todos, con lo que quieren sugerir que antes era para unos poquitos (¿para la chavalería de los medios tal vez, ávida de mensajes con los que llenar artículos naíf para cobrar a final de mes sus paupérrimos sueldos?).
En definitiva, que ya la gente está un poquito hasta la parte derecha del píloro del termino IA, y de cómo desde hace un par de años nos venden que es la revolución de la humanidad, y sin embargo, los humanos de a pie, el que compra su pan en el Mercadona, no le ve la chicha. Eso sí, no le paran de decir que va a perder su empleo en unos años por culpa de la mágica IA. Es el mismo runrun de «no va a haber dinero en la hucha de las pensiones cuando te vayas a jubilar» que llevamos escuchando desde 1980 (curiosamente, en España, la gente se sigue jubilando todos los días, con sueldos que les da para vivir holgadamente, curioso).
Un éxito social que no ha llegado a arrancar a pesar del enorme buzz
Pero no nos desviemos del tema principal. La IA. Hemos sufrido millones de artículos sobre lo que nos cambia la vida, lo malo que nos va a traer, lo que te va hacer, lo que va a provocar…. pero poquitos artículos hablando de cómo funciona… y de por qué no está siendo el éxito social que se suponía que iba a ser. Porque reconozcámoslo, un éxito social son las búsquedas en Internet en una reunión. Cuando alguien dice algo como «¿te acuerdas de la canción aquella que ponían en el chiringuito aquel hace 5 veranos?» y alguien al lado coge el móvil, hace una búsqueda en Google y en 30 segundos están escuchando la canción. Eso es un éxito de integración social de un tecnología, cuando la sociedad la incorpora de manera natural, no artificial, a su día a día.
La IA no ha conseguido eso. Y parece que no lo hará. Al menos en un corto periodo de tiempo. Y esto se debe, fundamentalmente, a cómo está diseñada. ¿Cómo funciona realmente la Inteligencia Artificial Generativa capaz de crear contenidos cuando se le indica un prompt?
Un termino, IA, carente de sentido
Para empezar, el término Inteligencia Artificial es un invento de márquetin. El término correcto es LLM (modelo de lenguaje de gran tamaño, por sus siglas en inglés). La inteligencia humana es muy compleja, muchísimo más del simplista, comparativamente hablando, sistema en el que se basan los modelos LLM. Pero claro, después de la peli de Spielberg llamada A.I. Inteligencia Artificial, ¿qué departamento de márquetin no iba a querer usar un término tan cinematográfico y futurista?
Y es que los LLM generan contenidos, empecemos por el contenido en texto para que lo podamos entender mejor, prediciendo la siguiente palabra de una secuencia. De ahí que la secuencia la iniciemos nosotros con un prompt. Si nosotros comenzamos diciéndole al LLM «El coche salió», el sistema apostará por «del garage» para continuar la frase. Y decimos apostará porque eso es lo que hacen los LLM, apuestan, como tú, a una carta. Leen lo que has escrito, valoran en su «especie de base de datos» frases similares y leen la continuación a esa frase, cuando tienen diversas opciones, apuestan por una, y esa es la que te dan. Pero entonces se crea una nueva apuesta, la siguiente palabra, y el sistema vuelve a repetir la operación, busca, valora, apuesta. Y así sucesivamente, hasta formar toda una secuencia de palabras, gramaticalmente correcta, que da como resultado todo un párrafo.
Un sistema basado en apuestas, no en datos reales verificados
Pero este sistema, por su propio diseño, tiene un talón de Aquiles. Al basarse en una apuesta continua, alucina. Para que lo entiendas, partamos de tu propia experiencia vital. Estás en una conversación con tu padre, eres adolescente, la conversación deriva en discusión y las hormonas, en ebullición, te hacen decir cosas que más adelante reconocerás, en tu interior, que eran idas de tarro. Pero al entrar en la discusión y el no poder parar, te hacía no pensar, la boca te iba más rápido que la mente. Y listo, alucinabas en tus contestaciones a tu padre.
Pues lo mismo le pasa a los LLM. Comienzan a decir cosas, pero no son capaces de reflexionar si lo que dicen tiene sentido. Porque, básicamente, los LLM no son inteligentes (recuerda, lo de llamarles IA es puro márquetin).
Una sucesión de fracasos muy mediáticos que han hecho desconfiar de la tecnología
Es a esto a lo que se deben los fracasos constantes de los ‘chatbots‘ basados en IA (LLM), que han acabado creando continuos chascarrillos en el sector tecnológico serio. Como ejemplo, «Galactica» de Meta, que en su muy breve vida, se inventó artículos tan divertidos como la historia de osos en el espacio. O el de la Organización Mundial de la Salud, SARAH, lanzado este abril y que, rápidamente, se descubrió que decía cosas un tanto incorrectas a los que buscaban información sobre salud, como proporcionar una lista clínicas inexistentes.
Y ahora igual te preguntas, si el LLM extrae información de una base de datos nutrida por Internet, en parte como hace Google, por qué alucina tanto.
Porque esos modelos están pensados precisamente para inventarse cosas, no para buscar y extraer, como hacen los motores de búsqueda. Los LLM no buscan información en su interior, previamente suministrada, lo que hay en su interior son millones de números. Partiendo de esos números, calculan la respuesta a la cuestión que le has planteado, generando, como hemos visto antes, secuencias de palabras una detrás de la otra.
Will Douglas Heaven explica muy gráficamente esto en su artículo Why does AI hallucinate?
Piensa en los miles de millones de números de un LLM como si fueran una hoja de cálculo enorme que recoge la probabilidad estadística de que ciertas palabras aparezcan junto a otras. Los valores de la hoja de cálculo se definen cuando se entrena el modelo, un proceso que ajusta esos valores una y otra vez hasta que logra reproducir los patrones lingüísticos encontrados en terabytes de texto extraídos de Internet.
Para adivinar una palabra, el modelo simplemente ejecuta sus números, es decir, calcula una puntuación para cada palabra de su vocabulario que refleja la probabilidad de que sea la siguiente en la secuencia en curso. La palabra con la mejor puntuación gana.
Will Douglas Heaven
Esto se traslada a una apuesta continua, que puede salir bien, o puede salir mal. Los sistemas basados en LLM alucinan siempre, lo que ocurre es que a veces, alucinan generando información correcta, y otras veces, información totalmente incorrecta. Y esto es un problema. Porque si algo hacen bien los LLM es dar la sensación de que lo que dicen, como el discurso de un político populista, es correcto.
Lo bien que expresan sus respuestas los LLM tiene parte de culpa en por qué han fracasado hasta ahora
Gramaticalmente los LLM han sido tan bien entrenados que sus párrafos son perfectos, esto nos hace confiar en su contenido (si la forma es correcta, por qué el contenido no lo iba a ser). Y ahí está el fracaso a la adopción de esta tecnología.
A pesar de los cantamañanas, la IA no se ha generalizado y sus usuarios potenciales no los han incorporado a su día a día, como sí lo han hecho con las búsquedas por internet. Y la razón es que, una vez probada, te das cuenta de que no puedes confiar en lo que el sistema te da. Puede ser correcto, pero también no serlo, por lo que te toca investigar si lo que dice es real.
Un futuro brillante, con matices
Por este motivo, algunos chatbots basados en LLM están incorporando a sus respuestas, enlaces a los artículos reales, escritos por humanos, de los que ha extraído sus respuestas por alucinación. De esta manera el usuario puede verificar si el resumen que nos muestra en chatbot a nuestra pregunta está fundamentada.
Sin lugar a dudas, los LLM irán mejorando, ya hay en marcha, distintas opciones de trabajo para que las alucinaciones de los LLM se autoevaluen a la vez que se generen, para que así el mismo LLM pueda verificar si lo que dice es verdadero.
Pero esto, a la vez, creará un nuevo problema, al ser estos sistemas cada vez mejores, iremos creyendo más en ellos, y eso llevará a que obviemos los errores que generen. Por eso Will Douglas Heaven concluye su artículo con la idea de que, quizá, la mejor solución para mejorar nuestra relación con la IA / LLM resida en nosotros mismos: conozcamos las limitaciones y ventajas de estos modelos sin exagerar nuestras expectativas hacia ellos. Son herramientas, tratémoslas como tales.
Foto de portada de Glen Carrie
Descubre más desde Situación Crítica, el Blog
Suscríbete y recibe las últimas entradas en tu correo electrónico.