lunes, 9 de junio de 2025

Una inteligencia artificial y un cómic malhablado


Imágenes de DC Comics
 

Volvemos con la más reciente alucinación de una IA que, como en el caso pasado de no saber una cita de Shakespeare, es cometida por Gemini.

Decíamos que Google ha instaurado la pésima idea de dar una respuesta de su IA como primer resultado de una búsqueda, aún sabiendo de la cantidad de errores que cometen.

Y de nuevo, no estamos hablando de errores para procesar un problema razonado truculento ni un problema matemático raro: errores en búsquedas simples que su buscador tradicional resuelve perfectamente. En chino, se le dice a esto “dibujarle patas a una víbora” o lo que conocemos como “no arregles lo que no está roto”.

Aquí está la barrabasada:

Si mi lector no es fan de los cómics, permítame explicarle:

La búsqueda fue “Lobo bastich”. Este es Lobo, un personaje de DC, que es un cazarecompensas interplanetario que es extremadamente violento:

La palabra “bastich” es una expresión muy de él, un insulto que usa seguido y que es mezcla de “bastard” y “bitch”. De hecho, la búsqueda normal de Google (la respuesta de abajo) lo explica correctamente.

Por otro lado, la respuesta de Gemini no sólo es incorrecta sino que ni siquiera tiene sentido. Por alguna razón se pone a decir que “bastich” es una representación equivocada o incluso una variación de la palabra “lobo”, o sea que ni siquiera hace la relación con el personaje de DC, como sí lo hace de inmediato la búsqueda normal.

Ya hemos visto anteriormente que estas alucinaciones se pueden deber a una multiplicaidad de causas, desde datos de entrenamiento contaminados ó demasiado comprimidos, hasta ponderaciones de palabras que fallan en casos que requieren de mucho contexto por usar palabras polisémicas (en este caso “lobo”).

Hace un par de días salió un artículo que ha causado revuelo, publicado por los laboratorios de IA de Apple. Se llama The Illusion of Thinking y es bastante técnico, pero en pocas palabras hace un estudio de los límites de lo que llamamos en ciencias computacionales “modelos de racioncinio” (término bastante mal usado). Concluye que las actuales IAs que usan modelos de lenguaje grandes (LLM) no pueden llegar a un proceso de raciocinio como lo entendemos: el deducir cosas a partir de primeros principios. ¿Por qué? Pues porque están creados con (muchísimos) datos de entrenamiento y son buenísimos para reconocer patrones y predecir texto que va de acuerdo a tales patrones, pero...

Sin razonamiento real ni entendimiento real de los contextos (en este caso, la ambiguedad de la palabra “lobo”) es inevitable que sigan teniendo alucinaciones incluso en preguntas muy sencillas.

Así que, por el momento esperemos que más resultados como éste puedan atemperar el hype desbocado que rodea a las IAs en nuestros días, y con un mejor entendimiento podamos moderar nuestras expectativas y claro, identificar las áreas donde realmente son más útiles.




1 comentario:

  1. Un buen ejemplo, donde Alfonso explica por qué no se puede creer en cualquier resultado de la Inteligencia Artificial (IA). Los programas de IA cuelan errores infantiles con autoridad de posdoctorados. El análisis y la lógica en los humanos son doblemente necesarios.

    ResponderEliminar