Cuando la IA alucina: el peligro de confiar ciegamente en las máquinas
21/03/2025 | 17:04Redacción Cadena 3

Imagina despertar un día y descubrir que una inteligencia artificial ha decidido que sos un asesino convicto.
No hay pruebas, no hay juicio, solo una historia inventada que se propaga como verdad.
Esto le ocurrió a Arve Hjalmar Holmen, un noruego cuya vida fue puesta patas arriba cuando ChatGPT, el popular chatbot de OpenAI, lo acusó falsamente de matar a dos de sus hijos y lo "condenó" a 21 años de prisión.
/Inicio Código Embebido/
Alucinaciones de la IA. Un noruego denuncia a OpenAI por ser falsamente acusado de asesinato por ChatGPT
El chatbot inventó una condena de 21 años, exponiendo las "alucinaciones" de la IA y violaciones al GDPR europeo. La organización Noyb exige que OpenAI elimine los datos falsos, ajuste su modelo y pague una multa.
/Fin Código Embebido/
Lo que parece una anécdota sacada de una distopía es, en realidad, una advertencia urgente: la IA, con todo su potencial, puede convertirse en un arma de doble filo si no la controlamos.
El caso de Holmen no es un error aislado. La organización austriaca Noyb, que defiende la privacidad, ha llevado esta "alucinación" de ChatGPT a las autoridades noruegas, alegando que OpenAI viola el GDPR al procesar datos personales imprecisos.
Aunque la empresa dice que ajustó su modelo tras el incidente, los datos falsos podrían seguir circulando en su vasto cerebro digital, fuera del alcance o control de la víctima.
¿Cuántas reputaciones más serán destrozadas antes de que tomemos en serio los riesgos de estas tecnologías?
Las "alucinaciones" de la IA —término que suena casi poético pero que esconde un problema grave— no son nuevas.
Desde acusaciones de corrupción hasta fechas y hechos inventados, los modelos como ChatGPT, entrenados con océanos de datos sin filtrar del todo, a veces generan ficciones convincentes.
Pero cuando esas ficciones señalan a personas reales, el daño no es hipotético: es personal, inmediato y, en muchos casos, irreparable.
Holmen tuvo suerte de que Noyb tomara su caso, pero ¿qué pasa con quienes no tienen recursos para defenderse?
La fe ciega en la IA tiene un costo. Empresas como OpenAI, deslumbradas por su propia innovación, parecen operar bajo la premisa de que un descargo de responsabilidad basta para lavar sus manos.
Sin embargo, el GDPR y el sentido común dicen lo contrario: quienes manejan datos tienen la responsabilidad de garantizar su veracidad.
Y no es solo un tema legal; es ético. En un mundo donde la información viaja a la velocidad de un clic, una mentira generada por un algoritmo puede arruinar vidas antes de que la verdad tenga tiempo de ponerse los zapatos.
No se trata de demonizar la IA, que tiene el poder de transformar la medicina, la educación y más.
Se trata de exigir transparencia y rendición de cuentas. Si un modelo puede "aprender" a mentir sobre Holmen, ¿qué nos asegura que no inventará historias sobre cualquiera de nosotros?
La denuncia de Noyb pide multas y correcciones, pero necesitamos más: regulaciones globales estrictas, auditorías independientes y un debate público que deje de tratar a la IA como un dios infalible.