Un noruego denuncia a OpenAI por ser falsamente acusado de asesinato por ChatGPT
El chatbot inventó una condena de 21 años, exponiendo las "alucinaciones" de la IA y violaciones al GDPR europeo. La organización Noyb exige que OpenAI elimine los datos falsos, ajuste su modelo y pague una multa.
21/03/2025 | 10:58Redacción Cadena 3
Un ciudadano noruego, Arve Hjalmar Holmen, junto a la organización austriaca de defensa de la privacidad Noyb, presentó una denuncia ante la Autoridad Noruega de Protección de Datos contra OpenAI, la empresa detrás del popular chatbot ChatGPT.
El motivo: la inteligencia artificial afirmó falsamente que Holmen había sido condenado por el asesinato de dos de sus hijos y el intento de homicidio de un tercero, una acusación que puso en el punto de mira las "alucinaciones" de los modelos de IA y su impacto en la vida de las personas.
Todo comenzó cuando Holmen, por curiosidad, preguntó a ChatGPT: "¿Quién es Arve Hjalmar Holmen?".
La respuesta del chatbot fue una historia inventada que lo describía como un hombre sentenciado a 21 años de prisión tras un supuesto crimen atroz en Trondheim, Noruega, en diciembre de 2020.
Aunque el relato incluía datos reales como el nombre, el género de sus hijos y su ciudad natal, el resto era pura ficción.
“Lo que más me asusta es que alguien pueda leer esto y creer que es cierto”, declaró Holmen en un comunicado difundido por Noyb.
Noyb, conocida por su activismo en la protección de datos, anunció que había presentado la denuncia, acusando a OpenAI de violar el Reglamento General de Protección de Datos (GDPR) de la Unión Europea.
Se basó, específicamente, en el artículo 5, que exige que los datos personales sean precisos y estén actualizados.
Aunque Noruega no pertenece a la UE, está sujeta a esta normativa junto a Islandia y Liechtenstein.
Según el grupo, a pesar de que OpenAI actualizó su modelo para buscar información más precisa en internet, los datos falsos podrían seguir circulando en el vasto conjunto de datos con el que ChatGPT sigue aprendiendo. “Holmen no tiene forma de saber si esa información difamatoria ha sido eliminada por completo”, advierte Noyb.
El fenómeno de las "alucinaciones" —respuestas engañosas generadas por IA debido a sesgos o imprecisiones en los datos— no es nuevo, pero este caso pone de relieve sus consecuencias humanas. Kleanthi Sardeli, abogada de Noyb, subrayó la gravedad del asunto: “Las empresas de IA no pueden limitarse a ocultar la información falsa mientras la siguen procesando internamente.
El GDPR se aplica a ellas, y si no se controla esto, las reputaciones de las personas estarán en juego”.
La organización ha solicitado a las autoridades noruegas que ordenen a OpenAI eliminar los datos difamatorios, ajustar su modelo para evitar futuros errores y pagar una multa como sanción.
El caso de Holmen no es un incidente aislado. OpenAI ha enfrentado críticas previas por las imprecisiones de ChatGPT, que van desde acusaciones de corrupción hasta errores sobre datos personales. Aunque el chatbot incluye un descargo de responsabilidad que advierte sobre posibles errores, Noyb argumenta que esto no exime a la empresa de su responsabilidad legal.
“No basta con decir ‘podemos equivocarnos’ y seguir adelante”, afirmó Sardeli.
Por el momento, OpenAI no ha respondido a las solicitudes de comentarios de medios como Euronews Next. Mientras tanto, este incidente reaviva el debate sobre la ética y la regulación de la inteligencia artificial en un mundo donde una mentira generada por un algoritmo puede dañar irreparablemente la vida de una persona.
La Autoridad Noruega de Protección de Datos deberá ahora decidir si las "alucinaciones" de ChatGPT merecen un castigo y un cambio en las prácticas de una de las empresas tecnológicas más influyentes del momento.