– El grupo europeo de defensa de la privacidad noyb está demandando a OpenAI por información inexacta generada por ChatGPT
– ChatGPT todavía tiene problemas al inventar información falsa cuando no tiene una respuesta.
– OpenAI no puede o no solucionará el problema y no puede proporcionar información sobre el origen de los datos.
El grupo europeo de defensa de la privacidad noyb está demandando a OpenAI por imprecisiones generadas por ChatGPT con respecto a la información personal. A pesar de su progreso, ChatGPT todavía tiende a crear información falsa cuando no tiene una respuesta. Una figura pública anónima representada por noyb se molestó cuando ChatGPT proporcionó repetidamente fechas de nacimiento incorrectas, lo que tuvo posibles consecuencias graves.
Según las normas del RGPD en Europa, la información sobre las personas debe ser precisa y puede corregirse o eliminarse previa solicitud. OpenAI, sin embargo, afirma que no puede abordar estos problemas, incluido el origen de los datos o evitar que ChatGPT produzca declaraciones falsas sobre individuos. La empresa reconoce el problema pero no está segura de una solución.
noyb presentó una queja ante la autoridad austriaca de protección de datos, criticando a OpenAI por su incapacidad para evitar que se muestre información inexacta en ChatGPT. Argumentan que simplemente inventar datos no es una opción viable y exigen mejores respuestas de las empresas. El problema de que los modelos de IA generen información falsa se extiende más allá de OpenAI y persistirá hasta que los modelos puedan reconocer la incertidumbre y mejorar la transparencia con respecto a sus datos de entrenamiento.
Los usuarios europeos deben sopesar los beneficios de herramientas como ChatGPT con sus derechos GDPR. Actualmente, no pueden tener confiabilidad y utilidad al mismo tiempo, lo que plantea dudas sobre la responsabilidad de las empresas que desarrollan estos modelos de IA.