Reguladores canadienses señalan a OpenAI por manejo inapropiado de datos personales
Foto Internet
Jueves 07 de Mayo de 2026 12:09 pm
+ -Una investigación liderada por el comisionado de privacidad de Canadá concluye que OpenAI vulneró leyes de transparencia y precisión, mientras la empresa enfrenta demandas por no alertar sobre el uso de ChatGPT en un tiroteo masivo.
El comisionado federal de privacidad de Canadá, Philippe Dufresne, determinó que OpenAI no cumplió con los estándares de transparencia y consentimiento necesarios para el entrenamiento de ChatGPT. De acuerdo con las autoridades, la compañía recolectó información personal de forma excesiva e inapropiada, poniendo a prueba los límites de las legislaciones actuales. La investigación destaca que la empresa carece de mecanismos efectivos para que los usuarios puedan corregir o eliminar sus datos una vez integrados en los modelos de lenguaje, una limitación que la tecnológica justifica como un desafío técnico aún no resuelto.
Paralelamente a estos hallazgos regulatorios, la compañía
enfrenta un escenario legal crítico en Estados Unidos. Siete demandas han sido
interpuestas en representación de familias víctimas de un tiroteo ocurrido en
la comunidad canadiense de Tumbler Ridge en febrero. Los demandantes alegan que
OpenAI detectó un uso perturbador en la cuenta de la atacante, Jesse Van
Rootselaar, pero decidió no informar a las autoridades para evitar el
precedente de tener que reportar miles de casos similares.
Ante la gravedad de los señalamientos, el director
ejecutivo de OpenAI, Sam Altman, ofreció disculpas públicas a la comunidad
afectada por la omisión de alertas tempranas. Aunque la empresa ha introducido
cambios en sus políticas de protección de datos y herramientas de seguridad
desde el lanzamiento del chatbot, los reguladores insisten en que persisten
fallas críticas en la precisión de la información generada sobre individuos
específicos y en la rendición de cuentas sobre la información bajo su control.
OpenAI ha manifestado su discrepancia general con las
conclusiones de la investigación canadiense, pero asegura que mantendrá la
colaboración con las oficinas gubernamentales para resolver las deficiencias
señaladas. Por ahora, el caso se mantiene como un referente sobre los riesgos
de privacidad y la responsabilidad social de los gigantes de la inteligencia
artificial frente a comportamientos de riesgo detectados en sus plataformas.
