Semana 4: Marcos regulatorios, derechos fundamentales y desafíos en IA
Microcredencial en Inteligencia Artificial y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología
Febrero 2026
Contenidos de la sesión
Convergencia de regulación, tecnología y enforcement (2026)
Febrero 2026 marca un punto de inflexión: €100+ millones en multas ignoradas por una sola empresa de reconocimiento facial, el primer framework de IA completo del mundo (EU AI Act) en plena vigencia, y Costa Rica como pionero centroamericano con su Estrategia Nacional de IA mientras su Ley 8968 permanece significativamente desactualizada.
La protección de datos personales en sistemas de IA representa uno de los desafíos regulatorios más complejos de nuestra era. La convergencia de machine learning con datos personales masivos crea tensiones fundamentales entre innovación tecnológica y derechos fundamentales.
Nuevas directrices y propuestas de reforma
Primera guía comprehensiva sobre aplicación del GDPR al desarrollo de sistemas de IA: definición de propósitos para IA de propósito general, bases legales (interés legítimo como la más común), minimización de datos aplicada a conjuntos masivos de entrenamiento, y tratamiento legal de modelos de IA como potenciales datos personales.
Los LLMs raramente alcanzan estándares de anonimización. Los controladores que despliegan LLMs de terceros deben conducir evaluaciones comprehensivas de interés legítimo. Los modelos de IA entrenados con datos personales deben considerarse sujetos al GDPR en la mayoría de casos.
Reforma significativa con implementación proyectada para 2031: expansión de exenciones de ROPAs para organizaciones hasta 750 empleados, estandarización de banners de cookies con rechazo de un clic, y clarificación explícita permitiendo uso de interés legítimo para procesamiento relacionado con IA.
La consulta pública sobre Digital Omnibus cierra el 11 de marzo de 2026. Esta es la reforma más significativa del GDPR desde su entrada en vigor en 2018.
Casos relevantes para IA y protección de datos
| Empresa | Multa | Autoridad | Fecha | Violación |
|---|---|---|---|---|
| TikTok | €530M | DPC Irlanda | Mayo 2025 | Transferencias ilegales de datos de usuarios EEA a China |
| €310M | DPC Irlanda | Octubre 2024 | Análisis conductual y publicidad dirigida sin base legal | |
| OpenAI/ChatGPT | €15M | Garante Italia | Diciembre 2024 | Procesamiento sin base legal, fallas de transparencia, verificación de edad |
| Clearview AI | €30.5M | AP Países Bajos | Septiembre 2024 | Base de datos ilegal de biométricos, procesamiento sin consentimiento |
| Meta | €251M | DPC Irlanda | 2024 | Brecha de seguridad "View As" afectando 29 millones de usuarios |
Clearview AI ha acumulado más de €100 millones en multas europeas combinadas (Francia €20M, Italia €20M, Grecia €20M, Países Bajos €30.5M, Reino Unido £7.5M) y no ha pagado ninguna.
ADMT y framework más detallado del país
California Privacy Protection Agency finalizó el marco más comprehensivo de EE.UU. para Tecnología de Toma de Decisiones Automatizada, creando obligaciones sin precedentes para sistemas de IA en servicios financieros, vivienda, educación, empleo y salud.
SB-942 AI Transparency Act (efectiva enero 2026): divulgación obligatoria cuando consumidores interactúan con IA generativa. AB 2013: desarrolladores de modelos a gran escala deben documentar datos de entrenamiento y conducir evaluaciones de impacto.
Implementación escalonada y aplicación principal agosto 2026
Penalidades máximas: €35 millones o 7% de facturación global para prácticas prohibidas. Para sistemas de alto riesgo: €15 millones o 3% de facturación global.
Interacción GDPR-AI Act: Ambas regulaciones aplican cuando sistemas de IA procesan datos personales. GDPR gobierna la protección de datos mientras AI Act gobierna la tecnología. Las DPIAs bajo GDPR pueden incorporar documentación del AI Act.
Panorama global de protección de datos en IA
Basado en riesgo similar al EU AI Act. Pasó el Senado en diciembre 2024, bajo revisión en Cámara de Diputados. Prohíbe sistemas de riesgo excesivo, requiere evaluaciones de impacto algorítmico para alto riesgo, y establece derechos de explicación y revisión humana.
Bill C-27 murió con prorogación parlamentaria (6 enero 2025). Tras elecciones de abril 2025, Primer Ministro Carney enfoca innovación sobre regulación estricta. AIDA será reintroducido pero posiblemente desacoplado de reforma de privacidad.
Asentimiento real 19 junio 2025. Expande circunstancias para toma de decisiones automatizada legal: prohibición ahora aplica solo para datos de categoría especial y donde no hay "involucramiento humano significativo". Nuevos "intereses legítimos reconocidos" como base legal.
Efectivas 1 enero 2026: apoyo estatal para investigación de IA, normas éticas de IA, monitoreo de riesgos y evaluación de seguridad. Penalidades hasta RMB 10 millones. Nuevas reglas de etiquetado de contenido IA (septiembre 2025). 302 servicios de IA generativa registrados con CAC hasta diciembre 2024.
Análisis crítico 15 años después
Promulgada el 7 de septiembre de 2011, Costa Rica se convirtió en el primer país centroamericano y uno de los primeros en Latinoamérica en establecer legislación comprehensiva de protección de datos, modelada según la Directiva EU 95/46/EC (pre-GDPR).
NO existe derecho a portabilidad de datos
NO hay derecho a no ser sujeto de decisiones automatizadas (brecha crítica)
NO hay derecho de oposición/opt-out comparable al GDPR
Sanciones limitadas: $3,000-$18,000 USD; suspensión 1-6 meses
NO requiere Oficiales de Protección de Datos (DPOs)
Mecanismos de enforcement débiles
La Estrategia Nacional de Inteligencia Artificial (ENIA) reconoce explícitamente:
"La Ley de Protección de Datos (Ley No. 8968) no establece las medidas cautelares o sanciones necesarias para tratar infracciones por el mal uso de los datos personales."
Reforma para alineación con estándares GDPR
Busca derogar completamente la Ley 8968 para alinear Costa Rica con estándares internacionales contemporáneos.
Aplicación extraterritorial similar a GDPR
Reglas de transferencia transfronteriza con determinaciones de adecuación
Requisitos obligatorios de DPO para actividades de alto riesgo
Regulación explícita de datos biométricos
Fortalecimiento de PRODHAB con poderes expandidos
Sanciones incrementadas significativamente
Pasó dictamen en Comisión de Ciencia y Tecnología el 23 de enero 2023
Pendiente aprobación en plenario legislativo
Potencial entrada en vigor: 2026
Fecha exacta de aprobación: incierta
La aprobación de esta reforma colocaría a Costa Rica entre los países latinoamericanos con legislación de protección de datos más avanzada, comparable a Chile (Ley 21.719, diciembre 2024) y Brasil (LGPD, 2018).
Desafíos de la autoridad de protección de datos
PRODHAB (Agencia de Protección de Datos de los Habitantes) es una agencia administrativa con desconcentración máxima adscrita al Ministerio de Justicia y Paz.
Recursos humanos muy limitados
Expertise tecnológico limitado para supervisar IA
Restricciones presupuestarias significativas
Falta de independencia institucional completa
Track record de enforcement históricamente débil
La ENIA y múltiples análisis legales notan que PRODHAB "no tiene las capacidades ni independencia necesarias para hacer su trabajo" efectivamente en el contexto de sistemas de IA complejos y datos a gran escala.
El Proyecto 23097 busca fortalecer significativamente a PRODHAB con poderes de investigación expandidos, capacidad de imponer sanciones mayores, y mayor independencia institucional. Sin embargo, la capacidad técnica para supervisar IA requerirá inversión sustancial adicional en talento especializado.
El caso de protección de datos más significativo de Costa Rica
Operó durante 18 meses dentro de Casa Presidencial sin conocimiento público, accediendo a datos sensibles de Migración, Ministerio de Educación e INEC sin bases legales claras ni consentimiento de ciudadanos.
17 de septiembre 2022 (Resolución N.º 2022019110): UPAD declarada inconstitucional por:
• Violar el derecho a autodeterminación informativa
• Violar el principio de reserva legal
• Exceder poderes reglamentarios del Ejecutivo
El caso criminal contra el expresidente Carlos Alvarado y otros funcionarios involucrados continúa pendiente en tribunales.
UPAD representa un ejemplo paradigmático de los riesgos de procesamiento de datos personales sin marco legal robusto.
El caso UPAD catalizó el debate público costarricense sobre protección de datos en la era digital y subrayó la urgencia de modernizar la Ley 8968 y fortalecer PRODHAB para el siglo XXI.
Costa Rica como pionero centroamericano
Lanzada el 24 de octubre 2024 por MICITT, Costa Rica se convirtió en el primer país de Centroamérica y el Caribe en publicar una Estrategia Nacional de IA comprehensiva.
Proyecto 23771 (mayo 2023): propone principios éticos, registro obligatorio de sistemas de IA, evaluación de impacto para alto riesgo, medidas anti-sesgo, garantía de derechos ARCO, y creación de ARIA (Autoridad Reguladora de Inteligencia Artificial). Ninguno promulgado hasta febrero 2026.
Acceso, Rectificación, Cancelación, Oposición
Estos derechos fundamentales enfrentan obstáculos técnicos sin precedentes cuando se aplican a sistemas de IA modernos, especialmente Large Language Models.
Los LLMs no almacenan datos personales en registros discretos y recuperables. OpenAI indicó a NOYB que no pueden proporcionar qué datos específicos se procesan sobre individuos. La DPA de Hamburgo clarificó que los LLMs "no son bases de datos de las cuales se extraen outputs".
No se puede simplemente "actualizar" un hecho en un LLM—requeriría reentrenamiento o machine unlearning. OpenAI indicó que la única opción es "bloquear cualquier información concerniente al sujeto de datos".
Una vez que datos personales se integran en parámetros del modelo, la remoción es prácticamente inviable sin reentrenamiento costoso. GPT-4 tiene 1.8 trillones de parámetros y datasets a escala de petabytes. El entrenamiento de GPT-4 costó >$100M. La evaluación de CSA concluye: "No hay soluciones probadas y escalables para garantizar cumplimiento con el derecho de borrado".
Minimización, propósito y consentimiento
Datos deben ser "adecuados, relevantes, limitados a lo necesario" (GDPR Art. 5.1.c). Tensión fundamental: sistemas de IA requieren datasets masivos para entrenamiento efectivo. El ICO clarificó que minimización "no significa 'no procesar datos personales'".
Datos deben ser usados solo para propósitos especificados (GDPR Art. 5.1.b). Conflicto: foundation models son entrenados para usos futuros amplios y no especificados. Future of Privacy Forum (2025) documenta cambio a minimización "sustantiva".
Datos personales deben ser exactos y actualizados (GDPR Art. 5.1.d). Problema: LLMs producen "alucinaciones"—información falsa expresada con confianza. NOYB presentó queja (abril 2024) por ChatGPT proporcionando fechas de nacimiento incorrectas.
GDPR requiere consentimiento incluso para datos públicamente disponibles (CNIL 2020). "Dado el vasto número de individuos involucrados, obtener consentimiento de cada persona es prácticamente imposible" (California Law Review). Data Provenance Initiative documentó restricciones crecientes de crawling web: robots.txt y TOS aumentan 6-10% anualmente.
Ashley Zlatinov de Anthropic notó que solicitar consentimiento "cada 15 o 20 segundos" lleva a fatiga—el fenómeno de banner de cookies se repite para agentes de IA. Se necesita un "enfoque de queso suizo" con múltiples capas de seguridad.
Frameworks y desafíos de implementación en IA
Privacy by Design requiere que privacidad sea incorporada desde el diseño inicial de sistemas, no añadida posteriormente. Privacy by Default significa que configuraciones más protectoras de privacidad deben ser las predeterminadas.
NIST Privacy Framework 1.1 (abril 2025): añade nueva sección sobre IA y gestión de riesgo de privacidad
ISO/IEC 42001:2023: primer estándar de sistema de gestión específico para IA, con Microsoft, Google y AWS certificados
CSA AI Controls Matrix (julio 2025): framework vendor-agnostic con mapeos a ISO 42001, ISO 27001, NIST AI RMF y EU AI Act
Escala del procesamiento: billones de parámetros hacen imposible revisión manual
Problema de caja negra: desarrolladores no pueden explicar completamente outputs
Aprendizaje continuo: flujos de datos ongoing y largamente invisibles
Complejidad cross-funcional: requiere coordinación legal, ciencia de datos y ética
Estadísticas alarmantes de identificabilidad
Expuso registros de llamadas/textos de casi todos los clientes. Aunque carece de PII directa, el enlace de números telefónicos permite re-identificación. Las acciones de FTC contra X-Mode, InMarket y Kochava (2024-2025) por vender datos de ubicación sensibles recibieron apoyo bipartidista.
Investigación PMC/Nature Digital Medicine (marzo 2025): IA puede ahora inferir identidad de radiografías de tórax anonimizadas, ECGs, imágenes de MRI cerebral y patrones de marcha, socavando supuestos de anonimización en investigación médica.
Amenazas sofisticadas emergentes
Investigación fundacional de Shokri et al. (IEEE S&P 2017): ataques contra Google Prediction API y Amazon ML con precisión hasta 97% en algunas clases. Investigación de marzo 2025 presenta primer survey comprehensivo de MIAs en LLMs y LMMs. NDSS 2025: ataque usando envenenamiento de código logra éxito casi perfecto.
USENIX Security 2025: sistematización comprehensiva de ataques y defensas GIA. COLING 2025: inversión de gradiente de datos de texto logrando 39% de mejora en tasas de coincidencia exacta. ICCV 2025 "Geminio": ataques de inversión guiados por lenguaje usando descripciones en lenguaje natural.
arXiv 2507.05578 (julio 2025): "The Landscape of Memorization in LLMs" cubre extracción basada en prefijos, inferencia de membresía y prompting adversarial. Ataques de divergencia (Nasr et al., 2025): hacer que modelos repitan tokens causa emisión de datos memorizados. PII-Compass: tasa de extracción de números telefónicos del 6.86% con 2,308 consultas—1 de cada 15 números de individuos es extraíble.
Estado del arte 2026
Implementaciones principales: Google TensorFlow Privacy, IBM Differential Privacy Library, Microsoft SmartNoise, OpenDP. Despliegues: Apple (uso de emojis, predicciones de teclado a ε=2/día/usuario), Google RAPPOR para telemetría de Chrome, Meta para datos conductuales publicitarios. NIST SP 800-226 (marzo 2025): "una configuración conservadora de ε ≤ 1 proporciona privacidad fuerte del mundo real".
Mercado de FL alcanzó $138.6M en 2024 con proyección a $1.6B para 2035 (27.3% CAGR). Despliegues notables: Google Gboard con millones de dispositivos mejorando predicciones, modelos multi-hospital COVID-19, detección de fraude cross-institucional. EDPS destacó FL (junio 2025) como crucial para cumplimiento GDPR y privacy-by-design.
Microsoft Phi-3 entrenado con datos sintéticos sin datos personales reales. DHS/S&T financia startups como MOSTLY AI, Datacebo y Rockfish Data. Beneficio: datos sintéticos no contienen PII real por diseño, habilitando cumplimiento GDPR/HIPAA. Riesgos: ataques de inversión de modelo y amplificación de sesgo persisten.
Scientific Reports 2025: "Los métodos tradicionales como k-anonimidad y l-diversidad han probado ser inadecuados contra ataques sofisticados de re-identificación." NIST y ENISA confirman insuficiencia para datos de alta dimensionalidad. La privacidad diferencial es ahora preferida.
Tensiones irresolubles
GDPR requiere datos "adecuados, relevantes, limitados" mientras sistemas de IA requieren datasets masivos. Conflicto adicional: minimización desalienta recolección de atributos sensibles (raza, género), pero testing de sesgo los requiere.
Limitación de propósito requiere propósitos especificados, pero foundation models son entrenados para usos futuros amplios y no especificados. Future of Privacy Forum (2025) documenta cambio a minimización "sustantiva".
GDPR Artículo 5(1)(d) requiere exactitud. LLMs producen "alucinaciones". Tasas 2025: Gemini 2.0 Flash 0.7%, o3 mini 0.8%, Mistral 7B 9.5%. DPA de Hamburgo: aplicar exactitud en forma tradicional puede ser inapropiado para LLMs.
Estos no son problemas técnicos temporales que se resolverán con mejores algoritmos. Representan tensiones fundamentales entre dos paradigmas: uno diseñado para proteger derechos individuales mediante limitación y control, el otro optimizado para aprendizaje de patrones mediante procesamiento masivo y generalización estadística.
ChatGPT, OpenAI y filtración empresarial
Bug de Redis (marzo 2023): expuso historial de chat de otros usuarios
Incidente Samsung (2023): empleados filtraron código fuente, notas de reuniones y datos de hardware en tres ocasiones—Samsung prohibió herramientas de IA generativa
Julio 2025: miles de conversaciones indexadas por Google por característica "Make this chat discoverable" habilitada por defecto
Noviembre 2025: brecha de Mixpanel (vendor tercero) exponiendo analíticas de uso
Expuso 30,000 emails/números de teléfono de usuarios, 34 millones de líneas de conversaciones de chat, y claves API y credenciales comprometidas. Demuestra que incluso plataformas menores manejan volúmenes masivos de datos sensibles.
LayerX Security Report 2025: 18% de empleados empresariales pegan datos en herramientas GenAI, con >50% de eventos de pegado incluyendo información corporativa. 77% del acceso online a LLM es a ChatGPT. 40% de archivos subidos contienen PII o datos PCI. 71.6% del acceso a IA generativa es vía cuentas no corporativas.
RIPD prioriza intersección IA-privacidad
Plan Estratégico 2026-2030 con prioridades: intersección de IA y protección de datos, datos biométricos, protección de grupos vulnerables. Creación del Observatorio Iberoamericano de Protección de Datos. Recomendaciones RIPD para IA aplicables a todos los países miembros incluyendo Costa Rica.
| País | Ley de Protección de Datos | Estado Regulación IA | Características clave |
|---|---|---|---|
| Brasil | LGPD (2018) | Bill 2338/2023 aprobado Senado | Framework IA regional más avanzado |
| Chile | Ley 21.719 (dic 2024, efectiva dic 2026) | Proyecto en Congreso | Ley actualizada alineada a GDPR |
| Colombia | Ley 1581 (2012) | Bill 059/2023; CONPES 4144 (2025) | Registro bases datos; mandatos DPO |
| México | Ley Federal (2010/2017) | Múltiples proyectos; Agenda IA 2024-2030 | Supervisión INAI |
| Costa Rica | Ley 8968 (2011) | ENIA 2024-2027; Bills pendientes | Primero en Centroamérica; PRODHAB débil |
Agentes de IA, biométricos y transparencia
OpenAI, Google y Anthropic lanzaron versiones tempranas. Riesgos de privacidad novedosos: agentes requieren acceso a "todo" (cuentas bancarias, registros médicos, calendario, historial de ubicación). Filtración de datos ocurre a través de comunicación autónoma agente-a-agente. 80% de organizaciones reportan comportamientos riesgosos de agentes. Gartner predice que 1 de cada 4 brechas empresariales involucrará mal uso de IA agéntica.
Prohibiciones del EU AI Act (efectivas 2 feb 2025): scraping no dirigido de internet/CCTV, identificación biométrica remota en tiempo real en espacios públicos, categorización biométrica infiriendo raza/religión/orientación sexual, y reconocimiento de emociones en lugares de trabajo/educación. En EE.UU.: 23 estados con leyes de privacidad biométrica. Illinois BIPA es la más estricta. Al menos 100 acciones de clase BIPA presentadas en 2025.
California AB 2013 (efectivo 1 enero 2026): desarrolladores de GenAI deben divulgar públicamente información de datos de entrenamiento—datasets usados, si datos personales están incluidos, si material con copyright está incluido. Orden Ejecutiva de Trump (11 diciembre 2025) propone preempción federal de leyes estatales de IA inconsistentes.
Análisis de marcos regulatorios clave
| Aspecto | GDPR (UE) | CCPA/CPRA (California) | Ley 8968 (Costa Rica) |
|---|---|---|---|
| Alcance territorial | Extraterritorial (afecta cualquier org. procesando datos de residentes UE) | Residentes de California; negocios con ingresos >$25M | Territorial (Costa Rica); sin extraterritorialidad |
| Decisiones automatizadas | Derecho a no ser sujeto (Art. 22); explicación requerida | ADMT regs (2026): aviso, opt-out, explicación | NO existe derecho explícito |
| Portabilidad de datos | Sí (Art. 20) | Sí (desde CPRA 2020) | NO existe |
| DPO/Privacy Officer | Obligatorio para procesamiento de alto riesgo | No obligatorio | NO requerido |
| Sanciones máximas | €20M o 4% facturación global (lo mayor) | $7,500 por violación intencional | $3,000-$18,000 USD; suspensión 1-6 meses |
| DPIA/Evaluación impacto | Obligatoria para alto riesgo (Art. 35) | Obligatoria para ADMT desde 1 enero 2026 | NO requerida explícitamente |
| Regulación específica IA | EU AI Act (aplicación ago 2026) | ADMT regs (aplicación ene 2026-2028) | Proyectos pendientes; ENIA 2024-2027 |
De la teoría a la práctica
La protección de datos personales en sistemas de IA representa uno de los desafíos regulatorios más complejos de nuestra era. Los marcos legales desarrollados para bases de datos tradicionales enfrentan tensiones fundamentales cuando se aplican a machine learning, donde los datos se integran en parámetros del modelo de forma no recuperable.
El panorama regulatorio muestra divergencia significativa: la UE avanza con AI Act de aplicación estricta, Estados Unidos experimenta retrocesos con Orden Ejecutiva de Trump, y Latinoamérica tiene la oportunidad de posicionarse como líder regional en gobernanza ética de IA. Costa Rica, con su ENIA y pionerismo histórico, está en posición privilegiada.
A continuación: Trabajo en equipos para analizar un caso real que cristaliza estas tensiones entre protección de datos, innovación tecnológica y derechos fundamentales.