ULACIT
1 / 25

Privacidad y protección de datos personales

Semana 4: Marcos regulatorios, derechos fundamentales y desafíos en IA

Microcredencial en Inteligencia Artificial y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología
Febrero 2026

Agenda de hoy

Contenidos de la sesión

Parte 1: Marcos regulatorios globales

  • GDPR: evolución y estado actual (2026)
  • CCPA y regulación californiana de IA
  • Enforcement: multas y casos significativos
  • Regulaciones emergentes (Brasil, Canadá, UK, China)

Parte 2: Costa Rica y contexto latinoamericano

  • Ley 8968: análisis crítico y deficiencias
  • Proyecto de reforma 23097
  • PRODHAB: capacidad institucional
  • Estrategia Nacional de IA 2024-2027

Parte 3: Derechos y principios

  • Derechos ARCO y sus desafíos en IA
  • Principios de protección de datos
  • Privacy by Design y by Default
  • Consentimiento en la era de IA

Parte 4: Riesgos y soluciones técnicas

  • Re-identificación y ataques de privacidad
  • Técnicas de anonimización y seudonimización
  • Conflictos fundamentales con IA
  • Caso práctico en equipos

El momento crítico de la privacidad en IA

Convergencia de regulación, tecnología y enforcement (2026)

Febrero 2026 marca un punto de inflexión: €100+ millones en multas ignoradas por una sola empresa de reconocimiento facial, el primer framework de IA completo del mundo (EU AI Act) en plena vigencia, y Costa Rica como pionero centroamericano con su Estrategia Nacional de IA mientras su Ley 8968 permanece significativamente desactualizada.

€5.88B
Total de multas GDPR desde mayo 2018
€1.2B
Multas GDPR solo durante 2024
Agosto 2026
Aplicación principal del EU AI Act

La protección de datos personales en sistemas de IA representa uno de los desafíos regulatorios más complejos de nuestra era. La convergencia de machine learning con datos personales masivos crea tensiones fundamentales entre innovación tecnológica y derechos fundamentales.

GDPR: evolución hacia regulación específica de IA

Nuevas directrices y propuestas de reforma

Recomendaciones CNIL (enero 2026)

Primera guía comprehensiva sobre aplicación del GDPR al desarrollo de sistemas de IA: definición de propósitos para IA de propósito general, bases legales (interés legítimo como la más común), minimización de datos aplicada a conjuntos masivos de entrenamiento, y tratamiento legal de modelos de IA como potenciales datos personales.

EDPB Opinión 28/2024

Los LLMs raramente alcanzan estándares de anonimización. Los controladores que despliegan LLMs de terceros deben conducir evaluaciones comprehensivas de interés legítimo. Los modelos de IA entrenados con datos personales deben considerarse sujetos al GDPR en la mayoría de casos.

Propuesta Digital Omnibus (noviembre 2025)

Reforma significativa con implementación proyectada para 2031: expansión de exenciones de ROPAs para organizaciones hasta 750 empleados, estandarización de banners de cookies con rechazo de un clic, y clarificación explícita permitiendo uso de interés legítimo para procesamiento relacionado con IA.

La consulta pública sobre Digital Omnibus cierra el 11 de marzo de 2026. Esta es la reforma más significativa del GDPR desde su entrada en vigor en 2018.

Enforcement GDPR: multas significativas 2024-2025

Casos relevantes para IA y protección de datos

Empresa Multa Autoridad Fecha Violación
TikTok €530M DPC Irlanda Mayo 2025 Transferencias ilegales de datos de usuarios EEA a China
LinkedIn €310M DPC Irlanda Octubre 2024 Análisis conductual y publicidad dirigida sin base legal
OpenAI/ChatGPT €15M Garante Italia Diciembre 2024 Procesamiento sin base legal, fallas de transparencia, verificación de edad
Clearview AI €30.5M AP Países Bajos Septiembre 2024 Base de datos ilegal de biométricos, procesamiento sin consentimiento
Meta €251M DPC Irlanda 2024 Brecha de seguridad "View As" afectando 29 millones de usuarios

Clearview AI ha acumulado más de €100 millones en multas europeas combinadas (Francia €20M, Italia €20M, Grecia €20M, Países Bajos €30.5M, Reino Unido £7.5M) y no ha pagado ninguna.

California lidera regulación de IA en Estados Unidos

ADMT y framework más detallado del país

Regulaciones ADMT (septiembre 2025)

California Privacy Protection Agency finalizó el marco más comprehensivo de EE.UU. para Tecnología de Toma de Decisiones Automatizada, creando obligaciones sin precedentes para sistemas de IA en servicios financieros, vivienda, educación, empleo y salud.

Obligaciones fundamentales ADMT

  • Aviso previo al uso informando propósito, lógica y supervisión humana
  • Derecho de opt-out para consumidores
  • Solicitudes de acceso con explicación de decisiones
  • Aviso especial de decisión adversa

Fechas de implementación críticas

  • 1 enero 2026: Provisiones generales y evaluaciones de riesgo
  • 1 enero 2027: Requisitos específicos de ADMT
  • 1 abril 2028: Presentación de attestations al CPPA

Legislación adicional 2026

SB-942 AI Transparency Act (efectiva enero 2026): divulgación obligatoria cuando consumidores interactúan con IA generativa. AB 2013: desarrolladores de modelos a gran escala deben documentar datos de entrenamiento y conducir evaluaciones de impacto.

EU AI Act: primer marco comprehensivo del mundo

Implementación escalonada y aplicación principal agosto 2026

Cronograma de implementación

  • 2 feb 2025: Prohibiciones y alfabetización en IA efectivas
  • 2 ago 2025: Gobernanza y modelos GPAI aplicables
  • 2 feb 2026: Directrices de cumplimiento disponibles
  • 2 ago 2026: Fecha principal de aplicación
  • 2 ago 2027: Sistemas integrados en productos regulados

Sistemas de alto riesgo (Anexo III)

  • Identificación y categorización biométrica
  • Infraestructura crítica
  • Educación y formación vocacional
  • Empleo (reclutamiento, promoción, terminación)
  • Servicios esenciales (scoring crediticio, seguros)
  • Aplicación de la ley y administración de justicia

Penalidades máximas: €35 millones o 7% de facturación global para prácticas prohibidas. Para sistemas de alto riesgo: €15 millones o 3% de facturación global.

Interacción GDPR-AI Act: Ambas regulaciones aplican cuando sistemas de IA procesan datos personales. GDPR gobierna la protección de datos mientras AI Act gobierna la tecnología. Las DPIAs bajo GDPR pueden incorporar documentación del AI Act.

Regulaciones emergentes: Brasil, Canadá, UK y China

Panorama global de protección de datos en IA

Brasil: Proyecto de Ley 2338/2023

Basado en riesgo similar al EU AI Act. Pasó el Senado en diciembre 2024, bajo revisión en Cámara de Diputados. Prohíbe sistemas de riesgo excesivo, requiere evaluaciones de impacto algorítmico para alto riesgo, y establece derechos de explicación y revisión humana.

Canadá: AIDA en pausa

Bill C-27 murió con prorogación parlamentaria (6 enero 2025). Tras elecciones de abril 2025, Primer Ministro Carney enfoca innovación sobre regulación estricta. AIDA será reintroducido pero posiblemente desacoplado de reforma de privacidad.

Reino Unido: Data (Use and Access) Act 2025

Asentimiento real 19 junio 2025. Expande circunstancias para toma de decisiones automatizada legal: prohibición ahora aplica solo para datos de categoría especial y donde no hay "involucramiento humano significativo". Nuevos "intereses legítimos reconocidos" como base legal.

China: enmiendas Ley de Ciberseguridad

Efectivas 1 enero 2026: apoyo estatal para investigación de IA, normas éticas de IA, monitoreo de riesgos y evaluación de seguridad. Penalidades hasta RMB 10 millones. Nuevas reglas de etiquetado de contenido IA (septiembre 2025). 302 servicios de IA generativa registrados con CAC hasta diciembre 2024.

Ley 8968 de Costa Rica: pionera pero desactualizada

Análisis crítico 15 años después

Logro histórico

Promulgada el 7 de septiembre de 2011, Costa Rica se convirtió en el primer país centroamericano y uno de los primeros en Latinoamérica en establecer legislación comprehensiva de protección de datos, modelada según la Directiva EU 95/46/EC (pre-GDPR).

Deficiencias críticas para IA

NO existe derecho a portabilidad de datos
NO hay derecho a no ser sujeto de decisiones automatizadas (brecha crítica)
NO hay derecho de oposición/opt-out comparable al GDPR
Sanciones limitadas: $3,000-$18,000 USD; suspensión 1-6 meses
NO requiere Oficiales de Protección de Datos (DPOs)
Mecanismos de enforcement débiles

Reconocimiento oficial

La Estrategia Nacional de Inteligencia Artificial (ENIA) reconoce explícitamente:

"La Ley de Protección de Datos (Ley No. 8968) no establece las medidas cautelares o sanciones necesarias para tratar infracciones por el mal uso de los datos personales."

Proyecto de Ley 23097: modernización pendiente

Reforma para alineación con estándares GDPR

Proyecto de modernización (introducido enero 2021)

Busca derogar completamente la Ley 8968 para alinear Costa Rica con estándares internacionales contemporáneos.

Cambios principales propuestos

Aplicación extraterritorial similar a GDPR
Reglas de transferencia transfronteriza con determinaciones de adecuación
Requisitos obligatorios de DPO para actividades de alto riesgo
Regulación explícita de datos biométricos
Fortalecimiento de PRODHAB con poderes expandidos
Sanciones incrementadas significativamente

Estado actual

Pasó dictamen en Comisión de Ciencia y Tecnología el 23 de enero 2023
Pendiente aprobación en plenario legislativo
Potencial entrada en vigor: 2026
Fecha exacta de aprobación: incierta

La aprobación de esta reforma colocaría a Costa Rica entre los países latinoamericanos con legislación de protección de datos más avanzada, comparable a Chile (Ley 21.719, diciembre 2024) y Brasil (LGPD, 2018).

PRODHAB: capacidad institucional limitada

Desafíos de la autoridad de protección de datos

Estructura institucional

PRODHAB (Agencia de Protección de Datos de los Habitantes) es una agencia administrativa con desconcentración máxima adscrita al Ministerio de Justicia y Paz.

Debilidades estructurales identificadas

Recursos humanos muy limitados
Expertise tecnológico limitado para supervisar IA
Restricciones presupuestarias significativas
Falta de independencia institucional completa
Track record de enforcement históricamente débil

Reconocimiento oficial de limitaciones

La ENIA y múltiples análisis legales notan que PRODHAB "no tiene las capacidades ni independencia necesarias para hacer su trabajo" efectivamente en el contexto de sistemas de IA complejos y datos a gran escala.

El Proyecto 23097 busca fortalecer significativamente a PRODHAB con poderes de investigación expandidos, capacidad de imponer sanciones mayores, y mayor independencia institucional. Sin embargo, la capacidad técnica para supervisar IA requerirá inversión sustancial adicional en talento especializado.

Caso UPAD: catalizador de consciencia pública

El caso de protección de datos más significativo de Costa Rica

Unidad Presidencial de Análisis de Datos (UPAD)

Operó durante 18 meses dentro de Casa Presidencial sin conocimiento público, accediendo a datos sensibles de Migración, Ministerio de Educación e INEC sin bases legales claras ni consentimiento de ciudadanos.

Resolución de la Sala Constitucional

17 de septiembre 2022 (Resolución N.º 2022019110): UPAD declarada inconstitucional por:
• Violar el derecho a autodeterminación informativa
• Violar el principio de reserva legal
• Exceder poderes reglamentarios del Ejecutivo

Estado actual

El caso criminal contra el expresidente Carlos Alvarado y otros funcionarios involucrados continúa pendiente en tribunales.

UPAD representa un ejemplo paradigmático de los riesgos de procesamiento de datos personales sin marco legal robusto.

El caso UPAD catalizó el debate público costarricense sobre protección de datos en la era digital y subrayó la urgencia de modernizar la Ley 8968 y fortalecer PRODHAB para el siglo XXI.

Estrategia Nacional de IA 2024-2027

Costa Rica como pionero centroamericano

Logro histórico regional

Lanzada el 24 de octubre 2024 por MICITT, Costa Rica se convirtió en el primer país de Centroamérica y el Caribe en publicar una Estrategia Nacional de IA comprehensiva.

Principios clave (alineados con UNESCO y OCDE)

  • Dignidad humana
  • Igualdad y no discriminación
  • Supervisión humana
  • Transparencia y acceso a información
  • Confidencialidad y protección de datos personales
  • Protección de propiedad intelectual

Compromisos de privacidad y gobernanza

  • Identifica PRODHAB como stakeholder clave
  • Gobernanza de datos y ciberseguridad como pilares fundacionales
  • Énfasis en anonimización, minimización de datos
  • Cifrado y controles de acceso robustos
  • Auditorías periódicas de sesgo en algoritmos de IA

Proyectos de ley de IA pendientes

Proyecto 23771 (mayo 2023): propone principios éticos, registro obligatorio de sistemas de IA, evaluación de impacto para alto riesgo, medidas anti-sesgo, garantía de derechos ARCO, y creación de ARIA (Autoridad Reguladora de Inteligencia Artificial). Ninguno promulgado hasta febrero 2026.

Derechos ARCO: desafíos técnicos fundamentales con IA

Acceso, Rectificación, Cancelación, Oposición

Los derechos ARCO bajo Ley 8968 y marcos equivalentes

Estos derechos fundamentales enfrentan obstáculos técnicos sin precedentes cuando se aplican a sistemas de IA modernos, especialmente Large Language Models.

Acceso: LLMs no son bases de datos

Los LLMs no almacenan datos personales en registros discretos y recuperables. OpenAI indicó a NOYB que no pueden proporcionar qué datos específicos se procesan sobre individuos. La DPA de Hamburgo clarificó que los LLMs "no son bases de datos de las cuales se extraen outputs".

Rectificación: corrección virtualmente imposible

No se puede simplemente "actualizar" un hecho en un LLM—requeriría reentrenamiento o machine unlearning. OpenAI indicó que la única opción es "bloquear cualquier información concerniente al sujeto de datos".

Cancelación y el problema del "Machine Unlearning"

Una vez que datos personales se integran en parámetros del modelo, la remoción es prácticamente inviable sin reentrenamiento costoso. GPT-4 tiene 1.8 trillones de parámetros y datasets a escala de petabytes. El entrenamiento de GPT-4 costó >$100M. La evaluación de CSA concluye: "No hay soluciones probadas y escalables para garantizar cumplimiento con el derecho de borrado".

Principios fundamentales de protección de datos

Minimización, propósito y consentimiento

Minimización de datos

Datos deben ser "adecuados, relevantes, limitados a lo necesario" (GDPR Art. 5.1.c). Tensión fundamental: sistemas de IA requieren datasets masivos para entrenamiento efectivo. El ICO clarificó que minimización "no significa 'no procesar datos personales'".

Limitación de propósito

Datos deben ser usados solo para propósitos especificados (GDPR Art. 5.1.b). Conflicto: foundation models son entrenados para usos futuros amplios y no especificados. Future of Privacy Forum (2025) documenta cambio a minimización "sustantiva".

Exactitud

Datos personales deben ser exactos y actualizados (GDPR Art. 5.1.d). Problema: LLMs producen "alucinaciones"—información falsa expresada con confianza. NOYB presentó queja (abril 2024) por ChatGPT proporcionando fechas de nacimiento incorrectas.

Consentimiento: crisis en la era de IA

GDPR requiere consentimiento incluso para datos públicamente disponibles (CNIL 2020). "Dado el vasto número de individuos involucrados, obtener consentimiento de cada persona es prácticamente imposible" (California Law Review). Data Provenance Initiative documentó restricciones crecientes de crawling web: robots.txt y TOS aumentan 6-10% anualmente.

Fatiga de consentimiento en IA agéntica

Ashley Zlatinov de Anthropic notó que solicitar consentimiento "cada 15 o 20 segundos" lleva a fatiga—el fenómeno de banner de cookies se repite para agentes de IA. Se necesita un "enfoque de queso suizo" con múltiples capas de seguridad.

Privacy by Design y Privacy by Default

Frameworks y desafíos de implementación en IA

Principios fundacionales (Ann Cavoukian, 2009)

Privacy by Design requiere que privacidad sea incorporada desde el diseño inicial de sistemas, no añadida posteriormente. Privacy by Default significa que configuraciones más protectoras de privacidad deben ser las predeterminadas.

Frameworks actualizados disponibles

NIST Privacy Framework 1.1 (abril 2025): añade nueva sección sobre IA y gestión de riesgo de privacidad

ISO/IEC 42001:2023: primer estándar de sistema de gestión específico para IA, con Microsoft, Google y AWS certificados

CSA AI Controls Matrix (julio 2025): framework vendor-agnostic con mapeos a ISO 42001, ISO 27001, NIST AI RMF y EU AI Act

Desafíos de implementación en LLMs

Escala del procesamiento: billones de parámetros hacen imposible revisión manual

Problema de caja negra: desarrolladores no pueden explicar completamente outputs

Aprendizaje continuo: flujos de datos ongoing y largamente invisibles

Complejidad cross-funcional: requiere coordinación legal, ciencia de datos y ética

Riesgos de re-identificación documentados

Estadísticas alarmantes de identificabilidad

87%
De estadounidenses identificables vía código postal + género + fecha de nacimiento (Sweeney, 1997)
99.98%
De estadounidenses correctamente re-identificables usando solo 15 atributos demográficos (2019)
63%
De estadounidenses identificables solo con género, fecha de nacimiento y código postal (Georgetown, 2024)

Brecha de datos AT&T (abril 2024)

Expuso registros de llamadas/textos de casi todos los clientes. Aunque carece de PII directa, el enlace de números telefónicos permite re-identificación. Las acciones de FTC contra X-Mode, InMarket y Kochava (2024-2025) por vender datos de ubicación sensibles recibieron apoyo bipartidista.

IA puede inferir identidad de imágenes médicas "anonimizadas"

Investigación PMC/Nature Digital Medicine (marzo 2025): IA puede ahora inferir identidad de radiografías de tórax anonimizadas, ECGs, imágenes de MRI cerebral y patrones de marcha, socavando supuestos de anonimización en investigación médica.

Ataques de privacidad contra modelos de ML

Amenazas sofisticadas emergentes

Ataques de inferencia de membresía (MIA)

Investigación fundacional de Shokri et al. (IEEE S&P 2017): ataques contra Google Prediction API y Amazon ML con precisión hasta 97% en algunas clases. Investigación de marzo 2025 presenta primer survey comprehensivo de MIAs en LLMs y LMMs. NDSS 2025: ataque usando envenenamiento de código logra éxito casi perfecto.

Ataques de inversión de gradiente (GIA)

USENIX Security 2025: sistematización comprehensiva de ataques y defensas GIA. COLING 2025: inversión de gradiente de datos de texto logrando 39% de mejora en tasas de coincidencia exacta. ICCV 2025 "Geminio": ataques de inversión guiados por lenguaje usando descripciones en lenguaje natural.

Extracción de datos de entrenamiento de LLMs

arXiv 2507.05578 (julio 2025): "The Landscape of Memorization in LLMs" cubre extracción basada en prefijos, inferencia de membresía y prompting adversarial. Ataques de divergencia (Nasr et al., 2025): hacer que modelos repitan tokens causa emisión de datos memorizados. PII-Compass: tasa de extracción de números telefónicos del 6.86% con 2,308 consultas—1 de cada 15 números de individuos es extraíble.

Técnicas de anonimización y seudonimización

Estado del arte 2026

Privacidad diferencial madura como estándar

Implementaciones principales: Google TensorFlow Privacy, IBM Differential Privacy Library, Microsoft SmartNoise, OpenDP. Despliegues: Apple (uso de emojis, predicciones de teclado a ε=2/día/usuario), Google RAPPOR para telemetría de Chrome, Meta para datos conductuales publicitarios. NIST SP 800-226 (marzo 2025): "una configuración conservadora de ε ≤ 1 proporciona privacidad fuerte del mundo real".

Aprendizaje federado alcanza madurez comercial

Mercado de FL alcanzó $138.6M en 2024 con proyección a $1.6B para 2035 (27.3% CAGR). Despliegues notables: Google Gboard con millones de dispositivos mejorando predicciones, modelos multi-hospital COVID-19, detección de fraude cross-institucional. EDPS destacó FL (junio 2025) como crucial para cumplimiento GDPR y privacy-by-design.

Datos sintéticos emergen como alternativa

Microsoft Phi-3 entrenado con datos sintéticos sin datos personales reales. DHS/S&T financia startups como MOSTLY AI, Datacebo y Rockfish Data. Beneficio: datos sintéticos no contienen PII real por diseño, habilitando cumplimiento GDPR/HIPAA. Riesgos: ataques de inversión de modelo y amplificación de sesgo persisten.

K-anonimidad considerada insuficiente

Scientific Reports 2025: "Los métodos tradicionales como k-anonimidad y l-diversidad han probado ser inadecuados contra ataques sofisticados de re-identificación." NIST y ENISA confirman insuficiencia para datos de alta dimensionalidad. La privacidad diferencial es ahora preferida.

Conflictos fundamentales entre principios de protección y IA

Tensiones irresolubles

Minimización vs. necesidades de entrenamiento

GDPR requiere datos "adecuados, relevantes, limitados" mientras sistemas de IA requieren datasets masivos. Conflicto adicional: minimización desalienta recolección de atributos sensibles (raza, género), pero testing de sesgo los requiere.

Limitación de propósito vs. IA de propósito general

Limitación de propósito requiere propósitos especificados, pero foundation models son entrenados para usos futuros amplios y no especificados. Future of Privacy Forum (2025) documenta cambio a minimización "sustantiva".

Exactitud vs. alucinaciones de IA

GDPR Artículo 5(1)(d) requiere exactitud. LLMs producen "alucinaciones". Tasas 2025: Gemini 2.0 Flash 0.7%, o3 mini 0.8%, Mistral 7B 9.5%. DPA de Hamburgo: aplicar exactitud en forma tradicional puede ser inapropiado para LLMs.

Estos no son problemas técnicos temporales que se resolverán con mejores algoritmos. Representan tensiones fundamentales entre dos paradigmas: uno diseñado para proteger derechos individuales mediante limitación y control, el otro optimizado para aprendizaje de patrones mediante procesamiento masivo y generalización estadística.

Riesgos específicos de LLMs: incidentes documentados

ChatGPT, OpenAI y filtración empresarial

Incidentes ChatGPT/OpenAI

Bug de Redis (marzo 2023): expuso historial de chat de otros usuarios
Incidente Samsung (2023): empleados filtraron código fuente, notas de reuniones y datos de hardware en tres ocasiones—Samsung prohibió herramientas de IA generativa
Julio 2025: miles de conversaciones indexadas por Google por característica "Make this chat discoverable" habilitada por defecto
Noviembre 2025: brecha de Mixpanel (vendor tercero) exponiendo analíticas de uso

OmniGPT (febrero 2025)

Expuso 30,000 emails/números de teléfono de usuarios, 34 millones de líneas de conversaciones de chat, y claves API y credenciales comprometidas. Demuestra que incluso plataformas menores manejan volúmenes masivos de datos sensibles.

Filtración de datos empresariales por GenAI

LayerX Security Report 2025: 18% de empleados empresariales pegan datos en herramientas GenAI, con >50% de eventos de pegado incluyendo información corporativa. 77% del acceso online a LLM es a ChatGPT. 40% de archivos subidos contienen PII o datos PCI. 71.6% del acceso a IA generativa es vía cuentas no corporativas.

Contexto latinoamericano y Red Iberoamericana

RIPD prioriza intersección IA-privacidad

XXII Encuentro Iberoamericano de Protección de Datos (junio 2025, Cartagena)

Plan Estratégico 2026-2030 con prioridades: intersección de IA y protección de datos, datos biométricos, protección de grupos vulnerables. Creación del Observatorio Iberoamericano de Protección de Datos. Recomendaciones RIPD para IA aplicables a todos los países miembros incluyendo Costa Rica.

País Ley de Protección de Datos Estado Regulación IA Características clave
Brasil LGPD (2018) Bill 2338/2023 aprobado Senado Framework IA regional más avanzado
Chile Ley 21.719 (dic 2024, efectiva dic 2026) Proyecto en Congreso Ley actualizada alineada a GDPR
Colombia Ley 1581 (2012) Bill 059/2023; CONPES 4144 (2025) Registro bases datos; mandatos DPO
México Ley Federal (2010/2017) Múltiples proyectos; Agenda IA 2024-2030 Supervisión INAI
Costa Rica Ley 8968 (2011) ENIA 2024-2027; Bills pendientes Primero en Centroamérica; PRODHAB débil

Tendencias actuales y debates 2025-2026

Agentes de IA, biométricos y transparencia

2025: "Año de los Agentes de IA"

OpenAI, Google y Anthropic lanzaron versiones tempranas. Riesgos de privacidad novedosos: agentes requieren acceso a "todo" (cuentas bancarias, registros médicos, calendario, historial de ubicación). Filtración de datos ocurre a través de comunicación autónoma agente-a-agente. 80% de organizaciones reportan comportamientos riesgosos de agentes. Gartner predice que 1 de cada 4 brechas empresariales involucrará mal uso de IA agéntica.

Biométricos bajo escrutinio intensificado

Prohibiciones del EU AI Act (efectivas 2 feb 2025): scraping no dirigido de internet/CCTV, identificación biométrica remota en tiempo real en espacios públicos, categorización biométrica infiriendo raza/religión/orientación sexual, y reconocimiento de emociones en lugares de trabajo/educación. En EE.UU.: 23 estados con leyes de privacidad biométrica. Illinois BIPA es la más estricta. Al menos 100 acciones de clase BIPA presentadas en 2025.

Transparencia de datos de entrenamiento requerida legalmente

California AB 2013 (efectivo 1 enero 2026): desarrolladores de GenAI deben divulgar públicamente información de datos de entrenamiento—datasets usados, si datos personales están incluidos, si material con copyright está incluido. Orden Ejecutiva de Trump (11 diciembre 2025) propone preempción federal de leyes estatales de IA inconsistentes.

Comparación: GDPR vs. CCPA vs. Ley 8968

Análisis de marcos regulatorios clave

Aspecto GDPR (UE) CCPA/CPRA (California) Ley 8968 (Costa Rica)
Alcance territorial Extraterritorial (afecta cualquier org. procesando datos de residentes UE) Residentes de California; negocios con ingresos >$25M Territorial (Costa Rica); sin extraterritorialidad
Decisiones automatizadas Derecho a no ser sujeto (Art. 22); explicación requerida ADMT regs (2026): aviso, opt-out, explicación NO existe derecho explícito
Portabilidad de datos Sí (Art. 20) Sí (desde CPRA 2020) NO existe
DPO/Privacy Officer Obligatorio para procesamiento de alto riesgo No obligatorio NO requerido
Sanciones máximas €20M o 4% facturación global (lo mayor) $7,500 por violación intencional $3,000-$18,000 USD; suspensión 1-6 meses
DPIA/Evaluación impacto Obligatoria para alto riesgo (Art. 35) Obligatoria para ADMT desde 1 enero 2026 NO requerida explícitamente
Regulación específica IA EU AI Act (aplicación ago 2026) ADMT regs (aplicación ene 2026-2028) Proyectos pendientes; ENIA 2024-2027

Conclusiones: el camino adelante

De la teoría a la práctica

Lo que hemos aprendido

La protección de datos personales en sistemas de IA representa uno de los desafíos regulatorios más complejos de nuestra era. Los marcos legales desarrollados para bases de datos tradicionales enfrentan tensiones fundamentales cuando se aplican a machine learning, donde los datos se integran en parámetros del modelo de forma no recuperable.

Desafíos persistentes

  • Derechos ARCO virtualmente inoperables en LLMs actuales
  • Conflictos irresolubles: minimización vs. datasets masivos
  • Re-identificación es más fácil de lo que creíamos
  • Consentimiento significativo es prácticamente imposible a escala de web

Oportunidades para Costa Rica

  • Reforma Ley 8968 (Proyecto 23097) pendiente de aprobación
  • ENIA posiciona al país como líder regional
  • Fortalecimiento de PRODHAB es crítico
  • Momento de aprender de errores de otras jurisdicciones

El panorama regulatorio muestra divergencia significativa: la UE avanza con AI Act de aplicación estricta, Estados Unidos experimenta retrocesos con Orden Ejecutiva de Trump, y Latinoamérica tiene la oportunidad de posicionarse como líder regional en gobernanza ética de IA. Costa Rica, con su ENIA y pionerismo histórico, está en posición privilegiada.

A continuación: Trabajo en equipos para analizar un caso real que cristaliza estas tensiones entre protección de datos, innovación tecnológica y derechos fundamentales.