ULACIT
1 / 15

Ética y Gobernanza de Datos en IA

Semana 1: Fundamentos y casos críticos

Microcredencial en Inteligencia Artificial y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología
Diciembre 2025

Introducción a la ética y gobernanza en IA

¿Por qué es importante?

Conceptos fundamentales

  • Ética: Principios que guían la conducta correcta y el desarrollo responsable de sistemas de IA
  • Moral: Conjunto de valores y normas de una sociedad que determinan lo aceptable
  • Gobernanza: Estructuras, políticas y mecanismos para asegurar uso ético y responsable de datos e IA

La ética en IA no es un obstáculo para la innovación, es la condición necesaria para una tecnología que beneficie a toda la humanidad.

Ética en IA vs. Gobernanza de datos en IA

Dos caras de la misma moneda

Aspecto Ética en IA Gobernanza de datos en IA
Enfoque Principios y valores morales Estructuras organizacionales y procesos
Pregunta clave ¿Qué debemos hacer? ¿Cómo lo hacemos?
Resultado Lineamientos éticos y principios Políticas, roles, procedimientos
Ejemplo Equidad, transparencia, privacidad Comités de ética, data stewards, auditorías

La ética define el "qué" (principios), mientras que la gobernanza define el "cómo" (implementación).

Casos famosos de fallas éticas en IA

Lecciones aprendidas

Amazon Hiring Algorithm (2018)

Sistema de contratación con sesgo de género. Penalizaba CVs con la palabra "women" y favorecía candidatos masculinos.

COMPAS (2016-presente)

Algoritmo de predicción de reincidencia criminal con sesgo racial. Falsos positivos más altos en afroamericanos.

Google Gemini (2024)

Generación de imágenes históricas inexactas. Diversificación excesiva comprometió precisión histórica.

ChatGPT y suicidio (2023)

Caso de joven belga Eliza: ChatGPT proporcionó respuestas que contribuyeron a decisión suicida. Falta de salvaguardas en salud mental.

Taylor Swift deepfakes (2024)

Imágenes sexuales generadas con IA circularon en redes. 47M de visualizaciones antes de ser removidas. Violación de privacidad y dignidad.

Impacto real de las fallas éticas

Más allá del daño reputacional

Consecuencias individuales

  • Discriminación en empleo, crédito, vivienda
  • Encarcelamiento injusto o condenas más severas
  • Violación de privacidad y dignidad
  • Daño psicológico y salud mental
  • Pérdida de confianza en instituciones

Consecuencias organizacionales

  • Daño reputacional masivo
  • Pérdida de confianza del público
  • Sanciones regulatorias (hasta €35M o 7% facturación)
  • Demandas y litigios costosos
  • Abandono de proyectos (como Amazon Hiring)

Las fallas éticas en IA no son hipotéticas: tienen consecuencias reales, medibles y a menudo devastadoras para individuos y organizaciones.

Panorama global: preocupaciones éticas principales

Tendencias 2024-2025

#1
Desinformación
(WEF 2024)
70%
Adolescentes EE.UU. usan IA generativa
49%
Empresas sufrieron deepfakes 2024

Top 5 preocupaciones globales

  • Desinformación y deepfakes
  • Sesgo algorítmico y discriminación
  • Privacidad y vigilancia masiva
  • Impacto laboral y desempleo
  • Propiedad intelectual en IA generativa

El sesgo algorítmico fue incluido explícitamente como nueva preocupación formal por la OCDE en 2024, reflejando su criticidad en salud, empleo y justicia.

Framework FATE

Principios fundamentales de ética en IA

Fairness (Equidad)

Los sistemas de IA deben tratar a todos de manera justa, sin discriminación por raza, género, edad u otras características protegidas.

Accountability (Responsabilidad)

Debe existir una cadena clara de responsabilidad desde el desarrollo hasta la implementación y uso de sistemas de IA.

Transparency (Transparencia)

Las personas tienen derecho a saber cuándo interactúan con IA y cómo funcionan los sistemas que les afectan.

Explicability (Explicabilidad)

Los sistemas deben poder explicar sus decisiones de manera comprensible, especialmente en contextos críticos como salud o justicia.

Principios complementarios

Más allá de FATE

Beneficencia y no maleficencia

  • Beneficencia: Los sistemas de IA deben diseñarse para beneficiar a las personas y la sociedad
  • No maleficencia: "Primero, no hacer daño" - evitar consecuencias negativas previsibles
  • Ejemplo: Sistemas de diagnóstico médico deben maximizar beneficios (detección temprana) mientras minimizan riesgos (falsos positivos/negativos)

Privacidad y protección de datos

  • Derecho fundamental reconocido por GDPR, Ley 8968 (Costa Rica) y regulaciones globales
  • Incluye: consentimiento informado, minimización de datos, propósito específico
  • Técnicas clave: anonimización, seudonimización, privacy by design
  • Derechos ARCO: Acceso, Rectificación, Cancelación, Oposición

Dilemas éticos en IA

Trade-offs difíciles

Precisión vs. Equidad

Un modelo más preciso puede ser menos equitativo entre grupos. ¿Optimizamos precisión global o equidad entre subgrupos?

Privacidad vs. Utilidad

Más datos mejoran modelos pero comprometen privacidad. ¿Dónde trazamos la línea?

Transparencia vs. Propiedad intelectual

Revelar el funcionamiento puede comprometer ventajas competitivas. ¿Cuánta transparencia es suficiente?

Automatización vs. Empleo

La eficiencia puede desplazar empleos. ¿Cómo balanceamos innovación con impacto social?

No existen soluciones perfectas. La ética en IA requiere navegar trade-offs complejos con transparencia y responsabilidad.

Explainable AI (XAI)

Del "black box" a la transparencia

¿Por qué necesitamos explicabilidad?

En contextos críticos (salud, justicia, crédito), las personas tienen derecho a entender por qué un sistema tomó una decisión que les afecta.

Métodos principales

  • LIME: Local Interpretable Model-agnostic Explanations
  • SHAP: SHapley Additive exPlanations
  • Attention mechanisms: Visualización de qué inputs influencian outputs

Trade-off crítico

Modelos más complejos (deep learning) tienden a ser más precisos pero menos explicables. Modelos simples (regresión) son más explicables pero potencialmente menos precisos.

Panorama regulatorio global

Estado actual diciembre 2025

EU AI Act (vigente desde agosto 2024)

Sistema de clasificación por riesgo: inaceptable, alto, limitado, mínimo. Sanciones: hasta €35M o 7% de facturación global. Aplicación completa: agosto 2026.

Estados Unidos (2025)

Giro significativo: revocación de Orden Ejecutiva de Biden. Enfoque de mínima regulación federal. Única ley federal: TAKE IT DOWN Act (criminaliza deepfakes no consensuales).

China

AI Safety Governance Framework 2.0 (sept 2025). Etiquetado obligatorio de contenido AI. Plan de Acción Global de Gobernanza de IA (julio 2025).

América Latina

Brasil: Ley de IA (dic 2024). Perú: primera ley de IA regional. Chile lidera en preparación. IA representará 5.4% del PIB regional para 2030.

Costa Rica: pionero centroamericano

Estrategia Nacional de IA 2024-2027

Hitos históricos

  • Primer país de Centroamérica y el Caribe con Estrategia Nacional de IA (octubre 2024)
  • Co-facilita (con España) el Diálogo Global sobre Gobernanza de IA en ONU
  • Estrategia alineada con Recomendación UNESCO y Principios OCDE

7 Principios rectores

  • Paz y dignidad humana
  • Supervisión humana
  • Transparencia y explicabilidad
  • Equidad y no discriminación
  • Responsabilidad
  • Sostenibilidad y bienestar
  • Seguridad de la información

"Estamos muy felices de que Costa Rica sea pionero en la región de Centroamérica en la elaboración de una política de inteligencia artificial ética, justa, al servicio de la sociedad."

— Gabriela Ramos, Directora General Adjunta UNESCO

Principales preocupaciones éticas actuales

Diciembre 2025

#1
Desinformación y deepfakes (WEF 2024)
487
Ataques deepfakes en Q2 2025 (+41% vs Q1)
400%
Aumento deepfakes CSAM (H1 2025 vs 2024)

Sesgo algorítmico

Crítico en salud, empleo y justicia. OCDE 2024 incluyó explícitamente como nueva preocupación formal. Requiere "algovigilancia" continua.

Privacidad y vigilancia

49% de empresas experimentaron deepfakes audio/video en 2024. Balance innovación vs. protección sin resolver.

Impacto laboral

OIT y FMI señalan transformación disruptiva. Principios OCDE enfatizan derechos laborales en automatización.

IA generativa

70% adolescentes EE.UU. y 80% UK la usan. Preocupaciones sobre propiedad intelectual y datos de entrenamiento.

Actividad práctica

Análisis de casos reales

Instrucciones

En equipos, seleccionen uno de los casos presentados y analicen:

  • ¿Cuáles fueron los dilemas éticos presentes?
  • ¿Qué principios del framework FATE fueron violados?
  • ¿Cuáles fueron las causas raíz del problema?
  • ¿Qué stakeholders fueron afectados y cómo?
  • ¿Qué controles de gobernanza de datos faltaron?
  • ¿Qué recomendaciones habrían prevenido el incidente?

Casos disponibles

• Amazon Hiring Algorithm
• COMPAS
• Google Gemini
• ChatGPT y suicidio
• Taylor Swift deepfakes

Formato de entrega

• Documento: 3-5 páginas
• Presentación oral: 7-10 min
• Aplicar marcos teóricos estudiados
• Mínimo 3 referencias APA 7

Conclusiones clave

Hacia una IA ética y bien gobernada

La ética y la gobernanza no son obstáculos, son condiciones necesarias

Para una IA que beneficie a la humanidad, debemos integrar reflexión ética, marcos de gobernanza robustos y mecanismos de rendición de cuentas desde el diseño inicial.

Las fallas éticas tienen consecuencias reales

No son hipotéticas: afectan empleos, dignidad, salud mental y procesos democráticos. Los casos documentados muestran patrones recurrentes que podemos prevenir.

Costa Rica lidera en la región

Como pionero centroamericano, tenemos la oportunidad única de estudiar cómo principios internacionales se adaptan a realidades locales.

El futuro de la IA depende de las decisiones éticas que tomemos hoy