Semana 1: Fundamentos y casos críticos
Microcredencial en Inteligencia Artificial y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología
Diciembre 2025
¿Por qué es importante?
La ética en IA no es un obstáculo para la innovación, es la condición necesaria para una tecnología que beneficie a toda la humanidad.
Dos caras de la misma moneda
| Aspecto | Ética en IA | Gobernanza de datos en IA |
|---|---|---|
| Enfoque | Principios y valores morales | Estructuras organizacionales y procesos |
| Pregunta clave | ¿Qué debemos hacer? | ¿Cómo lo hacemos? |
| Resultado | Lineamientos éticos y principios | Políticas, roles, procedimientos |
| Ejemplo | Equidad, transparencia, privacidad | Comités de ética, data stewards, auditorías |
La ética define el "qué" (principios), mientras que la gobernanza define el "cómo" (implementación).
Lecciones aprendidas
Sistema de contratación con sesgo de género. Penalizaba CVs con la palabra "women" y favorecía candidatos masculinos.
Algoritmo de predicción de reincidencia criminal con sesgo racial. Falsos positivos más altos en afroamericanos.
Generación de imágenes históricas inexactas. Diversificación excesiva comprometió precisión histórica.
Caso de joven belga Eliza: ChatGPT proporcionó respuestas que contribuyeron a decisión suicida. Falta de salvaguardas en salud mental.
Imágenes sexuales generadas con IA circularon en redes. 47M de visualizaciones antes de ser removidas. Violación de privacidad y dignidad.
Más allá del daño reputacional
Las fallas éticas en IA no son hipotéticas: tienen consecuencias reales, medibles y a menudo devastadoras para individuos y organizaciones.
Tendencias 2024-2025
El sesgo algorítmico fue incluido explícitamente como nueva preocupación formal por la OCDE en 2024, reflejando su criticidad en salud, empleo y justicia.
Principios fundamentales de ética en IA
Los sistemas de IA deben tratar a todos de manera justa, sin discriminación por raza, género, edad u otras características protegidas.
Debe existir una cadena clara de responsabilidad desde el desarrollo hasta la implementación y uso de sistemas de IA.
Las personas tienen derecho a saber cuándo interactúan con IA y cómo funcionan los sistemas que les afectan.
Los sistemas deben poder explicar sus decisiones de manera comprensible, especialmente en contextos críticos como salud o justicia.
Más allá de FATE
Trade-offs difíciles
Un modelo más preciso puede ser menos equitativo entre grupos. ¿Optimizamos precisión global o equidad entre subgrupos?
Más datos mejoran modelos pero comprometen privacidad. ¿Dónde trazamos la línea?
Revelar el funcionamiento puede comprometer ventajas competitivas. ¿Cuánta transparencia es suficiente?
La eficiencia puede desplazar empleos. ¿Cómo balanceamos innovación con impacto social?
No existen soluciones perfectas. La ética en IA requiere navegar trade-offs complejos con transparencia y responsabilidad.
Del "black box" a la transparencia
En contextos críticos (salud, justicia, crédito), las personas tienen derecho a entender por qué un sistema tomó una decisión que les afecta.
Modelos más complejos (deep learning) tienden a ser más precisos pero menos explicables. Modelos simples (regresión) son más explicables pero potencialmente menos precisos.
Estado actual diciembre 2025
Sistema de clasificación por riesgo: inaceptable, alto, limitado, mínimo. Sanciones: hasta €35M o 7% de facturación global. Aplicación completa: agosto 2026.
Giro significativo: revocación de Orden Ejecutiva de Biden. Enfoque de mínima regulación federal. Única ley federal: TAKE IT DOWN Act (criminaliza deepfakes no consensuales).
AI Safety Governance Framework 2.0 (sept 2025). Etiquetado obligatorio de contenido AI. Plan de Acción Global de Gobernanza de IA (julio 2025).
Brasil: Ley de IA (dic 2024). Perú: primera ley de IA regional. Chile lidera en preparación. IA representará 5.4% del PIB regional para 2030.
Estrategia Nacional de IA 2024-2027
"Estamos muy felices de que Costa Rica sea pionero en la región de Centroamérica en la elaboración de una política de inteligencia artificial ética, justa, al servicio de la sociedad."
— Gabriela Ramos, Directora General Adjunta UNESCO
Diciembre 2025
Crítico en salud, empleo y justicia. OCDE 2024 incluyó explícitamente como nueva preocupación formal. Requiere "algovigilancia" continua.
49% de empresas experimentaron deepfakes audio/video en 2024. Balance innovación vs. protección sin resolver.
OIT y FMI señalan transformación disruptiva. Principios OCDE enfatizan derechos laborales en automatización.
70% adolescentes EE.UU. y 80% UK la usan. Preocupaciones sobre propiedad intelectual y datos de entrenamiento.
Análisis de casos reales
En equipos, seleccionen uno de los casos presentados y analicen:
• Amazon Hiring Algorithm
• COMPAS
• Google Gemini
• ChatGPT y suicidio
• Taylor Swift deepfakes
• Documento: 3-5 páginas
• Presentación oral: 7-10 min
• Aplicar marcos teóricos estudiados
• Mínimo 3 referencias APA 7
Hacia una IA ética y bien gobernada
Para una IA que beneficie a la humanidad, debemos integrar reflexión ética, marcos de gobernanza robustos y mecanismos de rendición de cuentas desde el diseño inicial.
No son hipotéticas: afectan empleos, dignidad, salud mental y procesos democráticos. Los casos documentados muestran patrones recurrentes que podemos prevenir.
Como pionero centroamericano, tenemos la oportunidad única de estudiar cómo principios internacionales se adaptan a realidades locales.
El futuro de la IA depende de las decisiones éticas que tomemos hoy