ULACIT
1 / 13

Principios éticos fundamentales en IA

Semana 2: Framework FATE y principios complementarios

Microcredencial en Inteligencia Artificial y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología
Enero 2026

Framework FATE

Los cuatro pilares de la ética en IA

Fairness (Equidad)

Los sistemas de IA deben tratar a todos de manera justa, sin discriminación por raza, género, edad u otras características protegidas. Incluye equidad individual, grupal y contrafactual.

Accountability (Responsabilidad)

Debe existir una cadena clara de responsabilidad desde el desarrollo hasta la implementación. Incluye responsabilidad legal, ética y mecanismos de rendición de cuentas.

Transparency (Transparencia)

Las personas tienen derecho a saber cuándo interactúan con IA y cómo funcionan los sistemas. Abarca transparencia algorítmica, de datos, de propósito y de resultados.

Explicability (Explicabilidad)

Los sistemas deben poder explicar sus decisiones de manera comprensible para humanos no técnicos, especialmente en contextos críticos como salud y justicia.

Fairness: ¿qué significa equidad?

Paradigmas y definiciones contemporáneas

Dos paradigmas fundamentales

  • Equidad comparativa: Tratar casos similares de forma similar
  • Equidad no comparativa: Tratar a cada persona como merece, independientemente de otros

Equidad individual

Personas similares reciben predicciones similares. El desafío: ¿qué constituye "similitud"?

Equidad grupal

Propiedades estadísticas similares entre grupos protegidos. Más común por facilidad de medición.

Equidad contrafactual

¿La decisión cambiaría si la persona perteneciera a otro grupo demográfico?

No existe una definición única de equidad. El contexto, los valores de la sociedad y las características del problema determinan qué definición es apropiada.

Métricas de fairness

Midiendo la equidad algorítmica

Métricas principales

  • Paridad demográfica: P(Ŷ=1|A=a) = P(Ŷ=1|A=b) para grupos a, b
  • Equalized odds: Tasas iguales de VP y FP entre grupos
  • Equalized opportunity: Solo igualdad en verdaderos positivos
  • Paridad predictiva: Valor predictivo positivo igual entre grupos

Herramientas de evaluación

  • IBM AI Fairness 360: 70+ métricas, 10 algoritmos de mitigación
  • Microsoft Fairlearn: Clasificación y regresión con dashboard
  • Google Fairness Indicators: Integración con TensorFlow
  • Fairkit-learn: Visualización trade-offs Pareto-óptimos

Teorema de imposibilidad: Cuando las tasas base difieren entre grupos, es matemáticamente imposible satisfacer simultáneamente equalized odds y paridad predictiva (excepto con predicción perfecta).

Debates contemporáneos en fairness

Desafíos actuales (2024-2026)

Interseccionalidad

Analizar atributos protegidos aisladamente (raza O género) falla en capturar discriminación en intersecciones. Mujeres negras experimentan sesgos únicos que no se capturan analizando raza y género separadamente.

85%
Preferencia por nombres asociados con blancos en screeners de currículos con IA
9%
Preferencia por nombres asociados con negros (Universidad de Washington, 2024)

¿Quién define la equidad?

Expertos discrepan, legisladores carecen de expertise técnico, y el número creciente de definiciones complica la regulación.

Equidad contextual

Ninguna métrica única es universalmente apropiada. La selección debe guiarse por dominio, requisitos regulatorios y características del sesgo en los datos.

Accountability: el problema de las muchas manos

Cadenas de responsabilidad en IA

El desafío central

Cuando múltiples actores contribuyen a un sistema de IA, asignar responsabilidad por impactos adversos se vuelve extremadamente difícil. Cada actor puede señalar hacia otro, creando "responsabilidad dislocada".

Desarrolladores

  • Evaluaciones de riesgo iniciales
  • Testing y validación rigurosos
  • Calidad de datos y mitigación de sesgo
  • Model cards con capacidades y limitaciones

Desplegadores

  • Evaluaciones de impacto pre-despliegue
  • Monitoreo de rendimiento en producción
  • Supervisión humana apropiada
  • Transparencia hacia afectados

Usuarios finales

  • Comprender limitaciones del sistema
  • Ejercer escepticismo apropiado
  • No inputear datos sensibles en sistemas públicos

Proveedores de datos

  • Asegurar calidad de datos
  • Consentimiento apropiado
  • Documentación de proveniencia

Marcos de gobernanza y accountability

Regulación y fallos recientes

EU AI Act: marco más comprehensivo

Categorías de riesgo (prohibido, alto, limitado, mínimo) con multas hasta €35M o 7% de facturación global. Establece responsabilidades claras para proveedores y desplegadores.

39%
Fortune 100 con supervisión de IA a nivel de junta
66%
Directores con conocimiento "limitado a nulo" de IA
120+
Casos judiciales con citas legales alucinadas por IA (2024-2025)

Caso Air Canada Chatbot (feb 2024): La corte rechazó el argumento de que el chatbot era "entidad legal separada responsable de sus propias acciones". Las empresas son responsables de lo que su tecnología dice y hace.

Transparency: el derecho a saber

Niveles de transparencia en IA

Transparencia algorítmica

Comprender la arquitectura del modelo y los métodos de entrenamiento utilizados.

Transparencia de datos

Conocer qué datos de entrenamiento se usaron, sus fuentes y características.

Transparencia de propósito

Divulgación clara de usos previstos, limitaciones conocidas y contextos apropiados.

Transparencia de resultados

Comprender cómo se generan los outputs y qué significan en términos prácticos.

La transparencia no es binaria (transparente vs. opaco), sino un espectro con múltiples dimensiones. Diferentes stakeholders requieren diferentes niveles de transparencia.

Marco regulatorio de transparencia

GDPR, EU AI Act y legislación emergente

GDPR Artículo 22: decisiones automatizadas

Prohíbe decisiones "basadas únicamente en procesamiento automatizado" que produzcan efectos legales. Otorga derechos a intervención humana, expresar punto de vista y acceder a "información significativa sobre la lógica involucrada".

Caso CJEU C-203/22 (Dun & Bradstreet, 2024)

Confirmó la existencia del derecho a explicación. La complejidad del procesamiento automatizado NO justifica reducir estándares de transparencia.

EU AI Act

  • Artículo 13: sistemas de alto riesgo deben ser "suficientemente transparentes"
  • Artículo 50: informar cuando se interactúa con IA
  • Artículo 86: derecho a explicaciones claras y significativas

Estados Unidos (2025-2026)

  • California TFAIA: frameworks de seguridad y reportes de transparencia
  • New York RAISE Act: protocolos públicos de seguridad
  • 38 estados: ~100 medidas relacionadas con IA en 2025

Explicability: IA interpretable vs. caja negra

Conceptos fundamentales de XAI

Interpretabilidad

Grado en que un humano puede comprender la lógica interna de un modelo. Es una propiedad del modelo mismo.

Explicabilidad

Proceso de generar justificaciones después del hecho. Son técnicas aplicadas a modelos complejos.

Explicaciones locales

Explican predicciones individuales. Ejemplo: "¿Por qué fue rechazado ESTE préstamo específico?"

Explicaciones globales

Explican comportamiento general del modelo. Ejemplo: "¿Qué features son generalmente más importantes?"

La explicabilidad es especialmente crítica en contextos de alto riesgo: salud (diagnósticos), justicia (sentencias), crédito (aprobaciones) y empleo (contratación).

Métodos de explicabilidad (XAI)

Técnicas principales y sus características

LIME (Local Interpretable Model-agnostic Explanations)

  • Toma una instancia a explicar
  • Genera muestras perturbadas alrededor de ella
  • Ajusta modelo interpretable (regresión lineal)
  • Agnóstico al modelo, pero solo local

SHAP (SHapley Additive exPlanations)

  • Basado en teoría de juegos
  • Trata features como "jugadores"
  • Calcula contribución de cada feature
  • Fundamento teórico sólido, pero costoso

Mecanismos de atención

En transformers, los pesos de atención indican en qué se "enfoca" el modelo. Advertencia: pueden no reflejar el razonamiento real.

Explicaciones contrafactuales

"¿Qué cambios mínimos al input resultarían en predicción diferente?" Ejemplo: "Si tu ingreso fuera $5,000 mayor, habría sido aprobado".

El mito del trade-off precisión-interpretabilidad

Investigación reciente y desafíos con LLMs

¿Es real el trade-off?

Investigación incluyendo el FICO Explainable ML Challenge (2018) demuestra que frecuentemente es una falacia. Modelos interpretables frecuentemente rinden igual o mejor que alternativas caja negra en dominios como justicia criminal, salud y scoring crediticio.

~70%
De datasets benchmark donde modelos white-box rinden igual que black-box

Desafíos con LLMs

  • Billones de parámetros hacen técnicas tradicionales prohibitivas
  • Capacidades emergentes sin programación explícita
  • Alucinaciones sin causas claras
  • Complejidad no lineal distribuida

Bank for International Settlements (2025): Reguladores financieros preocupados por LLMs propietarios que no pueden ser validados independientemente.

Principios complementarios

Privacidad, beneficencia y no maleficencia

Privacidad y protección de datos

  • Privacidad diferencial: Ruido calibrado que protege individuos
  • Aprendizaje federado: Entrenamiento sin compartir datos crudos
  • Cifrado homomórfico: Computaciones sobre datos cifrados
  • Enforcement: €5.88 mil millones en multas GDPR (ene 2025)

Beneficencia y no maleficencia

  • Beneficencia: Diseñar sistemas que beneficien a personas y sociedad
  • No maleficencia: "Primero, no hacer daño" - evitar consecuencias negativas previsibles
  • Recomendación UNESCO: 10 principios incluyendo proporcionalidad, seguridad y equidad
  • IA centrada en humanos: Herramienta que mejora (no reemplaza) capacidades humanas

13% de organizaciones reportaron brechas de modelos/aplicaciones de IA en 2024-2025, con 97% careciendo de controles de acceso apropiados (IBM Cost of a Data Breach 2025).

Conclusiones: tensiones fundamentales

El camino adelante

Los principios FATE son inherentemente tensionados

El teorema de imposibilidad demuestra que no podemos satisfacer simultáneamente todas las definiciones de equidad. La accountability distribuida crea el problema de las muchas manos. La transparencia puede chocar con propiedad intelectual. La explicabilidad enfrenta límites técnicos con LLMs.

Estos desafíos no son excusas para inacción

El EU AI Act demuestra que es posible regular IA comprehensivamente. Empresas como Unilever y Scotiabank prueban que la ética puede integrarse en procesos de desarrollo. Costa Rica tiene la oportunidad de posicionarse como líder regional.

Los principios FATE no son checklist de cumplimiento, sino marcos para navegación ética continua de trade-offs complejos en contextos específicos.

Próximos pasos

Después de este repaso teórico, trabajaremos en equipos analizando un caso real que cristaliza estas tensiones: un algoritmo diseñado para eficiencia que causa daño a poblaciones vulnerables, operando sin transparencia ni accountability clara.