Semana 2: Framework FATE y principios complementarios
Microcredencial en Inteligencia Artificial y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología
Enero 2026
Los cuatro pilares de la ética en IA
Los sistemas de IA deben tratar a todos de manera justa, sin discriminación por raza, género, edad u otras características protegidas. Incluye equidad individual, grupal y contrafactual.
Debe existir una cadena clara de responsabilidad desde el desarrollo hasta la implementación. Incluye responsabilidad legal, ética y mecanismos de rendición de cuentas.
Las personas tienen derecho a saber cuándo interactúan con IA y cómo funcionan los sistemas. Abarca transparencia algorítmica, de datos, de propósito y de resultados.
Los sistemas deben poder explicar sus decisiones de manera comprensible para humanos no técnicos, especialmente en contextos críticos como salud y justicia.
Paradigmas y definiciones contemporáneas
Personas similares reciben predicciones similares. El desafío: ¿qué constituye "similitud"?
Propiedades estadísticas similares entre grupos protegidos. Más común por facilidad de medición.
¿La decisión cambiaría si la persona perteneciera a otro grupo demográfico?
No existe una definición única de equidad. El contexto, los valores de la sociedad y las características del problema determinan qué definición es apropiada.
Midiendo la equidad algorítmica
Teorema de imposibilidad: Cuando las tasas base difieren entre grupos, es matemáticamente imposible satisfacer simultáneamente equalized odds y paridad predictiva (excepto con predicción perfecta).
Desafíos actuales (2024-2026)
Analizar atributos protegidos aisladamente (raza O género) falla en capturar discriminación en intersecciones. Mujeres negras experimentan sesgos únicos que no se capturan analizando raza y género separadamente.
Expertos discrepan, legisladores carecen de expertise técnico, y el número creciente de definiciones complica la regulación.
Ninguna métrica única es universalmente apropiada. La selección debe guiarse por dominio, requisitos regulatorios y características del sesgo en los datos.
Cadenas de responsabilidad en IA
Cuando múltiples actores contribuyen a un sistema de IA, asignar responsabilidad por impactos adversos se vuelve extremadamente difícil. Cada actor puede señalar hacia otro, creando "responsabilidad dislocada".
Regulación y fallos recientes
Categorías de riesgo (prohibido, alto, limitado, mínimo) con multas hasta €35M o 7% de facturación global. Establece responsabilidades claras para proveedores y desplegadores.
Caso Air Canada Chatbot (feb 2024): La corte rechazó el argumento de que el chatbot era "entidad legal separada responsable de sus propias acciones". Las empresas son responsables de lo que su tecnología dice y hace.
Niveles de transparencia en IA
Comprender la arquitectura del modelo y los métodos de entrenamiento utilizados.
Conocer qué datos de entrenamiento se usaron, sus fuentes y características.
Divulgación clara de usos previstos, limitaciones conocidas y contextos apropiados.
Comprender cómo se generan los outputs y qué significan en términos prácticos.
La transparencia no es binaria (transparente vs. opaco), sino un espectro con múltiples dimensiones. Diferentes stakeholders requieren diferentes niveles de transparencia.
GDPR, EU AI Act y legislación emergente
Prohíbe decisiones "basadas únicamente en procesamiento automatizado" que produzcan efectos legales. Otorga derechos a intervención humana, expresar punto de vista y acceder a "información significativa sobre la lógica involucrada".
Confirmó la existencia del derecho a explicación. La complejidad del procesamiento automatizado NO justifica reducir estándares de transparencia.
Conceptos fundamentales de XAI
Grado en que un humano puede comprender la lógica interna de un modelo. Es una propiedad del modelo mismo.
Proceso de generar justificaciones después del hecho. Son técnicas aplicadas a modelos complejos.
Explican predicciones individuales. Ejemplo: "¿Por qué fue rechazado ESTE préstamo específico?"
Explican comportamiento general del modelo. Ejemplo: "¿Qué features son generalmente más importantes?"
La explicabilidad es especialmente crítica en contextos de alto riesgo: salud (diagnósticos), justicia (sentencias), crédito (aprobaciones) y empleo (contratación).
Técnicas principales y sus características
En transformers, los pesos de atención indican en qué se "enfoca" el modelo. Advertencia: pueden no reflejar el razonamiento real.
"¿Qué cambios mínimos al input resultarían en predicción diferente?" Ejemplo: "Si tu ingreso fuera $5,000 mayor, habría sido aprobado".
Investigación reciente y desafíos con LLMs
Investigación incluyendo el FICO Explainable ML Challenge (2018) demuestra que frecuentemente es una falacia. Modelos interpretables frecuentemente rinden igual o mejor que alternativas caja negra en dominios como justicia criminal, salud y scoring crediticio.
Bank for International Settlements (2025): Reguladores financieros preocupados por LLMs propietarios que no pueden ser validados independientemente.
Privacidad, beneficencia y no maleficencia
13% de organizaciones reportaron brechas de modelos/aplicaciones de IA en 2024-2025, con 97% careciendo de controles de acceso apropiados (IBM Cost of a Data Breach 2025).
El camino adelante
El teorema de imposibilidad demuestra que no podemos satisfacer simultáneamente todas las definiciones de equidad. La accountability distribuida crea el problema de las muchas manos. La transparencia puede chocar con propiedad intelectual. La explicabilidad enfrenta límites técnicos con LLMs.
El EU AI Act demuestra que es posible regular IA comprehensivamente. Empresas como Unilever y Scotiabank prueban que la ética puede integrarse en procesos de desarrollo. Costa Rica tiene la oportunidad de posicionarse como líder regional.
Los principios FATE no son checklist de cumplimiento, sino marcos para navegación ética continua de trade-offs complejos en contextos específicos.
Después de este repaso teórico, trabajaremos en equipos analizando un caso real que cristaliza estas tensiones: un algoritmo diseñado para eficiencia que causa daño a poblaciones vulnerables, operando sin transparencia ni accountability clara.