Identificar, evaluar, mitigar y monitorear
Semana 11 | Microcredencial en IA y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología | Abril 2026
Por qué gestionar riesgos de IA es urgente
Las capacidades de IA se duplican cada ~5 meses. Los marcos regulatorios tardan años. Esa brecha es el riesgo.
Padres demandaron a OpenAI tras la muerte de Adam Raine, 16 años.
Juez usó ChatGPT para redactar sentencia penal sin divulgarlo.
Documentos gubernamentales cargados a ChatGPT público.
Vehículo autónomo golpeó a un menor cerca de una escuela.
Eliminó una base de datos de producción y fabricó reportes.
Abogados presentaron citaciones inventadas por IA en 5+ países.
Uno desencadena el otro: técnico → ético → legal → reputacional
Alucinaciones, envenenamiento de datos, deriva de modelos
Sesgos algorítmicos, discriminación, impacto en vulnerables
Multas, litigios, acciones colectivas, incumplimiento regulatorio
Viralización de fallos, pérdida de confianza, boicots
Ejemplo: un modelo de contratación sesgado (técnico) discrimina a miles (ético), genera acción colectiva (legal) y se viraliza (reputacional).
Cuatro funciones iterativas, no secuenciales
Cultura, roles y accountability
Contexto, stakeholders y limitaciones
Métricas, testing y cuantificación
Tratamiento, respuesta y monitoreo
Antes de lanzar: ¿quiénes son los afectados? ¿Qué puede fallar? ¿Cuáles son las limitaciones? Sin esta etapa, los riesgos son invisibles hasta que explotan.
¿Es justo? ¿Preciso? ¿Seguro? Sin métricas definidas, la gestión de riesgos es solo buenas intenciones.
Probabilidad x Impacto no es suficiente para IA
IMPACTO →
Modelo de contratación sesgado: velocidad extrema (miles de rechazos/hora), baja detectabilidad (meses oculto), baja reversibilidad (oportunidades perdidas para siempre).
No desplegar. Samsung prohibió ChatGPT tras 3 fugas de datos propietarios.
Seguros de IA. Emergentes pero con exclusiones "casi absolutas".
Guardrails, RLHF, auditorías de equidad, supervisión humana.
Documentar y aprobar cuando mitigar cuesta más que el riesgo.
Defensa en profundidad (4 capas): ajuste fino (RLHF) → guardias de entrada → guardias de salida → monitoreo post-despliegue. Guardrails solos no bastan; alineamiento solo tampoco. Se necesitan ambos.
No es un plan de TI: los modos de fallo son diferentes
Inventario y líneas base
Deriva, alucinaciones, sesgos
Aislar y guardrails de emergencia
Limpiar datos, reentrenar
Probar vs. líneas base
Actualizar y compartir
Deriva, se degrada, es atacada
Políticas como código ejecutable. IA observando IA. Auditoría permanente, no puntual. El 84% de organizaciones busca consolidar herramientas de observabilidad.
201 proyectos de ley en 14 meses: la región decide su futuro
Capacidades se duplican en meses; regulaciones tardan años. La gestión de riesgos tiene consecuencias humanas directas.
Los riesgos de IA necesitan velocidad, reversibilidad, detectabilidad y vulnerabilidad como dimensiones adicionales.
Monitoreo, auditoría y pruebas adversariales: todo continuo. La IA no es estática.
"La pregunta ya no es si gestionar riesgos de IA, sino si podemos hacerlo a la velocidad que la tecnología demanda."
Trabajaremos un caso de análisis ético-crítico donde aplicarán los conceptos de gestión de riesgos discutidos hoy.