ULACIT
1 / 13

Gestión de riesgos en IA

Identificar, evaluar, mitigar y monitorear

Semana 11 | Microcredencial en IA y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología | Abril 2026

El problema en números

Por qué gestionar riesgos de IA es urgente

346
Incidentes de IA registrados en 2025 (+48% vs. 2024)
52%
Involucraron deepfakes
$347M
Pérdidas por fraude con deepfakes en un solo trimestre
29 min
Tiempo promedio de exfiltración en ciberataques con IA

Las capacidades de IA se duplican cada ~5 meses. Los marcos regulatorios tardan años. Esa brecha es el riesgo.

Esto ya pasó: casos reales 2025-2026

Agosto 2025

ChatGPT y suicidio adolescente

Padres demandaron a OpenAI tras la muerte de Adam Raine, 16 años.

2025

Tribunal argentino anula condena

Juez usó ChatGPT para redactar sentencia penal sin divulgarlo.

Julio 2025

Director de CISA sube docs sensibles

Documentos gubernamentales cargados a ChatGPT público.

Enero 2026

Waymo atropella a niño

Vehículo autónomo golpeó a un menor cerca de una escuela.

2025

Agente de Replit borra BD

Eliminó una base de datos de producción y fabricó reportes.

2025-2026

Citas legales fabricadas

Abogados presentaron citaciones inventadas por IA en 5+ países.

Los cuatro tipos de riesgo

Uno desencadena el otro: técnico → ético → legal → reputacional

Técnicos

Alucinaciones, envenenamiento de datos, deriva de modelos

Éticos

Sesgos algorítmicos, discriminación, impacto en vulnerables

Legales

Multas, litigios, acciones colectivas, incumplimiento regulatorio

Reputacionales

Viralización de fallos, pérdida de confianza, boicots

Ejemplo: un modelo de contratación sesgado (técnico) discrimina a miles (ético), genera acción colectiva (legal) y se viraliza (reputacional).

NIST AI RMF: el ciclo de gestión de riesgos

Cuatro funciones iterativas, no secuenciales

GOVERN

Cultura, roles y accountability

MAP

Contexto, stakeholders y limitaciones

MEASURE

Métricas, testing y cuantificación

MANAGE

Tratamiento, respuesta y monitoreo

MAP: la pregunta que nadie hizo

Antes de lanzar: ¿quiénes son los afectados? ¿Qué puede fallar? ¿Cuáles son las limitaciones? Sin esta etapa, los riesgos son invisibles hasta que explotan.

MEASURE: si no se mide, no existe

¿Es justo? ¿Preciso? ¿Seguro? Sin métricas definidas, la gestión de riesgos es solo buenas intenciones.

La matriz de riesgos necesita más dimensiones

Probabilidad x Impacto no es suficiente para IA

PROBABILIDAD
5
10
15
20
25
4
8
12
16
20
3
6
9
12
15
2
4
6
8
10
1
2
3
4
5
Bajo
Medio
Alto
Muy alto
Extremo

IMPACTO →

4 dimensiones extra para IA

  • Velocidad: miles de decisiones por hora
  • Reversibilidad: ¿se puede deshacer el daño?
  • Detectabilidad: ¿cuánto tarda en descubrirse?
  • Vulnerabilidad: ¿a quiénes afecta más?

Ejemplo

Modelo de contratación sesgado: velocidad extrema (miles de rechazos/hora), baja detectabilidad (meses oculto), baja reversibilidad (oportunidades perdidas para siempre).

Las cuatro estrategias de mitigación

X

Evitar

No desplegar. Samsung prohibió ChatGPT tras 3 fugas de datos propietarios.

Transferir

Seguros de IA. Emergentes pero con exclusiones "casi absolutas".

Mitigar

Guardrails, RLHF, auditorías de equidad, supervisión humana.

Aceptar

Documentar y aprobar cuando mitigar cuesta más que el riesgo.

Defensa en profundidad (4 capas): ajuste fino (RLHF) → guardias de entrada → guardias de salida → monitoreo post-despliegue. Guardrails solos no bastan; alineamiento solo tampoco. Se necesitan ambos.

Red teaming: probar antes de que otros lo hagan

24h
Tiempo en comprometer GPT-5 tras su lanzamiento
35%
De incidentes de seguridad de IA causados por prompts simples

Red teaming de IA vs. tradicional

  • Enfoque en comportamiento del modelo, no en infraestructura
  • Probar la configuración completa desplegada
  • Combinar pruebas manuales + automatizadas
  • Pruebas continuas (tiempo de explotación: de días a horas)
MITRE ATLAS Garak PyRIT OWASP LLM Top 10

Plan de respuesta a incidentes de IA

No es un plan de TI: los modos de fallo son diferentes

Preparación

Inventario y líneas base

Detección

Deriva, alucinaciones, sesgos

Contención

Aislar y guardrails de emergencia

Erradicación

Limpiar datos, reentrenar

Recuperación

Probar vs. líneas base

Lecciones

Actualizar y compartir

Qué lo hace diferente

  • Outputs no deterministas
  • Degradación gradual, no fallo binario
  • Superficie ampliada: discriminación, daño psicológico, copyright

Plazos del EU AI Act

  • 2 días: infraestructura crítica
  • 10 días: si hay fallecimiento
  • 15 días: incidentes serios estándar

Monitoreo continuo: la IA no es software estático

Deriva, se degrada, es atacada

91%
De modelos ML experimentan deriva
51%
De organizaciones tuvieron fallos que requirieron observabilidad
87.5%
Reducción de incidentes con policy-as-code

Qué monitorear

  • Deriva de datos: producción diverge de entrenamiento
  • Equidad: métricas de sesgo entre grupos
  • Alucinaciones: detección en tiempo real

Tendencia: todo continuo

Políticas como código ejecutable. IA observando IA. Auditoría permanente, no puntual. El 84% de organizaciones busca consolidar herramientas de observabilidad.

América Latina y Costa Rica

201 proyectos de ley en 14 meses: la región decide su futuro

Líderes

  • Chile: 1er lugar ILIA 2025
  • Brasil: multas hasta R$50M
  • Perú: reglamentos vigentes 2026

Costa Rica

  • ENIA 2024-2027 (primera en Centroamérica)
  • 5to lugar ILIA: "adoptante"
  • Ley 8968 no aborda IA
  • Ningún proyecto aprobado

Ya pasa aquí

  • Deepfakes electorales en Argentina y Ecuador
  • Detenciones injustas por reconocimiento facial en Brasil
  • 85% de jueces colombianos usan IA sin entrenamiento

Tres ideas para llevarse

1

La brecha se amplía

Capacidades se duplican en meses; regulaciones tardan años. La gestión de riesgos tiene consecuencias humanas directas.

2

Más allá de la matriz

Los riesgos de IA necesitan velocidad, reversibilidad, detectabilidad y vulnerabilidad como dimensiones adicionales.

3

De puntual a continuo

Monitoreo, auditoría y pruebas adversariales: todo continuo. La IA no es estática.

NIST AI RMF EU AI Act ISO 42001 FRIA OWASP MITRE ATLAS Ley 8968 ENIA

Lo que sigue

"La pregunta ya no es si gestionar riesgos de IA, sino si podemos hacerlo a la velocidad que la tecnología demanda."

A continuación: actividad práctica en equipos

Trabajaremos un caso de análisis ético-crítico donde aplicarán los conceptos de gestión de riesgos discutidos hoy.