ULACIT
1 / 22

Marcos y estándares de gobernanza de IA

Semana 9: ISO 42001, NIST AI RMF, COBIT, OCDE y UNESCO

Microcredencial en Inteligencia Artificial y Análisis de Datos
Universidad Latinoamericana de Ciencia y Tecnología
Marzo 2026

Agenda de hoy

Contenidos de la sesión

Parte 1: Estándares certificables y marcos de riesgo

  • ISO/IEC 42001: el primer estándar certificable de gestión de IA
  • Ecosistema complementario: ISO 42005, ISO 42006
  • Adopción global y en América Latina
  • NIST AI RMF: las cuatro funciones centrales
  • Perfiles complementarios: GenAI y Cyber AI
  • Contexto político y estado actual del NIST AI RMF

Parte 2: Gobernanza empresarial y principios globales

  • COBIT 2019: extensión de gobernanza de TI a IA
  • Certificaciones de ISACA para IA
  • Principios de la OCDE sobre IA (actualización 2024)
  • UNESCO: Recomendación sobre Ética de IA
  • Implementación RAM y posición de Costa Rica

Parte 3: Integración y comparación

  • El governance stack: cuatro capas complementarias
  • Crosswalks oficiales entre marcos
  • Cuándo usar cada marco según el contexto
  • Panorama regulatorio global 2025-2026

Parte 4: Tendencias y cierre

  • De voluntario a obligatorio: el punto de inflexión
  • Gobernanza como ventaja competitiva
  • Datos de la industria sobre impacto de gobernanza
  • Actividad práctica en equipos

El contexto: la gobernanza de IA cruzó el punto de inflexión

De principios voluntarios a regulación vinculante

76%
De organizaciones planea adoptar ISO 42001 (CSA 2025)
25%
Tiene gobernanza de IA plenamente operativa (AuditBoard 2025)
40%
De proyectos de IA se cancelarán por controles de riesgo inadecuados (Gartner)
46%
Menos fallas de cumplimiento en organizaciones con AI boards formales (Gartner)

La brecha de madurez

Casi la mitad de las organizaciones reportan fallas de gobernanza vinculadas a proyectos de IA generativa (McKinsey 2025). Solo 1 de cada 5 empresas tiene gobernanza madura para IA agéntica (Deloitte 2026). La gobernanza responsable incrementa las tasas de éxito de proyectos entre un 30% y 40% (PwC 2025).

"NIST provee la metodología de gestión de riesgos. ISO 42001 provee el sistema de gestión auditable. El EU AI Act provee los requisitos legales. Una organización que implementa los tres no duplica esfuerzos si usa los crosswalks publicados." -- Global AI Compliance Center

ISO/IEC 42001:2023 -- el estándar certificable de gestión de IA

El primer y único estándar internacional certificable específico para IA

Estructura y metodología

Publicado en diciembre 2023, ISO/IEC 42001 se construye sobre la High Level Structure (Annex SL) de ISO, compartida con ISO 27001 (seguridad de información) e ISO 9001 (calidad). Sigue la metodología Plan-Do-Check-Act (PDCA) a través de diez cláusulas:

  • Contexto organizacional y partes interesadas
  • Liderazgo y compromiso de la dirección
  • Planificación: riesgos, oportunidades y objetivos
  • Soporte: recursos, competencia y comunicación
  • Operación: planificación y control operacional
  • Evaluación del desempeño y mejora continua

Anexo A: 38 controles específicos de IA

El Anexo A contiene controles que cubren:

  • Gobernanza responsable de IA: políticas, roles, rendición de cuentas
  • Evaluación de impacto: análisis de efectos sociales, grupales e individuales
  • Gestión del ciclo de vida: desde diseño hasta retiro del sistema
  • Gestión de datos: calidad, proveniencia, sesgo
  • Transparencia: explicabilidad y comunicación a usuarios
  • Cadena de suministro: supervisión de proveedores de IA

Ventaja clave: integración con sistemas existentes

Al compartir la estructura Annex SL, las organizaciones que ya tienen ISO 27001 o ISO 9001 pueden integrar ISO 42001 sin duplicar esfuerzos. Empresas como Swimlane mantienen la "triple certificación" (42001 + 27001 + 27701) bajo un sistema de gestión unificado.

ISO 42001: ecosistema complementario y adopción global

Un estándar que madura rápidamente con normas acompañantes

Normas complementarias publicadas en 2025

  • ISO/IEC 42005:2025 (abril 2025): evaluación de impacto de sistemas de IA a nivel social, grupal e individual
  • ISO/IEC 42006:2025: requisitos para organismos de auditoría y certificación, habilitando infraestructura de confianza acreditada
  • ISO/IEC 22989: terminología de IA
  • ISO/IEC 23053: marco de referencia de IA
  • ISO/IEC 23894: guía de gestión de riesgos de IA

Organizaciones certificadas (2025-2026)

  • Microsoft -- Microsoft 365 Copilot
  • Amazon Web Services -- Bedrock, Q Business, Textract, Transcribe
  • IBM -- modelos Granite (primer modelo open-source certificado, cero no-conformidades)
  • Anthropic -- enero 2025
  • KPMG -- Australia y Estados Unidos
  • Darktrace -- julio 2025, entre las primeras de ciberseguridad
  • Aeropuerto Changi de Singapur -- febrero 2025

Organismos certificadores líderes

Schellman (primer CB acreditado por ANAB para ISO 42001), BSI, SGS, TÜV SÜD y Applus+ Laboratories. La infraestructura de certificación se expande aceleradamente para satisfacer la creciente demanda global.

ISO 42001: América Latina y reconocimiento legal

La certificación como ventaja competitiva y escudo regulatorio

América Latina se posiciona

Softtek (México) se convirtió en la primera empresa tecnológica de la región en obtener certificación ISO 42001, anunciada el 6 de noviembre de 2025, certificada por Applus+.

INTECO (Costa Rica) adoptó el estándar nacionalmente como INTE/ISO/IEC 42001:2026.

El organismo certificador G-Certi se posiciona para ofrecer servicios ISO 42001 en 104 economías con enfoque especial en la región.

Reconocimiento legal creciente

  • Colorado AI Act: reconoce explícitamente la adherencia a ISO 42001 como posible safe harbor
  • EU AI Act: el Código de Práctica de GPAI se mapea a ISO 42001, convirtiéndolo en el sistema operativo de facto para compliance
  • Empresas Fortune 500 están comenzando a exigir ISO 42001 a proveedores, replicando la trayectoria que ISO 27001 siguió hace una década
  • Texas TRAIGA y otros estados de EE.UU. crean safe harbors referenciando marcos reconocidos

ISO 42001 está siguiendo la misma trayectoria de adopción que ISO 27001: de estándar emergente a requisito de mercado. Las organizaciones con certificación temprana tendrán ventaja competitiva conforme la demanda se vuelva norma en contratos y licitaciones.

NIST AI Risk Management Framework

Cuatro funciones centrales para la gestión de riesgos de IA

Estructura: Govern, Map, Measure, Manage

El NIST AI RMF 1.0 (AI 100-1), publicado el 26 de enero de 2023, estructura la gobernanza de IA confiable en un ciclo iterativo de cuatro funciones, no una secuencia lineal. Identifica siete características de IA confiable: válida y confiable, segura, resiliente, responsable y transparente, explicable e interpretable, con privacidad mejorada, y equitativa.

Govern

Establece la cultura organizacional de riesgo de IA, políticas, roles y rendición de cuentas. Es la función fundacional que permea las otras tres.

Map

Construye conciencia contextual: sistemas de IA, stakeholders, riesgos potenciales, usos previstos e imprevistos, y poblaciones vulnerables.

Measure

Proporciona métodos analíticos: detección de sesgo, monitoreo de desempeño, métricas de equidad y seguimiento de cumplimiento.

Manage

Prioriza mitigación de riesgos, asigna recursos, establece protocolos de respuesta a incidentes y planes de acción.

A diferencia de ISO 42001, el NIST AI RMF no es certificable. Es un marco de orientación flexible que las organizaciones adaptan a su contexto, y que reguladores y legisladores referencian en leyes y guías de enforcement.

NIST AI RMF: ecosistema de perfiles y guías complementarias

Extensiones para IA generativa, ciberseguridad y derechos humanos

AI 600-1: perfil de IA generativa

Publicado julio 2024. Identifica 12 categorías de riesgo únicas o exacerbadas por IA generativa. Contiene más de 200 acciones sugeridas. Texas TRAIGA crea safe harbor para entidades que cumplan sustancialmente con este perfil.

IR 8596: perfil Cyber AI

Borrador preliminar diciembre 2025. Integra el AI RMF con el Cybersecurity Framework 2.0 en tres áreas: asegurar sistemas de IA, defensa cibernética habilitada por IA, y contramedidas contra ataques cibernéticos con IA.

Guías adicionales

SP 800-218A: desarrollo seguro para IA generativa. SP 800-53 R5.2.0 (agosto 2025): nuevos controles relevantes para IA. Perfil de Derechos Humanos del Departamento de Estado.

Repositorio de crosswalks oficiales

NIST mantiene mapeos oficiales del AI RMF hacia: ISO/IEC 42001 (contribuido por Microsoft), ISO/IEC 23894, ISO/IEC 42005, EU AI Act, Recomendación de la OCDE, Singapore AI Verify, Guías de Japón AISI y Korea TTA Guidebook. Estos crosswalks permiten usar NIST operacionalmente mientras se persigue certificación ISO, un enfoque común en empresas estadounidenses.

NIST AI RMF: contexto político y estado actual

Navegando vientos políticos sin perder relevancia técnica

Cambios políticos en EE.UU.

En enero 2025, se revocó la Orden Ejecutiva 14110 de Biden que dirigía el trabajo de NIST sobre IA generativa. En julio 2025, el plan "America's AI Action Plan" ordenó a NIST revisar el AI RMF para eliminar referencias a desinformación, diversidad e inclusión, y cambio climático.

El AI RMF 1.1 está en desarrollo incorporando estas revisiones. Un decreto de diciembre 2025 creó un grupo de litigio de IA en el DOJ para impugnar leyes estatales, lo que provocó que 42 fiscales generales enviaran una carta oponiéndose.

Relevancia sostenida pese al contexto

El NIST AI RMF sigue siendo el estándar de facto para gobernanza de IA en EE.UU. Las agencias federales (FTC, CFPB, FDA, SEC, EEOC, DoD, GAO) lo referencian en guías de enforcement.

Empresas como Workday, IBM y AWS alinean sus prácticas de gobernanza al marco. Disponible en traducciones al japonés y árabe.

Las leyes estatales anti-discriminación subyacentes no se ven afectadas por los cambios políticos al marco mismo.

La lección para profesionales de gobernanza: los marcos técnicos son herramientas, no posiciones políticas. El valor del NIST AI RMF reside en su estructura de gestión de riesgos, que trasciende ciclos políticos y es aplicable independientemente de la dirección regulatoria del momento.

COBIT 2019: extensión de gobernanza de TI a la IA

Un puente desde la gobernanza empresarial existente

Estructura de COBIT 2019

Publicado por ISACA, COBIT estructura la gobernanza de tecnología empresarial en 5 dominios con 40 objetivos, operando a través de siete componentes: procesos, estructuras organizacionales, políticas y procedimientos, personas y competencias, cultura y ética, flujos de información, e infraestructura.

EDM + APO

EDM: Evaluar, Dirigir y Monitorear (gobernanza a nivel de junta). APO: Alinear, Planificar y Organizar (estrategia, presupuesto, riesgo, recursos).

BAI + DSS

BAI: Construir, Adquirir e Implementar (desarrollo, gestión de cambios). DSS: Entregar, Dar Servicio y Soporte (operaciones, seguridad, continuidad).

MEA

MEA: Monitorear, Evaluar y Valorar (desempeño, cumplimiento regulatorio, aseguramiento).

Seis beneficios para gobernanza de IA (ISACA 2025)

Alineación de objetivos de IA con metas de negocio. Accountability y propiedad claras. Gestión de riesgos robusta a lo largo del ciclo de vida. Mecanismos de mejora continua. Loops de retroalimentación documentados. Guía de cumplimiento regulatorio.

Caso de estudio: Air Canada (2024)

ISACA usó el caso del chatbot de Air Canada como ejemplo de gobernanza inadecuada. El chatbot proporcionó información incorrecta sobre tarifas de duelo, generando responsabilidad legal. COBIT habría requerido supervisión en EDM01 y gestión de riesgos en APO12.

COBIT: nuevas certificaciones de IA y limitaciones

ISACA acelera su oferta para profesionales de gobernanza de IA

AAIA (mayo 2025)

Advanced in AI Audit: primera certificación avanzada de auditoría específica de IA. Requiere CISA, CIA o CPA activo. Cubre gobernanza y riesgo de IA, operaciones de IA, y herramientas de auditoría de IA.

AAISM (agosto 2025)

Advanced in AI Security Management: primera certificación de gestión de seguridad centrada en IA. Requiere CISM o CISSP activo. Complementa los conocimientos de ciberseguridad con gobernanza de IA.

AI Fundamentals Certificate

Certificado de nivel introductorio sin prerrequisitos. Proporciona alfabetización básica en IA para profesionales de todas las áreas. Complementado por un AI Controls Toolkit.

Validación académica

Un estudio de junio 2025 desarrolló un marco de gobernanza de IA para ciudades inteligentes integrando COBIT 2019, demostrando mejoras medibles de madurez: 69.2% en DSS05 (Gestión de Servicios de Seguridad) y 60.7% en APO12 (Riesgo Gestionado).

Limitación importante

COBIT no fue diseñado para riesgos específicos de IA como sesgo algorítmico, equidad o explicabilidad. Estos deben abordarse mediante las guías suplementarias de ISACA o integrando otros marcos (NIST, ISO 42001). Su fortaleza está en extender gobernanza de TI existente a la IA, no en reemplazar marcos especializados.

Principios de la OCDE sobre IA

El lenguaje común global, actualizado para la era generativa

Origen y actualización

Adoptados originalmente en mayo 2019 como el primer estándar intergubernamental sobre IA, fueron actualizados en mayo 2024 para abordar IA generativa, IA de propósito general y evolución post-despliegue. El G20 adoptó principios alineados. 47 adherentes se han comprometido, incluyendo todos los miembros de la OCDE y la Unión Europea.

Cinco principios basados en valores

  • Crecimiento inclusivo: la IA debe beneficiar a personas y al planeta
  • Valores centrados en el ser humano: derechos humanos, equidad y bienestar
  • Transparencia: divulgación responsable sobre sistemas de IA
  • Robustez y seguridad: funcionamiento seguro a lo largo del ciclo de vida
  • Rendición de cuentas: responsabilidad por el funcionamiento adecuado

Cinco recomendaciones de política

  • Inversión en I+D de IA confiable
  • Fomento de ecosistemas digitales accesibles
  • Entornos de política habilitadores
  • Desarrollo de capacidad humana y preparación laboral
  • Cooperación internacional para IA interoperable

Contribución crítica: la definición revisada de sistema de IA

En noviembre 2023, la OCDE revisó su definición de sistema de IA, ahora adoptada por el EU AI Act, el Consejo de Europa, Estados Unidos, Naciones Unidas y Japón. Esta definición proporciona la terminología legal fundacional utilizada a través de jurisdicciones, logrando armonización conceptual sin precedentes.

La OCDE, América Latina y el Observatorio OECD.AI

Siete países latinoamericanos adherentes y un observatorio de referencia global

Países latinoamericanos adherentes

Siete países de la región se han adherido a los Principios de la OCDE sobre IA: Argentina, Brasil, Chile, Colombia, Costa Rica, México y Perú.

Una evaluación OCDE/CAF clasificó a Colombia y Uruguay como los más maduros, mientras que Costa Rica y México muestran "compromiso sólido."

Costa Rica, como miembro de la OCDE, participa en el Comité de Gobernanza de IA y el Global Partnership on AI (GPAI). La ENIA 2024-2027 se alinea explícitamente con los principios de la OCDE.

OECD.AI Policy Observatory

  • Rastrea más de 1,000 iniciativas de política en más de 70 jurisdicciones
  • Contiene 50+ estrategias nacionales de IA
  • En septiembre 2025, la OCDE publicó un informe de 306 páginas analizando 200 casos reales de uso de IA en gobierno
  • Propone un marco de tres pilares: Enablers (habilitadores), Guardrails (barandillas) y Engagement (participación)
  • Recurso gratuito y accesible en oecd.ai

Los Principios de la OCDE cumplen una función única: no son certificables ni vinculantes, pero establecen el lenguaje y los valores compartidos que luego se operacionalizan a través de marcos técnicos (NIST, ISO) y se hacen exigibles mediante regulación (EU AI Act, leyes nacionales).

UNESCO: Recomendación sobre la Ética de la IA

El instrumento normativo global más amplio: 193 estados miembros

Estructura: valores, principios y áreas de acción

Adoptada unánimemente en noviembre 2021 por los 193 estados miembros de la UNESCO. Articula 4 valores fundamentales, 10 principios y 11 áreas de acción política.

4 valores fundamentales

Derechos humanos y dignidad. Sociedades pacíficas y justas. Diversidad e inclusión. Medio ambiente y florecimiento del ecosistema.

10 principios

Proporcionalidad y no causar daño. Seguridad. Privacidad. Gobernanza multi-stakeholder. Responsabilidad y rendición de cuentas. Transparencia y explicabilidad. Supervisión humana. Sostenibilidad. Conciencia y alfabetización. Equidad y no discriminación.

11 áreas de acción

Evaluación de impacto ético. Gobernanza de datos. Género. Cultura. Educación e investigación. Salud. Economía y trabajo. Medio ambiente. Servicios públicos. Comunicación e información. Cooperación internacional.

Implementación: Readiness Assessment Methodology (RAM)

Desplegada en más de 80 países (desde 50 en 2023). Evalúa preparación en cinco dimensiones: legal/regulatoria, social/cultural, económica, científica/educativa y técnica/infraestructural. Chile fue el primer país del mundo en completar el RAM. El 3er Foro Global sobre Ética de IA se celebró en Bangkok en junio 2025.

UNESCO y Costa Rica: una posición privilegiada

Costa Rica como líder regional en ética de IA según la UNESCO

Participación activa de Costa Rica

Costa Rica está entre los 50 países iniciales del RAM y es uno de solo 10 países piloto para el Global Index on Responsible AI (junto a Canadá, India, Kenya y otros).

La UNESCO publicó el documento "Artificial Intelligence in Costa Rica: Justice, Ethics, and Inclusion".

En noviembre 2025, UNESCO se asoció con Costa Rica en una iniciativa para equipar funcionarios públicos de más de 300 entidades con competencias en IA, lanzando un MOOC co-desarrollado con la Universidad de Oxford.

La Escuela de Administración Pública de la UCR es miembro de la alianza SPARK-AI de la UNESCO.

Publicaciones recientes de la UNESCO

  • Diciembre 2025: guías para el uso de sistemas de IA en tribunales y cortes
  • Noviembre 2025: recomendación sobre ética de la neurotecnología, extendiendo la metodología de IA a interfaces cerebro-computadora
  • 2do Foro Global (2024): ocho grandes empresas tech firmaron compromisos de IA ética: Microsoft, Mastercard, Lenovo, GSMA, INNIT, LG, Salesforce y Telefónica

La posición de Costa Rica en el ecosistema de la UNESCO es estratégica: participación simultánea en RAM, en el índice piloto de IA responsable, y con una estrategia nacional (ENIA) explícitamente alineada con los principios de la UNESCO y la OCDE.

Comparación directa entre los cinco marcos

Tipo, certificabilidad, enforcement y cobertura

Dimensión ISO 42001 NIST AI RMF COBIT 2019 OCDE UNESCO
Tipo Estándar certificable Marco de riesgo Gobernanza de TI Principios de política Estándar ético
Certificable Sí (único) No No (para IA) No No
Enforcement Mercado + safe harbors Referenciado por reguladores Voluntario Presión de pares Voluntario (RAM)
Cobertura GenAI Vía evaluación de riesgos Perfil AI 600-1 No específica Actualizado 2024 No específica
Audiencia principal Todas las organizaciones Todas las organizaciones Líderes TI/negocio Gobiernos Todos los stakeholders
Alcance geográfico Global (ISO) EE.UU. / global Global (ISACA) 47 adherentes 193 estados miembros
Relevancia para CR INTE adoptó INTE/ISO 42001:2026 Referencia técnica Extensión de TI CR es miembro OCDE CR es país piloto

El governance stack: cuatro capas complementarias

Los marcos no compiten, se complementan en un ecosistema integrado

Capa 1: valores y ética

OCDE + UNESCO

Establece los valores universales y las barandillas éticas. Define el "por qué" y los principios rectores que orientan toda la gobernanza.

Capa 2: estándares

NIST AI RMF + ISO 42001 + COBIT

Proporciona estructuras de implementación, gestión de riesgos y cumplimiento operativo. Define el "cómo" se operacionalizan los principios.

Capa 3: regulación

EU AI Act + leyes nacionales

Hace la gobernanza exigible. Define obligaciones, prohibiciones, multas y mecanismos de enforcement. Define el "qué debe hacerse."

Capa 4: cooperación

GPAI + acuerdos bilaterales

Soporta armonización transfronteriza, intercambio de mejores prácticas y coordinación entre jurisdicciones.

Selección según contexto organizacional

  • Necesita certificación formal → ISO 42001
  • Necesita guía flexible de riesgo → NIST AI RMF
  • Necesita cumplir con mercado europeo → EU AI Act + ISO 42001 como columna vertebral
  • Necesita fundamentos éticos → OCDE / UNESCO
  • Necesita extender gobernanza de TI existente → COBIT
  • Contratista federal de EE.UU. → NIST AI RMF (crecientemente esperado)
  • Organización multinacional → Stack unificado: NIST + ISO 42001 + regulación aplicable

Crosswalks: la integración práctica entre marcos

Mapeos oficiales que eliminan duplicación de esfuerzos

Principio de integración

El consenso experto en 2026 es claro: integración de marcos, no selección de un marco único, define la mejor práctica. Los crosswalks oficiales publicados por NIST, ISO y centros de investigación permiten que las organizaciones construyan programas unificados donde cada marco aporta su fortaleza sin generar trabajo duplicado.

NIST ↔ ISO 42001

Mapeo contribuido por Microsoft. Las subcategorías del AI RMF se alinean con las cláusulas de ISO 42001. Permite usar NIST para operación diaria mientras se persigue certificación ISO.

NIST ↔ EU AI Act

Crosswalk oficial que vincula las funciones Govern/Map/Measure/Manage con los requisitos del EU AI Act por categoría de riesgo. Crucial para empresas con operaciones transatlánticas.

ISO 42001 ↔ EU AI Act

El Código de Práctica GPAI se mapea directamente a ISO 42001. La certificación ISO se posiciona como evidencia de conformidad ante los requisitos europeos.

Ejemplo práctico: organización multinacional

Una empresa con operaciones en EE.UU. y Europa implementa ISO 42001 como sistema de gestión central, usa NIST AI RMF para la metodología de riesgo operacional, alinea con los requisitos del EU AI Act para su mercado europeo, adopta los principios OCDE como marco de valores, y referencia la Recomendación UNESCO para su política de derechos humanos. Un solo programa de gobernanza, múltiples marcos integrados.

Panorama regulatorio global 2025-2026

Un mapa en rápida transformación

Unión Europea: EU AI Act

  • Feb 2025: prohibiciones sobre prácticas de riesgo inaceptable y requisitos de alfabetización en IA entraron en vigor
  • Ago 2025: obligaciones de GPAI aplicables; 26 proveedores firmaron Código de Práctica; Meta se negó
  • Ene 2026: Finlandia, primer estado en enforcement activo
  • Ago 2026: obligaciones de IA de alto riesgo, poderes plenos de enforcement, multas hasta 35M EUR o 7% de facturación global

América Latina

  • Costa Rica: ENIA 2024-2027, primera en Centroamérica; Primer Diálogo Nacional (nov 2025); revisión del Proyecto 23097
  • Perú: primer país de LATAM con ley de IA aprobada
  • Brasil: PL 2338/2023 bajo revisión; BRL 23B para Plan de IA
  • Chile: regulación enviada al Congreso en 2024
  • 17 países comprometidos con cooperación de IA responsable

Asia-Pacífico

Singapur: primer marco de gobernanza para IA agéntica (enero 2026). China: más regulaciones sectoriales que cualquier otro país; legislación comprehensiva es prioridad 2026. India: AI Impact Summit con 118 países y USD 200B+ en compromisos de inversión.

Cumbres globales 2025-2026

Paris AI Action Summit (feb 2025): 62 países firmaron declaración. India AI Impact Summit (feb 2026): el mayor evento global de IA con 600,000+ asistentes. G7 "AI for Prosperity" (jun 2025). Total: más de USD 200 mil millones en compromisos de inversión en IA.

Tendencias que redefinen la gobernanza en 2026

Cinco cambios estructurales en el panorama de gobernanza de IA

1. De voluntario a obligatorio

El EU AI Act (agosto 2026), el Colorado AI Act, y 24 estados de EE.UU. adoptando el NAIC Model Bulletin significan que la gobernanza pasa de mejor práctica a obligación legal. Las organizaciones que postergan se exponen a riesgos crecientes.

2. Convergencia entre marcos

Los crosswalks oficiales proliferan. La definición OCDE se convirtió en estándar global. ISO 42001 se posiciona como la columna vertebral universal de compliance. La fragmentación regulatoria se mitiga mediante armonización técnica.

3. IA generativa y agéntica tensionan los marcos

Solo 20% de empresas tiene gobernanza madura para IA agéntica. El marco de Singapur (enero 2026) es el primer intento de abordar riesgos de agentes autónomos. Los marcos existentes requieren adaptación continua.

4. Convergencia ciberseguridad-IA

El perfil Cyber AI de NIST y los controles de IA en SP 800-53 aceleran la integración entre seguridad de la información y gobernanza de IA. Las organizaciones necesitan equipos cross-funcionales que entiendan ambos dominios.

5. Gobernanza como ventaja competitiva

Organizaciones con alta madurez en IA sostienen iniciativas a 2.25x la tasa de las menos maduras (Gartner). Equipos de procurement comienzan a referenciar ISO 42001 junto a SOC 2. La gobernanza dejó de ser costo y se convirtió en diferenciador de mercado.

Conclusiones: tres ideas fundamentales

De la teoría a la práctica de marcos y estándares de gobernanza de IA

1. Integración, no selección

La mejor práctica no es elegir un marco, sino integrar varios según el contexto organizacional. Los crosswalks publicados eliminan duplicación. ISO 42001 como sistema certificable, NIST como metodología de riesgo, OCDE/UNESCO como valores, COBIT como puente desde TI, y regulación aplicable como obligación. Un programa, múltiples capas.

2. La gobernanza ya es obligatoria

Con el EU AI Act activando obligaciones de alto riesgo en agosto 2026, leyes estatales creando safe harbors vinculados a marcos específicos, y Fortune 500 exigiendo ISO 42001 a proveedores, el costo de no gobernar supera ampliamente el costo de implementar. La transición de voluntario a obligatorio ya ocurrió.

3. Costa Rica tiene posición estratégica

Miembro de la OCDE, país piloto de UNESCO, primera estrategia de IA en Centroamérica (ENIA 2024-2027), estándar INTE/ISO 42001:2026 adoptado, y Primer Diálogo Nacional en noviembre 2025. La base está puesta; el desafío es pasar de estrategia a implementación concreta.

Para profesionales de gobernanza de IA

Los marcos son herramientas, no fines. Su valor se materializa cuando se implementan en organizaciones reales con roles claros, políticas ejecutables y cultura de datos. La ausencia total de marcos, como veremos en casos reales, produce consecuencias medibles: multas millonarias, daño reputacional, y en los casos más graves, daño humano directo.

Recapitulación y lo que viene

Síntesis de la sesión y actividad práctica

Hoy aprendimos

  • ISO/IEC 42001 como único estándar certificable de gestión de IA, su ecosistema complementario y adopción acelerada
  • NIST AI RMF: cuatro funciones (Govern, Map, Measure, Manage), perfiles complementarios y contexto político actual
  • COBIT 2019: cómo extender gobernanza de TI existente a la IA, con nuevas certificaciones de ISACA
  • Principios de la OCDE: el lenguaje común global, actualizado para IA generativa, con siete países de LATAM adherentes
  • Recomendación UNESCO: alcance universal, metodología RAM, y la posición privilegiada de Costa Rica
  • El governance stack de cuatro capas y los crosswalks que permiten integración sin duplicación
  • El panorama regulatorio global y las cinco tendencias que redefinen 2026

Semana 10: regulaciones y políticas sobre IA

Profundizaremos en el EU AI Act (enfoque basado en riesgo), estrategias nacionales de IA en Latinoamérica, regulación sectorial, sandbox regulatorios, el papel de organismos internacionales y tendencias regulatorias emergentes.

A continuación: actividad práctica en equipos

Después de esta presentación, trabajaremos en equipos un caso de análisis ético-crítico donde aplicarán los marcos y estándares de gobernanza que hemos discutido hoy, junto con los conceptos de semanas anteriores.