Integrity-Led Futures · Publicación Ejecutiva 2026

El AI Act
Llega a Colombia

Lo que su empresa ya debería estar haciendo

Guía ejecutiva de riesgo algorítmico para directivos que toman decisiones hoy,
antes de que la regulación los obligue mañana.

David Hurtado Moreno
Integrity-Led Futures (ILF)
Primera · Marzo 2026
C-Suite · CHRO · CLO · CSO
Integrity-Led Futures — Resiliencia Algorítmica y Sostenibilidad Humana

Sobre esta publicación

Este ebook es una publicación de Integrity-Led Futures (ILF), consultora colombiana especializada en Resiliencia Algorítmica y Sostenibilidad Humana. Fue escrito para directivos de empresas medianas y corporativas que usan —o planean usar— sistemas de inteligencia artificial en la gestión de sus equipos.

El contenido está construido sobre investigación propia, precedentes legales documentados y el framework metodológico de Integridad Artificial (IAI) desarrollado por ILF. No reemplaza la asesoría jurídica especializada; es un instrumento de educación ejecutiva para la toma de decisiones informadas.

Derechos de propiedad intelectual: Todo el contenido, concepto, metodología, framework, nomenclatura e indicadores contenidos en este documento —incluyendo el concepto de Integridad Artificial (IAI), el IAI Score y el Sello de Certificación IAI— son creación original de David Hurtado Moreno. Queda prohibida su reproducción parcial o total sin autorización escrita del autor.

Introducción

La Regulación
No Espera

Para quién es este ebook

Si su empresa usa un software que asigna turnos, evalúa el desempeño, monitorea la productividad o filtra candidatos con ayuda de inteligencia artificial, este documento le concierne directamente. No importa el tamaño de su empresa ni el sector. El riesgo ya está activo.

El AI Act de la Unión Europea entró en vigor en 2024 y su implementación por fases está en curso durante 2025 y 2026. Es la primera regulación del mundo que clasifica los sistemas de inteligencia artificial según su nivel de riesgo y establece obligaciones concretas —auditorías, documentación, supervisión humana— para quienes los usan en entornos de trabajo.

Colombia no tiene aún una ley específica de inteligencia artificial. Muchos directivos interpretan ese vacío como protección. No lo es. Ya existen normas colombianas vigentes que aplican directamente a la IA en el trabajo —la Ley 1581, el Código Sustantivo del Trabajo, la Resolución 2646— y los jueces laborales pueden usarlas hoy mismo para responsabilizar a una empresa por las decisiones de sus algoritmos.

Además, el AI Act tiene alcance extraterritorial: si su empresa exporta a Europa, tiene casa matriz en ese continente, o usa software de proveedores europeos, ya está en el radio de efecto de la regulación.

Este ebook tiene un propósito concreto: darle la información suficiente para entender el riesgo, evaluarlo en su empresa y tomar las primeras decisiones antes de que la regulación lo obligue a tomarlas en condiciones de crisis.

Qué encontrará en estas páginas

El horizonte regulatorio

2024
AI Act de la UE entra en vigor
2025
Fase de prohibiciones absolutas activa
2026
Obligaciones para sistemas de alto riesgo (RRHH)
~
2027
Primeras iniciativas legislativas de IA en Colombia
~
2028
Regulación latinoamericana convergente probable

"Las empresas que actúen hoy no solo evitan el riesgo: definen el estándar que sus competidores tendrán que alcanzar cuando la regulación llegue."

— David Hurtado Moreno, Integrity-Led Futures
Capítulo 1

Qué es el AI Act
y por qué
Colombia debería importarle

El AI Act no es un reglamento técnico para ingenieros. Es la primera regulación del mundo que le dice a las empresas que usan inteligencia artificial qué obligaciones tienen frente a las personas que interactúan con esos sistemas. Y entre los sistemas más regulados están exactamente los que más empresas colombianas ya tienen activos: los que gestionan personas.

La lógica del AI Act en 90 segundos

El AI Act clasifica todos los sistemas de inteligencia artificial en cuatro categorías según el nivel de riesgo que representan para las personas:

Categoría Nivel de Riesgo Qué incluye Consecuencia
Inaceptable Prohibición total Sistemas de puntuación social, manipulación subliminal, reconocimiento facial en espacios públicos en tiempo real Prohibidos. Punto.
Alto riesgo ★ Obligaciones estrictas Sistemas de selección de personal, evaluación de desempeño, gestión de turnos, scoring de empleados, acceso a empleo Auditoría obligatoria, documentación, supervisión humana, registro de decisiones
Riesgo limitado Obligaciones de transparencia Chatbots, generadores de contenido, sistemas de recomendación Deber de informar que el usuario interactúa con una IA
Riesgo mínimo Sin obligaciones específicas Filtros de spam, IA en videojuegos Sin restricciones adicionales
★ La categoría que le importa a usted

Si su empresa usa un sistema que evalúa el desempeño de empleados, filtra hojas de vida, asigna turnos mediante algoritmos, o genera rankings de productividad, ese sistema es de alto riesgo según el AI Act. Las obligaciones de esa categoría incluyen: auditoría previa al despliegue, documentación técnica, registro de decisiones, mecanismo de supervisión humana y canal de reclamación para afectados.

Por qué esto afecta a empresas colombianas

El argumento más común que escuchamos en Colombia es: "Nosotros no operamos en Europa, esto no nos aplica." Ese argumento tiene tres fallas:

Falla 1: El efecto contagio normativo

El GDPR europeo de protección de datos, al principio, parecía un problema exclusivo de empresas europeas. En Colombia se convirtió en el marco de referencia que inspiró la Ley 1581 y sus decretos reglamentarios. El AI Act seguirá el mismo camino. Las empresas colombianas que ya tienen sus prácticas alineadas cuando llegue la regulación local no pagarán el costo de la transformación de emergencia.

🇪🇺
Regulación
Europea
AI Act 2024
💻
Proveedor
de Software IA
Actualiza términos
🏢
Empresa
Colombiana
Ya está en el radio
⚖️
Regulación
Colombia
~2027-2028

Falla 2: Los proveedores de software ya están cambiando

La mayoría de los sistemas de gestión de RRHH que usan las empresas colombianas —SAP SuccessFactors, Workday, Oracle HCM, software de nómina con módulos de evaluación— son productos de empresas europeas o con operaciones en Europa. Esas empresas ya están ajustando sus contratos y condiciones de uso para cumplir el AI Act. Cuando su proveedor actualice los términos del contrato, usted estará dentro del alcance.

Falla 3: Los fondos de inversión ya exigen cumplimiento ESG que incluye IA

Si su empresa busca financiamiento de fondos de inversión con criterios ESG —Environmental, Social and Governance—, muchos de esos fondos ya incluyen en su due diligence preguntas sobre la gestión ética de la IA. Una empresa que no puede demostrar que audita sus algoritmos de RRHH empieza a ser percibida como inversión de alto riesgo reputacional.

El momento estratégico

Colombia no tiene aún una ley de IA. Eso significa que quien fije el estándar hoy no lo sigue mañana: lo lidera. ILF existe para acompañar a las empresas que deciden estar en ese lugar.

Capítulo 2

El Costo Real
de Ignorar Esto

Los riesgos del mal uso de la IA en la gestión de personas no son hipótesis de manual de ética corporativa. Son casos reales, con cifras reales, de empresas que tenían exactamente el mismo perfil de riesgo que muchas organizaciones colombianas tienen hoy.

€584K
Multa a Uber por IA opaca en gestión de conductores
Autoridad de Protección de Datos, Países Bajos · 2023
$365K
USD · Acuerdo por discriminación algorítmica en contratación
EEOC · EE.UU. · 2023
2.12x
Más distrés psicológico en equipos con gestión algorítmica intensa
International Archives of Occupational and Environmental Health · 2025

Los casos que definen el precedente

Caso 1 Uber — Multa por Opacidad Algorítmica · Países Bajos · 2023

Uber usaba un sistema automatizado para gestionar a sus conductores: asignación de viajes, evaluación de desempeño, bonificaciones y —lo más crítico— la decisión de desactivar cuentas. Esas desactivaciones ocurrían sin explicación comprensible para el conductor afectado y sin un proceso claro de apelación.

La Autoridad de Protección de Datos de los Países Bajos encontró que Uber violó el derecho de las personas a no ser sujetas de decisiones automatizadas significativas sin posibilidad de impugnarlas. El sistema no podía explicar su lógica en términos comprensibles.

€ 584.000
Si su empresa usa un sistema de evaluación de desempeño que genera alertas, rankings o recomendaciones de despido sin que el empleado ni su jefe directo puedan explicar exactamente por qué el algoritmo llegó a esa conclusión, tiene exactamente el mismo perfil de riesgo que Uber tenía antes de la multa.
Caso 2 EEOC / Workday — Discriminación Algorítmica en Contratación · EE.UU. · 2023-2024

Workday, uno de los proveedores de software de RRHH más grandes del mundo, enfrentó una demanda colectiva porque su sistema de inteligencia artificial para filtrar candidatos discriminaba sistemáticamente por raza, edad y discapacidad. El sesgo no estaba en la intención de sus ingenieros: estaba en los datos históricos de los que el modelo aprendió.

En 2023, la EEOC (Comisión de Igualdad de Oportunidades de Empleo de EE.UU.) alcanzó un acuerdo con una empresa de logística que usaba software similar. En 2024, un tribunal federal permitió que avanzara la demanda contra Workday como proveedor, estableciendo que los proveedores de IA de RRHH también pueden ser responsables del sesgo de sus modelos.

$365.000 USD

Solo el primer acuerdo. La demanda contra Workday sigue activa y podría establecer un precedente de responsabilidad del proveedor de magnitud mucho mayor.

Si su software de selección de candidatos fue entrenado con datos históricos de su empresa —y casi todos lo fueron—, puede estar reproduciendo los sesgos de contratación del pasado con precisión estadística. El sesgo no requiere intención. Requiere datos incorrectos. Y la empresa es responsable aunque el software lo haya comprado a un tercero.

El costo del riesgo no gestionado: una perspectiva colombiana

Transformar estas cifras al contexto colombiano requiere ajustar por el tamaño del mercado, pero el patrón de riesgo es idéntico:

Tipo de riesgo Costo estimado (Colombia) Base del cálculo
Demanda por discriminación algorítmica $1.500M – $4.000M COP Extrapolación de casos EEOC y Uber a mercado colombiano
Burnout por gestión algorítmica intensa (500 empleados/año) $50M – $180M COP Ausentismo + rotación + baja productividad estimados
Pérdida de un perfil senior por rotación relacionada con IA $15M – $45M COP por salida Reclutamiento + curva de aprendizaje
Descalificación de fondos de inversión ESG Capital en riesgo Fondos con criterios de ética digital activos en Colombia
Auditoría IAI preventiva (empresa grande) $38M – $65M COP Tarifa de referencia de mercado
El ratio que cambia la conversación en el directorio

Por cada peso invertido en auditar la integridad de sus algoritmos, su empresa protege entre 10 y 60 pesos en pasivos potenciales. La auditoría no es un gasto: es la prima de un seguro con el mejor ratio de protección disponible en gestión de riesgos corporativos.

Capítulo 3

Los 5 Riesgos que
su Empresa Tiene Hoy Mismo

Los riesgos algorítmicos no son futuros ni hipotéticos. Son condiciones que existen en su empresa en este momento, en proporción directa a cuánto depende su gestión de personas de sistemas de inteligencia artificial o software automatizado. Lo que cambia es si usted los conoce y los gestiona, o si los descubrirá cuando ya sean una crisis.

A continuación, los cinco riesgos más comunes documentados en empresas que usan IA en la gestión de personas. Al final de este capítulo encontrará una tabla de autodiagnóstico.


Riesgo 1 — La Caja Negra en RRHH (Transparencia Algorítmica)

Qué es: un sistema que toma o sugiere decisiones de personal —evaluaciones, rankings, alertas de "baja productividad", recomendaciones de despido— sin que nadie en la empresa pueda explicar exactamente cómo llegó a esa conclusión en términos comprensibles para un empleado o un juez.

Cómo detectarlo: pida a su proveedor de software la documentación de la lógica del algoritmo. Si la respuesta es "eso es propiedad intelectual del proveedor", tiene una caja negra activa. Si su Director Jurídico no puede explicar ante un tribunal cómo el sistema decidió que un empleado era "bajo rendimiento", ese es el riesgo.

Señal de alarma interna: cuando los empleados dicen "no entiendo por qué me pusieron esa calificación" y los líderes tampoco pueden responder.


Riesgo 2 — El Burnout Invisible (Impacto Psicosocial)

Qué es: el deterioro progresivo de la salud mental de equipos que trabajan bajo ritmos, metas o monitoreo impuestos por algoritmos que no respetan los límites biológicos humanos.

La investigación publicada en International Archives of Occupational and Environmental Health (2025) confirma que la gestión algorítmica genera 2.12 veces más distrés psicológico que la gestión sin algoritmos. Ese distrés no aparece en el reporte del sistema; aparece en el ausentismo, la rotación y las incapacidades médicas de los meses siguientes.

Cómo detectarlo: incremente de rotación o ausentismo en áreas con alta automatización, sin causa aparente. Líderes que reportan que sus equipos "están agotados pero cumplen los KPIs".


Riesgo 3 — El Sesgo que No se Ve (Equidad Algorítmica)

Qué es: el algoritmo aprende de datos históricos de su empresa. Si esos datos reflejan patrones discriminatorios del pasado —por ejemplo, históricamente menos mujeres en cargos directivos, o empleados mayores de 45 con menores evaluaciones de "potencial"—, el modelo reproduce esos patrones con precisión estadística en sus decisiones del presente.

Por qué es tan peligroso: nadie lo puso ahí con intención. El modelo simplemente aprendió lo que encontró. Pero la ley no distingue entre discriminación intencional e indirecta. El resultado es el mismo: pasivo laboral.

Cómo detectarlo: analice la distribución de evaluaciones positivas, ascensos y bonificaciones por edad, género y tipo de contrato. Si los patrones no son estadísticamente homogéneos, puede haber sesgo activo.

Caso 3 Amazon Recruitment Tool — El Sesgo que Amazon No Detectó · EE.UU. · 2018

Amazon desarrolló internamente una herramienta de inteligencia artificial para filtrar hojas de vida. El modelo fue entrenado con los datos de contratación de la empresa de los diez años previos. En esos datos, la mayoría de los contratados en roles técnicos eran hombres.

El sistema aprendió que "hombre" era un predictor de éxito y comenzó a despenalizar automáticamente las hojas de vida que mencionaban palabras como "fútbol femenino" o que provenían de universidades exclusivamente femeninas. Amazon descubrió el sesgo y canceló el proyecto antes de desplegarlo en producción.

Cancelación total del proyecto + daño reputacional permanente
Si Amazon, con miles de ingenieros y uno de los equipos de IA más avanzados del mundo, no detectó el sesgo en su propio sistema antes de probarlo, su empresa —sin un equipo de ciencia de datos dedicado a esto— probablemente tampoco puede auditarse a sí misma con efectividad. El sesgo requiere análisis estadístico externo, no buenas intenciones internas.

Riesgo 4 — La Decisión sin Humano (Human-in-the-Loop)

Qué es: decisiones críticas que afectan a empleados —despidos, no-renovaciones, descensos, asignación de cargas excesivas— que el sistema ejecuta o recomienda sin que un humano las revise, entienda y valide de forma real.

El AI Act exige supervisión humana "significativa". Eso no es un botón de "aprobar" que el gerente hace clic automáticamente en 2 segundos. Es una revisión real de los fundamentos de la decisión, con capacidad documentada de revertirla.

Señal de alarma: cuando el líder aprueba recomendaciones del sistema sin leer el detalle, porque "el sistema siempre acierta" o porque "no hay tiempo para revisar todos los casos".


Riesgo 5 — El Vacío Normativo como Pasivo (Cumplimiento)

Qué es: no tener documentado qué sistemas de IA afectan a personas en su empresa, cómo funcionan, qué datos usan, y quién es responsable de cada uno. Ese vacío documental convierte cualquier problema futuro en un problema inmanejable.

Por qué importa ahora: cuando llegue la regulación local, las empresas con un inventario documentado y prácticas establecidas pagan el costo de adaptación. Las que no, pagan el costo de la multa más la transformación de emergencia.


Tabla de Autodiagnóstico

Marque honestamente para cada riesgo cuál es la situación de su empresa:

Riesgo Lo tenemos controlado No estamos seguros Definitivamente no
1. Transparencia: podemos explicar la lógica del algoritmo ante un juez
2. Bienestar: tenemos métricas específicas de tecnoestrés en áreas con IA
3. Sesgo: hemos auditado estadísticamente las decisiones del sistema por demografía
4. Human-in-the-Loop: tenemos protocolo documentado de revisión humana de decisiones críticas
5. Cumplimiento: tenemos inventario de sistemas de IA que afectan a personas
Interpretación

Si marcó "No estamos seguros" o "Definitivamente no" en dos o más filas, su empresa tiene un pasivo algorítmico activo. No es una posibilidad futura: es una condición presente. El IAI Score (Capítulo 5) le dará el número exacto.

Capítulo 4

El Marco Legal Vigente
en Colombia

No necesita una ley de inteligencia artificial para que un juez laboral colombiano responsabilice a su empresa por las decisiones de sus algoritmos. Ya existen al menos cuatro normas vigentes que aplican directamente. El vacío regulatorio no es protección: es desconocimiento del riesgo.

Norma Qué exige Cómo aplica a la IA en RRHH Riesgo de incumplimiento
Ley 1581 de 2012
(Habeas Data)
Proteger los datos personales de los empleados. El trabajador tiene derecho a saber qué datos se procesan sobre él, para qué y con qué fundamento. Si su sistema monitorea productividad, recopila datos biométricos, de comportamiento o de desempeño, esos datos son personales y su procesamiento debe estar autorizado, documentado y ser explicable. Sanciones de la SIC. Demandas de trabajadores por uso indebido de datos. Costo reputacional.
Código Sustantivo del Trabajo Prohibición de discriminación en selección, evaluación y terminación del contrato laboral por razones de sexo, edad, origen, estado civil u otras condiciones. Si su algoritmo genera recomendaciones de no-renovación, despido o no-ascenso influenciadas por variables demográficas —aunque sea de forma indirecta—, la empresa es responsable aunque el software lo haya producido un proveedor. Demanda laboral por discriminación. Reintegro + indemnización + daño moral. La empresa no puede usar "fue el algoritmo" como defensa.
Resolución 2646 de 2008
(Ministerio de Trabajo)
Identificar, evaluar y controlar los factores de riesgo psicosocial en el trabajo. Obliga a medir el estrés laboral y sus causas. La gestión algorítmica intensa —monitoreo constante, KPIs impuestos por IA, ritmos insostenibles— ya califica como factor de riesgo psicosocial bajo la resolución. Las áreas con alta exposición a IA deben ser incluidas en la batería de riesgo psicosocial obligatoria. Sanciones del Ministerio de Trabajo en inspecciones. Demandas por enfermedad profesional si el burnout se documenta y la empresa no puede demostrar que midió y gestionó el riesgo.
ISO 45001 y Convenio 155 OIT Estándares internacionales de seguridad y salud en el trabajo. Para empresas certificadas en ISO 45001, el incumplimiento puede resultar en pérdida de la certificación. El Convenio 155 de la OIT —ratificado por Colombia— establece que los empleadores deben garantizar que los sistemas de trabajo sean seguros para la salud física y mental. Un sistema de IA que genera ritmos insostenibles viola este principio. Pérdida de certificaciones internacionales. Exclusión de licitaciones que exigen certificación. Presión de clientes corporativos.
Nota crítica para el Director Jurídico

Ya existen al menos tres normas vigentes en Colombia que un juez laboral puede usar para responsabilizar a su empresa por las decisiones de sus algoritmos. La ausencia de una ley específica de IA no genera un escudo legal: genera un vacío que el juez llenará con las normas que sí existen. La empresa que no puede documentar que gestionó el riesgo, pierde.

Caso 4 Teleperformance — Gestión Algorítmica en Call Centers · Múltiples Países · 2022-2024

Teleperformance, uno de los mayores operadores de BPO y call centers del mundo —y uno de los empleadores más grandes en Colombia—, implementó sistemas de monitoreo algorítmico intensivo para sus agentes: seguimiento segundo a segundo de tiempos de respuesta, análisis de tono de voz con IA, scoring en tiempo real de "compromiso" con el trabajo.

Investigaciones en múltiples países por condiciones laborales generadas por el monitoreo algorítmico. En Albania, las autoridades prohibieron el uso de ciertos sistemas de vigilancia en hogares de trabajadores remotos. Las encuestas internas revelaron que el 87% de los agentes reportaban niveles altos de estrés directamente relacionados con el monitoreo de la IA, y más del 50% reportaba burnout e insomnio.

87% de agentes con estrés alto + investigaciones activas en múltiples jurisdicciones
El sector BPO y call center en Colombia opera bajo condiciones similares. La Resolución 2646 ya obliga a identificar los factores de riesgo psicosocial en estos entornos. Si su empresa opera en este sector —o tiene cualquier área con monitoreo algorítmico intensivo—, la norma colombiana vigente ya le exige medir y gestionar este riesgo. La pregunta no es si la ley aplica: es si su empresa puede demostrar que ya lo está haciendo.

El horizonte: Colombia 2027-2028

Basados en el patrón de adopción normativa latinoamericana, es razonable proyectar que Colombia tendrá iniciativas legislativas sobre inteligencia artificial en el periodo 2027-2028. Brasil ya tiene en debate avanzado un AI Act propio. Chile aprobó su política nacional de IA. México tiene lineamientos sectoriales en curso.

Las empresas colombianas que ya tienen sus prácticas documentadas y auditadas cuando llegue esa regulación tendrán una ventaja competitiva significativa sobre las que deban transformarse en condiciones de urgencia regulatoria.

Capítulo 5

Las 5 Dimensiones de
la Integridad Artificial

Gestionar el riesgo algorítmico requiere medirlo. Una intuición directiva de que "algo no está bien" con el algoritmo no es suficiente para presentar un plan de acción al directorio, negociar con un proveedor de software, o responder ante una inspección del Ministerio de Trabajo.

El marco de Integridad Artificial (IAI) organiza el riesgo algorítmico en cinco dimensiones que juntas producen un índice único: el IAI Score. Este número —en escala de 0 a 100— le da a la organización un punto de partida medible, comparable y accionable.

Las cinco dimensiones y sus pesos

D1 — Transparencia AlgorítmicaPeso: 25%
D2 — Impacto PsicosocialPeso: 25%
D3 — Equidad y Ausencia de SesgoPeso: 20%
D4 — Human-in-the-LoopPeso: 20%
D5 — Cumplimiento NormativoPeso: 10%
DimensiónQué midePregunta clave de auditoría
D1 Transparencia (25%) Si los empleados comprenden qué datos recopila el sistema sobre ellos y cómo influyen en sus evaluaciones. Si la empresa puede explicar la lógica del algoritmo ante un tercero. "¿Puede su Director Jurídico explicar en 5 minutos cómo el sistema llegó a identificar a un empleado como 'bajo rendimiento', sin recurrir a documentación del proveedor?"
D2 Psicosocial (25%) El nivel de tecnoestrés, agotamiento y miedo al reemplazo en los equipos que interactúan con sistemas de gestión algorítmica. Si los ritmos impuestos por la IA respetan los límites biológicos humanos. "¿Su departamento de SST tiene métricas específicas para medir el impacto de la IA en la salud mental de los equipos con mayor exposición algorítmica?"
D3 Equidad (20%) Si existe evidencia estadística de que el sistema discrimina —aunque sea de forma no intencional— a grupos demográficos protegidos: mujeres, mayores de 40, personas con discapacidad, afiliados sindicales. "¿Ha realizado alguna vez un análisis estadístico de si las evaluaciones positivas, ascensos y bonificaciones del sistema se distribuyen de forma homogénea entre géneros, edades y tipos de contrato?"
D4 Human-in-the-Loop (20%) Si existe un protocolo documentado y funcional donde una persona humana revisa, comprende y puede revertir las decisiones críticas del sistema antes de que afecten a los empleados. "¿Tiene su empresa un procedimiento escrito —no solo una práctica informal— que exige validación humana antes de ejecutar despidos, no-renovaciones o sanciones recomendados por la IA?"
D5 Cumplimiento (10%) Si la empresa tiene documentados sus sistemas de IA, sus políticas de uso de datos de empleados, cláusulas de explicabilidad en contratos con proveedores, y si el último reporte ESG incluye el capítulo de ética digital. "¿Existe un inventario actualizado de todos los sistemas de IA que afectan a personas en su empresa, con responsable asignado y política de uso documentada?"

La escala de madurez del IAI Score

0 – 24 Emergencia
25 – 39 Crítico
40 – 54 Vulnerable
55 – 69 En Desarrollo
70 – 84 Avanzado
85 – 100 Líder IAI
RangoDiagnósticoImplicación para el directorio
0 – 24Emergencia algorítmicaExposición legal y psicosocial máxima. Intervención inmediata requerida.
25 – 39Riesgo crítico activoMúltiples frentes de riesgo sin gestión. Diagnóstico urgente.
40 – 54VulnerableRiesgos reales sin gestión activa. Auditoría recomendada.
55 – 69En desarrolloEsfuerzos visibles pero inconsistentes. Auditoría + Framework.
70 – 84AvanzadoBuenas prácticas, brechas menores. Candidato a Certificación Silver.
85 – 100Líder IAIEmpresa referente. Candidato a Certificación Gold.
Cómo se obtiene el IAI Score

El IAI Score es el resultado del Diagnóstico IAI Express de ILF: encuestas anónimas a empleados y líderes, revisión documental de políticas y contratos, y análisis estadístico de datasets de desempeño. En dos semanas, su empresa tiene un número con validez metodológica para presentar al directorio y al equipo de riesgos.

Capítulo 6

Las 7 Acciones Prioritarias
para Directivos

El riesgo algorítmico no se gestiona con un comité de ética que se reúne cuatro veces al año. Se gestiona con decisiones ejecutivas concretas, asignadas a personas con nombre, con plazos que se cumplen. Aquí están las siete acciones prioritarias, en orden de urgencia.

# Acción Responsable Plazo Riesgo si no se hace
1 Inventario de sistemas de IA que afectan a personas. Levantar la lista completa de software que toma o sugiere decisiones sobre empleados o candidatos: no solo los desarrollados internamente, sino los comprados a proveedores. CLO + CHRO Semana 1 No puede gestionar lo que no sabe que tiene
2 Revise sus contratos con proveedores de IA. Buscar cláusulas de responsabilidad por sesgos, acceso a la lógica del algoritmo y derechos de auditoría. Si el contrato dice "propiedad intelectual del proveedor", es un riesgo legal activo que requiere renegociación. CLO Semana 2 Indefensión ante demanda. El proveedor no asume la responsabilidad.
3 Evalúe el riesgo psicosocial con enfoque algorítmico. Solicitar a SST que incluya la gestión algorítmica en la batería de riesgo psicosocial exigida por la Resolución 2646, con foco en áreas de alta exposición a sistemas de monitoreo o KPIs impuestos por IA. CHRO + SST Mes 1 Demanda por enfermedad profesional. Multa del Ministerio de Trabajo.
4 Documente un protocolo Human-in-the-Loop. Para toda decisión crítica de RRHH (despidos, no-renovaciones, descensos, sanciones), definir por escrito que un líder humano revisa y valida la recomendación del algoritmo antes de ejecutarla. No es informal: es un procedimiento firmado. CHRO + CLO Mes 1 Indefensión ante demanda por decisión automatizada. Incumplimiento del AI Act si aplica.
5 Comunique a sus empleados qué sistemas los monitorean y para qué. La Ley 1581 lo exige. Además, la transparencia reduce el tecnoestrés en un porcentaje medido: los equipos toleran mejor el monitoreo cuando entienden su propósito y sus límites. CHRO + Comunicaciones Mes 2 Incumplimiento Ley 1581. Demanda de empleados por uso indebido de datos.
6 Realice un diagnóstico externo de Integridad Artificial. No puede auditarse a sí mismo con efectividad. Un diagnóstico externo entrega el IAI Score con validez metodológica: encuestas a empleados, revisión documental y análisis estadístico de sesgos. El resultado es un informe ejecutivo con las vulnerabilidades priorizadas. CEO + CHRO Trimestre 1 Sin diagnóstico no hay baseline. Sin baseline no hay plan de mejora defendible.
7 Incluya la ética digital en su próximo reporte ESG. Si su empresa publica informes de sostenibilidad o los prepara para inversores, el capítulo sobre impacto de la automatización en la fuerza laboral ya es esperado por fondos ESG con criterios de IA activos. CSO + CHRO Año 2026 Descalificación para fondos de inversión ESG. Presión de accionistas.
Las acciones 1, 2 y 3 no requieren presupuesto

Solo requieren una decisión. Un correo del CEO al CLO y al CHRO esta semana puede activar las tres primeras acciones sin ningún trámite adicional. El costo de no tomarlas es exponencialmente mayor que el tiempo de tomarlas.

Caso 5 Empresa BPO / Fintech Colombiana — Patrón documentado · Colombia · 2024-2025

Empresa colombiana de 300 empleados que implementó un sistema de gestión de desempeño con módulo de inteligencia artificial. El sistema generaba rankings de productividad, alertas de "bajo rendimiento" y recomendaciones de no-renovación. Ninguno de los líderes sabía exactamente cómo el algoritmo calculaba los rankings.

En el primer año de operación: 23% de rotación involuntaria concentrada en mujeres mayores de 38 años, tres quejas formales ante el Ministerio de Trabajo por discriminación, y un proceso de inspección laboral. Sin documentación del funcionamiento del algoritmo, la empresa no pudo demostrar que las decisiones no eran discriminatorias. La negociación y los costos legales se extendieron 14 meses.

~$180M COP

Estimado en indemnizaciones, honorarios legales, costo de rotación forzada y tiempo directivo dedicado al proceso.

Esto no es un caso hipotético: es el patrón que se repite en empresas que implementan IA de RRHH sin auditoría previa. El sistema no discriminó con intención. Discriminó con datos. Y la empresa no tenía cómo demostrar que no.
Capítulo 7

De Riesgo
a Ventaja Competitiva

La gestión responsable de la inteligencia artificial no es solo un ejercicio de cumplimiento normativo. Las empresas que la adoptan de forma proactiva —antes de que la regulación lo exija, antes de que ocurra la crisis— obtienen ventajas competitivas concretas que las diferencian en el mercado de talento, de inversión y de reputación corporativa.

Lo que obtiene una empresa que audita y certifica su integridad algorítmica

Dimensión Empresa sin gestión IAI Empresa con gestión IAI
Riesgo legal Expuesta ante cualquier demanda laboral que involucre decisiones algorítmicas. Sin documentación para defenderse. Evidencia de diligencia activa. Plan de mitigación documentado. Historial de auditorías.
Acceso a inversión ESG Descalificada por fondos que exigen ética digital. Percibida como riesgo reputacional. Cumple los criterios "S" de ESG. El Sello IAI es evidencia tangible en informes de sostenibilidad.
Atracción de talento Los perfiles de alto valor evitan empleadores que perciben como opacos en el uso de IA. Diferenciador como empleador responsable. Ventaja en mercados de talento escaso.
Salud del equipo Tecnoestrés, burnout silencioso, rotación no explicada en áreas de alta automatización. Equipos con menor rotación, mayor compromiso y mayor productividad sostenida.
Posicionamiento de mercado Reactiva: adapta sus prácticas cuando la norma lo obliga, en condiciones de urgencia. Proactiva: define el estándar antes de que la norma llegue. Liderazgo visible.

El Sello de Integridad Artificial (IAI)

El Sello IAI es la certificación anual de ILF que acredita que los algoritmos de gestión laboral de una empresa cumplen con los estándares de Integridad Artificial: transparencia, ausencia de sesgos confirmados, supervisión humana documentada y comunicación ética con los empleados.

Las empresas certificadas reciben el badge digital e impreso para usar en reportes ESG, materiales para inversores, ofertas de empleo y comunicaciones corporativas. Entran al directorio público de ILF como empresas que han sido auditadas de forma independiente.

La ruta de madurez: paso a paso, no de una vez

La gestión de la integridad algorítmica no es un proyecto único de seis meses. Es un camino de madurez que la empresa recorre por etapas, cada una construyendo sobre la anterior:

1
Diagnóstico IAI Express
2 semanas · IAI Score + Informe de riesgos · Punto de partida medible
2
Auditoría Psico-Algorítmica
4-6 semanas · Análisis de sesgos + Plan de mitigación con responsables y plazos
3
Framework de Transición Ética
8-12 semanas · Diseño prospectivo de roles · Planes de carrera post-IA · Para empresas con automatización activa
4
Safe-AI Watch — Monitoreo Continuo
Mensual · Dashboard de bienestar + Alertas tempranas + Reporte ejecutivo mensual
Sello de Certificación IAI
Anual · Bronze / Silver / Gold · Activo tangible para ESG, inversores y employer branding

"La integridad artificial no es lo que la IA puede hacer por nosotros, sino lo que nosotros nos negamos a dejar que la IA le haga a nuestra humanidad."

— David Hurtado Moreno · Manifiesto Fundacional de Integrity-Led Futures, 2026
Capítulo 8 — Próximo Paso

Su Diagnóstico
IAI Express

Si llegó hasta aquí, ya sabe varias cosas con certeza: que el AI Act tiene alcance sobre empresas colombianas aunque no operen en Europa; que ya existen normas colombianas vigentes que aplican a sus algoritmos; que el sesgo algorítmico es estadístico, no intencional, y que eso no cambia la responsabilidad de la empresa; que la supervisión humana documentada es la diferencia entre una empresa que puede defenderse y una que no puede; y que gestionar este riesgo de forma proactiva no es un gasto —es la mejor decisión de riesgo disponible en el mercado.

Falta una sola cosa: saber exactamente dónde está su empresa en este mapa.

¿Sabe hoy mismo cuál es el IAI Score de su empresa?

Si la respuesta es sí: tiene una ventaja. Si su plan de mejora está en curso, ILF puede acompañarlo en las etapas siguientes.

Si la respuesta es no: ese es el primer problema a resolver. Y tiene solución en dos semanas.

El Diagnóstico IAI Express: qué es y qué le entrega

ElementoDetalle
¿Qué es? La primera radiografía del riesgo algorítmico de su empresa. Evaluación estructurada de las 5 dimensiones IAI en 10 días hábiles.
¿Cómo funciona? Encuestas anónimas a una muestra de empleados y líderes, entrevistas en profundidad con perfiles clave (operativo, liderazgo, RRHH, jurídico) y revisión documental de políticas y contratos. Sin interrumpir la operación normal.
¿Qué entrega? Informe ejecutivo de 20 páginas con: IAI Score por dimensión, perfil de riesgo priorizado, top 5 vulnerabilidades activas, recomendaciones por plazo (inmediatas, corto plazo, estratégicas) y propuesta de siguiente nivel.
¿Cómo se presenta? Sesión de 60-90 minutos con el equipo directivo. El informe va al portal del cliente; la conversación va a la sala de juntas.
¿Para quién? Empresas medianas a corporativas con sistemas de IA activos en RRHH, operaciones o atención al cliente. Cualquier sector.
¿Qué no es? No es una auditoría de IT. No es un test de ciberseguridad. Es una evaluación del impacto humano, legal y psicosocial de sus algoritmos de gestión de personas.
Solicite su Diagnóstico IAI Express
En 2 semanas, su empresa tiene el número.
En 2 semanas, tiene el plan.
Contacte a ILF para agendar una sesión de evaluación inicial sin costo.
En esa primera sesión definimos el alcance, el equipo y el cronograma.
contacto@integrityledfutures.com · integrityledfutures.com/diagnostico

Integrity-Led Futures · Primera consultora de Resiliencia Algorítmica y Sostenibilidad Humana en Colombia

Glosario

Términos
Esenciales

Definiciones ejecutivas de los términos más usados en este documento. Están aquí para facilitar la conversación interna, no para reemplazar el criterio jurídico especializado.

AI Act
Reglamento de la Unión Europea (2024) que clasifica los sistemas de inteligencia artificial según su nivel de riesgo y establece obligaciones de transparencia, auditoría y supervisión humana para los de alto riesgo. Tiene alcance extraterritorial.
Alto riesgo (AI Act)
Categoría de sistemas de IA que toman o influyen en decisiones críticas sobre personas. Incluye sistemas de selección de personal, evaluación de desempeño, gestión de turnos y scoring de empleados. Estos sistemas requieren auditoría previa, documentación y supervisión humana documentada.
Burnout psico-algorítmico
Forma de agotamiento profesional causada o agravada por la interacción con sistemas de gestión algorítmica. Se caracteriza por pérdida de autonomía, incertidumbre sobre las reglas de evaluación y ritmos insostenibles impuestos por la IA.
Digital Taylorism
Forma de gestión laboral en la que los algoritmos fragmentan, monitorean y optimizan cada microtarea del trabajador, replicando la lógica del taylorismo industrial del siglo XX en entornos digitales. Produce tecnoestrés severo.
Efecto sobreviviente
Impacto psicológico negativo en los empleados que permanecen en una empresa después de un proceso de reducción de personal gestionado por algoritmos. Genera ansiedad, desconfianza y baja en la capacidad de innovación del equipo.
ESG
Environmental, Social and Governance. Marco de criterios con los que inversores y fondos evalúan la sostenibilidad de una empresa. El componente "S" (Social) incluye cada vez más la ética digital y el impacto de la IA en la fuerza laboral.
Gestión algorítmica
Modelo de supervisión del trabajo en el que un sistema de IA asigna tareas, monitorea desempeño, establece ritmos y toma o sugiere decisiones sobre el personal, con mínima intervención humana directa.
Human-in-the-Loop
Requisito por el cual una persona humana debe revisar, validar y poder revertir las decisiones de un sistema de IA antes de que afecten a trabajadores. No es un botón de aprobación automática: es una revisión real y documentada de los fundamentos de la decisión.
IAI Score
Índice de Madurez en Integridad Artificial. Número de 0 a 100 que mide el nivel de riesgo y madurez de una empresa en la gestión ética de sus sistemas de IA, distribuido en cinco dimensiones: Transparencia, Psicosocial, Equidad, Human-in-the-Loop y Cumplimiento Normativo.
Integridad Artificial (IAI)
Concepto desarrollado por ILF: la coherencia entre el algoritmo, la ley y el bienestar humano. Un sistema de IA tiene integridad cuando es transparente, no discriminatorio, humanamente supervisado y respetuoso de la salud de quien interactúa con él.
Resolución 2646 (Colombia)
Norma del Ministerio de la Protección Social (2008) que obliga a las empresas a identificar, evaluar y controlar los factores de riesgo psicosocial en el trabajo. Aplicable directamente a la gestión algorítmica intensa en áreas con alta exposición a IA.
Sello IAI
Certificación anual emitida por ILF que acredita que la empresa gestiona sus sistemas de IA de forma ética, transparente y con supervisión humana documentada. Disponible en niveles Bronze, Silver y Gold según el nivel de madurez demostrado.
Sesgo algorítmico
Error sistémico en las decisiones de un sistema de IA causado por datos históricos que reflejan discriminaciones pasadas. El algoritmo aprende esos patrones y los reproduce con precisión estadística. No requiere intención: requiere datos incorrectos.
Tecnoestrés
Condición de distrés psicológico generada por la interacción intensa con sistemas tecnológicos, especialmente cuando estos imponen ritmos, métricas o decisiones que el trabajador no comprende ni puede cuestionar.
Transparencia algorítmica
Capacidad de explicar, en términos comprensibles para un no-técnico, cómo un sistema de IA llega a una decisión que afecta a una persona. En contextos legales: la capacidad de responder ante un juez o autoridad regulatoria sin recurrir a "propiedad intelectual del proveedor".
XAI (Explainable AI)
Inteligencia Artificial Explicable. Rama de la IA que desarrolla técnicas para hacer comprensibles las decisiones de sistemas complejos. Es el estándar que el AI Act exige para sistemas de alto riesgo y el criterio central del requisito de transparencia algorítmica.
Sobre el Autor
David Hurtado Moreno
Candidato a Magíster en Diseño de Futuros · Diseñador de Infraestructuras Cloud · Cloud Administrator
Especialista en Inteligencia Artificial · Científico de Datos
Desarrollador FullStack (.NET, Python, JavaScript)
David es el fundador y Socio Metodológico de Integrity-Led Futures (ILF). Combina una formación técnica profunda en ciencia de datos e inteligencia artificial con una visión prospectiva del futuro del trabajo. Ha construido el concepto de Integridad Artificial (IAI) y el framework metodológico completo de ILF desde sus fundamentos, incluyendo el IAI Score, el Sello de Certificación IAI, el Safe-AI Watch y el Framework de Transición Ética.
Portafolio de Servicios ILF
Diagnóstico IAI Express · Auditoría Psico-Algorítmica · Framework de Transición Ética
Safe-AI Watch (Monitoreo Continuo) · Sello de Certificación IAI · Academia ILF
© 2026 David Hurtado Moreno · Todos los derechos reservados
Integrity-Led Futures (ILF) · Consultora de Resiliencia Algorítmica y Sostenibilidad Humana · Colombia
Todo el contenido, concepto, metodología e indicadores de este documento son creación original del autor. Prohibida su reproducción sin autorización escrita.