En septiembre de 2024, el Departamento de Justicia de los Estados Unidos (DOJ) actualizó su Evaluación de Programas de Cumplimiento Corporativo (ECCP), con un enfoque renovado en la gestión de riesgos tecnológicos, como la inteligencia artificial (IA), en la protección de denunciantes y en el análisis de datos. Estas actualizaciones tienen un impacto directo en las empresas que operan en EE.UU. o mantienen relaciones comerciales internacionales, incluidas las empresas de Costa Rica, que deben cumplir con estos estándares para mitigar riesgos legales y reputacionales.
Las guías del DOJ destacan la necesidad de que las empresas adapten sus programas de cumplimiento para incluir la supervisión de tecnologías como la IA, asegurando que su uso no incremente los riesgos, sino que ayude a gestionarlos de manera ética y eficiente. Esto incluye implementar controles efectivos y auditorías para evitar que la IA tome decisiones erróneas sin supervisión humana, como sucede a través de las alucinaciones de IA, donde los sistemas pueden generar información falsa o inexacta, lo que pone en riesgo la integridad de los procesos.
IA y los peligros del «AI washing«
Aunque el DOJ no menciona explícitamente el concepto de AI washing en sus guías de 2024, este término es clave en el debate sobre transparencia y el uso responsable de la tecnología. El AI washing ocurre cuando las empresas exageran o distorsionan la verdadera capacidad de sus tecnologías de IA, lo que genera una falsa percepción de innovación o cumplimiento. Esto es particularmente peligroso en términos de compliance, ya que las autoridades regulatorias, incluido el DOJ, están atentas a la transparencia y precisión en el uso de tecnologías emergentes.
El AI washing no solo implica exagerar las capacidades de la IA, sino también ignorar los riesgos inherentes de esta tecnología, como las alucinaciones de IA. Las empresas deben asegurarse de que sus afirmaciones sobre el uso de IA estén respaldadas por una implementación real y monitoreo adecuado, con controles claros que mitiguen los riesgos potenciales, admitiendo que la AI es muy tentadora para todo aquel que pretenda resolver una tarea en tiempos mejores de los acostumbrados, arriesgando la calidad y veracidad del contenido.
Protección a denunciantes y gestión de riesgos
El DOJ también ha puesto un fuerte énfasis en la protección a los denunciantes en sus guías actualizadas. Esto asegura que los empleados tengan la capacidad de informar sobre infracciones sin temor a represalias. Costa Rica ya ha dado pasos importantes en este sentido con la Ley de Protección de las Personas Denunciantes y Testigos de Actos de Corrupción contra Represalias Laborales, que proporciona un marco legal robusto para proteger a los denunciantes. Al integrar estos elementos en los programas de cumplimiento corporativo, las empresas costarricenses pueden crear una cultura de transparencia y ética que refuerce la confianza interna y externa.
El análisis de datos como herramienta clave en el cumplimiento
El análisis de datos también es un pilar central en las guías del DOJ, que subrayan la importancia de utilizar herramientas avanzadas de análisis para monitorear el cumplimiento en tiempo real. Esto permite a las empresas detectar posibles riesgos de manera temprana y hacer ajustes antes de que se conviertan en problemas mayores. El uso adecuado de estas tecnologías mejora el monitoreo interno y permite a las empresas demostrar ante los reguladores que sus programas de cumplimiento son efectivos y están alineados con las expectativas internacionales.
Conclusión: Cumplimiento proactivo y adaptado a los tiempos modernos
Las nuevas guías del DOJ reflejan la necesidad de que las empresas tomen un enfoque proactivo y transparente en la gestión de tecnologías emergentes como la IA, y refuercen sus sistemas de protección a los denunciantes. Adaptarse a estos estándares no solo previene sanciones, sino que fortalece la transparencia y la integridad corporativa. El AI washing es un riesgo por evitar; las empresas deben ser transparentes sobre sus capacidades tecnológicas y asegurarse de que sus programas de cumplimiento sean herramientas efectivas para mitigar riesgos. También deben prestar especial atención a los peligros asociados con las alucinaciones de IA, garantizando que la tecnología se utilice de manera controlada y alineada con las mejores prácticas éticas y de compliance.
Catalina Moya
Asociada Senior Facio&Cañas
Referencias:
- Jenner & Block LLP. (2024). Key Insights from DOJ’s September 2024 Update to «Evaluation of Corporate Compliance Programs». Disponible en Key Updates to the DOJ’s Evaluation of Corporate Compliance Programs | Insights | Skadden, Arps, Slate, Meagher & Flom LLP
- Womble Bond Dickinson. (2024). DOJ Updates Its Corporate Compliance Programs Guidance. Disponible en DOJ Updates Its Corporate Compliance Programs Guidance | Womble Bond Dickinson
- Orrick, Herrington & Sutcliffe LLP. (2024). DOJ Updates Corporate Compliance Guidance. Disponible en DOJ Updates Corporate Compliance Guidance, Takes Aim at AI, Emerging Technologies, and Data Analytics (orrick.com)
- White & Case LLP. (2024). DOJ Doubles Down on Warnings Against AI Misuse. Disponible en https://www.whitecase.com/insight-alert/doj-doubles-down-warnings-against-ai-misuse
- Willkie Farr & Gallagher LLP. (2024). DOJ Puts AI in the Hot Seat. Disponible en https://www.willkie.com/-/media/files/publications/2024/02/doj_puts_ai_in_the_hot_seat.pdf