La Inteligencia Artificial Generativa para la integridad y anticorrución en el Gobierno y el sector privado

La Inteligencia Artificial Generativa para la integridad y anticorrución en el Gobierno y el sector privado

Como experta en Compliance anticorrupción, he observado con interés el creciente uso de la inteligencia artificial generativa (IA) y los modelos de lenguaje de gran tamaño (LLMs) en el ámbito del cumplimiento normativo. ¿Se han preguntado cómo estas tecnologías pueden influir en la lucha contra la corrupción? Estos modelos presentan oportunidades significativas para mejorar la integridad y combatir la corrupción tanto en el sector público como en el privado. Sin embargo, también conllevan riesgos que deben gestionarse cuidadosamente. Comentemos sobre las promesas, los desafíos y las prácticas actuales de la implementación de IA generativa en organismos gubernamentales encargados de la integridad y su impacto en el sector privado.

Oportunidades de la IA Generativa en el Gobierno

La IA generativa, y en particular los LLMs, ofrecen múltiples beneficios para los actores de integridad en el gobierno, entre ellos, la capacidad de estos modelos para analizar grandes volúmenes de datos no estructurados. Esto facilita la detección de patrones que podrían indicar actividades fraudulentas. Según el informe de la OCDE, organismos en Brasil, Finlandia, Francia, Grecia y el Reino Unido ya están utilizando LLMs para tareas como la redacción de documentos, el análisis de hojas de cálculo y la generación de resúmenes de textos, lo que mejora la eficiencia operativa de los auditores e investigadores (OCDE, 2024).

Otra área prometedora es la mejora de las operaciones internas. Los LLMs pueden automatizar tareas rutinarias y consumir grandes volúmenes de texto, permitiendo a los funcionarios centrarse en actividades de mayor valor agregado que requieren juicio humano y experiencia. Esto, claro está, pretende reducir los errores humanos y mejorar la eficiencia en las operaciones diarias.

Como todo gran avance, estas nuevas oportunidades traen consigo desafíos y riesgos. A pesar de los beneficios, la adopción de IA generativa en el ámbito gubernamental no está exenta de desafíos. Uno de los principales problemas es la “alucinación” de los LLMs, donde generan información convincente pero inexacta o fabricada, lo que plantea el problema de depender de una máquina que podría crear datos incorrectos. Esta característica puede socavar la transparencia y la responsabilidad en la toma de decisiones, principios fundamentales que los actores de integridad buscan mantener. Herramientas como ChatGPT y otras similares, aunque tentadoras por su capacidad para automatizar y simplificar tareas, implican un riesgo significativo de inexactitud y la generación de datos incorrectos si no se supervisan adecuadamente. Por lo tanto, es crucial implementar salvaguardas robustas y prácticas de revisión exhaustivas para mitigar estos riesgos y garantizar la confiabilidad de la información generada por la IA.

Además, existen preocupaciones sobre la privacidad y la seguridad de los datos. Muchos organismos gubernamentales carecen de los recursos técnicos y humanos necesarios para desplegar completamente los LLMs, lo que complica su implementación (OCDE, 2024). La OCDE destaca la importancia de mitigar estos riesgos mediante el desarrollo responsable y ético de IA, para evitar además impactos negativos como la discriminación y las desigualdades económicas, sociales y de acceso a tecnologías.

¿Y qué hay de los riesgos de usar IA para facilitar actos de corrupción? El uso de la IA no solo tiene potencial para detectar y prevenir la corrupción, sino que también puede ser explotada para facilitar actos corruptos. Por ejemplo, los deepfakes, poderosa tecnología de inteligencia artificial que puede crear contenido extremadamente realista, pero que plantea serios desafíos en términos de ética, privacidad y seguridad, podrían ser utilizados para extorsionar o manipular decisiones políticas y empresariales. Además, los algoritmos podrían ser manipulados para favorecer a ciertos proveedores en procesos de licitación, generando un entorno propenso a sobornos y dádivas.

Un caso notable es su uso en la campaña electoral de 2020 en India, donde se utilizaron videos manipulados para desacreditar a candidatos y manipular la opinión pública (Aneja, 2020). Otro ejemplo es el uso de bots de IA para influir en las decisiones de compra y contratación en empresas, como se evidenció en varios escándalos en el sector tecnológico donde se favorecieron ciertas empresas a cambio de sobornos (Meier, 2021).

Impacto en el Sector Privado

El interés y la aplicación de la inteligencia artificial generativa, el Compliance y la anticorrupción no se limitan al sector público. El sector privado ha avanzado significativamente en la adopción de estas tecnologías, muchas veces llevando la delantera en comparación con el sector gubernamental. Las empresas privadas han reconocido de forma trascendental en los últimos meses el valor del Compliance para mejorar la eficiencia operativa, detectar y prevenir fraudes y cumplir con regulaciones de manera más efectiva.

Las grandes corporaciones, especialmente en sectores como la banca, la tecnología y la consultoría, utilizan LLMs y otras herramientas de IA para analizar grandes volúmenes de datos financieros, identificar patrones de comportamiento anómalos y automatizar la creación de informes de cumplimiento. Estas tecnologías permiten a las empresas privadas no solo cumplir con las normativas vigentes, sino también anticipar y mitigar riesgos potenciales de manera proactiva.

Un ejemplo notable es el uso de IA generativa en la auditoría interna y el análisis de riesgos, de forma que se emitan los reportes en la mitad del tiempo con una precisión mejorada. Empresas líderes han integrado estas tecnologías en sus sistemas de auditoría para mejorar la precisión y la rapidez de sus procesos. La capacidad de los LLMs para analizar textos complejos y volúmenes masivos de datos no estructurados permite a las empresas identificar irregularidades y posibles fraudes con mayor eficiencia.

Además, la implementación de IA en el sector privado no solo se limita a la detección de fraudes, sino que también abarca la mejora de la transparencia y la responsabilidad corporativa. Las empresas están utilizando IA para desarrollar sistemas de monitoreo continuo que aseguren el cumplimiento de normas éticas y legales, contribuyendo así a una cultura corporativa más íntegra y responsable, y sin duda la alianza con los sistemas de gestión ofrece una capa adicional de control y prevención.

Prácticas Actuales y Recomendaciones

Los organismos de integridad han comenzado a experimentar con LLMs en áreas de bajo riesgo antes de escalarlos a tareas más críticas. Esta estrategia permite construir capacidad interna y gestionar errores potenciales sin un costo significativo. Por ejemplo, la Corte de Cuentas de Brasil ha desarrollado ChatTCU, una herramienta basada en ChatGPT que permite a los auditores solicitar resúmenes de documentos, plantear preguntas técnicas y recibir ayuda para servicios administrativos. Este enfoque demuestra la importancia de la integración de LLMs con sistemas existentes y de fomentar una cultura de experimentación y retroalimentación (OCDE, 2024), con la intención de mitigar el riesgo de error.

Otra recomendación clave es asegurar que los actores de integridad cuenten con la infraestructura tecnológica adecuada desde el inicio, incluyendo recursos computacionales y de almacenamiento de alta capacidad. Además, se sugiere utilizar datos generados internamente para demostrar rápidamente el valor de los LLMs y establecer “ganancias rápidas” que puedan justificar una mayor inversión en estos proyectos.

Conclusión

La inteligencia artificial generativa tiene el potencial de transformar las actividades de integridad y anticorrupción tanto en el sector público como en el privado. Mientras que el sector público enfrenta desafíos únicos relacionados con la implementación de estas tecnologías, el sector privado ya ha demostrado cómo la IA puede ser una herramienta poderosa para mejorar la eficiencia operativa, la detección de fraudes y el cumplimiento normativo. La colaboración entre ambos sectores y el intercambio de buenas prácticas serán esenciales para maximizar los beneficios de la IA generativa en la lucha contra la corrupción y la promoción de la integridad.

Catalina Moya
Asociada Senior Facio&Cañas

Referencias

  • Organización para la Cooperación y el Desarrollo Económicos (OCDE). (2024). Generative Artificial Intelligence for Anti-Corruption and Integrity in Government.
  • Huang, A., & Yang, Y. (2023). FinBERT: A Pretrained Language Model for Financial Communications.
  • Emett, S. (2023). Exploring ChatGPT for Internal Audit Functions: A Case Study. Journal of Accounting and Public Policy.
  • Aneja, A. (2020). Deepfakes and Political Disinformation: India’s 2020 Election Case. Journal of Media Ethics.
  • Meier, P. (2021). AI Bots and Corporate Fraud: Emerging Trends in Technology and Compliance. Corporate Governance Journal.