La inteligencia artificial (IA) se aplica cada vez más en todos los sectores que utilizan la tecnología de la información y se espera que sea uno de los principales motores económicos. Una consecuencia de esta tendencia es que determinadas aplicaciones pueden plantear desafíos sociales en los próximos años. No cabe dudas de que tanto beneficios como riesgos de la IA son de alta importancia e interés tanto para las instituciones de gobierno como las sociedades de comercio, pues las normativas que ayudan a mejorar la transparencia, así como la calidad de los datos en la web tanto como la credibilidad de los sistemas, implican elevar las recompensas, pero también de reducir los riesgos.
Como es sabido, en el ecosistema de las instituciones públicas que procuran una gestión inteligente, la función del compliance se extiende mucho más allá de los parámetros del simple cumplimiento regulatorio o normativo de los diferentes sectores, antes bien, representa una tendencia internacional de alinear estos conceptos con la ética institucional lo que se traduce en el incentivo de prácticas relacionadas con la integridad corporativa y organizacional tanto de instituciones públicas como privadas. Es en ese sentido que con la creciente tendencia de aplicaciones como chat GPT así como la más reciente regulación a nivel europeo en materia de la IA, es imposible detenerse a reflexionar sobre el impacto que tendría esta tecnología en las organizaciones, y de manera muy particular, la forma en cómo la IA revolucionaria la función del compliance; es decir, si su uso traería más riesgos o más beneficios para las empresas e instituciones de gobierno.
Actualmente la IA en la Unión Europea (UE) posee el primer reglamento integral sobre IA elaborado por un importante organismo regulador del mundo. Como una forma de mejorar las condiciones de desarrollo así como el empleo de esta innovadora tecnología, se hace necesaria su regulación. Es verdad que la IA puede aportar ingentes beneficios que van en muchos sentidos para los gobiernos: mejorar el control de tránsito (En RD ya se ha venido implementado la IA en ese sentido), mejorar la seguridad sanitaria, producir energia no solo más económica sino también sostenible así como facilitar la fabricación y producción en masa de productos de primera necesidad, por solo citar algunos casos. Pero, también constituye una realidad incuestionable los sesgos y riesgos a que nos podemos enfrentar con el uso de la tecnologia.
En ese sentido, la nueva normativa de la UE prevé reglas y obligaciones tanto para proveedores como para usuarios según el nivel de riesgo de la IA. Por ejemplo, el indicado reglamento califica como riesgo inaceptable todos aquellos que se consideren como una amenaza para los seres humanos y por lo tanto están prohibidos como es el caso de la manipulación cognitiva del comportamiento de las personas o grupos vulnerables. Un ejemplo de esto son los juguetes que se activan por comando de voz que pueden llegar a incentivar conductas peligrosas en los niños y adolescentes. Por otro lado, están los altos riesgos que pueden afectar de forma negativa la seguridad o los derechos fundamentales de las personas, dentro de los cuales se incluyen programas de identificación biométrica, así como aquellos que incluyan seguridad en productos como la aviación, automóviles o dispositivos médicos.
Actualmente, la International Organization for Standardization (ISO), ha emitido la ISO/IEC 42001 que es la primera norma del mundo sobre sistemas de gestión de IA, lo que ofrece valiosa orientación para este campo tecnológico en rápida evolución. Aborda los desafíos únicos que plantea la IA, como las consideraciones éticas, la transparencia y el aprendizaje continuo. Para las organizaciones, establece una forma estructurada de gestionar los riesgos y las oportunid. Está diseñada para entidades que proporcionan o utilizan productos o servicios basados en IA, lo cual garantiza el desarrollo y uso responsables de los sistemas de IA.[1]
La dimensión ética de la gestión pública requiere contar con sistemas y organizaciones robustas en sus valores y en las medidas existentes para garantizar el respeto a los mismos. Y es ahí donde cobran sentido las políticas de complianceen el sector público, la utilización de las técnicas de compliance en la gestión pública significaría dar un paso más allá de la pura legalidad, alineado con los valores y la misión de las organizaciones públicas, si bien alcanzar un óptimo nivel de cumplimiento normativo sería ya un objetivo más que satisfactorio, en realidad, no muy distinto de la utilización de los marcos de integridad institucional. Se requiere construir sistemas preventivos sólidos que eviten la comisión de delitos o la realización de malas prácticas, pues en ambos casos se daña inevitable e irreparablemente la imagen o reputación institucional, además de otras consecuencias de orden material.[2]
Así pues, el uso de la IA en la gestión pública puede representar grandes retos y desafíos desde la óptica de la regulación. Uno de los grandes retos que deben perfeccionar el diseño e implantación de la IA es el relativo a los sesgos y la discrimación que ejerce en determinados colectivos y que se incorporan en los algoritmos de un modo consciente o inconsciente. Muchos de dichos sesgos son, en muchos casos, heredados del ser humano, de
los patrones de reconocimiento impuestos, de la programación en la recolección de los datos,
por lo que es necesario articular vías para evitar que la inteligencia artificial aprenda nuestros
prejuicios. Cuando hablamos de sesgos de la IA resulta un lugar común la referencia a la falta de transparencia, pues los algoritmos pueden ser opacos por causas técnicas, por causas jurídicas o por causas organizativas. Y es obligación de los poderes públicos garantizar la transparencia en su funcionamiento para conocer cómo impactan en los procesos de toma de
decisión, sean automatizadas o no.[3]
Otro de los riesgos existentes que se encuentra sometido a altos niveles de incertidumbre es el de la responsabilidad por los daños que puedan producirse como consecuencia de la utilización de los algoritmos, debiendo determinar dicha imputación en función de parámetros claros y previos. Se trata de una cuestión que está teniendo ya sus primeras manifestaciones, por ejemplo, en Estados Unidos, se ha presentado un proyecto de Ley de Responsabilidad Algorítmica, para exigir que las empresas que apliquen técnicas de toma automatizada de decisiones estudien y corrijan los algoritmos informáticos defectuosos que puedan generar decisiones inexactas, injustas, tendenciosas o discriminatorias para las personas.[4]
En definitiva, preservar y garantizar la integridad en la gestión pública y, en consecuencia, en los procesos de toma de decisión, exige desarrollar una actividad orientada hacia la prevención, entendiendo como riesgo, cualquier probabilidad de irregularidad, fraude y corrupción, así como cualquier conducta impropia con la que, sin vulnerar directamente ninguna norma, se pongan en riesgo los principios rectores de funcionamiento de las Administraciones Públicas. Las aplicaciones con IA ya están revolucionando la forma de gestionar la función administrativa. Los avances que se están produciendo en el aprendizaje automático y, en particular, en el aprendizaje profundo, están provocando un cambio de paradigma en prácticamente todos los sectores de actividad.
Con los riesgos y la complejidad inherentes a la IA, es importante disponer de mecanismos de control sólidos. Y para ello, la identificación de los riesgos presentes en un proceso de toma de decisión a través de la elaboración del correspondiente mapa de riesgos constituye el primer paso en estos nuevos entornos virtuales para afrontar una gestión integral de riesgos y tiene como finalidad buscar, describir, categorizar, así como priorizar el conjunto de riesgos que la institución tendrá que gestionar.
El autor es Juez del Tribunal Superior de Tierras, Departamento Este.
Docente Derecho Administrativo y Tributario en PUCMM y CAPGEFI del Ministerio de Hacienda.
Magíster en Derecho de la Administración del Estado, de la USAL, y Magíster en Derecho Tributario y Procesal Tributario. de la UASD. Doctorado en Derecho y Sociedad, Universidad UDIMA.
Email: argarcia@poderjudicial.gob.do
[1] ISO, Sistemas de gestión de la IA: ¿Qué tienen que saber las empresas? Recuperado de: https://www.iso.org/es/inteligencia-artificial/sistema-gestion-ia (Consultado 3-12-24)
[2] Campos Acuña, C. (2023). Compliance y Tecnologia como Herramientas de Mejora de la Gestión Pública: inteligencia artificial y toma de decisiones. Revista Presupuesto y Gasto Público, Instituto de Estudios Fiscales, Madrid-España.
[3] Idem
[4] Olivares, B. (2024). La inteligencia artificial en la relación entre los obligados y la administración tributaria: retos ante la gestión tecnológica. 1ra. Edición, Soluciones Legales, S.A., Madrid-España.
Comentarios
Publicar un comentario