La opacidad en el uso de inteligencia artificial en el gobierno mexicano

https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcRahsjGWG1SRm9r67m1n_Am6Re0RPzjqQBUntaZU4EekFp5NwfWykzxItga__hfBAHWNoU&usqp=CAU

La incorporación de inteligencia artificial (IA) en el ámbito público en México ha experimentado un notable aumento en tiempos recientes. No obstante, este progreso tecnológico ha venido con inquietudes sobre la claridad y la responsabilidad en su aplicación dentro de las entidades del gobierno.

Situación actual de la IA en el ámbito público mexicano

Un grupo de investigadores del Centro de Investigación y Docencia Económicas (CIDE) ha encontrado no menos de 119 aplicaciones de IA funcionando en los tres poderes de la Unión y en las diversas instancias del gobierno en México. Estas herramientas incluyen desde chatbots para atención al público hasta sistemas de análisis de datos para apoyar la toma de decisiones. No obstante, lograr acceso a información específica sobre estas aplicaciones ha resultado complicado debido a la falta de transparencia y a la reticencia de ciertas entidades a ofrecer datos claros sobre su utilización y operación.

Investigadores del Centro de Investigación y Docencia Económicas (CIDE) han identificado al menos 119 aplicaciones de IA operando en los tres poderes de la Unión y en los tres niveles de gobierno en México. Estas herramientas abarcan desde chatbots para atención ciudadana hasta sistemas de análisis de datos para la toma de decisiones. Sin embargo, obtener información detallada sobre estas aplicaciones ha sido un desafío debido a la opacidad y la resistencia de algunas instituciones a proporcionar datos claros sobre su uso y funcionamiento.

LEER  Por qué todos se pelean por Sam Altman, el hijo pródigo de Silicon Valley | Tecnología

Con el objetivo de promover la transparencia, académicos del CIDE elaboraron un registro de los algoritmos empleados por el sector público en México. Este proyecto tiene como finalidad documentar las aplicaciones de IA en distintas entidades y señalar los obstáculos para acceder a información crucial sobre su uso, regulación y objetivos. Durante la fase de recolección de datos, se enviaron alrededor de 2,200 solicitudes de transparencia a organismos públicos. No obstante, numerosas dependencias mostraron resistencia al proporcionar información o contestaron de manera vaga. En algunas situaciones, las instituciones solo admitieron el uso de IA tras la presentación de recursos de revisión frente a los órganos de transparencia. Estados como el Estado de México y Nayarit sobresalieron por su falta de respuesta general. ​

Mala información y falta de entendimiento sobre la IA

Un problema adicional detectado es el desconocimiento dentro de las mismas instituciones acerca de qué se considera una aplicación de IA. En varias respuestas a las solicitudes de transparencia, las entidades mencionaron herramientas de software convencional, como paquetes de oficina o programas de ciberseguridad, como si fueran inteligencia artificial. En conjunto, 223 aplicaciones reportadas no cumplían con los requisitos fundamentales para ser clasificadas como IA, lo que evidencia un problema de desinformación incluso en departamentos de tecnología de la información en el gobierno.

LEER  Gorrión Depredador y otras armas sin gatillos de las guerras híbridas: baratas, rápidas, indetectables y eficaces | Tecnología

Otro problema identificado es la falta de conocimiento dentro de las propias instituciones sobre qué constituye una aplicación de IA. En muchas respuestas a solicitudes de transparencia, las dependencias listaron herramientas de software tradicional, como suites de oficina o programas de ciberseguridad, como si se tratara de inteligencia artificial. En total, 223 aplicaciones reportadas no cumplían con los criterios básicos para ser consideradas IA, lo que refleja un problema de desinformación incluso en áreas de tecnología de la información dentro del gobierno.

El empleo de IA en el ámbito público también ha suscitado debates éticos sobre privacidad, transparencia, responsabilidad y el derecho al acceso a la información. La falta de claridad en los algoritmos puede minar la confianza de la población en estas herramientas, particularmente si no se conocen los criterios que guían su funcionamiento o si presentan sesgos que podrían desembocar en decisiones discriminatorias. Por ejemplo, durante la pandemia de COVID-19, se pusieron en marcha chatbots como «Susana Distancia» y «Dr. Armando Vaccuno» para orientar a la ciudadanía. No obstante, surgieron inquietudes éticas respecto a la transparencia y privacidad en su utilización, lo que resultó en una disminución de la confianza y uso por parte del público.

LEER  ¿Se acabó el ‘googlear’? Así funcionan los ‘chatbots’ de IA generativa como buscadores | Tecnología

Urgencia de un marco regulatorio apropiado

Necesidad de un marco regulatorio adecuado

La falta de transparencia en el uso de IA por parte de los gobiernos resalta la necesidad de establecer marcos regulatorios que garanticen la auditabilidad y responsabilidad en el uso de estas tecnologías. Es esencial analizar las legislaciones en diferentes ámbitos e identificar cómo podrían ser utilizadas adecuadamente para garantizar que la implementación de IA respete los derechos de la ciudadanía y opere de manera ética y transparente.