Inteligencia Artificial: Un panorama sobre el estatus de su regulación

Debido a la acelerada adopción de aplicaciones de Inteligencia Artificial (IA) que hemos visto en todo el mundo a lo largo de los últimos dos años, el debate sobre la manera en la que deberían ser reguladas ha tenido varios avances en diferentes partes del mundo. Esta discusión ha tomado varias vertientes, entre ellas los posibles riesgos en materia de seguridad, privacidad, discriminación, y transparencia.

La Unión Europea (UE) ha trabajado desde el 2021 en la propuesta de la Ley de Inteligencia Artificial, que hasta el momento sigue sufriendo modificaciones y se espera entre en vigor hasta el 2025. En esta ley se catalogan a las IA de acuerdo con su nivel de riesgo, prohibiendo por completo aplicaciones que violan derechos humanos, como la identificación biométrica a distancia de forma retroactiva, el social scoring, y lossistemas policiales predictivos. Además, contempla regular los modelos de IA generativos que se han popularizado entre la población en general, como ChatGPT de OpenAI, Google Bard, y Stable Diffusion. Les exigen sobre todo transparencia en cuanto al contenido que utilizan para entrenarlas.

La propuesta de la UE, a pesar de no ser perfecta, es la más avanzada en todo el mundo y sería la primera de su tipo. En Estados Unidos apenas se está empezando a debatir sobre la regulación que debería aplicarse a las empresas desarrolladoras de estas aplicaciones. El mes pasado, Sam Altman, CEO de OpenAI, la empresa creadora del famoso chatbot ChatGPT, se presentó ante el Congreso de los Estados Unidos para discutir los beneficios y riesgos de las IA y las posibles rutas que puede tomar la legislación de estas tecnologías.

En octubre del 2022, la Oficina de la Casa Blanca para Políticas de Ciencia y Tecnología publicó el documento Blueprint for an AI Bill of Rights, donde se esboza lo que una teorética regulación debería incluir y los derechos que debería proteger. Este resalta cinco principios fundamentales que deberían guiar el desarrollo de las IA para proteger a la población estadounidense: sistemas seguros y efectivos; protección contra discriminación algorítmica; privacidad de datos; aviso y explicación y alternativas humanas y consideraciones. Dicho documento pretende ser el punto de partida para regular el desarrollo de nuevas y actuales aplicaciones de Inteligencia Artificial.

En el caso de México, el Instituto Belisario Domínguez del Senado de la República publicó el 27 de abril del 2023 una investigación sobre El uso de la Inteligencia Artificial (IA) en el Poder Legislativo. Esta esboza un panorama sobre el estatus de la legislación de estas tecnologías en México y el mundo, así como sus posibles usos dentro del Poder Legislativo, sus limitaciones y sus riesgos.

Dentro de sus posibles usos, César Alejandro Giles Navarro, autor de la investigación, sugiere que la IA puede ser utilizada para hacer un análisis objetivo de las políticas públicas y legislación: “en un ambiente de polarización, la IA puede ser una herramienta eficaz para proporcionarnos información objetiva e imparcial para evaluar a las políticas del gobierno y las leyes que son analizadas por el Congreso”. Esta sugerencia demuestra lo mucho que falta para entender estas tecnologías. No hay Inteligencia Artificial que esté libre de sesgo humano alguno, pues en esencia todas son creadas y entrenadas por humanos con sus propias creencias y valores.

En este sentido, en el libro Atlas of AI: Power, Politics and the Planetary Costs of Artificial Intelligence, Kate Crawford, investigadora especialista en las implicaciones sociales y políticas de la inteligencia artificial, habla sobre los sesgos intrínsecos de las IA y la influencia de estructuras de poder que impedirían que fueran utilizadas para el propósito sugerido de evaluar políticas de gobierno de manera objetiva.

Los sistemas de IA no son autónomos, racionales ni capaces de discernir nada sin un entrenamiento exhaustivo y computacionalmente intensivo con grandes conjuntos de datos o reglas y recompensas predefinidas. De hecho, la inteligencia artificial tal y como la conocemos depende por completo de un conjunto mucho más amplio de estructuras políticas y sociales. Y debido al capital necesario para construir IA a escala y las formas de ver que optimiza los sistemas de IA están diseñados en última instancia para servir a los intereses dominantes existentes. (Traducción por mi).

En lo que si tiene razón la investigación de César Giles, es en que una legislación de este tipo “tiene que ser transversal considerando que la IA está penetrando velozmente en todas las actividades, lo que tendrá un impacto en el mercado laboral, la división social del trabajo, las necesidades educativas y la productividad del país”. Y este es precisamente el reto de crear leyes para regular una tecnología que está en constante cambio y de la que realmente aún no se tiene certeza sobre sus posibles riesgos a los derechos humanos.

Por ende, es necesario continuar con los debates sobre la regulación, sus alcances e implicaciones. Esto tomando en cuenta que la afectación que pueda tener sobre los derechos humanos siempre debe estar en el centro de la discusión. Entonces, es importante que en el diálogo se incluyan a actores del sector privado, público y sociedad civil organizada, para que confluyan perspectivas distintas que permitan alcanzar un resultado que beneficie a la población en general.

Post a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *