El diputado nacional Juan Fernando Brügge presentó un dictamen de minoría en la Comisión de Ciencia, Tecnología e Innovación Productiva de la Cámara de Diputados, con una propuesta que busca establecer un régimen jurídico integral para el desarrollo y la aplicación ética de la inteligencia artificial (IA) en Argentina.

La iniciativa, basada en un proyecto de su autoría (Expediente 3003-D-2024), propone un marco normativo que garantice el uso responsable, transparente y seguro de esta tecnología, equilibrando la innovación tecnológica con la protección de los derechos humanos.

“Los sistemas de inteligencia artificial han venido para quedarse y, por su impacto creciente en la vida de las personas, resulta urgente establecer reglas claras que aseguren su uso ético y seguro”, expresó Brügge al fundamentar su dictamen.

Un régimen jurídico para la IA en Argentina

El proyecto crea el “Régimen Jurídico Aplicable para el Uso Responsable de la Inteligencia Artificial”, que se aplicará a proveedores, usuarios e importadores de sistemas de IA, tanto públicos como privados.
Excluye las etapas de investigación y desarrollo previas a la comercialización, con el fin de no limitar la innovación científica.

Entre los ejes principales, el texto plantea principios rectores como la transparencia, la equidad, la robustez y la responsabilidad proactiva, además de un sistema de clasificación de riesgos con tres niveles: “inaceptable”, “alto” y “limitado”.

Los sistemas de alto riesgo deberán registrarse ante la autoridad de aplicación y realizar una evaluación de impacto sobre los derechos humanos antes de su puesta en funcionamiento.

Casos internacionales y advertencias éticas

Durante su exposición, Brügge mencionó diversos casos internacionales que evidencian los peligros del uso irresponsable de la IA, como Clearview AI, prohibido en varios países por vulnerar la privacidad; el error del sistema policial de Michigan que derivó en una detención injusta; el suicidio de un adolescente tras interactuar con un chatbot de Character.AI; y el caso VioGen en España, donde una falla en la clasificación de riesgo antecedió al femicidio de una víctima.

“Estos ejemplos muestran que sin control humano ni marcos éticos adecuados, la IA puede causar daños graves e irreparables”, advirtió el legislador cordobés.

Innovación con control y responsabilidad

El dictamen incorpora la creación de un “Sandbox regulatorio”, un entorno de prueba supervisado por el Estado que permitirá testear innovaciones tecnológicas de manera segura antes de su lanzamiento.

Además, designa al Instituto Nacional de Tecnología Industrial (INTI) como autoridad de aplicación y prevé la conformación de un Consejo Asesor en Inteligencia Artificial, integrado por especialistas en ética, derecho, tecnología y derechos humanos.

También establece un régimen sancionatorio y una acción judicial reparadora para las personas afectadas por decisiones automatizadas o usos indebidos de la IA.
Las sanciones incluyen multas en “Argentinos Oro” y la posibilidad de suspender o prohibir los sistemas que vulneren derechos fundamentales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *