Archivos de la etiqueta: seguridad y protección

25Oct/24
Proyecto de Ley

Proyecto de ley de responsabilidad algorítmica y promoción de la robótica, algoritmos verdes e inteligencia artificial, 18 de marzo de 2024. Expediente 0805-D-2024.

Proyecto de ley de responsabilidad algorítmica y promoción de la robótica, algoritmos verdes e inteligencia artificial, 18 de marzo de 2024. Expediente 0805-D-2024.

EXPEDIENTE 0805-D-2024.

PROYECTO DE LEY

El Senado y la Cámara de Diputados de la Nación Argentina, reunidos en Congreso sancionan con fuerza de Ley:

RESPONSABILIDAD ALGORÍTMICA Y PROMOCIÓN DE LA ROBÓTICA, ALGORITMOS VERDES E INTELIGENCIA ARTIFICIAL EN LA REPÚBLICA ARGENTINA.

CAPÍTULO I.- RESPONSABILIDAD Y TRANSPARENCIA ALGORÍTMICA

Artículo 1°.- Objetivo:

El objetivo de la presente ley es establecer un marco legal a los desarrollos de la inteligencia artificial con el objetivo de crear certificaciones de buenas prácticas, implementar un registro de riesgos significativos, promover la inteligencia artificial en pequeñas y medianas empresas, como así también fomentar la responsabilidad y transparencia algorítmica de nuevas tecnologías en respeto del bien común, el estado de derecho y la protección de la autonomía individual.

Artículo 2°.- Objeto:

El objeto de la presente ley son los procesos computacionales o derivados como el aprendizaje de máquinas (machine learning), coding, mecanismos de aprendizaje automático, deep learning, minería de datos, uso de algoritmos, análisis estadístico, segmentación de perfiles de consumo, sistemas de computación cuántica, sistemas de transformación digital o tecnológica, u otros procesos con técnicas de inteligencia artificial que faciliten e influyen en la toma de decisiones humanas con particular impacto en los hábitos de consumo y sociales, como así también el conjunto de técnicas y algoritmos que permiten a las máquinas aprender de los datos y realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de patrones, la toma de decisiones y la resolución de problemas.

Artículo 3°.- Actores de la I.A.:

Serán actores de la I.A. para la presente Ley:

a) los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA o que introduzcan en el mercado modelos de IA de uso general, con independencia de si dichos proveedores están establecidos o ubicados en Argentina o en un tercer país;

b) los responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la Argentina;

c) los proveedores y responsables del despliegue de sistemas de IA que estén establecidos o ubicados en un tercer país, cuando la información de salida generada por el sistema de IA se utilice en la Argentina;

d) los importadores y distribuidores de sistemas de IA;

e) los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca comercial;

f) los representantes autorizados de los proveedores que no estén establecidos en la Argentina;

g) las personas afectadas que estén ubicadas en la Argentina.

Artículo 4°.- Principios:

Los efectos de la presente ley se regirán por los siguientes principios:

a) Crecimiento inclusivo, desarrollo sostenible y bienestar.

Los resultados de la inteligencia artificial y los procesos de decisión automatizada deben ser beneficiosos para las personas y el planeta, para aumentar las capacidades humanas y mejorar la creatividad, promover la inclusión de poblaciones subrepresentadas, reducir las desigualdades económicas, sociales, de género y de otro tipo, reducir las formas de corrupción en todos sus tipos y proteger los entornos naturales, estimulando así el crecimiento inclusivo, el desarrollo sostenible y el bienestar.

b) Valores y equidad centrados en el ser humano.

Los actores de la IA, tanto del sector público como privado, deben respetar el estado de derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida del sistema de IA. Estos incluyen libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad y equidad.

Para ello, los actores de la IA deben implementar mecanismos y salvaguardas, como la capacidad de determinación humana, que sean apropiados y respetuosos de la autonomía individual.

Los resultados de la inteligencia artificial y procesos de decisión automatizada no podrán ser utilizados con la finalidad de reemplazar su sistema de gobierno republicano, representativo y federal, o desestabilizar los procesos democráticos, las deliberaciones humanas, ni los sistemas democráticos de votación.

c) Transparencia y explicabilidad.

Los actores de IA deben comprometerse con la transparencia y la divulgación responsable con respecto a los sistemas de IA. Para ello, deben proporcionar información significativa, adecuada al contexto y coherente con el estado de la técnica. Asimismo, se debe fomentar una comprensión general de los sistemas de IA, sensibilizar a las partes interesadas sobre sus interacciones con los sistemas de IA, incluso en el lugar de trabajo, permitir que los afectados por un sistema de IA comprendan el resultado, y permitir a los afectados negativamente por un sistema de IA desafiar su resultado basándose en

información simple y fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, recomendación o decisión.

d) Robustez, seguridad y protección.

Los sistemas de IA deben ser robustos y seguros durante todo su ciclo de vida para que, en condiciones de uso normal, uso previsible o mal uso, u otras condiciones adversas, funcionen de manera adecuada y no presenten riesgos de seguridad irrazonables.

Con este fin, los actores de la inteligencia artificial deben garantizar la trazabilidad, incluso en relación con los conjuntos de datos, los procesos y las decisiones tomadas durante el ciclo de vida del sistema de inteligencia artificial, para permitir el análisis de los resultados del sistema de inteligencia artificial y las respuestas a las consultas, de manera adecuada al contexto y coherente con el estado de los desarrollos.

Los actores de la IA deben, según sus roles, el contexto y su capacidad para actuar, aplicar un enfoque sistemático de gestión de riesgos a cada fase del ciclo de vida del sistema de IA de forma continua para abordar los riesgos relacionados con los sistemas de IA, incluida la privacidad, la seguridad digital, seguridad y sesgo.

e) Responsabilidad.

Los actores de la IA deben ser responsables del correcto funcionamiento de los sistemas de IA y del respeto de los principios anteriores, en función de sus funciones, el contexto y de conformidad con el estado de los desarrollos. La responsabilidad implica avanzar progresivamente en eliminación de déficits de transparencia que eviten disponer de información veraz que tenga trazabilidad y sea controlable siempre que puedan verse afectados negativamente bienes jurídicos individuales o colectivos, como también que eviten el conocimiento de factores importantes para comprender el funcionamiento de programaciones, diseños técnicos y criterios basados en algoritmos.

f) Prevención de riesgos y posibles daños.

Los actores involucrados en las disposiciones de la presente ley deben guiar sus acciones teniendo particular atención a evitar daños y riesgos en cuanto a uso de datos de historial crediticio, derecho al olvido, elaboración de perfiles de consumo, elaboración de perfiles en el ámbito de procesos de solicitud de puestos de trabajo, comunicación comercial, privacidad, criminalidad, seguridad, algoritmos de aprendizaje automático, discriminación por algoritmos sesgados, errores de bugs que influyan en una toma de decisión errónea no adjudicable al usuario y los manejos de información como la difusión unilateral de información, manipulación de actitudes o valores personal con el objetivo de influir en tendencias sociales o el comportamiento. Los perfiles de consumo de personas menores de edad deberán ser restringidas o tener un control especial. También se tendrá especial precaución en todo lo relacionado a clasificación de personas para su puntuación y posterior otorgamiento de beneficios o castigos crediticios, laborales o de otra índole en función de su comportamiento.

g) Cooperación público-privada. Protección especial a MiPyMEs.

Toda política pública relacionada a implementación de responsabilidad o sanciones por utilización de IA debe contar con especial cuidado en su impacto a las micro, pequeñas y medianas empresas (MIPYMES). Deben diferenciarse los posibles impactos de responsabilidad para no daña las y ayudarlas en la implementación de nuevas tecnologías. Las medidas tomadas deben evitar generar daños contraproducentes que afecten la innovación como bloqueos y burocracia innecesaria. El principio general que debe priorizarse es la cooperación recíproca entre el ámbito público y privado, tomando en cuenta la multipolaridad y multidimensionalidad de los fenómenos a tratar y estableciendo análisis de costo-beneficio en las medidas a recomendar.

h) Control de la vigilancia estatal.

Cuando las tecnologías mencionadas en la presente ley sean utilizadas por diferentes organismos estatales con vistas a la prevención de riesgos o a la persecución penal se deberá contar con un especial programa de transparencia y responsabilidad, protegiendo el secreto para los fines razonables, pero con la condición de existencia de medidas de control por parte del Poder Judicial o Legislativo que garanticen la división de poderes.

Los principios enumerados en el presente artículo, de ninguna manera serán entendidos como negación de otros principios no enumerados pero que nacen de la Constitución Nacional, Tratados Internacionales y leyes de la Nación.

Artículo 5.- Consejo Asesor de I.A.

Créase con carácter Ad Honorem el Consejo Asesor de Inteligencia Artificial, que estará conformado por ocho (8) personas con trayectoria reconocida en el ámbito y formación académica en la materia, y deberán proceder paritariamente del sector privado y público.

Del total de los representantes dos de ellos serán: un (1) representante de la Comisión Nacional de Defensa de la Competencia y un (1) representante de la Defensoría del Pueblo de la Nación Argentina.

Todos serán nombrados por el Poder Ejecutivo Nacional con acuerdo de la Cámara de Diputados. La integración deberá respetar a su vez la paridad de género.

La duración del/los integrantes de cada Autoridad de Aplicación en su mandato serán de 4 años y pueden ser designados por una (1) sola vez.

Los/las miembros de las Autoridades de Aplicación pueden ser removidos/as por causal de negligencia grave en el desempeño de sus funciones.

Artículo 6.- Objetivos del Consejo.

El Consejo Asesor de I.A. será la Autoridad de Aplicación de la presente Ley y tendrá por objetivos elaborar planes de prevención de posibles peligros en innovaciones tecnológicas, emitir recomendaciones no vinculantes y estimular las buenas prácticas algorítmicas en innovaciones.

El Consejo Asesor deberá establecer procedimientos ágiles que fomenten la participación, educación, toma de conciencia y consulta por parte de la ciudadanía para garantizar que las decisiones que se tomen sean justas y representen los intereses de todas las partes involucradas.

Artículo 7.- Protocolos de transparencia.

La Autoridad de Aplicación establecerá los protocolos idóneos para garantizar la transparencia en la utilización de algoritmos respetando los principios del artículo 2° y en especial la no injerencia en la autonomía de las empresas o programadores, el secreto comercial y sin afectar su legítimo interés y protección a la propiedad intelectual. Se tendrá especial control en algoritmos cuya utilización pueda perjudicar bienes jurídicos como la no discriminación, la estigmatización de grupos, la manipulación de información o comportamientos y en campos de aplicación del sector sanitario. Se avanzará en trámites de certificación estatal y procedimientos de secreto adaptados especialmente para armonizar los objetivos del presente artículo.

Artículo 8.- Registro de riesgos significativos.

La Autoridad de Aplicación creará un registro público de “Sistemas de Decisión Automatizada de Riesgo Significativo”, entre los cuales se encontrarán todos aquellos mencionados en el artículo 2° que puedan generar eventuales daños o peligros que se entienda prioritario prevenir causados por la evolución de los procesos de digitalización, gestión de datos, robotización, inteligencia artificial u otros procesos innovadores que puedan derivar en problemas no previstos.

Especialmente se tendrá en cuenta para este registro aquellos sistemas que impliquen categorización biométrica basada en características sensibles, la extracción no selectiva de imágenes faciales de internet o de imágenes de circuito cerrado de televisión para bases de datos de reconocimiento facial, el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia predictiva basada en perfiles de una persona o la evaluación de sus características, los sistemas que manipulen el comportamiento humano o exploten vulnerabilidades de las personas, toda calificación de datos personales para puntuar historial crediticio o penal, de detenciones, arrestos o sistemas que puedan significar riesgos de injerencia de potencias extranjeras o afectar la seguridad nacional, como así también sistemas que puedan tener un impacto significativo en la salud, seguridad, derechos fundamentales, medio ambiente, la democracia o el Estado de Derecho.

El Registro deberá mantenerse actualizado y será público.

Artículo 9°.- Certificaciones de buenas prácticas.

Créase el programa de certificaciones de buenas prácticas algorítmicas el cual será reglamentado por la Autoridad de Aplicación y tendrá carácter voluntario no obligatorio para el sector privado y obligatorio para el sector público nacional.

En el sector público nacional se tendrá especial precaución y requerirá certificación especial las prácticas que contengan calificación ciudadana, sistemas de vigilancia masiva, o sistemas de identificación biométrica remota de personas en lugares públicos

Artículo 10°.- Objetivo de las certificaciones.

Las certificaciones de buenas prácticas algorítmicas tendrán por objetivo estimular, promover y crear un marco de certidumbre avalado y de interés del Estado Nacional que promueva diseños algorítmicos con fines de bien común, energéticamente eficientes, transparentes, accesibles y que dispensen de responsabilidad ulterior a los creadores de estos frente a eventuales procesos judiciales. La Autoridad de Aplicación implementará beneficios impositivos para los sujetos no obligados que apliquen las tecnologías certificadas.

Artículo 11°.- Requisitos de las certificaciones.

Las certificaciones de buenas prácticas algorítmicas deben cumplir criterios técnicos y recibirán aportes del sector privado, asociaciones no gubernamentales y especialistas en la materia para consolidar los métodos de evaluación.

Artículo 12°.- Evaluaciones de impacto.

La Autoridad de Aplicación podrá solicitar evaluaciones de impacto en la privacidad y los derechos fundamentales de las personas antes de la implementación de cualquier sistema de inteligencia artificial, siempre que la solicitud este motivada por razones de oportunidad, mérito y conveniencia, y garantizando la agilidad, economía procesal y tramitación digital de la respuesta para no afectar derechos de propiedad.

Se elaborará un procedimiento para que los consumidores puedan presentar quejas y obtener explicaciones sobre sistemas con el objetivo de requerir evaluaciones de impacto.

CAPITULO II.- PROGRAMA FEDERAL DE INTELIGENCIA ARTIFICIAL, ALGORITMOS VERDES, ROBÓTICA Y AUTOMATIZACIÓN

Artículo 13°.- Programa Federal IA.

Créase el Programa Federal de Inteligencia Artificial, robótica y automatización de la República Argentina el cual deberá ser elaborado por el Poder Ejecutivo Nacional con la intervención del Consejo Asesor en I.A. creado por la presente.

Artículo 14°.- Objetivos del Programa.

Los objetivos del Programa I.A. serán:

a) Desarrollar la robótica, procesos de automatización, coding e inteligencia artificial en todo el territorio nacional, tendiendo a su difusión, conocimiento, perfeccionamiento y aprovechamiento integral.

b) Establecer lineamientos estratégicos para reorganizar la estructura industrial nacional y promover la migración hacia esquemas más integrados, flexibles, conectados y colaborativos.

c) Promover la inversión en innovaciones asociadas a la creación y adaptación de tecnologías digitales claves para reconversión del sistema productivo como son la robótica avanzada, coding, big data, manufactura aditiva, Deep learning, Deep web, data analytics, procesamiento de lenguaje natural, entre otras.

d) Incentivar en el sector privado la competitividad y fomentar un perfil exportador que promueva la generación de empleo nacional.

e) Establecer planes conjuntos con el Ministerio de Educación, Ciencia y Tecnología que promuevan la acumulación de capital humano y acumulación de capital intangible asociado a inteligencia artificial y diversas tecnologías 4.0.

f) Promover la provisión de bienes públicos poniendo el foco en la infraestructura digital.

g) Promover una la creación y diseño de “algoritmos verdes” entendiendo por los mismos a aquellos que son energéticamente eficientes, contribuyendo a la lucha contra el cambio climático y la transición ecológica, así como impulsar aplicaciones de IA sostenibles.

h) Incorporar perspectivas de género y de cuidado al medio ambiente en las estrategias, planes y objetivos a elaborar.

i) Planificar, elaborar y acordar una política nacional en materia de robótica, automatización e inteligencia artificial que procure la identificación de oportunidades y amenazas en cuanto a derechos laborales, economía, política social y efectos colaterales para nuestra matriz productiva.

j) Establecer metas de desarrollo, objetivos a cumplir y planes estratégicos interdisciplinarios que apliquen los beneficios de los procesos de robotización, automatización e inteligencia artificial en el entramado productivo argentino, promoviendo la participación de Universidades, ONGs y centros de estudios específicos en la temática.

k) Crear estándares de buenas prácticas en el uso de inteligencia artificial de adopción voluntaria por parte del sector privado.

l) Elaborar informes anuales de la evolución de la legislación comparada en materia de inteligencia artificial para poder consultar y adoptar herramientas regulatorias internacionales que sean compatibles con los fines de la presente ley.

m) Constituir foros de debate y diálogo en el marco del cual el gobierno nacional y los gobiernos federales puedan intercambiar los avances alcanzados en la materia, desde una visión integral.

n) Promover la inclusión de toda la sociedad en las nuevas tecnologías a través de campañas en los medios de comunicación. Promover acciones de concientización con especial enfoque en peligros y riesgos de utilización de estas tecnologías por parte de menores de edad.

o) Establecer planes de migración de trabajos e implementar estrategias de desarrollo productivo asociadas a una adopción más rápida y generalizada de las tecnologías vinculadas a la Inteligencia Artificial en el sector de público. Esto incluye automatizar y digitalizar procesos del Estado con plazos de cumplimiento y metas.

Artículo 15.-

Las disposiciones de esta ley deberán interpretarse en conjunto con la Ley 25.326 de Protección de Datos Personales o las que en el futuro las reemplacen.

Artículo 16.- Comuníquese, etc.

MAXIMILIANO FERRARO

FUNDAMENTOS

El objetivo del presente proyecto es poner en debate un tema que creemos relevante para el presente y futuro de nuestras sociedades. El proyecto sirve a nuestro Congreso Nacional para adoptar medidas legislativas que aprovechen las oportunidades y los beneficios de la inteligencia artificial, pero sin dejar de garantizar la protección de principios éticos ni generar restricciones innecesarias en las industrias del sector.

Un algoritmo puede ser definido como un proceso o conjunto de reglas que se siguen en cálculos u otras operaciones de resolución de problemas, sobre todo los ejecutados por un ordenador. En los últimos años (y particularmente meses) la inteligencia artificial (IA) han permitido a máquinas ejecutar tareas que anteriormente realizaban los humanos. Desde reconocimiento de rostros, traducción de idiomas, o interpretación de radiografías. Asimismo, se ha demostrado su capacidad para realizar tareas complejas de predicción como pronosticar decisiones judiciales, determinar qué acusados tienen más probabilidades de saltarse la libertad bajo fianza y evaluar qué llamadas a servicios de protección infantil requieren mayor urgencia (1).

En el año 2023 asistimos a lo que muchos denominaron la era de la IA. Con los lanzamientos de Chat GPT o sus competidores, el público en general fue testigo de los avances en la materia. En palabras del reconocido empresario Bill Gates estamos viviendo una revolución: “El desarrollo de la inteligencia artificial es tan fundamental como la creación del microprocesador, el ordenador personal, internet y el teléfono móvil. Cambiará la forma en que las personas trabajan, aprenden, viajan, reciben atención sanitaria y se comunican entre sí. Industrias enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo bien que lo utilicen” (2).

Asimismo, Harari, Harris y Raskin afirmaron que “Todavía podemos elegir qué futuro queremos con la inteligencia artificial. Cuando los poderes bienintencionados se combinan con la responsabilidad y el control correspondientes, podemos promover los beneficios que la inteligencia artificial promete. Hemos convocado una inteligencia ajena. No sabemos mucho al respecto, excepto que es extremadamente poderosa y nos ofrece regalos deslumbrantes, pero también podría hackear los cimientos de nuestra civilización. Hacemos un llamado a los líderes mundiales para que respondan a este momento al nivel del desafío que presenta. El primer paso es ganar tiempo para actualizar nuestras instituciones del siglo XIX para un mundo nuevo y aprender a dominar inteligencia artificial antes de que ella nos domine.” (3)

Regular los avances e innovaciones tecnológicas que están sucediendo en el mundo genera opiniones contrapuestas: hay quienes sostienen que se debe dar vía libre para expandir el poder innovador y aquellos que prefieren establecer ciertos límites y marcos legales para evitar posibles peligros. Con la presentación del presente proyecto creemos que, independientemente de tomar cualquier posición, el Congreso argentino debe tener un debate profundo y plural sobre un tema de tanta trascendencia para nuestro

futuro. Lo peor que podemos hacer es no interesarnos en los temas más fundamentales que afectan el presente, pero van a afectar cada vez más profundamente nuestro futuro. Es necesario que nuestro país tenga una estrategia planificada, de inventivo o preventiva sobre posibles cuestiones a las que nos enfrentaremos.

El presente proyecto de ley responde a una pregunta: ¿Tenemos que aceptar sin más un poder incontrolado asociado al acceso de datos y su tratamiento que puede influir en el comportamiento de todos nosotros? Tenemos que ser capaces de poner en discusión temas que el mundo debate en pleno siglo XXI, que nos invita a proyectar, prevenir y planificar un futuro que respete la autonomía, dignidad y equidad de las personas. El presente proyecto quiere aportar a un debate pendiente en nuestro país sobre diversos avances e innovaciones tecnológicas que requiere el aporte de todos los sectores para comprender y planificar adecuadamente.

Los algoritmos son creaciones humanas y, por lo tanto, falibles. Potencialmente tienen tantos errores y sesgos como los procesos humanos y no siempre su procesamiento es transparente o auditable. Sin embargo, pocos países han manifestado la voluntad de regular, un número aún menor ha efectivamente aprobado alguna regulación, y su contenido difiere sustancialmente entre casos. Para la gran cantidad de países que aún no tienen regulaciones específicas (e incluso para quienes ya tienen alguna), la discusión es amplia y los modelos propuestos son variados, aunque se distinguen principalmente en dos grupos: aquellos que impulsan una regulación horizontal -por tipo de tecnología- de aquellos que impulsan una regulación vertical -por sector-.

El estado de derecho debe tomar por las riendas muchos cambios sociales que se están produciendo como consecuencias de avances tecnológicos vertiginosos. Debemos promover la creatividad emprendedora y minimizar los riesgos de la utilización irresponsable de nuevos desarrollos.

Nuestro país nos exige en llenar lagunas jurídicas, vacíos legales y vaguedades anacrónicas para proteger la autonomía de potenciales perjudicados, derechos fundamentales, pero también entender en los procesos sociales y armonizar muchas infraestructuras dirigidas digitalmente en concordancia con el objetivo de tener una sociedad diversa y plural. Si bien Argentina no cuenta con una legislación que regule la responsabilidad algorítmica, podemos encontrar leyes relacionadas como la Ley de Protección de Datos Personales Nº 25.326, la Ley de Propiedad Intelectual Nº 11.723, la Ley de Defensa del Consumidor Nº 24.240 y la Ley de Telecomunicaciones Nº 19.798.

A nivel internacional encontramos que el derecho ha ido adaptándose a los desafíos que del avance tecnológico, por ejemplo: en el caso de accidentes causados por coches autónomos los seguros seguirán siendo el primer destinatario de las reclamaciones; en cuanto a las compañías que utilicen sistemas de inteligencia artificial para sus procesos de selección laboral podrán ser demandadas en caso de incurrir en prácticas discriminatorias, y también las aseguradoras que incurran en prácticas contra el consumidor derivadas de los análisis generados por sus modelos de inteligencia artificial para fijar precios y decidir a quién aseguran seguirán teniendo que responder como empresas (4).

La regulación es disímil en cada país: en Estados Unidos, por ejemplo, se está apostando por estándares que controlen el riesgo de los sistemas de inteligencia artificial, pero sean aceptados voluntariamente por las empresas. El objetivo es no detener la innovación y que las regulaciones puedan acompañar el desarrollo. En China se ha desarrollado un plan complejo que implica experimentación regulatoria, desarrollo de estándares y regulación dura. En Japón se apuesta a un partenariado entre estado, empresas, trabajadores y usuarios para evitar los peores problemas que la inteligencia artificial pueda causar. En Canadá todo sistema de Inteligencia Artificial usado en el sector público debe someterse a un análisis de impacto que prevea sus riesgos. En la Unión Europea encontramos la primera región que tiene una ley integral para regular la inteligencia artificial a partir de diciembre del 2023 (5) y su reciente ratificación por el Parlamento Europeo (6).

El mundo está avanzando a pasos rápidos, el avance de la inteligencia artificial, la big data, el machine learning, los sistemas ciberfísicos en ámbitos de producción y distribución, los hogares inteligentes, las nuevas posibilidades de movilidad, trabajo informático en la nube, la conducción automática o autónoma de automóviles, la cantidad de datos que se generan y su tratamiento y análisis, las nuevas formas de influencia comunicativa, los diagnósticos médicos o la telemedicina, entre otros muchos desarrollos, implican que comencemos un trabajo serio, plural y convocando a la mayor cantidad de analistas, especialistas, emprendedores y profesionales para establecer marcos generales de transparencia, responsabilidad y promoción de algoritmos.

Entre los peligros que la mayor parte de la doctrina menciona con respecto a los procesos de digitalización y creación de algoritmos encontramos: la caja negra o apertura del procesamiento de la información, los sesgos de los algoritmos, la ética de la selección, y el manejo de la información, con especial énfasis en la protección de los derechos de privacidad y de datos personales.

Varios gobiernos y entre los latinoamericanos, México, lanzaron planes integrales para promover el uso y desarrollo de la inteligencia artificial. La mayoría de los planes involucran la colaboración entre una multiplicidad de actores relevantes tanto del sector público, como del sector privado y de la academia. Es el camino que el presente proyecto propone debatir entre todas las fuerzas políticas interesadas.

Nos parece importante transcribir un trabajo de especialistas donde desarrollan los cuatro problemas principales que justifican poner el foco en el tema propuesto. Según el trabajo de María Belen Abdala, Santiago Lacroix Eussler y Santiago Soubie del CIPPEC (7), los cuatro grupos de posibles peligros que representan los algoritmos y ameritan una regulación son:

“… 1. La caja negra. Si bien uno podría pensar a la regulación de la IA como una extensión de otras regulaciones vigentes sobre obtención, procesamiento y uso de la información, los algoritmos utilizados son cualitativamente distintos. Gran parte del procesamiento, almacenamiento y uso de la información es realizado por el algoritmo mismo y de forma poco transparente dentro de una caja negra de procesamiento prácticamente inescrutable (Lodge & Mennicken, 2017). Para muchas actividades y dispositivos complejos, como pueden ser las herramientas de diagnóstico y tratamiento médico, escrutar el proceso mediante el cual el algoritmo actúa resulta imprescindible.

2. Los sesgos de los algoritmos. Los algoritmos poseen un sesgo de creación que emerge de su programación inicial, llevada a cabo por personas. Además, éstos responden a la información con la que se los alimenta; información que también puede encontrarse potencialmente sesgada (Lodge & Mennicken, 2017). En última instancia, dichos sesgos pueden derivar en respuestas o resultados discriminatorios en los que la IA seleccione una opción con sesgos de género, etnia, religión u otras características. Un ejemplo de esto es el caso de la herramienta de reclutamiento de personal utilizado (y eventualmente dado de baja) por Amazon. El motor de reclutamiento experimental de Amazon siguió el mismo patrón de selección que las principales compañías tecnológicas de EEUU que aún no han cerrado la brecha de género en la selección de sus equipos -especialmente en lo que refiere a los programadores y desarrolladores de software- y aprendió a penalizar los currículums que incluían la palabra “mujer”.

3. La ética de selección. En tercer lugar, existe también una preocupación acerca de cómo se procesa la información, especialmente en aquellos casos donde las decisiones se toman en situaciones conflictivas (European Parliament Research Service, 2016). El caso típico es el del vehículo autónomo que debe elegir entre arriesgar la vida de sus ocupantes o dañar a terceros. Algo similar ocurre con el Domo de Hierro israelí o el Phalanx® weapon system de Estados Unidos, cuyo algoritmo conectado a un radar escanea, detecta y decide qué objetos representan un peligro concreto y deben ser derribados. Como indica el Subcomité de Tecnología de la Información de la Cámara de Representantes de Estados Unidos (2018), todas las decisiones autónomas deberían ser escrutables, de forma tal de poder revisar y entender cómo fueron tomadas. Es, en este sentido, indispensable definir a quién se atribuye la responsabilidad ética y legal por las consecuencias de las decisiones tomadas de manera autónoma.

4. El manejo de la información. La implementación de cualquier sistema de IA depende, en gran medida, de la constante absorción de datos, del flujo y manejo de la información. En ese marco, la discusión sobre la regulación del acceso y uso de la información en la IA, refiere a definir cómo y a quiénes (personas u organizaciones) se les otorga el acceso a dichos datos (Schrock, 2018). La información es poder y, en la actualidad, se deposita una carga excesiva sobre el individuo para administrar sus derechos de privacidad. El modelo cerrado de “notificar y elegir” no otorga verdaderas opciones a las personas (Kerry, 2019). A la hora de recolectar datos, es necesario garantizar que las personas afectadas por esto no solo den su consentimiento, sino que también conozcan el objetivo para el cual su información está siendo recolectada, quiénes serán los receptores finales de esta información, la identidad de la organización que la esté recolectando y la organización que finalmente dispondrá de esa información. De otra forma, no se puede garantizar que los derechos a la privacidad e intimidad de las personas no estén siendo vulnerados. …”(8)

Entre la cantidad de tipos de regulaciones en diferentes países encontramos órganos de contralor, consejos que emiten recomendaciones, comisiones que crean sus propios algoritmos, direcciones federales de algoritmos (FDA de EE.UU.), Consejos Nacionales de Algoritmos, entre otros. (9)

Como se desarrolló anteriormente, en el mundo varios países están creando planes de desarrollo de I.A., Estonia reunió a el sector público y privado para crear una ley, y China ya presentó los objetivos de su plan. Las estrategias de inteligencia artificial son necesarias para cualquier país que quiera mirar a futuro. Tanto Japón como Singapur apostaron a modelos regulatorios ligeros que pongan foco en los posibles riesgos (sobre todo en datos personales) pero que no impidan promover el desarrollo y la innovación. El Reino Unido eligió un camino de una legislación específica para cada ámbito en particular y no la creación de un órgano transversal como lo que proponemos en la presente normativa. Estados Unidos también está avanzando en regulaciones específicas y cada estado mantiene particular interés en algunos ámbitos (Regulaciones a los automóviles sin chofer, por ejemplo). En el Congreso de los Diputados de España encontramos proposiciones de ley tanto del Partido Popular (161/001163) (10), como del Partido Socialista Obrero Español (161/002268) en esta materia.

Asimismo, el presento proyecto recepta y eleva a rango de ley las recomendaciones de la OCDE firmados por Argentina y varios países elaborados a partir de las orientaciones proporcionadas por un grupo de expertos integrado por más de cincuenta miembros procedentes de gobiernos, instituciones académicas, el mundo empresarial, la sociedad civil, organismos internacionales, la comunidad tecnológica y sindicatos. Los Principios sobre IA cuentan con el respaldo de la Comisión Europea, cuyo grupo de expertos de alto nivel en la materia ha elaborado unas Directrices éticas para una IA fiable. A partir de la aprobación de este proyecto de ley pasarían a ser un buen punto de partida para la futura elaboración de normas nacionales, provinciales o municipales.

La experiencia de las revoluciones industriales previas sugiere que aquellas firmas y países que más rápido adoptan las nuevas tecnologías son quienes obtienen más oportunidades de crecimiento. Como afirma un trabajo de CIPPEC “…hay dos factores que conducen al crecimiento a lo largo del tiempo de la producción agregada de una economía. Uno es el aumento de los factores productivos, es decir, la incorporación de trabajadores y la acumulación de capital —máquinas, caminos, puertos y otros bienes reproducibles— al sistema productivo. Con mayor trabajo y/o capital, la producción crece. El otro factor es el crecimiento de la productividad (PTF) que resulta tanto de las mejoras en la organización y eficiencia con la que se usan los factores (trabajo y capital) como de las innovaciones. Ambas —las mejoras en la eficiencia y las innovaciones— son muchas veces producto de la incorporación de nuevas tecnologías al sistema económico.”(11)

El informe citado los autores afirman que “una estrategia de política industrial 4.0 que estimule y facilite una rápida y masiva adopción de IA y otras tecnologías por parte de las firmas. Muchos países han empezado a trabajar activamente en esta dirección y Argentina no debería rezagarse. La segunda, tal vez más importante, se refiere a la estrategia de educación e inversión en capital humano que prepare a los futuros trabajadores y facilite la readaptación de los existentes para que puedan complementarse de forma virtuosa con la IA y otras nuevas tecnologías. También en este sentido Argentina enfrenta no pocos desafíos. La tercera apunta a desarrollar una estrategia que brinde una adecuada protección social a quienes enfrenten mayor dificultad de reinserción en el mercado de trabajo.” (12)

Con el presente proyecto no queremos promover una visión escéptica de los avances tecnológicos, pero si dotar de un proyecto borrador o herramienta básica de trabajo para que nuestro Poder Legislativo trabaje en un tema que creemos crucial para el futuro. No sorprende que recientemente sean cada vez más quienes advierten sobre los riesgos de un empleo sin límites de la inteligencia artificial, entre ellos actores que en su propio curriculum han impulsado el desarrollo de esas tecnologías y la han utilizado con fines comerciales.(13)

Un punto importante a destacar es la visión vinculada al medio ambiente y la necesidad de promover una estrategia de “algoritmos verdes”. En este sentido, nuestro proyecto establece que los objetivos del programa I.A. serán promover el diseño de “algoritmos verdes” teniendo en cuenta el impacto de la IA en la huella de carbono. El gran consumo energético que producen ciertas evoluciones tecnológicas es algo a tener en cuenta. Según datos de la consultora McKinsey, el mercado de las tecnologías de la información y la comunicación (TIC) fue el responsable de entre el 3 % al 4% de todas las emisiones de CO2 mundiales en 2020. Solamente en EE. UU. los centros de datos, donde se entrenan los algoritmos, suponen 1,8% del consumo eléctrico de ese país. Además, tan solo entre el 6% y el 12% del consumo de los centros de datos está dirigido a realizar cálculos o procesos, ya que el resto va destinado a su refrigeración y mantenimiento. Por lo tanto, varias organizaciones e iniciativas trabajan para reducir el impacto de la IA en el medio ambiente. Así, una estrategia nacional en esta materia debe tener en cuenta el diseño de una variante sostenible. Los llamados «algoritmos verdes» permiten utilizar la IA de forma más inclusiva y respetuosa con el planeta.

Recientemente, un grupo de más de mil expertos entre los que se encontraban Elon Musk, Yuval Noah Harari, Gary Marcus y Steve Wozniak de la plataforma “Future Of Life” afirmaron en un documento que “…los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.”(14)

Actualmente encontramos normativa internacional a la que Argentina adhirió como los principios generales para el abordaje ético de la inteligencia artificial, de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) la cual emitió la Recomendación sobre la Ética de la Inteligencia Artificial dictada. Asimismo, podemos mencionar la Declaración de Qingdao, aprobada en 2015, sobre el aprovechamiento de las tecnologías de la información y la comunicación (TIC) para lograr el ODS 4. También podemos destacar la normativa dictada por el Poder Ejecutivo a través de decretos, por ejemplo, podemos mencionar el decreto 50/2019 o el decreto 2/2023 el cual establece recomendaciones para una inteligencia artificial fiable. Asimismo, si bien el artículo 3° de la Ley 25.467 establece principios de carácter irrenunciable y aplicación universal, que regirán en cualquier actividad de investigación en ciencia, tecnología e innovación, nos parece importante ampliar dichas consideraciones en una normativa que profundice el tema.

Creemos que más allá de lo valioso de normas dictadas por el Poder Ejecutivo, es un tema que debe ser debatido y trabajado en el Poder Legislativo, ámbito más plural y representativo de las diferentes miradas para obtener una legislación estable y amplia.

Por último, cabe destacar que el presente proyecto de Ley fue elaborado creyendo en el aporte que las nuevas tecnologías pueden ofrecer a la participación ciudadana, puntualmente, fue subido con anticipación al portal de Leyes Abiertas (https://leyesabiertas.hcdn.gob.ar/) estando a disposición del público y recabando aportes y apoyos por parte de la ciudadanía(15).

Es por los motivos expuestos que solicitamos el tratamiento y la aprobación del presente Proyecto de Ley.

MAXIMILIANO FERRARO

(1) KAHNEMAN, D., SIBONY, O. y SUNSTEIN C. Ruido. Una falla en el juicio humano. Ed. Debate. Buenos Aires, 2021. Pág 141.

(2) https://www.gatesnotes.com/The-Age-of-AI-Has-Begun

(3) https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html?smid=url-share

(4) https://www.perfil.com/noticias/economia/quien-quiere-regular-el-negocio-de-la-inteligencia-artificial.phtml

(5) https://www.lanacion.com.ar/tecnologia/una-ley-pionera-para-una-tecnologia-con-muchos-interrogantes-las-claves-de-la-regulacion-de-la-nid11122023/#:~:text=La%20Uni%C3%B3n%20Europea%20ha%20conseguido,inquietudes%20por%20su%20potencial%20disruptivo.

(6) https://www.lanacion.com.ar/agencias/parlamento-europeo-adopto-ley-que-regula-el-uso-de-la-inteligencia-artificial-en-la-ue-nid13032024/

(7) ABDALA, M., EUSSLER, S., SOUBIE, S. La política de la Inteligencia Artificial: sus usos en el sector público y sus implicancias regulatorias. CIPPEC, octubre 2019. Documento de trabajo n°185.

(8) https://www.cippec.org/wp-content/uploads/2019/10/185-DT-Abdala-Lacroix-y-Soubie-La-pol%C3%ADtica-de-la-Inteligencia-Artifici….pdf

(9) Las propuestas específicas abarcan la creación de un “órgano guardián” de IA (Sample, 2017), que monitoree y solicite explicaciones sobre la forma en que los algoritmos toman decisiones; un Consejo Nacional de Robótica (Calo, 2014), sin poder de policía, pero con capacidad técnica para realizar recomendaciones; una Comisión de Machine Learning (Mulgan, 2016) con capacidad tecnológica para crear sus propios algoritmos, e inspeccionar el desarrollo tecnológico, pero sin poder de certificación o aprobación; una Dirección Federal de Algoritmos que tome como modelo a la FDA estadounidense (Tutt, 2016), con gran poder regulatorio sobre el territorio nacional para evaluar los sistemas antes de sus lanzamiento al mercado; o un Consejo Nacional de Seguridad de Algoritmos (Maculay, 2017) con acceso a la información necesaria, directivos rotativos independientes a las empresas reguladas, monitoreo constante y capacidad de hacer aplicar sus recomendaciones. (ABDALA, LACROIX, SOUBIE, 2019)

(11) Ramiro Albrieu, Martín Rapetti, Caterina Brest y López Patricio Larroulet Alejo Sorrentino. Disponible en: https://www.cippec.org/wp-content/uploads/2018/11/ADE-ARG-vf.pdf

(12) Ibidem.

(13) HOFFMANN RIEM, W. Big Data. Desafíos también para el Derecho. Cuadernos Civitas, Thomson Reuters, 2018. Pág. 62

(14) https://www.clarin.com/tecnologia/elon-musk-mil-expertos-piden-poner-pausa-avances-inteligencia-artificial-grandes-riesgos-humanidad-_0_8sHKPyJKnV.html

(15) https://leyesabiertas.hcdn.gob.ar/propuesta?id=6205712e2aecc70012bf3cb3