Archivos de la etiqueta: UNESCO

15Nov/24

Resolución A/RES/70/125, de 16 de diciembre, de la Asamblea General de las Naciones Unidas

Resolución de la Asamblea General de las Naciones Unidas sobre el examen de la Cumbre Mundial sobre la Sociedad de la Información (A/RES/70/125) (2015);

Naciones Unidas A/RES/70/125

Asamblea General, 1 de febrero de 2016. Septuagésimo período de sesiones

Resolución aprobada por la Asamblea General el 16 de diciembre de 2015 70/125. Documento final de la reunión de alto nivel de la Asamblea General sobre el examen general de la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información

La Asamblea General

Aprueba el siguiente documento final de la reunión de alto nivel de la Asamblea General sobre el examen general de la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información en su septuagésimo período de sesiones:

Documento final de la reunión de alto nivel de la Asamblea General sobre el examen general de la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información

Nosotros, los Ministros y jefes de las delegaciones que participan en la reunión plenaria de alto nivel de la Asamblea General sobre el examen general de la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información, celebrada en Nueva York los días 15 y 16 de diciembre de 2015,

Recordando la solicitud que figura en el párrafo 111 de la Agenda de Túnez para la Sociedad de la Información (1) de que la Asamblea General realizara un examen global de la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información en 2015, y a este respecto, reafirmando la función de la Asamblea en este proceso y reafirmando también que la Asamblea, en su resolución 68/302, de 31 de julio de 2014, decidió que ese examen general concluiría con una reunión de alto nivel de la Asamblea de dos días de duración, que iría precedida de un proceso preparatorio intergubernamental que tuviera en cuenta de manera significativa las aportaciones de todas las partes interesadas pertinentes,

Acogiendo con beneplácito los diversos aportes constructivos de los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnica y académica y todos los demás interesados pertinentes para hacer un balance de los progresos realizados en la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información y suplir las posibles carencias en materia de tecnologías de la información y las comunicaciones y abordar las esferas en que es necesario seguir haciendo hincapié, y hacer frente a desafíos, como la reducción de la brecha digital y el aprovechamiento de las tecnologías de la información y las comunicaciones para el desarrollo,

Basándose, entre otros aportes pertinentes, en el examen decenal de la Cumbre Mundial sobre la Sociedad de la Información llevado a cabo por la Comisión de Ciencia y Tecnología para el Desarrollo en mayo de 2015, y su documento final, titulado Implementing WSIS Outcomes: A Ten-Year Review; el evento de examen decenal que acogió la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura titulado “Hacia las sociedades del conocimiento para la paz y el desarrollo sostenible” en febrero de 2013, en que participaron múltiples interesados, y su declaración final titulada Information and Knowledge for All: an expanded vision and a renewed commitment; y el evento de alto nivel de examen de la Cumbre Mundial, en que participaron múltiples interesados, acogido y coordinado por la Unión Internacional de Telecomunicaciones y organizado por la Unión Internacional de Telecomunicaciones, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo y el Programa de las Naciones Unidas para el Desarrollo en junio de 2014, y sus documentos finales, la declaración del examen decenal de la Cumbre Mundial relativa a la aplicación de los resultados de la Cumbre Mundial y la visión del examen decenal de la Cumbre Mundial después de 2015, ambos aprobados por consenso,

Reafirmando resolución 70/1 de la Asamblea General, de 25 de septiembre de 2015, titulada “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible”, en que adoptó un conjunto amplio, de gran alcance y centrado en las personas de Objetivos de Desarrollo Sostenible y metas conexas que son universales y transformativos, su compromiso de trabajar sin descanso a fin de conseguir la plena implementación de la Agenda a más tardar en 2030, su reconocimiento de que la erradicación de la pobreza en todas sus formas y dimensiones, incluida la pobreza extrema, es el mayor desafío a que se enfrenta el mundo y constituye un requisito indispensable para el desarrollo sostenible, y su compromiso de lograr el desarrollo sostenible en sus tres dimensiones —económica, social y ambiental— de forma equilibrada e integrada, aprovechando los logros de los Objetivos de Desarrollo del Milenio y procurando abordar los asuntos pendientes,

Reafirmando también su resolución 69/313, de 27 de julio de 2015, relativa a la Agenda de Acción de Addis Abeba de la Tercera Conferencia Internacional sobre la Financiación para el Desarrollo, que es parte integrante de la Agenda 2030 para el Desarrollo Sostenible (2) y sirve de apoyo, complemento y contexto para las metas relativas a los medios de aplicación de la Agenda con políticas y medidas concretas, y en la cual se reafirma el firme compromiso político de hacer frente al problema de la financiación y de la creación de un entorno propicio a todos los niveles para el desarrollo sostenible, en un espíritu de alianza y solidaridad mundiales,

1. Reafirmamos nuestro deseo y compromiso comunes con la visión de la Cumbre Mundial sobre la Sociedad de la Información de construir una sociedad de la información centrada en la persona, integradora y orientada al desarrollo, en que todos puedan crear, consultar, utilizar y compartir información y conocimientos, para que las personas, las comunidades y los pueblos puedan aprovechar plenamente sus posibilidades de promover su desarrollo sostenible y mejorar su calidad de vida, sobre la base de los propósitos y principios de la Carta de las Naciones Unidas y respetando plenamente y defendiendo la Declaración Universal de Derechos Humanos (3).

2. Reafirmamos asimismo nuestro compromiso con la Declaración de Principios de Ginebra  ( )el Plan de Acción de Ginebra y sus líneas de acción (4), el Compromiso de Túnez y la Agenda de Túnez para la Sociedad de la Información (1), y reconocemos la necesidad de que los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnicas y académicas y todos los demás interesados pertinentes sigan trabajando de consuno para aplicar la visión de la Cumbre Mundial sobre la Sociedad de la Información después de 2015.

3. Reafirmamos, además, el valor y los principios de la cooperación y la participación de múltiples interesados que han caracterizado el proceso de la Cumbre Mundial de la Sociedad de la Información desde sus inicios, reconociendo que la participación, la asociación y la cooperación efectivas de los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnica y académica y todos los demás interesados pertinentes, en el marco de sus funciones y responsabilidades respectivas, en particular con una representación equilibrada de los países en desarrollo, ha sido y sigue siendo vital para el desarrollo de la sociedad de la información.

4. Acogemos con beneplácito la evolución y difusión notables que han tenido las tecnologías de la información y las comunicaciones, apoyadas por las contribuciones de los sectores público y privado, tecnologías que han penetrado casi todos los rincones del planeta, generado nuevas oportunidades de interacción social, facilitado nuevos modelos empresariales y contribuido al crecimiento económico y al desarrollo en todos los demás sectores, y observamos al mismo tiempo los problemas singulares y emergentes que se presentan relacionados con su evolución y difusión.

5. Reconocemos que la mayor conectividad, innovación y acceso a las tecnologías de la información y las comunicaciones ha desempeñado una función esencial a los efectos de facilitar los progresos en relación con los Objetivos de Desarrollo del Milenio, y solicitamos que exista una estrecha armonización entre el proceso de la Cumbre Mundial sobre la Sociedad de la Información y la Agenda 2030 para el Desarrollo Sostenible (2), resaltando la contribución intersectorial de la tecnología de la información y las comunicaciones a los Objetivos de Desarrollo Sostenible y la erradicación de la pobreza, y observando que el acceso a las tecnologías de la información y las comunicaciones se ha convertido también en un indicador de desarrollo y en una aspiración en y por sí misma.

6. Expresamos nuestra preocupación, sin embargo, porque todavía persisten importantes brechas digitales, por ejemplo, entre países y dentro de ellos y entre mujeres y hombres, que deben resolverse, entre otras cosas, fortaleciendo los entornos normativos y la cooperación internacional para mejorar la asequibilidad, el acceso, la educación, la creación de capacidad, el multilingüismo, la preservación cultural, la inversión y la financiación adecuada. Además, reconocemos que existe una brecha entre los géneros como parte de la brecha digital, y alentamos a todas las partes interesadas a que aseguren la plena participación de las mujeres en la sociedad de la información y que tengan acceso a las nuevas tecnologías, especialmente las tecnologías de la información y las comunicaciones para el desarrollo.

7. Reconocemos que debe prestarse especial atención a resolver los singulares desafíos emergentes que presentan las tecnologías de la información y las comunicaciones en todos los países, en particular en los países en desarrollo, incluidos los países africanos, los países menos adelantados, los países en desarrollo sin litoral, los pequeños Estados insulares en desarrollo y los países de ingresos medianos, así como los países y los territorios sometidos a ocupación extranjera, los países en situaciones de conflicto, los países que han salido de un conflicto y los países afectados por los desastres naturales. Debería prestarse especial atención también a resolver las dificultades específicas que presentan las tecnologías de la información y las comunicaciones para los niños, los jóvenes, las personas con discapacidad, las personas de edad, los pueblos indígenas, los refugiados y los desplazados internos, los migrantes y las comunidades remotas y rurales.

8. Reafirmamos que la gobernanza de Internet debería seguir ajustándose a las disposiciones establecidas en los documentos finales de las cumbres celebradas en Ginebra y Túnez.

9. Reafirmamos, además, que los mismos derechos de los que las personas gozan fuera de línea también deben ser protegidos en línea. Ponemos de relieve que el progreso hacia la visión de la Cumbre Mundial sobre la Sociedad de la Información debería considerarse no solo una función del desarrollo económico y la propagación de las tecnologías de la información y las comunicaciones, sino también una función de los progresos realizados en lo que respecta a la realización de los derechos humanos y las libertades fundamentales.

10. Generar confianza y seguridad en la utilización de las tecnologías de la información y las comunicaciones para el desarrollo sostenible también debería ser una prioridad, especialmente habida cuenta de las crecientes dificultades que se presentan, como el abuso de las tecnologías de la información y las comunicaciones para actividades perniciosas, desde el acoso hasta los delitos y el terrorismo.

11. Reiteramos nuestro compromiso con los usos positivos de Internet y otras tecnologías de la información y las comunicaciones, así como con la adopción de las acciones pertinentes y las medidas preventivas que se recogen en la legislación contra los usos abusivos de esas tecnologías mencionados en las dimensiones éticas de la sociedad de la información de la Declaración de Principios de Ginebra y del Plan de Acción de Ginebra. También reconocemos la importancia de la ética, establecida en la línea de acción C10 del Plan de Acción, en la construcción de la sociedad de la información y el fortalecimiento del papel de las tecnologías de la información y las comunicaciones como facilitadoras del desarrollo.

1. Las tecnologías de la información y las comunicaciones para el desarrollo

12. Nos comprometemos a aprovechar el potencial de las tecnologías de la información y las comunicaciones para lograr cumplir la Agenda 2030 para el Desarrollo Sostenible y otros objetivos de desarrollo convenidos internacionalmente, observando que esas tecnologías pueden acelerar el progreso en relación con los 17 Objetivos de Desarrollo Sostenible. Por consiguiente, exhortamos a todos los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnica y académica, y todos los demás interesados pertinentes a integrar las tecnologías de la información y las comunicaciones en sus enfoques para la aplicación de los Objetivos, y solicitamos a las entidades de las Naciones Unidas encargadas de facilitar las líneas de acción de la Cumbre Mundial sobre la Sociedad de la Información que examinen sus informes y planes de trabajo para apoyar la aplicación de la Agenda 2030.

13. Reconocemos con satisfacción que el considerable aumento de la conectividad, la utilización, la creación y la innovación que se ha producido en el último decenio ha creado nuevas tecnologías para impulsar la erradicación de la pobreza y lograr mejoras económicas, sociales y ambientales. Por ejemplo, la banda ancha fija e inalámbrica, la Internet móvil, los teléfonos inteligentes y las tabletas, la informática en la nube, los datos abiertos, los medios de comunicación social y los macrodatos apenas estaban comenzando a desarrollarse cuando aprobó la Agenda de Túnez, y ahora se consideran importantes elementos que facilitan el desarrollo sostenible.

14. Reafirmamos que la expansión y la utilización de las tecnologías de la información y las comunicaciones debe seguir constituyendo un elemento y resultado centrales del proceso de la Cumbre Mundial sobre la Sociedad de la Información. Nos sentimos muy alentados porque se calcula que el número de contratos de telefonía móvil ha aumentado de 2.200 millones en 2005 a 7.100 millones en 2015, y que para finales de 2015 se prevé que 3.200 millones de personas tengan acceso a Internet, más del 43% del total de la población mundial, y de los cuales 2.000 serán de países en desarrollo. También observamos que las suscripciones a servicios de banda ancha fija han alcanzado una tasa de penetración de casi el 10%, en comparación con el 3,4% en 2005, y que la banda ancha móvil sigue siendo el segmento de mayor crecimiento del mercado, con tasas de crecimiento que continúan siendo de dos dígitos y que alcanzaron el 47% en 2015, un valor que aumentó 12 veces desde 2007.

15. Observamos que la economía digital es una parte importante y cada vez mayor de la economía mundial, y que la conectividad de las tecnologías de la información y las comunicaciones guarda relación con el aumento del producto interno bruto. Las tecnologías de la información y las comunicaciones han creado una nueva generación de empresas, innovadores y empleos, y si bien alteran y vuelven obsoletas otras tecnologías, y también han aumentado en general la eficiencia, el acceso a los mercados y la creatividad en todos los sectores. Reconocemos la importancia crítica de ampliar la participación de todos los países, en particular los países en desarrollo, en la economía digital.

16. También reconocemos que las tecnologías de la información y las comunicaciones están contribuyendo a que aumenten las prestaciones sociales y la inclusión, ofreciendo nuevos canales para que los ciudadanos, las empresas y los gobiernos compartan e incrementen sus conocimientos, y participen en las decisiones que afectan a su vida y su labor. Según lo previsto en las líneas de acción de la Cumbre Mundial sobre la Sociedad de la Información, hemos presenciado avances importantes en la esfera gubernamental, facilitados por las tecnologías de la información y las comunicaciones, en particular en la esfera de los servicios públicos, la educación, la atención de la salud y el empleo, así como en la agricultura y la ciencia, y un número mayor de personas tienen acceso a servicios y datos que previamente quizás no hubieran podido obtenerse o que hubieran sido inasequibles.

17. Al mismo tiempo, reconocemos que las tecnologías de la información y las comunicaciones están modificando radicalmente la forma en que las personas y las comunidades interactúan, consumen y utilizan su tiempo, lo que tiene consecuencias nuevas e imprevistas en el ámbito social y de la salud, de las cuales muchas son positivas y algunas suscitan preocupaciones.

18. Reconocemos que las tecnologías de la información y las comunicaciones han pasado a ser importantes en lo que respecta a la respuesta a los desastres y la respuesta humanitaria y reafirmamos además que tienen un papel que desempeñar en lo relativo a mejorar y desarrollar sistemas de alerta temprana para amenazas múltiples, y en la esfera de la preparación, la respuesta, la recuperación, la rehabilitación y la reconstrucción. También alentamos a aumentar las inversiones en materia de innovación y desarrollo tecnológico para la investigación a largo plazo sobre amenazas múltiples orientada a la búsqueda de soluciones en la gestión del riesgo de desastres.

19. Reconocemos que las tecnologías de la información y las comunicaciones también constituyen cada vez más un medio para apoyar la diversidad de expresiones culturales y las industrias culturales y creativas, que crecen rápidamente, y afirmamos que es preciso aplicar estrategias integrales y prácticas en materia digital para preservar el patrimonio cultural y acceder a la información registrada digitalmente en todas sus formas.

20. Reconocemos además que el creciente uso de las tecnologías de la información y las comunicaciones genera ciertos beneficios ambientales, pero que también impone ciertos costos para el medio ambiente, que pretendemos reducir.

Acogemos con beneplácito la oportunidad que ofrece la energía sostenible de desvincular el crecimiento de las tecnologías de la información y las comunicaciones de los factores que contribuyen al cambio climático, y también observamos el valor catalizador de esas tecnologías para el despliegue de la energía renovable, la eficiencia energética, los conceptos de ciudad inteligente y ciudad resiliente y la prestación de servicios facilitados por Internet, entre otras opciones, para la reducción de la contaminación. Sin embargo, reconocemos que debemos alentar la adopción de nuevas medidas para mejorar la eficiencia de recursos de las tecnologías de la información y las comunicaciones, y reutilizar, reciclar y eliminar de forma segura los desechos electrónicos.

1.1. Eliminación de las brechas digitales

21. A pesar de lo logrado en el decenio anterior en materia de conectividad de la tecnología de la información y las comunicaciones, expresamos nuestra preocupación por el hecho de que sigan existiendo muchas formas de brecha digital entre los países y dentro de ellos y entre las mujeres y los hombres. Observamos que las brechas suelen estar estrechamente vinculadas a los niveles de educación y a las desigualdades existentes, y reconocemos que pueden producirse nuevas brechas en el futuro, con la consiguiente desaceleración del desarrollo sostenible. Reconocemos que, hasta 2015, solo alrededor del 43% de la población mundial tenía acceso a Internet, solo el 41% de las mujeres tenía acceso a Internet, y un 80% estimado de los contenidos en línea estaba disponible en solo uno de diez idiomas. Los pobres son los más excluidos de los beneficios de la tecnología de la información y las comunicaciones.

22. Además, expresamos preocupación por el hecho de que sigan existiendo brechas digitales entre los países desarrollados y en desarrollo, y que muchos países en desarrollo carezcan de acceso asequible a las tecnologías de la información y las comunicaciones. En 2015, solo el 34% de los hogares de los países en desarrollo tiene acceso a Internet, con variaciones importantes por país, en comparación con más del 80% en los países desarrollados. Esto significa que las dos terceras partes de los hogares de los países en desarrollo no tienen acceso a Internet.

23. Afirmamos nuestro compromiso de salvar las brechas digitales y de conocimientos, y reconocemos que nuestro enfoque debe ser multidimensional e incluir una evolución del concepto de lo que constituye acceso, haciendo hincapié en la calidad de ese acceso. Reconocemos que la velocidad, la estabilidad, la asequibilidad, el idioma, el contenido local, y la accesibilidad para las personas con discapacidad son ahora elementos básicos de la calidad, y que la conexión de banda ancha de alta velocidad es ya un factor facilitador del desarrollo sostenible.

Reconocemos, además, que las diferencias entre la competencia de las personas tanto para utilizar como para crear tecnologías de la información y las comunicaciones representan una brecha de conocimientos que perpetúa la desigualdad. Observamos, también, la ambición de pasar de las “sociedades de la información” a las “sociedades del conocimiento”, en las que la información no solo se crea y difunde, sino que se la pone al servicio del desarrollo humano.

Reconocemos que esas brechas pueden cambiar con la innovación tecnológica y de los servicios, e instamos a todos los interesados, en particular a las entidades de las Naciones Unidas que facilitan las líneas de acción de la Cumbre Mundial sobre la Sociedad de la Información, a que, en el marco de su mandato y con los recursos existentes, sigan colaborando para analizar periódicamente la naturaleza de las brechas digitales, estudiar estrategias para superarlas, y poner sus conclusiones a disposición de la comunidad internacional.

24. Subrayamos la necesidad de seguir desarrollando el contenido y los servicios locales en una variedad de idiomas y formatos que sean accesibles para todas las personas, que también necesitan aptitudes y capacidades, entre ellas, medios de comunicación, información, y alfabetización digital para hacer uso de las tecnologías de la información y las comunicaciones y seguir perfeccionándolas. Por lo tanto, reconocemos la importancia vital de los principios del multilingüismo en la sociedad de la información para asegurar la diversidad lingüística, cultural e histórica de todas las naciones. Reconocemos asimismo el valor de la variedad de soluciones de tecnología de la información y las comunicaciones interoperables y asequibles, entre ellas, modelos como programas informáticos patentados, de código abierto, y gratuitos.

25. Por otra parte, pedimos que se aumente considerablemente el acceso a las tecnologías de la información y las comunicaciones y alentamos a todas las partes interesadas a que se esfuercen por proporcionar acceso universal y asequible a Internet para todos. Acogemos con beneplácito los esfuerzos desplegados por todos los interesados en la búsqueda de esos objetivos, entre ellos la labor que se está realizando en el marco de la Agenda Conectar 2020 para el Desarrollo Mundial de las Telecomunicaciones/TIC, aprobada en la Conferencia de Plenipotenciarios de la Unión Internacional de Telecomunicaciones en 2014.

26. Reconocemos también la existencia de brechas en los usos y la alfabetización digitales y la necesidad de superarlas.

27. Recalcamos nuestra preocupación por que solo el 41% de las mujeres tiene acceso a Internet, y ponemos de relieve la brecha digital entre los géneros, que persiste en el acceso y el uso de las tecnologías de la información y las comunicaciones por las mujeres, incluso en la educación, el empleo y otras esferas del desarrollo económico y social. Reconocemos que la eliminación de la brecha digital entre los géneros y la consecución del quinto Objetivo de Desarrollo Sostenible sobre la igualdad entre los géneros son actividades que se refuerzan mutuamente, y nos comprometemos a incorporar la perspectiva de género en el proceso de la Cumbre Mundial sobre la Sociedad de la Información, entre otras cosas mediante un énfasis renovado en las cuestiones de género en la aplicación y el seguimiento de las líneas de acción, con el apoyo de las entidades pertinentes de las Naciones Unidas, entre ellas la Entidad de las Naciones Unidas para la Igualdad de Género y el Empoderamiento de las Mujeres (ONU-Mujeres). Pedimos que se adopten medidas inmediatas para lograr la igualdad entre los géneros entre los usuarios de Internet para 2020, especialmente mediante la mejora sustancial de la educación de las mujeres y las niñas y su participación en las tecnologías de la información y las comunicaciones, como usuarias, creadoras de contenido, empleadas, empresarias, innovadoras y dirigentes. Reafirmamos nuestro compromiso de asegurar la plena participación de las mujeres en el proceso de adopción de decisiones referentes a las tecnologías de la información y las comunicaciones.

1.2 Entorno propicio

28. Reconocemos que ciertas políticas han contribuido sustancialmente a la superación de las brechas digitales y al valor de las tecnologías de la información y las comunicaciones para el desarrollo sostenible, y nos comprometemos a seguir identificando y aplicando las prácticas mejores y nuevas para el establecimiento y funcionamiento de estructuras de educación, innovación e inversión para las tecnologías de la información y las comunicaciones.

29. Reconocemos la importancia que reviste la libre circulación de información y conocimientos, a medida que aumenta la cantidad de información distribuida en todo el mundo y que el papel de las comunicaciones cobra aún más importancia.

Reconocemos que la incorporación de las tecnologías de la información y las comunicaciones en los programas de estudios escolares, el libre acceso a los datos, el fomento de la competencia, la creación de sistemas jurídicos y reglamentarios transparentes, previsibles, independientes y no discriminatorios, el pago proporcional de impuestos y derechos de licencia, el acceso a la financiación, la facilitación de las alianzas entre el sector público y el sector privado, la cooperación entre múltiples interesados, las estrategias nacionales y regionales en materia de banda ancha, la asignación eficiente del espectro de frecuencia radiofónica, los modelos de participación en la infraestructura, los enfoques basados en la comunidad y las instalaciones de acceso público han facilitado en muchos países la consecución de grandes beneficios en lo que respecta a la conectividad y el desarrollo sostenible.

30. Reconocemos que la falta de acceso a tecnologías y servicios asequibles y fiables sigue siendo un problema grave en muchos países en desarrollo, especialmente los países de África, los países menos adelantados, los países en desarrollo sin litoral, y los pequeños Estados insulares en desarrollo y los países de ingresos medianos, así como los países en situaciones de conflicto, los países que salen de un conflicto y los países afectados por desastres naturales. Se debe hacer todo lo posible para reducir el precio de las tecnologías de la información y las comunicaciones y del acceso a la conexión de banda ancha, teniendo presente que puede ser necesario efectuar intervenciones deliberadas, entre otras cosas mediante actividades de investigación y desarrollo y la transferencia de tecnología en condiciones mutuamente convenidas, como forma de estimular otras opciones de conectividad de menor costo.

31. Se insta encarecidamente a todos los Estados a que, al construir la sociedad de la información, tomen las disposiciones necesarias para evitar toda medida unilateral que no se ajuste al derecho internacional y la Carta de las Naciones Unidas y que entorpezca el pleno logro del desarrollo social y económico y obstaculice el bienestar de la población de los países afectados, y que se abstengan de adoptar tales medidas.

32. Reconocemos que el espectro de frecuencias radioeléctricas debe gestionarse en favor del interés público y de conformidad con principios legales, respetando plenamente las leyes y los reglamentos nacionales, así como los acuerdos internacionales pertinentes.

33. Pedimos que se preste atención especial a la adopción de medidas que mejoren el entorno propicio para las tecnologías de la información y las comunicaciones y amplíen las oportunidades de educación y creación de capacidad conexas. También solicitamos a la Comisión de Ciencia y Tecnología para el Desarrollo, en el marco de su mandato relativo al seguimiento de la Cumbre Mundial sobre la Sociedad de la Información, y a todos los facilitadores de las líneas de acción en el marco de sus mandatos respectivos y con los recursos existentes, que colaboren con todas las partes interesadas a fin de identificar y promover periódicamente determinadas medidas concretas y detalladas en apoyo del entorno propicio para las tecnologías de la información y las comunicaciones y el desarrollo, y que proporcionen el asesoramiento sobre políticas impulsado por la demanda, la asistencia técnica y la creación de capacidad, según proceda, para hacerlas efectivas.

1.3 Mecanismos financieros

34. Acogemos con satisfacción el hecho de que el total del gasto público y privado en tecnologías de la información y las comunicaciones haya aumentado considerablemente en el último decenio, pues actualmente asciende a billones de dólares anuales, y que haya estado complementado con la proliferación de nuevos mecanismos de financiación, resultados ambos que indican avances en relación con lo dispuesto en los párrafos 23 y 27 de la Agenda de Túnez.

35. Sin embargo, reconocemos que para aprovechar las tecnologías de la información y las comunicaciones con fines de desarrollo y eliminar las brechas digitales será necesario realizar inversiones mayores y sostenibles en infraestructura y servicios, creación de capacidad, promoción de actividades conjuntas de investigación y desarrollo y transferencia de tecnología en condiciones mutuamente convenidas. Esos mecanismos siguen siendo de interés primordial para todos los países y todas las personas, en particular los países en desarrollo.

36. Nos comprometemos a la asignación eficiente de recursos públicos para la implementación y el desarrollo de la tecnología de la información y las comunicaciones, reconociendo la necesidad de establecer presupuestos para tecnología de la información y las comunicaciones en todos los sectores, especialmente la educación. Destacamos que la capacidad es un impedimento  importante para la superación de las brechas digitales, y recomendamos que se haga hincapié en el desarrollo de capacidad, en particular para la innovación, con el fin de permitir a los expertos y las comunidades locales beneficiarse plenamente de las aplicaciones de tecnología de la información y las comunicaciones para el desarrollo y contribuir a ellas. Reconocemos la posibilidad de mejorar la conectividad, especialmente en las zonas apartadas y rurales, mediante fondos de servicio universal y la financiación pública de la infraestructura de red, entre otros mecanismos, en particular en las zonas en que las condiciones del mercado hacen difícil la inversión.

37. Hacemos notar los compromisos contraídos en la Agenda de Acción de Addis Abeba de la Tercera Conferencia Internacional sobre la Financiación para el Desarrollo (5), y reconocemos que la asistencia oficial para el desarrollo y otras corrientes de recursos financieros en condiciones favorables para tecnología de la información y las comunicaciones pueden contribuir de forma significativa a los resultados en materia de desarrollo, en particular en los casos en que pueden reducir el riesgo de la inversión pública y privada, y aumentar el uso de la tecnología de la información y las comunicaciones para fortalecer la buena gobernanza y la recaudación de impuestos.

38. Reconocemos la importancia fundamental de la inversión del sector privado en la infraestructura, el contenido y los servicios de tecnología de la información y las comunicaciones, y alentamos a los gobiernos a crear marcos jurídicos y de reglamentación propicios para el aumento de la inversión y la innovación. Reconocemos también la importancia de las alianzas público-privadas, las estrategias de acceso universal y otros enfoques para ese fin.

39. Alentamos a que se asigne un lugar destacado a las tecnologías de la información y las comunicaciones en el nuevo mecanismo de facilitación de la tecnología establecido en la Agenda de Acción de Addis Abeba y el examen de la forma en que puede contribuir a la aplicación de las líneas de acción de la Cumbre Mundial sobre la Sociedad de la Información.

40. Observamos con preocupación las dificultades de la aplicación del Fondo de Solidaridad Digital, que fue acogido con beneplácito en la Agenda de Túnez como un mecanismo financiero innovador de carácter voluntario. Pedimos que continúe la evaluación de opciones de financiación innovadoras en el examen anual de los resultados de la Cumbre Mundial sobre la Sociedad de la Información.

2. Los derechos humanos en la sociedad de la información

41. Reafirmamos el compromiso enunciado en la Declaración de Principios de Ginebra y el Compromiso de Túnez con la universalidad, indivisibilidad, interdependencia e interrelación de todos los derechos humanos y las libertades fundamentales, incluido el derecho al desarrollo, consagrado en la Declaración de Viena y el Programa de Acción de la Conferencia Mundial de Derechos Humanos (6).

Reafirmamos también que la democracia, el desarrollo sostenible y el respeto de los derechos humanos y las libertades fundamentales, así como la buena gobernanza a todos los niveles, son interdependientes y se refuerzan mutuamente. Decidimos fortalecer el respeto del estado de derecho en los asuntos internacionales y nacionales.

42. Reconocemos que los derechos humanos han sido parte esencial de la visión de la Cumbre Mundial sobre la Sociedad de la Información, y que las tecnologías de la información y las comunicaciones han demostrado su potencial para fortalecer el ejercicio de los derechos humanos, facilitando el acceso a la información, la libertad de expresión y la libertad de reunión y asociación.

43. Reafirmamos además, como fundamento esencial de la sociedad de la información, y como se ha reconocido en la resolución 26/13 del Consejo de Derechos Humanos, de 26 de junio de 2014 (7), y en la resolución 69/166 de la Asamblea General, de 18 de diciembre de 2014, que los mismos derechos que tienen las personas fuera de la red deben estar protegidos también en línea.

44. Sin embargo, observamos con preocupación que existen amenazas graves a la libertad de expresión y la pluralidad de la información, y hacemos un llamamiento a la protección de los periodistas, los trabajadores de los medios de comunicación, y el espacio de la sociedad civil. Pedimos a los Estados que adopten todas las medidas necesarias para garantizar el derecho a la libertad de opinión y de expresión, el derecho de reunión y asociación pacíficas, y el derecho a no ser objeto de injerencias arbitrarias o ilícitas en la vida privada, de conformidad con sus obligaciones en materia de derechos humanos.

45. Reafirmamos nuestro compromiso con el artículo 19 de la Declaración Universal de Derechos Humanos, que estipula que toda persona tiene derecho a la libertad de opinión y de expresión y que este derecho incluye el de no ser molestado a causa de sus opiniones, el de investigar y recibir informaciones y opiniones, y el de difundirlas, sin limitación de fronteras, por cualquier medio de expresión.

Recordamos también los compromisos contraídos en virtud del artículo 19 por los Estados que son parte en el Pacto Internacional de Derechos Civiles y Políticos (8).

Subrayamos la necesidad de respetar la independencia de los medios de comunicación. Creemos que la comunicación es un proceso social fundamental, una necesidad humana básica y el fundamento de toda organización social, y que es, por lo tanto, un elemento central de la sociedad de la información. Todas las personas, dondequiera que se encuentren, deben tener la oportunidad de participar, y nadie debería quedar excluido de los beneficios que ofrece la sociedad de la información.

46. Recordamos la resolución 69/166 de la Asamblea General, y en este contexto recalcamos que nadie será objeto de injerencias arbitrarias o ilícitas en su vida privada, su familia, su domicilio o su correspondencia, en consonancia con las obligaciones que incumben a los países en virtud del derecho internacional de los derechos humanos. En consecuencia, exhortamos a todos los Estados a que revisen sus procedimientos, prácticas y legislación sobre vigilancia de las comunicaciones, así como su interceptación, y la reunión de datos personales, incluida la vigilancia en gran escala, con miras a afianzar el derecho a la privacidad, establecido en la Declaración Universal de Derechos Humanos y el Pacto Internacional de Derechos Civiles y Políticos para los Estados que son parte en el Pacto, asegurando la aplicación plena y efectiva de todas las obligaciones que les incumben en virtud del derecho internacional de los derechos humanos.

47. Reafirmamos nuestro compromiso con lo dispuesto en el artículo 29 de la Declaración Universal de Derechos Humanos, de que toda persona tiene deberes respecto a la comunidad, puesto que solo en ella puede desarrollar libre y plenamente su personalidad, y que, en el ejercicio de sus derechos y en el disfrute de sus libertades, toda persona estará solamente sujeta a las limitaciones establecidas por la ley con el único fin de asegurar el reconocimiento y el respeto de los derechos y libertades de los demás, y de satisfacer las justas exigencias de la moral, del orden público y del bienestar general en una sociedad democrática. Estos derechos y libertades no podrán en ningún caso ser ejercidos en oposición a los propósitos y principios de las Naciones Unidas. De esa manera, promoveremos una sociedad de la información en la que se respete la dignidad humana.

3. Creación de confianza y seguridad en la utilización de las tecnologías de la información y las comunicaciones

48. Afirmamos que el fortalecimiento de la confianza y la seguridad en la utilización de las tecnologías de la información y las comunicaciones para el desarrollo de sociedades de la información y el éxito de esas tecnologías es un factor determinante de la innovación económica y social.

49. Acogemos con beneplácito los considerables esfuerzos emprendidos por los gobiernos, el sector privado, la sociedad civil, la comunidad técnica y las instituciones académicas para crear confianza y seguridad en la utilización de las tecnologías de la información y las comunicaciones, en particular por la Unión Internacional de Telecomunicaciones, la Comisión de Prevención del Delito y Justicia Penal, la Oficina de las Naciones Unidas contra la Droga y el Delito, el grupo intergubernamental de expertos de composición abierta encargado de realizar un estudio exhaustivo del problema del delito cibernético y el Grupo de Expertos Gubernamentales sobre los Avances en la Esfera de la Información y las Telecomunicaciones en el Contexto de la Seguridad Internacional, entre otros esfuerzos internacionales, regionales y nacionales.

50. Reconocemos la función de liderazgo de los gobiernos en las cuestiones de ciberseguridad relativas a la seguridad nacional. Reconocemos también las importantes funciones y contribuciones de todas las partes interesadas, de conformidad con sus respectivas funciones y responsabilidades. Reafirmamos que la creación de confianza y seguridad en la utilización de las tecnologías de la información y las comunicaciones debe ser compatible con los derechos humanos.

51. Reconocemos la importante función del derecho internacional, en particular la Carta de las Naciones Unidas, en la creación de confianza y seguridad en la utilización de las tecnologías de la información y las comunicaciones por los Estados y acogemos con beneplácito los informes de 2013 y 2015 del Grupo de Expertos Gubernamentales sobre los Avances en la Esfera de la Información y las Telecomunicaciones en el Contexto de la Seguridad Internacional (9).

52. Nos preocupan, sin embargo, algunos usos crecientes de las tecnologías de la información y las comunicaciones que ponen en riesgo los beneficios en materia de seguridad y desarrollo, entre ellos la utilización de esas tecnologías con fines terroristas y para cometer delitos cibernéticos. Expresamos la necesidad de que los marcos jurídicos y de aplicación de la ley existentes mantengan el ritmo del cambio tecnológico y su aplicación. Además, observamos la preocupación de que los ataques contra los Estados, las instituciones, las empresas, las entidades de otro tipo y las personas se están llevando a cabo actualmente por medios digitales.

Reiteramos nuestra convicción de que es necesario promover y desarrollar una cultura mundial de seguridad cibernética y de que deben adoptarse medidas en materia de seguridad cibernética en colaboración con todas las partes interesadas y los órganos de expertos internacionales a fin de fomentar la confianza y la seguridad en la sociedad de la información.

53. Exhortamos a los Estados Miembros a que redoblen los esfuerzos encaminados a crear un entorno de seguridad interna sólido en relación con las tecnologías de la información y las comunicaciones y su utilización, conforme a sus obligaciones internacionales y su legislación nacional. Exhortamos también a los Estados Miembros a que cooperen en las cuestiones transnacionales relacionadas con las tecnologías de la información y las comunicaciones y su utilización, incluidas la creación de capacidad y la cooperación en la lucha contra el uso indebido de las tecnologías, y la prevención del uso de tecnologías, comunicaciones y recursos con fines delictivos o terroristas.

54. Reconocemos los problemas que enfrentan los Estados, en particular los países en desarrollo, para crear confianza y seguridad en la utilización de las tecnologías de la información y las comunicaciones. Hacemos un llamamiento para que se preste una atención renovada a la creación de capacidad, la educación, el intercambio de conocimientos y las prácticas normativas, así como a la promoción de la cooperación entre múltiples interesados a todos los niveles y la sensibilización entre los usuarios de las tecnologías de la información y las comunicaciones, en particular entre los más pobres y los más vulnerables.

4. Gobernanza de Internet

55. Reafirmamos el párrafo 55 de la Agenda de Túnez y, a este respecto, reconocemos que los mecanismos vigentes han funcionado eficazmente para convertir a Internet en el medio sólido, dinámico y de gran cobertura geográfica que es hoy en día, en el que el sector privado dirige las actividades cotidianas y en cuya periferia se innova y se crea valor. Sin embargo, casi 4.000 millones de personas, que representan aproximadamente las dos terceras partes de las personas que residen en países en desarrollo, siguen estando al margen de esa conexión.

56. Reconocemos que existen muchas cuestiones intersectoriales de política pública internacional que requieren atención y no se han abordado adecuadamente.

57. Tomamos nota del párrafo 29 de la Agenda de Túnez y reconocemos que la gestión de Internet como un recurso mundial incluye procesos multilaterales, transparentes, democráticos y de múltiples interesados, con la plena participación de los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnica y académica y todas las demás partes interesadas, de conformidad con sus respectivas funciones y responsabilidades.

58. Reiteramos la definición de trabajo de la gobernanza de Internet que figura en el párrafo 34 de la Agenda de Túnez, como el “desarrollo y aplicación por los gobiernos, el sector privado y la sociedad civil, en el desempeño de sus respectivas funciones, de principios, normas, reglas, procedimientos de toma de decisiones y programas comunes que dan forma a la evolución y a la utilización de Internet”.

59. Reafirmamos los principios acordados en la Declaración de Principios de Ginebra de que la gestión de Internet abarca cuestiones técnicas y de política pública y debe contar con la participación de todas las partes interesadas y de organizaciones internacionales e intergubernamentales competentes, en el marco de sus respectivas funciones y responsabilidades, como se indica en el párrafo 35 de la Agenda de Túnez.

60. Tomamos nota de que el Gobierno del Brasil acogió NETMundial, la Reunión Global de Múltiples Partes Interesadas sobre el Futuro de la Gobernanza de Internet, en São Paulo los días 23 y 24 de abril de 2014.

61. Reconocemos que es necesario promover una mayor participación y compromiso en los debates sobre la gobernanza de Internet por parte de los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnica y académica y todas las demás partes interesadas pertinentes de los países en desarrollo, en particular los países africanos, los países menos adelantados, los países en desarrollo sin litoral y los pequeños Estados insulares en desarrollo, y los países de ingresos medianos, así como los países en situaciones de conflicto, los países en situaciones posteriores a un conflicto y los países afectados por desastres naturales. Instamos a que se refuercen unos mecanismos de financiación estables, transparentes y voluntarios con ese fin.

62. Observamos los importantes procesos normativos y legislativos llevados a cabo en algunos Estados Miembros en relación con una Internet abierta en el contexto de la sociedad de la información y sus impulsores subyacentes, y pedimos un mayor intercambio de información a nivel internacional sobre las oportunidades y los desafíos.

63. Reconocemos la función del Foro para la Gobernanza de Internet como plataforma de múltiples interesados para examinar cuestiones relacionadas con la gobernanza de Internet. Apoyamos las recomendaciones que figuran en el informe del Grupo de Trabajo sobre mejoras del Foro para la Gobernanza de Internet, de la Comisión de Ciencia y Tecnología para el Desarrollo (10), de las que tomó nota la Asamblea General en su resolución 68/198, de 20 de diciembre de 2013, y pedimos su aplicación acelerada. Prorrogamos por otros diez años el mandato actual del Foro para la Gobernanza de Internet según se enuncia en los párrafos 72 a 78 de la Agenda de Túnez. Reconocemos que, durante ese período, el Foro debe seguir mostrando avances con respecto a las modalidades de trabajo y la participación de las partes interesadas pertinentes de los países en desarrollo. Pedimos a la Comisión que, en el marco de su presentación periódica de informes, preste la debida atención al cumplimiento de las recomendaciones del informe de su Grupo de Trabajo.

4.1. Fortalecimiento de la cooperación

64. Reconocemos que se han aplicado diversas iniciativas y se han logrado algunos avances en relación con el proceso de fortalecimiento de la cooperación, que se detalla en los párrafos 69 a 71 de la Agenda de Túnez.

65. Observamos, sin embargo, la divergencia de opiniones de los Estados Miembros con respecto al proceso encaminado a reforzar la cooperación según se contempla en la Agenda de Túnez. Pedimos que continúen el diálogo y la labor relativos al proceso de fortalecimiento de la cooperación. Por consiguiente, solicitamos a la Presidencia de la Comisión de Ciencia y Tecnología para el Desarrollo, por conducto del Consejo Económico y Social, que establezca un grupo de trabajo encargado de formular recomendaciones sobre la manera de seguir reforzando la cooperación según se prevé en la Agenda de Túnez, teniendo en cuenta la labor que se ha llevado a cabo a este respecto hasta el momento. El grupo, que se establecerá a más tardar en julio de 2016, determinará en primer lugar sus métodos de trabajo, incluidas las modalidades, y garantizará la plena participación de todas las partes interesadas pertinentes, teniendo en cuenta sus diversas opiniones y sus conocimientos especializados. El grupo presentará un informe a la Comisión de Ciencia y Tecnología para el Desarrollo durante su 21er período de sesiones, a fin de que la Comisión lo incluya en el informe anual que presenta al Consejo. El informe servirá también de contribución a los informes periódicos del Secretario General sobre la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información.

5. Seguimiento y examen

66. Reafirmamos que la aplicación en curso de los resultados de la Cumbre Mundial sobre la Sociedad de la Información requerirá el compromiso y la actuación constantes de todas las partes interesadas, incluidos los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales y las comunidades técnica y académica, y que el examen periódico de los avances logrados en todas las líneas de acción de la Cumbre será esencial para hacer realidad la visión de la Cumbre.

67. Pedimos que se sigan presentando al Consejo Económico y Social, por conducto de la Comisión de Ciencia y Tecnología para el Desarrollo, informes anuales sobre la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información, teniendo en cuenta el examen y seguimiento de la Agenda 2030 para el Desarrollo Sostenible, y, a este respecto, invitamos al foro político de alto nivel sobre el desarrollo sostenible a que examine los informes anuales de la Comisión de Ciencia y Tecnología para el Desarrollo. Alentamos a los miembros del Grupo de las Naciones Unidas sobre la Sociedad de la Información a que contribuyan a los informes.

68. Pedimos también que el Grupo de las Naciones Unidas sobre la Sociedad de la Información continúe coordinando la labor de los organismos de las Naciones Unidas, de conformidad con sus mandatos y competencias, e invitamos a las comisiones regionales de las Naciones Unidas a que prosigan su labor en la aplicación de las líneas de acción de la Cumbre Mundial sobre la Sociedad de la Información y su contribución a los exámenes de estas, en particular a través de exámenes regionales.

69. Reconocemos que el Foro de la Cumbre Mundial sobre la Sociedad de la Información ha sido una plataforma que permite a todas las partes interesadas debatir y compartir las mejores prácticas en la aplicación de los resultados de la Cumbre Mundial, y que debe seguirse celebrando anualmente.

70. Reconocemos la importancia de los datos y las estadísticas para apoyar las tecnologías de la información y las comunicaciones para el desarrollo e instamos a que aumenten los datos cuantitativos en apoyo de la adopción de decisiones con base empírica, se incluyan las estadísticas de la tecnología de la información y las comunicaciones en las estrategias nacionales de desarrollo de la estadística y en los programas regionales de trabajo estadístico, y se refuercen la capacidad estadística nacional y la capacitación específica de grupos determinados por los gobiernos y todas las demás partes interesadas. Las actividades de la Asociación para la Medición de la Tecnología de la Información y las Comunicaciones para el Desarrollo han significado una valiosa contribución a la recopilación y difusión de datos y deben mantenerse.

71. Reconocemos que, en la preparación del presente examen, se han determinado varios retos y oportunidades que requieren consultas a más largo plazo para definir las respuestas apropiadas, y que el ritmo del desarrollo de las tecnologías de la información y las comunicaciones exige examinar a un nivel más alto los progresos alcanzados y la adopción de medidas futuras. Solicitamos, por consiguiente, a la Asamblea General que celebre una reunión de alto nivel sobre el examen general de la aplicación de los resultados de la Cumbre Mundial sobre la Sociedad de la Información en 2025, que incluya las aportaciones y la participación de todas las partes interesadas, incluso en el proceso preparatorio, y que haga un balance de los progresos logrados en relación con los resultados de la Cumbre Mundial y determine las esferas de atención y desafíos constantes. Recomendamos que el resultado de la reunión de alto nivel sea una aportación al proceso de examen de la Agenda 2030 para el Desarrollo Sostenible.

79ª sesión plenaria

16 de diciembre de 2015

(1) Véase A/60/687.

(2) Resolución 70/1.

(3) Resolución 217 A (III).

(4) Véase A/C.2/59/3, anexo.

(5) Resolución 69/313, anexo.

(6) A/CONF.157/24 (Part I), cap. III.

(7) Véase Documentos Oficiales de la Asamblea General, sexagésimo noveno período de sesiones, Suplemento núm. 53 (A/69/53), cap. V, secc. A.

(8) Véase la resolución 2200 A (XXI), anexo.

(9) A/68/98 y A/70/174.

(10) A/67/65-E/2012/48 y Corr.1.

05Nov/24

Resolución 161/2023 RES-2023-161-APN-AAIP, de 30 de agosto de 2023

Resolución 161/2023 RES-2023-161-APN-AAIP, de 30 de agosto de 2023 de la Agencia de Acceso a la Información Pública. (Publicado el 4 de septiembre de 2023)

AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA

Resolución 161/2023, RESOL-2023-161-APN-AAIP

Ciudad de Buenos Aires, 30/08/2023

VISTO el expediente EX-2023-92311005- -APN-AAIP, los Principios de la Organización para la Cooperación y el Desarrollo Económicos sobre Inteligencia Artificial, la Recomendación sobre la Ética de la Inteligencia Artificial de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, las Leyes N° 25.326 y N° 27.275, la Decisión Administrativa N° 1094 del 1 de noviembre de 2022, y

CONSIDERANDO:

Que, según lo establecido en el artículo 19 de la Ley N° 27.275, la AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA (AAIP), ente autárquico con autonomía funcional en el ámbito de la JEFATURA DE GABINETE DE MINISTROS, debe velar por el cumplimiento de los principios y procedimientos establecidos en la citada norma, garantizar el efectivo ejercicio del derecho de acceso a la información pública, promover medidas de transparencia activa y actuar como Autoridad de Aplicación de la Ley de Protección de Datos Personales N° 25.326.

Que la ley N° 25.326 tiene por objeto la protección integral de los datos personales asentados en archivos, registros, bancos de datos, u otros medios técnicos de tratamiento de datos, sean éstos públicos, o privados destinados a dar informes, para garantizar el derecho al honor y a la intimidad de las personas, así como también el acceso a la información que sobre las mismas se registre, de conformidad a lo establecido en el artículo 43, párrafo tercero de la Constitución Nacional; mientras que la Ley Nº 27.275 tiene por objeto garantizar el efectivo ejercicio del derecho de acceso a la información pública, promover la participación ciudadana y la transparencia de la gestión pública (artículo 1°).

Que, en cumplimiento de su misión institucional, la AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA desarrolla diversas políticas de acceso a la información pública, protección de los datos personales, participación ciudadana y transparencia en la gestión pública, desde un enfoque de derechos humanos, con la finalidad de coadyuvar a la mejora de la calidad de vida de la población y de su acceso a derechos.

Que, conforme se dispuso mediante la Decisión Administrativa N° 1094/2022, la Dirección Nacional de Evaluación de Políticas de Transparencia tiene como responsabilidad primaria asistir a la titular de la Agencia en el diseño, ejecución y evaluación de sistemas de información, políticas de transparencia activa y campañas de difusión, así como en la instrumentación de proyectos y acciones que favorezcan la producción, sistematización, apertura y puesta a disposición de la ciudadanía la información pública tal como lo establece la Ley N° 27.275, en coordinación con las áreas de la Administración Pública Nacional con competencia en la materia.

Que la Decisión Administrativa antes mencionada también determina que la Dirección Nacional de Protección de Datos Personales tiene como responsabilidad primaria asistir a la titular de la Agencia en el diseño y ejecución de las políticas de privacidad de datos personales, gobernanza de datos e internet; así como en el ejercicio de sus funciones como como autoridad de aplicación y órgano de control de las Leyes N° 25.326 y N° 26.951.

Que la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y los países socios, entre los que se encuentra Argentina, adoptaron el 21 de mayo de 2019, a partir de una Recomendación del Consejo sobre Inteligencia Artificial, un conjunto de directrices de políticas intergubernamentales sobre Inteligencia Artificial (IA) plasmadas en los “Principios de la OCDE sobre Inteligencia Artificial”; y convinieron en someterse a normas internacionales que velen por que el diseño de sistemas de IA robustos, seguros, imparciales y fiables.

Que la Recomendación citada, elaborada a partir de las orientaciones de un grupo de expertos procedentes de organizaciones gubernamentales, académicas, empresariales, sindicales y de la sociedad civil, comprende cinco principios basados en valores para el despliegue responsable de una IA fiable y cinco recomendaciones en materia de políticas públicas y cooperación internacional; y su objetivo es guiar a los gobiernos, organizaciones e individuos para que, en el diseño y la gestión de los sistemas de IA, prioricen los intereses de las personas, y garantizar que quienes diseñen y gestionen sistemas de IA respondan por su correcto funcionamiento.

Que en noviembre de 2021, los Estados miembros de la Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), entre los cuales se encuentra Argentina, adoptaron la “Recomendación sobre la Ética de la Inteligencia Artificial”, donde se considera a la ética como una base dinámica para la evaluación y la orientación normativa de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños, y apoyándose en la ética de la ciencia y la tecnología.

Que la mencionada Recomendación trata sobre las cuestiones éticas relacionadas con la IA, abordándolas como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas, ofreciendo una base para aceptar o rechazar las tecnologías de la IA.

Que mediante la Disposición N° 2/2023 de la SUBSECRETARÍA DE TECNOLOGÍAS DE LA INFORMACIÓN, dependiente de la SECRETARÍA DE INNOVACIÓN PÚBLICA de la JEFATURA DE GABINETE DE MINISTROS DE LA NACIÓN, se aprobaron las “Recomendaciones para una Inteligencia Artificial Fiable”, que incorpora a los principios de transparencia y explicabilidad, seguridad y protección, equidad y no discriminación, derecho a la intimidad y protección de datos, supervisión y decisión humanas, sensibilización y educación, y responsabilidad y rendición de cuentas, entre otros, como dimensiones clave a considerar para la implementación de proyectos de IA.

Que los antecedentes mencionados incluyen entre sus principios y recomendaciones para una adopción beneficiosa de la Inteligencia Artificial, a la transparencia y la explicabilidad de sus sistemas, de modo que las personas puedan comprender cómo se toman y aplican las decisiones y cómo se llega a determinados resultados.

Que, asimismo, los instrumentos mencionados en los párrafos anteriores resaltan la importancia de la privacidad y la protección de los datos personales en el marco del uso de sistemas de inteligencia artificial, en lo que refiere a la recopilación, utilización, sesión, archivo y supresión de datos personales, respetando los marcos jurídicos nacionales, regionales e internacionales pertinentes.

Que, a efectos de dotar de mayor seguridad y legitimidad al uso de los sistemas de inteligencia artificial, resulta necesario fortalecer las capacidades institucionales que permitan incorporar la transparencia y la protección de datos personales como dimensiones sustantivas y transversales al diseño de proyectos de desarrollo tecnológico en materia de inteligencia artificial.

Que, por los motivos expuestos, resulta oportuno y conveniente la creación de un “Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial”, con el objetivo de impulsar procesos de análisis, regulación y fortalecimiento de capacidades estatales necesarias para acompañar el desarrollo y uso de la inteligencia artificial, tanto en el sector público como en el ámbito privado, garantizando el efectivo ejercicio de los derechos de la ciudadanía en materia de transparencia y protección de datos personales.

Que el Servicio Jurídico permanente de la AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA tomó la intervención previa de su competencia.

Que la presente medida se dicta en uso de las facultades conferidas por el artículo 24, incisos e), g), k) y t), de la Ley N° 27.275; y 29, inciso a), de la Ley N° 25.326.

Por ello,

LA DIRECTORA DE LA AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA

RESUELVE:

ARTÍCULO 1°

Créase el “Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial”, cuya formulación, como Anexo IF-2023-99735227-APN-AAIP, forma parte integrante de la presente medida.

ARTÍCULO 2°

Instruyese a las Direcciones Nacionales de Evaluación de Políticas de Transparencia y de Protección de Datos Personales para la realización conjunta de las acciones necesarias para la ejecución del programa creado por el artículo 1° y el establecimiento de los mecanismos adecuados para su monitoreo y evaluación.

ARTÍCULO 3°

Comuníquese, publíquese, dese a la Dirección Nacional del Registro Oficial y archívese.

Beatriz de Anchorena

24Oct/24
Proyecto de Ley

Ponencia Positiva para primer debate Proyecto de Ley Estatutaria nº 154 del 8 de octubre de 2024

Ponencia Positiva para primer debate Proyecto de Ley Estatutaria nº 154 del 8 de octubre de 2024 Cámara, por la cual se define y regula la inteligencia artificial, se ajusta a estándares de derechos humanos, se establecen límites frente a su desarrollo, uso e implementación se modifica parcialmente la ley 1581 de 2012 y se dictan otras disposiciones.

Bogotá D.C., 08 de octubre de 2024

Presidenta

ANA PAOLA GARCÍA SOTO

Comisión Primera Constitucional

Cámara de Representantes

Ciudad

Asunto: Ponencia Positiva para primer debate Proyecto de Ley Estatutaria No. 154 del 2024 Cámara “Por la cual se define y regula la inteligencia artificial, se ajusta a estándares de derechos humanos, se establecen límites frente a su desarrollo, uso e implementación se modifica parcialmente la ley 1581 de 2012 y se dictan otras disposiciones”

Cordial saludo Dra. García,

En cumplimiento de la designación hecha por la Mesa Directiva de la Comisión Primera Constitucional Permanente de la Cámara de Representantes, y siguiendo lo dispuesto en el artículo 174 de la ley 5 de 1992, procedemos a rendir informe de ponencia positiva para primer debate del Proyecto de Ley Estatutaria C 154 de 2024 “Por la cual se define y regula la inteligencia artificial, se ajusta a estándares de derechos humanos, se establecen límites frente a su desarrollo, uso e implementación se modifica parcialmente la ley 1581 de 2012 y se dictan otras disposiciones” por las razones que se exponen en el cuerpo de la ponencia.

De las y los Congresistas,

KARYME COTES MARTÍNEZ,  Coordinadora Ponente

ALIRIO URIBE MUÑOZ, Coordinador Ponente,

ASTRID SÁNCHEZ MONTES DE OCA , Ponente

CATHERINE JUVINAO CLAVIJO, Ponente

MIGUEL POLO POLO, Ponente

OSCAR RODRIGO CAMPO, Ponente

ORLANDO CASTILLO ADVÍNCULA , Ponente

LUIS ALBERTO ALBÁN URBANO, Ponente

MARELEN CASTILLO TORRES, Ponente

INFORME DE PONENCIA PARA PRIMER DEBATE AL PROYECTO DE LEY ESTATUTARIA 154 de 2024 CÁMARA “POR LA CUAL SE DEFINE Y REGULA LA INTELIGENCIA ARTIFICIAL, SE AJUSTA A ESTÁNDARES DE DERECHOS HUMANOS, SE ESTABLECEN LÍMITES FRENTE A SU DESARROLLO, USO E IMPLEMENTACIÓN SE MODIFICA PARCIALMENTE LA LEY 1581 DE 2012 Y SE DICTAN OTRAS DISPOSICIONES”

1. OBJETO DEL PROYECTO

El proyecto de ley estatutaria tiene por objeto ajustar a estándares de respeto y garantía de los derechos humanos la inteligencia artificial, regular su desarrollo y establecer límites frente a su uso e implementación por parte de personas naturales y jurídicas. En esa medida, pretende establecer un marco jurídico seguro para el desarrollo tecnológico sin que represente cargas administrativas innecesarias para las pymes y las empresas emergentes, pero basado en consideraciones éticas y en el respeto de los derechos humanos y fundamentales; para tal efecto, propugna por la adaptación, aplicación y ejecución de las normas ya existentes en materia de protección de datos personales.

2. ANTECEDENTES

El 01 de diciembre de 2022 se adelantó una audiencia pública en el recinto de la Comisión Primera Constitucional llamada “Inteligencia Artificial en Colombia: Iniciativas para una regulación con enfoque de DDHH”. En este escenario participaron organizaciones de Derechos Humanos, docentes, miembros de la academia y representantes del Estado, puntualmente del Ministerio de Defensa, el Ministerio de las TIC y el Ministerio de Ciencia y Tecnología. Sobre la regulación de las Inteligencias Artificiales, en la audiencia conocimos que Naciones Unidas en 2021, fijó el primer acuerdo internacional sobre la ética de la inteligencia artificial.

Este acuerdo insiste en la estricta protección a los datos personales y el control de los mismos por las personas, en la estricta prohibición del uso de la I.A. para la clasificación social y la vigilancia masiva y también en necesidad de supervisar y  evaluar la I.A. y sus impactos en las personas, la sociedad y el medio ambiente.

También la OCDE ya ha fijado algunos parámetros para la I.A., entre otros resaltó las recomendaciones que dio la OCDE para los Gobiernos en América Latina y el Caribe que indican que el Desarrollo de IA debe tener un enfoque responsable, fiable y centrado en el ser humano, que comprenda la ética de datos, garantice la imparcialidad y la atenuación del sesgo.

“La inteligencia Artificial puede violar derechos humanos y ser utilizada en procesos de discriminación y racialización; es necesario reglar el desarrollo y uso de las IA para evitar que sobrepasen límites éticos de la humanidad”. Este es uno de los principales desenlaces a los que llegamos en la audiencia pública. En conclusión, en el mundo, cada vez más los Estados se alejan más de los principios de “soft law” o leyes blandas que dejan a la ética de los desarrolladores el control sobre la I.A. y se acercan más a la creación de estándares legales que regulen la temática. Por lo tanto, es necesario que Colombia también emprenda este camino regulatorio.

Posteriormente fue radicado el proyecto de ley estatutaria No 200 de 2023 el 06 de septiembre de 2023 en la Secretaría de la Cámara de Representantes, siendo autores los HR Karyme Adrana Cotes Martínez, Alirio Uribe Muñoz, María Eugenia Lopera Monsalve, Sandra Bibiana Aristizábal Saleg, Carmen Felisa Ramírez Boscán, Gilma Díaz Arias, Flora Perdomo Andrade, Dolcey Oscar Torres Romero, Mónica Karina Bocanegra Pantoja, Jezmi Lizeth Barraza Arraut, Piedad Correal Rubiano, Álvaro Leonel Rueda caballero, Jhoany Carlos Alberto Palacios Mosquera, Hugo Alfonso Archila Suárez, Etna Tamara Argote Calderón, Eduard Giovanny Sarmiento Hidalgo, Pedro José Súarez Vacca, Gabriel Becerra Yañez, David Alejandro Toro Ramírez, Jorge Hernán Bastidas Rosero, fue publicado en gaceta del Congreso No 1260 de 2023. No obstante, este proyecto de ley estatutaria fue archivado en virtud del artículo 190 de la Ley 5ta de 1992.

El 6 de agosto de 2024, se presentó nuevamente la iniciativa legislativa, la cual recoge las disposiciones contenidas del proyecto de ley presentado en la Legislatura 2023 – 2024 y los diferentes ajustes solicitados por los ponentes y miembros de la Comisión I de la Cámara de Representantes.

El 03 de septiembre de 2024 la mesa directiva de la Comisión Constitucional Permanente de la Cámara de Representantes designó como ponentes de la presente iniciativa a los H.R. Karyme Adrana Cotes Martínez H.R. Alirio Uribe Muñoz H.R. Miguel Abraham Polo Polo H.R. Oscar Rodrigo Campo Hurtado H.R. Ruth Amelia Caycedo Rosero H.R. Astrid Sánchez Montes De Oca, H.R. Catherine Juvinao Clavijo H.R. Orlando Castillo Advincula H.R. Marelen Castillo Torres H.R. Luis Alberto Albán Urbano.

En el marco de la construcción conjunta de la ponencia para el primer debate, se han realizado algunos ajustes a la versión presentada, entre los que se encuentran los siguientes:

– Ajustes de redacción y se adiciona una disposición especial al uso de IA en instituciones educativas en el artículo 2 sobre el ámbito de aplicación de la ley.

– Se ajusta el artículo 12, referente a las garantías de seguridad laboral, teniendo en cuentas las disposiciones de la reforma laboral que actualmente cursa en el Congreso.

– Se ajustan las funciones de la Superintendencia y del Ministerio de Tecnologías de la Información.

Atendiendo la solicitud de los ponentes, el 30 de septiembre de 2024 se realizó una Audiencia Pública sobre el proyecto de ley. En esta participaron diversos delegados de entidades públicas con competencias en la materia, expertos en tecnología e inteligencia artificial, así como representantes del ámbito académico, entre los cuales se destacan:

– El Viceministro de Transformación Digital del Ministerio de las Tecnologías de la Información y las Comunicaciones, el doctor Belfor Fabio García.

– El Director de Ciencia del Ministerio de Ciencia, Tecnología e Innovación, el doctor Iván Rodrigo Luna.

– La Directora Técnica de Desarrollo Digital del Departamento Nacional de Planeación, la doctora Viviana Rocio Vanegas.

– La Superintendente de Industria y Comercio, la doctora Cielo Rusinque.

– La Directora Ejecutiva de la Comisión de Regulación de Comunicaciones.

– El Coordinador del Centro de Estudio de Derecho de las TIC (CENTI) de la Universidad Javeriana, el doctor Victor Ayalde.

– El Gerente de Políticas Públicas para la Zona Andina de la Asociación Latinoamericana de Internet (ALAI), el doctor Pablo Nieto.

– La Representante de la Unión Europea, la doctora Esther Montoya.

Durante la audiencia se expresaron diversas opiniones y propuestas de mejora al proyecto de ley, las cuales han sido incorporadas en la presente ponencia.

3. JUSTIFICACIÓN DEL PROYECTO

La realidad mundial demuestra que la inteligencia artificial (IA) hoy constituye una industria que viene creciendo a niveles acelerados, dadas las altas inversiones que están haciendo las empresas para ser más competitivas en el mercado. No obstante, los sistemas de inteligencia artificial al parecer comportan una amenaza para los derechos fundamentales teniendo en cuenta que los algoritmos que permiten el desarrollo, uso e implementación de estos sistemas, se basan en conjuntos masivos de datos personales que son recopilados, procesados y almacenados sin sujeción a los regímenes de protección de datos personales.

El rápido avance de la tecnología, el campo cyber y la Inteligencia Artificial le pone grandes retos a la legislación, a la justicia y a la garantía de los Derechos Humanos en nuestro país. Colombia cuenta con importantes avances en la protección de datos y en la elaboración de herramientas legales que nos ponen junto a Uruguay y Brasil en la punta del liderazgo continental para crear un clima adecuado en materia de Inteligencia Artificial desde los más altos niveles según el Índice Latinoamericano de Inteligencia Artificial (Ilia), elaborado por el Centro Nacional de Inteligencia Artificial de Chile (Cenia). Sin embargo, debemos partir de que no todo desarrollo tecnológico necesariamente es beneficioso para la humanidad.

Desde que se empezó a utilizar la IA hemos visto sus beneficios, pero también los riesgos para los derechos humanos que supone su uso indiscriminado, como una consecuencia natural, a veces inevitable, y tolerable a cambio de los beneficios que ofrece la inteligencia artificial como la agilidad y la eficiencia en las relaciones, con la administración pública, gestión documental, detección de errores procesales, etc. Sin embargo, se ha observado que los derechos humanos corren un riesgo considerable. Por ejemplo, en el ámbito de la salud, la inteligencia artificial puede realizar diagnósticos y predicción de riesgos, prescripción de tratamientos, cirugía robótica, asistencia médica remota, procesamiento de imágenes, mapas sanitarios, control de transmisión de enfermedades, etc. Sin embargo, existen riesgos claros en términos de impactar el derecho a la integridad personal, el procesamiento de datos personales altamente sensibles, la autonomía del paciente, el consentimiento y el control humano sobre la toma de decisiones finales del sistema. En el ámbito de la seguridad civil, la Inteligencia Artificial puede resultar muy útil en identificación biométrica, registro de actividades, análisis de comportamiento, interceptación y análisis de comunicaciones, búsqueda de personas desaparecidas, etc. Sin embargo, se volvió a llamar la atención sobre los riesgos del uso indebido de datos personales, en particular la preocupación por la dependencia de sesgos discriminatorios en la inteligencia prospectiva con fines de vigilancia policial predictiva (1).

En el ámbito judicial, la inteligencia artificial facilita la sistematización y búsqueda de información jurídica útil para jueces, abogados y la sociedad en su conjunto, y permite predicciones basadas en decisiones judiciales que se han dictado y pueden ser reproducidas, pero no tiene capacidad de argumentación y garantiza imparcialidad, precisión y decisión adecuada, lo que la hace vulnerable a “resultados inexactos, discriminatorios, sesgos implícitos o inherentes“(2) Acelerar el acceso a la justicia no conducirá a una sociedad más justa si no se garantiza que las decisiones del sistema sean justas, correctas y ajustadas a derecho.

Considerando lo anterior, cada vez con más fuerza nos acercamos al consenso de la necesidad de crear unos marcos regulatorios para el desarrollo y uso de Inteligencias Artificiales de manera acorde con los Derechos Humanos y Fundamentales. En el mundo, cada vez más los Estados se alejan de los principios de “soft law” o leyes blandas que dejan a la ética de los desarrolladores el control sobre la Inteligencia Artificial y se acercan más a la creación de estándares legales que regulen la temática.

En términos del parlamento europeo el desarrollo de la inteligencia artificial comprende la cuarta revolución industrial, cuyo impacto acelerado en la tecnología ya implementada por la administración pública, el comercio electrónico, el sector servicios, entre otros, hace necesaria la regulación del proceso de transformación digital que está sufriendo la sociedad con énfasis en el pleno respeto de los derechos fundamentales y en el verdadero servicio a la humanidad; en efecto, para el 2030 se prevé que la inteligencia artificial contribuirá con más de 12 billones de dólares a la economía mundial, siendo la economía digital la puerta de entrada de nuevos productos y servicios que incrementará las alternativas que tienen los consumidores para satisfacer sus necesidades (3).

En ese orden de ideas, dado el riesgo de reducción de la intervención humana, el reemplazo de la autonomía humana, la pérdida de libertad individual, y la gran cantidad de datos personales que usan y fluyen a través de los sistemas de inteligencia artificial, se justifica la generación de herramientas que permitan el avance de la tecnología y el crecimiento de la economía de manera segura. Países como China desde hace una década viene destacando el uso de la inteligencia artificial en el mejoramiento de las capacidades militares y promueve las asociaciones internacionales de IA como una forma de exportar sus propias prácticas de vigilancia basadas en la IA, su sistema de puntuación ciudadana y sus estrategias de censura, de tal manera que su planteamiento está basado en el despliegue de la IA basadas en normas correspondientes con la ideología del gobierno. Tanto Estados Unidos como China has venido acelerando el uso de la IA en el sector público y en el sector privado, a tal punto que sus inversiones representan más del 80 % de las inversiones anuales de capital en IA y tecnología de cadena de bloques.

Resulta por tanto preciso regular la IA, fundamentalmente porque las empresas públicas y privadas la están usando para tomar decisiones que impactan la vida de las personas, las cuales generan unas responsabilidades que deben ser asumidas por tales empresas, siendo plausible el establecimiento de una legislación que le permita a las personas recurrir a las autoridades para garantizar sus derechos fundamentales. En el caso de Estados Unidos se han aprobado proyectos de ley para regular asuntos específicos de la inteligencia artificial como la tecnología de reconocimiento facial, y así mismo, la Casa Blanca publicó diez principios para la regulación de la inteligencia artificial.

No obstante, la iniciativa más ambiciosa la ha hecho la Unión Europea y se fundamenta en el riesgo que los sistemas de inteligencia artificial representan para las libertades individuales. Igualmente ha habido iniciativas multilaterales para desarrollar directrices y normas para un uso ético y responsable de la IA, como los principios de la OCDE sobre la IA que Colombia acogió conforme lo manifestó el Ministerio de las TIC. (4), la Alianza Mundial sobre la IA, la Recomendación sobre la ética de la IA de la Unesco que Colombia también adoptó según manifestó el Ministerio de las TIC (5), las recomendaciones del Consejo de Europa sobre un posible marco jurídico en materia de IA y las orientaciones políticas de UNICEF sobre la IA para los niños. Pero respecto a iniciativas de regulación sobre la materia tenemos otros países como Chile (Decreto 20 del 3 de diciembre de 2021 sobre la Política Nacional de Inteligencia Artificial), Argentina (Plan Nacional de IA de agosto de 2018), Uruguay (Ley de protección de datos de 2008, Art. 16), México (Ley Federal de Telecomunicaciones y Radiodifusión – 2014, Decreto Ejecutivo Nacional de Ventanilla Única – 2015, y el Decreto Ejecutivo sobre Datos Abiertos – 2015), Brasil (Decreto Ejecutivo N.° 9.854 del 25 de junio de 2019, Decreto Ejecutivo N.° 9.319, del 21 de marzo de 2018, Ley General de Protección de Datos Personales de Brasil, Ley de Derechos de Internet de Brasil – Marco Civil de Internet, Decreto No. 8.771 de 2016).

Tratándose de Colombia la inteligencia artificial ha tenido avances a partir del Documento CONPES 3975 del 8 de noviembre de 2019 que definió la inteligencia artificial como “un campo de la informática dedicado a resolver problemas cognitivos comúnmente asociados con la inteligencia humana o seres inteligentes, entendidos como aquellos que pueden adaptarse a situaciones cambiantes. Su base es el desarrollo de sistemas informáticos, la disponibilidad de datos y los algoritmos”; sin embargo, más allá de este documento su importancia no se ha visto reflejada en el desarrollo legislativo local, ni a nivel regional, comoquiera que no existe una legislación específicamente diseñada para regular el uso de la inteligencia artificial, sino que se ha implementado a partir de normativas existentes en materia de protección de datos, de protección de los consumidores y de competencia empresarial. Así mismo, la Unesco ha formulado recomendaciones de ética para el sector público y privado en materia de inteligencia artificial para la región, que Colombia acogió y se circunscriben la aplicación de principios éticos como: transparencia, explicación, privacidad, control humano de las decisiones, seguridad, responsabilidad, no discriminación, inclusión, prevalencia de los derechos de niños, niñas y adolescentes y beneficio social.

3.1. Experiencia internacional

La inteligencia artificial está generando debates de índole éticos y jurídicos muy interesantes en el ámbito internacional debido a los riesgos que genera su propia existencia, la necesidad de que avance con una regulación clara y la necesidad de que esta eventual regulación garantice un enfoque de derechos humanos. En la vanguardia de estos debates han estado la Unión Europea y Naciones Unidas quienes han contribuido a construir dos modelos internacionales de regulación con dos enfoques diferentes y complementarios.

La propuesta de las Naciones Unidas por medio de la UNESCO, en 2021, fijó el primer acuerdo internacional sobre la ética de la inteligencia artificial. Este acuerdo insiste en la estricta protección a los datos personales y el control de los mismos por las personas, en la estricta prohibición del uso de la Inteligencia Artificial para la clasificación social y la vigilancia masiva y también el acuerdo marca la necesidad de supervisar y evaluar la Inteligencia Artificial y sus impactos en las personas, la sociedad y el medio ambiente.

Estas recomendaciones recogen exigencias de índole ético para que sean acogidas por los distintos países que le apuesten a regular la materia en la Recomendación sobre la Ética de la Inteligencia Artificial. Sus objetivos por una parte son

(i) brindar un marco universal de valores, principios y acciones para orientar a los Estados en la formulación de leyes y políticas,

(ii) orientar a las personas que participan en los sistemas de Inteligencia Artificial en una perspectiva ética,

(iii) promover el respeto a los derechos humanos,

(iv) fomentar el diálogo multidisciplinario sobre cuestiones éticas de la inteligencia artificial y (v) impulsar el acceso equitativo sobre beneficios y avances de la inteligencia artificial.

La recomendación se divide entre valores (de un contenido más ideal), principios (de un contenido más concreto) y exigencias más concretas que se agrupan en un ámbito de acción política y aplicación:

– Hay cuatro valores que son

(i) el respeto, protección y promoción de los derechos humanos, libertades fundamentales y la dignidad humana,

(ii) prosperidad del medio ambiente y los ecosistemas,

(iii) garantizar la diversidad y la inclusión y

(iv) vivir en sociedades pacíficas justas e interconectadas.

– Los principios enunciados son

(i) el de proporcionalidad e inocuidad,

(ii) seguridad y protección,

(iii) equidad y no discriminación,

 (iv) sostenibilidad,

 (v) derecho a la intimidad y protección de datos,

(vi) supervisión y decisión humanas,

(vii) transparencia y explicabilidad,

(vii) responsabilidad y rendición de cuentas,

(viii) sensibilización y educación y

 (ix) gobernanza y colaboración adaptativas y de múltiples partes interesadas.

– Los ámbitos de acción política que se proponen en el proyecto son una forma en que la UNESCO propone materializar valores y principios y son once:

(i) Evaluación del impacto ético,

(ii) gobernanza y administración éticas,

(iii) política de datos,

(iv) desarrollo y cooperación internacional,

(v) medio ambiente y ecosistemas,

(vi) género,

(vii) cultura,

(viii) educación e investigación,

(ix) comunicación e información,

(x) economía y trabajo y

(xi) salud y bienestar social.

Es así que esta propuesta legislativa, recoge los principios y valores sugeridos por la UNESCO en esta propuesta de reglamentación. Por otro lado, dentro del contenido destacado de esta declaración está el reconocimiento de un enfoque de derechos amplio, promoviendo que todo desarrollo debe ser un avance para la humanidad, insistiendo en que no existan brechas en la seguridad y protección de las personas y sus datos, que haya una constante auditoría y supervisión, así como que haya transparencia sobre los algoritmos de Inteligencia Artificial cuando toman determinada decisión. De la misma manera, al reconocerse un ámbito amplio de acción política se describen acciones concomitantes que se deben tomar al momento de regular un fenómeno como el de la inteligencia artificial, por lo que la UNESCO hace un llamado a que, si bien un instrumento para reglamentar la inteligencia artificial es necesario, hay muchos temas con reglamentaciones propias que deben ser tenidas en cuenta.

También la Organización para la Cooperación y el Desarrollo Económicos -OCDE- ha fijado algunos parámetros para el desarrollo de la inteligencia artificial, entre otros son de resaltar las recomendaciones que dio la OCDE para los Gobiernos en América Latina y el Caribe. Señala la OCDE que los Gobiernos precisan desarrollar un enfoque responsable, fiable y centrado en el ser humano, que comprenda la ética de datos, garantice la imparcialidad y la atenuación del sesgo, contemple la transparencia y la explicabilidad de los algoritmos, impulse la seguridad y la protección, instituya mecanismos de rendición de cuentas, y aplique un enfoque inclusivo y orientado al usuario.

Lo anterior quiere decir que la Inteligencia Artificial debe centrarse en el ser humano, en el respeto a sus derechos, a la libertad, a la dignidad, a la justicia la no discriminación, a la protección de sus datos entre muchas otras medidas que protegen los derechos humanos y fundamentales.

Por otro lado, el impacto de la inteligencia artificial en los derechos humanos ha sido profundamente debatido en la Unión Europea en los últimos años, y este resultado se refleja en numerosos documentos del Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial y en informes de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior. y Comisión de Asuntos Jurídicos, Fundación de Propuestas Parlamentarias y de Comisiones. En este camino se pueden distinguir dos fases, la primera con la prioridad de establecer un marco ético que complemente la legislación existente, y la segunda con la elección explícita de un marco legal innovador claramente concebido para la Inteligencia Artificial.

El marco legal en comento son dos reglamentos; El primero propone un marco regulatorio para la IA, traduciendo los principios éticos en obligaciones legales, ya que “los principios morales compartidos sólo son válidos si se basan en la ley” y los códigos de ética son un buen punto de partida, pero no garantizan que los desarrolladores, implementadores y usuarios actúen de manera justa o que las personas y sus derechos fundamentales estén protegidos de manera efectiva.

Dentro de este marco legal, el respeto a la dignidad humana, la autodeterminación humana, la prevención del daño, la equidad, la inclusión y la transparencia, la eliminación de la discriminación y los prejuicios, y como servicio técnico a las personas, la seguridad, transparencia y rendición de cuentas del sistema se convertirá en una obligación legal, ajustada a derecho y compatible con “todos los regímenes jurídicos aplicables”, en particular el Derecho internacional humanitario y el Derecho internacional de los derechos humanos, y por supuestos que sea conforme a la legislación, los principios y los valores de la Unión.

El segundo reglamento propone el establecimiento de un régimen de responsabilidad civil, objetiva y subjetiva, con el propósito de que pueda ser reclamado cualquier daño, moral, material e inmaterial, derivado del uso de la Inteligencia Artificial, incluyendo los derivados de “las violaciones de derechos importantes, jurídicamente protegidos, a la vida, la salud, la integridad física y la propiedad” (6).

Es así que el Parlamento Europeo se encuentra discutiendo el primer reglamento sobre inteligencia artificial para constituir la ley de Inteligencia Artificial de la  Unión Europea. Señala la nota de prensa del portal de Noticias del Parlamento Europeo que “Como parte de su estrategia digital, la UE quiere regular la inteligencia artificial (IA) para garantizar mejores condiciones para el desarrollo y uso de esta tecnología innovadora”(7). El último avance se produjo el 14 de junio de 2023, los eurodiputados adoptaron la posición de negociación del Parlamento sobre la Ley de IA. Ahora comenzarán las conversaciones con los países de la Unión Europea en el Consejo sobre la forma final para la aprobación de la ley.

3.2 El uso de Inteligencias Artificiales por parte del Estado en Colombia

En los últimos meses, desde la oficina del Representante Alirio Uribe se han presentado solicitudes de información a diferentes entidades del Estado para conocer sobre el uso de inteligencias artificiales en el sector público. En respuesta a estas peticiones, se encontró que efectivamente en el Sector se vienen usando o investigando el uso de inteligencias artificiales para el desempeño de tareas en el sector, quedando la preocupación de que, a la fecha, no existe un marco regulatorio claro que oriente a las entidades sobre los límites para el uso e implementación de estas tecnologías.

Es así como la Fiscalía General de la Nación en respuesta a petición (8) informó que no “ha incorporado desarrollos o funcionalidades que contemplen componentes de automatización robótica de procesos, ni clasificación y/o toma de decisiones con componentes de inteligencia artificial”. Sin embargo, esta entidad si indicó que en el Marco de un proceso Investigación, Desarrollo e Innovación (I+D+i), la Subdirección de Políticas Públicas y Estrategia Institucional de la entidad en conjunto con el Ministerio de Tecnologías de la Información y las Comunicaciones, adelantaron de manera experimental, un ejercicio de cocreación denominado “Inteligencia artificial para el reparto automático de procesos penales y de extinción de dominio” que tuvo como objetivo general el de “Articular la política de priorización de la entidad y la decisión del reparto inicial de casos, desarrollando un algoritmo de inteligencia artificial para la clasificación automática de los casos.

Este contaba con un criterio de aceptación de aplicación integral de criterios de priorización, análisis completo de las características de los casos y de los fiscales y capacidad de predicción de la probabilidad de éxito de los casos que se registran en el sistema SPOA de la entidad”. Aunque los resultados fueron satisfactorios informa la Fiscalía que su propósito no era la puesta en marcha de esta tecnología sino simplemente su validación, dejando su implementación para un largo plazo según la normativa vigente para su aplicabilidad, las capacidades técnicas, tecnológicas y de recurso humano disponibles. Cabe destacar que la Fiscalía General de la Nación informó que actualmente, no existen directrices administrativas para el uso de inteligencias artificiales al interior de las fiscalías delegadas.

Por su parte, el Departamento Nacional de Planeación, en respuesta a petición radicada ante esa entidad (9), admite que la unidad de científicos de Datos –UCD-como dependencia de la entidad incorporan elementos de automatización de información para la analítica de datos. “Estos proyectos se sitúan en la fase intermedia entre la creación de modelos predictivos y la adaptación de datos para procesos específicos, con el propósito de proporcionar insumos esenciales para la toma de decisiones en política pública”(10). La entidad reconoce que estos modelos son de caracter “predictivo” para la adaptación de datos que busca crear insumos para la toma de decisiones en política pública. Las IA en comento son llamadas “Proyecto de Mejora Regulatoria – Diario Oficial” y el “WebScraping de Prácticas de Consulta Pública”. El proyecto de mejora del Diario Oficial clasifica la información en diez sectores económicos. Por su parte el WebScraping realiza la extracción automatizada de información de las páginas gubernamentales bajo el dominio “gov.co”, con el objetivo de recolectar los datos relativos a los procesos de consulta pública.

El DNP también suministra un enlace que da cuenta de las inteligencias artificiales usadas por la entidad para la analítica de datos. El consultar el link (11) es sorprendente la cantidad de Inteligencias Artificiales que utiliza esta entidad, aunque no discrimina si dichas herramientas tecnológicas son IAs o solamente sistemas de organización y automatización de información. Los sistemas reportados por el DNP son:

1. Herramienta para el análisis y evaluación de bases de datos del portal de datos abiertos-LEILA.

2. Identificación de redundancias en espacios de participación ciudadana.

3. Análisis de propuestas para las mesas de conversación nacional.

4. Clasificación de documentos del diario oficial mediante análisis de texto –actualización.

5. Caracterización de las compras públicas colombianas.

6. Tablero de control para el manejo de PQRSD.

7. Análisis de presencia en diarios de los últimos 5 gobiernos.

8. Tablero de control COVID-19.

9. Piloto de predicción del delito en Bucaramanga.

10.Indicadores agregados de vulnerabilidad municipal ante emergencia por COVID 19.

11.Índice de riesgo de calidad de agua para el consumo humano.

12.Comparación de la evolución y gestión del covid-19 en diferentes países.

13.Tablero de visualización de indicadores TIC.

14.Brecha de género en honorarios de contratistas del DNP.

15. Identificación y Análisis de palabras clave asociadas a documentos CONPES por periodo de Gobierno.

16.Similitudes en competencias de entidades públicas mediante análisis de texto.

17.Rastreo de proyectos de inversión relacionados con el cambio climático.

18.Articulación De los planes de desarrollo territorial 2020 – 2023 con los objetivos de desarrollo sostenible y el plan nacional de desarrollo 2018 – 2022.

19.Buzón de Ingreso Solidario.

20.Identificación de uso de proyectos tipo con similitud de texto.

21.Identificación de la demanda de evaluaciones de la conformidad y pruebas de laboratorios según estándares obligatorios vigentes.

22.Detección y análisis de sectores económicos con percepción de competencia desleal.

23.Análisis descriptivo de tweets de los equipos de respuesta ante emergencias informáticas.

24.Identificación de la inclusión de la política nacional para la reincorporación social y económica en los planes de desarrollo municipales.

25.Análisis de documentos de gasto público.

26.Estudio de comparación del CONPES de reactivación económica con los planes de desarrollo territorial (PDT) 2020 – 2023.

27.Análisis de términos y frases relacionados con temas de género en los planes de desarrollo territorial 2020 – 2023.

28.Análisis exploratorio y descriptivo de los PDT costeros y alineamiento con el CONPES 3990

29.Visor de entidades judiciales a nivel nacional.

30.Gestión de Bases de Datos de Ingreso Solidario.

Llama la atención que, al revisar los informes de estos sistemas de analítica de datos, dentro de sus objetivos varios están dirigidos a “evaluar” el asunto para el que fueron diseñados o para “generar” Bags of words, “identificar y caracterizar” grupos de propuestas, “clasificar” normas, entre otros. Lo que da a pensar que se trata de inteligencias artificiales toda vez que el proceso tecnológico toma decisiones respecto de la información que clasifica. Pero lo más preocupante de todo en esta entidad en la materia, es que adelantaron a través de una inteligencia artificial un piloto de predicción del delito en la ciudad de Bucaramanga, mediante el entrenamiento de modelos espacio- temporales de aprendizaje de máquina (machine learning) para predecir la ocurrencia de delitos (12), cuyo informe no da cuenta de las precauciones tomadas por las entidades para evitar afectaciones a derechos humanos. Sobre la revisión humana de las decisiones, informa el DNP que estas tecnologías son módulos intermedios, lo que se traduce en que no dan decisiones automáticas, sino que dichas decisiones son validadas por los expertos temáticos para ser incluida en algún proceso de toma de decisiones. Sin embargo, el DNP no explica cómo es este proceso de validación. También preocupa que manejan unas inteligencias artificiales que usan modelos de “caja negra” las cuales presentan ciertas limitaciones en cuanto a la trazabilidad de las fuentes que derivan a una conclusión.

Por su parte, la Corte Constitucional informa (13) que cuenta con una Inteligencia Artificial denominada Pretoria para la revisión de tutelas. Dastaca la Corte que la IA “genera gráficos estadísticos y mapas de calor sobre las consultas realizadas”. Es importante destacar que Pretoria no selecciona ni prioriza casos, pero sí contribuye a la identificación de patrones, a identificar casos novedosos y a tener un panorama general de las tutelas” pero que en ningún caso o reemplaza el análisis individual de cada tutela que está a cargo de personas naturales, sean sjudicantes y auxiliares judiciales.

Respecto del uso de Inteligencias artificiales, indica el Consejo Superior de la Judicatura que “actualmente no se implementan iniciativas relacionadas con inteligencia artificial o inteligencia artificial generativa” (14), empero, indica que actualmente se encuentran desarrollando lineamientos arquitectura digital de la Rama Judicial que podrían eventualmente considerar el uso de inteligencias artificiales.

En el mismo sentido, la Registraduría Nacional del Estado Civil informó que esa entidad no está haciendo uso de ninguna inteligencia artificial15. Sin embargo, si usan un sistema de identificación y autenticación de los colombianos. La tecnología que se utiliza se llama sistema automatizado ABIS (Automated Biometric Identification System) de identificación biométrica que reposa sobre una solución Morphocivis con sistema de cotejo motor Multibiométrico (facial y dactilar) MorphoBSS “MorphoBiometricSearchServices” (MB§S) que hace el proceso de identificación a partir de las biometrías de las personas haciendo uso del sistema de cotejo motor Multibiométrico (facial y dactilar). Indica que este sistema de información y bases de datos de referencia son consultadas por entidades del estado y sectores productivos del país, que en los parámetros de la Ley 1753 de 2015.

En conclusión, el Estado Colombiano si viene usando Inteligencias Artificiales sin el control debido que deberían tener para garantizar la no afectación de derechos humanos y fundamentales. En estas respuestas incluso se ven imprecisiones por parte de las entidades, quienes cuentan con sistemas de información que posiblemente son inteligencias artificiales, pero no las consideran como tal, por ejemplo, toda la tecnología machine learning con las que cuentan. Estas respuestas justifican la conveniencia de este proyecto de ley para regular la materia y estandarizar el uso y desarrollo de las mencionadas inteligencias artificiales.

4. CONTENIDO DEL PROYECTO

Para efectos del presente proyecto, se define la inteligencia artificial como un “Conjunto de técnicas informáticas, sistema de programación, sistema computacional, máquinas físicas o procesos tecnológicos que permiten desarrollar algoritmos, toma decisiones y crear programas informáticos para ejecutar objetivos definidos por humanos, hacer predicciones, recomendaciones, tomar decisiones crear nuevo conocimiento y/o completar tareas cognitivas y científico-técnicas a partir de la extracción, selección, recorte y organización de la información disponible o cualquier tarea que requiera inteligencia como el razonamiento o el aprendizaje”. A partir de allí, se pretende generar un marco normativo basado en los siguientes deberes:

* Prohibir las tecnologías que violan derechos fundamentales, como la vigilancia masiva biométrica o los sistemas de policía predictiva, sin que se incluyan excepciones que permitan que las empresas o a las autoridades públicas las empleen “bajo ciertas condiciones”.

* Establecer la información que las empresas tienen que hacer pública acerca de sus productos, como los datos que utiliza, el proceso de desarrollo, la finalidad del sistema y dónde y quién lo utiliza.

* Establecer un marco para que las personas puedan determinar responsabilidades en cabeza de las entidades públicas y privadas en caso de que se presenten problemas, comoquiera que las decisiones son tomadas por un algoritmo y no por el usuario.

* Garantizar la existencia de una autoridad de vigilancia y control, con autonomía presupuestal y administrativa, que verifique el cumplimiento de las normas por parte de las entidades públicas y privadas.

* Establecer un sistema que permita que las personas que se han visto perjudicadas por sistemas de inteligencia artificial puedan ejercer su derecho de defensa para garantizar sus derechos.

Considerando que Colombia suscribió la recomendación para la implementación de la Inteligencia Artificial del Consejo de Inteligencia Artificial (16) y adoptó la recomendación sobre la ética de la IA de la Unesco (17), se tiene que los principios establecidos por tales instrumentos fueron incorporados en el articulado con el fin de materializarlos en virtud de la normatividad que se pretende integrar al ordenamiento jurídico colombiano por medio de esta iniciativa; lo anterior, es concordante con lo planteado por el parlamento europeo que ha sugerido que la legislación digital debe basarse en principios y con un enfoque basado en el riesgo y en el respeto de los derechos fundamentales.

La regulación de la inteligencia artificial que se planeta está basada en colocar al ser humano en el centro y a los derechos fundamentales como límite material y formal al desarrollo, uso e implementación de estos sistemas, de manera que el desarrollo tecnológico permita a las entidades públicas ser más eficientes y a las privadas más competitivas, en un marco seguro y sujeto a consideraciones éticas y humanas, y sin que represente cargas administrativas innecesarias para las pymes y las empresas emergentes, pues procura la adaptación, aplicación y ejecución de la legislación vigente sobre protección de datos personales.

El proyecto está dividido en cinco títulos y contiene 24 artículos además de la vigencia, los cuales se describen a continuación:

El Título I hace referencia al objeto, ámbito de aplicación, definiciones y principios rectores del Proyecto de Ley Estatutaria por medio de la cual se define y regula la Inteligencia Artificial, se establecen límites frente a su desarrollo, uso e implementación y se dictan otras disposiciones.

Determinar el objeto y el ámbito de aplicación tiene como finalidad definir el propósito concreto de la regulación para que quede plenamente identificado el carácter no absoluto de esta y los eventos en los cuales se considera el desarrollo, uso e implementación de la IA. Así mismo, se incluye un artículo de definiciones que permite entender las prescripciones establecidas en el proyecto de ley, y otro artículo que contiene los principios que irradian la normatividad y sirvieron de fundamento para su construcción.

El Título II contiene las denominadas CONDICIONES PARA EL DESARROLLO, USO E IMPLEMENTACIÓN DE LA INTELIGENCIA ARTIFICIAL y hace referencia a los límites concretos a partir de los cuales se pueden desarrollar, usar e implementar los sistemas de inteligencia artificial. En ese sentido, establece los riesgos que comporta el uso e implementación de la IA y desarrolla requisitos y exigencias que condicionan la existencia de estos sistemas computacionales; igualmente, se establecen de manera no taxativa una serie de actividades proscritas del uso e implementación de la IA.

El Título III denominado INSPECCIÓN, CONTROL Y VIGILANCIA EN MATERIA DE INTELIGENCIA ARTIFICIAL define la autoridad encargada de garantizar el respeto de los principios y derechos humanos que puedan verse afectados con ocasión del desarrollo, uso e implementación de los sistemas de inteligencia artificial.

Igualmente se establecen herramientas que le permiten ejercer a la autoridad la inspección, control y vigilancia de manera eficiente, así como también, se prevé lo concerniente al procedimiento y sanciones frente a la transgresión de la ley.

El Título IV contiene MEDIDAS PARA EL APOYO Y PROMOCIÓN DE LA INTELIGENCIA ARTIFICIAL al establecer responsabilidades a cargo del gobierno nacional para la

difusión de la información relacionada con el desarrollo, uso e implementación de la inteligencia artificial, así como sus implicaciones y riesgos.

El Título IV denominado OTRAS DISPOSICIONES contiene un régimen de transición para que las entidades públicas y privadas puedan adecuarse a las disposiciones contenidas en la ley, y el gobierno nacional pueda expedir las reglamentación correspondiente y necesaria para garantizar la aplicación de la normatividad.

4. TRÁMITE

El artículo 207 de la Ley 5° de 1992 determina las materias que se tramitan como proyectos de ley estatutaria, a saber:

1. Derechos y deberes fundamentales de las personas y los procedimientos y recursos para su protección.

2. Administración de justicia. 3. Organización y régimen de los partidos y movimientos políticos.

4. Estatuto de la oposición y funciones electorales, reglamentando la participación de las minorías (art. 112 inc. 3 constitucional).

5. Instituciones y mecanismos de participación ciudadana.

6. Estados de excepción, regulando las facultades que de ellos se originan (art. 214 ord. 2 constitucional).

En ese orden de ideas y considerando que la materia objeto del proyecto involucra tratamiento de datos personales y derechos fundamentales, este se debe tramitar de acuerdo a las reglas de una Ley Estatutaria.

Por las consideraciones anteriormente expuestas, se presenta a consideración del Honorable Congreso de la República el proyecto de ley estatutaria por medio de la cual se define y regula la Inteligencia Artificial, se establecen límites frente a su desarrollo, uso e implementación y se dictan otras disposiciones, con el fin de adoptar las decisiones legislativas y políticas que garanticen el desarrollo, uso e implementación de la Inteligencia Artificial en Colombia, dentro de un marco seguro y respetuoso para los derechos fundamentales.

5. CONFLICTO DE INTERESES

De acuerdo con el artículo 291 de la Ley 5a de 1992 -Reglamento Interno del Congreso- modificado por el artículo 3° de la Ley 2003 de 2019, establece que: “el autor del proyecto y el ponente presentarán en el cuerpo de la exposición de motivos un acápite que describa las circunstancias o eventos que podrían generar un conflicto de interés para la discusión y votación del proyecto, de acuerdo con el artículo 286. Estos serán criterios guías para que los otros congresistas tomen una decisión en torno a si se encuentran en una causal de impedimento, no obstante, otras causales que el Congresista pueda encontrar”.

De igual manera, el artículo 286 de la norma en comento, modificado por el artículo 1° de la Ley 2003 de 2019, define el conflicto de interés como la “situación donde la discusión o votación de un proyecto de ley o acto legislativo o artículo, pueda resultar en un beneficio particular, actual y directo a favor del congresista”.

Con base en lo anterior y, de acuerdo al carácter abstracto e impersonal de la norma, tenemos que en esta iniciativa legislativa no se evidencia que los congresistas puedan incurrir en posibles conflictos de interés, toda vez que tampoco puede predicarse un beneficio particular, actual y directo que les impida participar de la discusión y votación de este proyecto. Lo anterior, sin perjuicio del deber de los congresistas de examinar, en cada caso en concreto, la existencia de posibles hechos generadores de conflictos de interés, en cuyo evento deberán declararlos de conformidad con lo dispuesto en el inciso 1° del artículo 286 ibídem:

“Todos los congresistas deberán declarar los conflictos de intereses que pudieran surgir en ejercicio de sus funciones”.

6. IMPACTO FISCAL

Sobre el impacto fiscal de los proyectos de ley, indica la Ley 819 de 2003 “Por la cual se dictan normas orgánicas en materia de presupuesto, responsabilidad y transparencia fiscal y se dictan otras disposiciones”, en su artículo séptimo señala que “el impacto fiscal de cualquier proyecto de ley, ordenanza o acuerdo, que ordene gasto o que otorgue beneficios tributarios, deberá hacerse explícito y deberá ser compatible con el Marco Fiscal de Mediano Plazo. Para estos propósitos, deberá incluirse expresamente en la exposición de motivos y en las ponencias de trámite respectivas los costos fiscales de la iniciativa y la fuente de ingreso adicional generada para el financiamiento de dicho costo”, por lo que, en cumplimiento de dicho requisito, en este apartado se explica los motivos por los que la iniciativa no cuenta con ningún tipo de impacto fiscal.

Sobre el valor de los costos, se aclara que con este proyecto de ley no se está incurriendo en gastos adicionales para el Estado, toda vez que impone obligaciones a las entidades existentes, pero ninguna de ellas implica la creación de nuevas dependencias ni la imposición de gastos adicionales. Adicionalmente, refiere unos valores y principios que deben observar las entidades públicas y privadas para el desarrollo de inteligencias artificiales, pero no les impone tarifas contractuales ni requisitos económicos adicionales para su uso y desarrollo. Por otro lado, la Corte Constitucional en las sentencias C-502 de 2007 y C-490 de 2011 sentencias en las que el alto tribunal ha señalado que el impacto fiscal no puede ser, en ningún caso, un obstáculo insuperable para el desarrollo de las propuestas legislativas, ni es necesariamente un requisito de trámite para la aprobación de los proyectos, así como tampoco puede constituirse en una barrera para ejercer las funciones legislativas de los congresistas.

7. PLIEGO DE MODIFICACIONES

VERSIÓN RADICADAPONENCIA PARA PRIMER DEBATE
ARTÍCULO 1. OBJETO.  La presente ley tiene por objeto definir y regular la inteligencia artificial ajustándola a estándares de respeto y garantía de los derechos humanos, así como regular y promover su desarrollo y establecer límites frente a su uso, implementación y evaluación por parte de personas naturales y jurídicas.ARTÍCULO 1. OBJETO.  La presente ley tiene por objeto definir y regular la inteligencia artificial ajustándola a estándares de respeto y garantía de los derechos humanos, así como para regular y promover su desarrollo y establecer límites frente a su uso, implementación y evaluación por parte de personas naturales y jurídicas.
Justificación: Se ajusta la redacción del artículo 
ARTÍCULO 2. ÁMBITO DE APLICACIÓN. Las disposiciones de esta ley son aplicables a la inteligencia artificial de las personas naturales o jurídicas, proveedores nacionales y extranjeros, salvo regulación especial. Los principios y disposiciones contenidos en la presente ley serán aplicables a: a. Los Productores que desarrollen inteligencia artificial y/u ofrezcan la inteligencia artificial en territorio colombiano o fuera del territorio colombiano, sí el funcionamiento de la inteligencia artificial produce efectos en el territorio colombiano. b. Los proveedores que ofrezcan y presten el servicio de instalación y funcionamiento inteligencia artificial fuera del territorio colombiano, sí la instalación y funcionamiento de inteligencia artificial produce efectos en el territorio colombiano.ARTÍCULO 2. ÁMBITO DE APLICACIÓN. Las disposiciones de esta ley son aplicables al diseño, innovación, aplicación, uso y desarrollo de la inteligencia artificial por parte de personas naturales o jurídicas, así como a los a la inteligencia artificial de las personas naturales o jurídicas, proveedores, productores o demás agentes que participen en el desarrollo de la inteligencia artificial nacionales y extranjeros, salvo regulación especial, de la inteligencia artificial por parte de personas naturales o jurídicas., salvo en los casos donde resulte aplicable una regulación especial. Los principios y disposiciones contenidos en la presente ley serán aplicables a: a. Los Productores que desarrollen inteligencia artificial y/u ofrezcan o comercialicen la inteligencia artificial en territorio colombiano o fuera del territorio colombiano, sí el funcionamiento de la inteligencia  
c. Los usuarios de la inteligencia artificial ubicados en el territorio colombiano. Esta regulación no aplicará a la inteligencia artificial que: a. Se desarrolla en el marco de actividades de carácter educativo o académico o científico en instituciones educativas de educación básica primaria y básica secundaria e instituciones de educación superior ubicadas en el territorio colombiano, siempre que la inteligencia artificial no se instalada y entre en funcionamiento de manera permanente en la misma institución, actividades de terceros o por fuera del ámbito educativo o científico. En todo caso, cualquier institución educativa que pretenda desarrollar proyectos temporales de inteligencia artificial deberá conformar un comité de ética que conocerá de estos proyectos, exigirá planes de manejo del riesgo ético y los hará cumplir dentro de los lineamientos establecidos en la Ley 10 de 1990, o aquella que haga sus veces, y en las normas de origen legal y administrativo establecidas para regular la investigación con seres vivos. b. Sea empleada por usuarios persona natural no comerciante en el marco de actividades de índole personal y no profesionales o que afecten a terceros.artificial produce efectos en el territorio colombiano. b. Los proveedores que ofrezcan y presten el servicio de instalación y funcionamiento inteligencia artificial fuera del territorio colombiano, sí la instalación y funcionamiento de inteligencia artificial produce efectos en el territorio colombiano. c. Los usuarios de la inteligencia artificial ubicados en el territorio colombiano. Esta regulación La regulación contenida en esta Ley Estatutaria no aplicará a la inteligencia artificial que: a. Se desarrolla en el marco de actividades de carácter educativo o académico o científico en instituciones educativas de educación básica primaria y básica secundaria e instituciones de educación superior ubicadas en el territorio colombiano, siempre que la inteligencia artificial no se instalada y entre en funcionamiento de manera permanente en la misma institución, actividades de terceros o por fuera del ámbito educativo o científico. En todo caso, cualquier institución educativa que pretenda desarrollar proyectos temporales de inteligencia artificial deberá conformar un comité de ética que conocerá de estos proyectos, exigirá planes de manejo del riesgo ético y los hará cumplir dentro de los lineamientos establecidos en la Ley 10 de 1990, o aquella que haga sus veces, y en las normas de origen legal y administrativo
Justificación: Se ajusta la redacción del primer inciso del artículo para que sea más claro el ámbito de aplicación de la ley y se adiciona una disposición especial para el desarrollo de proyectos de inteligencia artificial por parte de instituciones educativas. Además, se realizan ajustes de forma. 
ARTÍCULO 3. DEFINICIONES. Para efectos de la aplicación e interpretación de la presente ley se establecen las siguientes definiciones: Dato personal: Cualquier información asociada a una o varias personas naturales determinadas o determinables que permita desarrollar algoritmos y crear programas informáticos. Productor de inteligencia artificial: Persona natural o jurídica nacional o extranjera, pública o privada, que diseña, produzca, implementa y desarrolla la inteligencia artificial en el mercado o para actividades concretas de un usuario. Proveedor de inteligencia artificial: Persona natural o jurídica nacional o extranjera, pública o privada, que ofrezca, suministre, distribuya, comercialice o instale la inteligencia artificial en el mercado o para actividades concretas de un usuario. Usuario de inteligencia artificial: Persona natural o jurídica, pública o privada, queARTÍCULO 3. DEFINICIONES. Para efectos de la aplicación e interpretación de la presente ley se establecen las siguientes definiciones: Dato personal: Cualquier información vinculada o que pueda asociarse asociada a una o varias personas naturales determinadas o determinables que permita desarrollar algoritmos y crear programas informáticos. Productor de inteligencia artificial: Persona natural o jurídica nacional o extranjera, pública o privada, que diseña, produce produzca, implementa y desarrolla la inteligencia artificial en el mercado o para actividades concretas de un usuario. Proveedor de inteligencia artificial: Persona natural o jurídica nacional o extranjera, pública o privada, que ofrezca, suministre, distribuya, comercialice o instale la inteligencia artificial en el mercado o para actividades concretas de un usuario.
emplea la inteligencia artificial en el marco de sus funciones legales, actividades comerciales y empresariales. Inteligencia Artificial: Conjunto de técnicas informáticas, sistema de programación, sistema computacional, máquinas físicas o procesos tecnológicos que permiten desarrollar algoritmos, toma decisiones y crear programas informáticos para ejecutar objetivos definidos por humanos, hacer predicciones, recomendaciones, tomar decisiones crear nuevo conocimiento y/o completar tareas cognitivas y científico-técnicas a partir de la extracción, selección, recorte y  organización de la información disponible o cualquier tarea que requiera inteligencia como el razonamiento o el aprendizaje. Encargado del tratamiento: Persona natural o jurídica, pública o privada, que por sí misma o en asocio con otros, realice el Tratamiento de datos personales por cuenta del Responsable del Tratamiento, para el desarrollo, uso o implementación de sistemas de inteligencia artificial. Responsable del tratamiento: Persona natural o jurídica, pública o privada, que por sí misma o en asocio con otros, decida sobre la base de datos y/o el tratamiento de los datos destinados al desarrollo, uso o implementación de sistemas de inteligencia artificial. PARÁGRAFO. Los elementos técnicos y su aplicación de la definición de la Inteligencia Artificial dispuesta en el presente artículo se sujetarán a la reglamentación que expida el Ministerio de Tecnológicas de la Información y Comunicaciones de Colombia, garantizando la participación ciudadana.  Usuario de inteligencia artificial: Persona natural o jurídica, pública o privada, que emplea la inteligencia artificial en el marco de sus funciones legales, actividades comerciales y empresariales. Inteligencia Artificial: Conjunto de técnicas informáticas, sistema de programación, sistema computacional, máquinas físicas o procesos tecnológicos que permiten desarrollar algoritmos, toma decisiones y crear programas informáticos para ejecutar objetivos definidos por humanos, hacer predicciones, recomendaciones, tomar decisiones crear nuevo conocimiento y/o completar tareas cognitivas y científico-técnicas a partir de la extracción, selección, recorte y organización de la información disponible o cualquier tarea que requiera inteligencia como el razonamiento o el aprendizaje. Encargado del tratamiento: Persona natural o jurídica, pública o privada, que por sí misma o en asocio con otros, realice el Tratamiento de datos personales por cuenta del Responsable del Tratamiento., para el desarrollo, uso o implementación de sistemas de inteligencia artificial. Responsable del tratamiento: Persona natural o jurídica, pública o privada, que por sí misma o en asocio con otros, decida sobre la base de datos y/o el tratamiento de los datos personales. destinados al desarrollo, uso o implementación de sistemas de inteligencia artificial. PARÁGRAFO. Los elementos técnicos y su aplicación de la definición de la Inteligencia Artificial dispuesta en el presente artículo se sujetarán a la reglamentación que expida el Ministerio de Tecnologías Tecnológicas de la Información y Comunicaciones de Colombia, garantizando de esta manera la participación ciudadana y su actualización periódica.
Justificación: Se ajustan las definiciones de dato personal, productor de inteligencia artificial, encargado del tratamiento, y responsable del tratamiento, teniendo en cuenta las sugerencias recibidas en la audiencia pública. Además, se ajusta el parágrafo para enfatizar la importancia de la actualización. 
ARTÍCULO 4. PRINCIPIOS. El desarrollo, interpretación y aplicación de la presente ley se realizará con arreglo a los siguientes principios: Principio de respeto: El desarrollo y el uso de la inteligencia artificial estará limitado por la preservación irrestricta de la dignidad humana y los derechos fundamentales. Principio de bienestar integral: El desarrollo y aplicación de la inteligencia artificial estará orientado al mejoramiento de la calidad de vida de las personas, reconociendo sus riesgos y potenciales impactos negativos. Principio de responsabilidad: Las personas que se vean perjudicadas con ocasión de los impactos negativos o vulneración generada del desarrollo de la inteligencia artificial, tendrán garantizado el derecho a reclamar indemnización o reparación a la que haya lugar ante las entidades públicas o privadas responsables. Principio de supervisión y prevalencia de la inteligencia humana: Se preferirá laARTÍCULO 4. PRINCIPIOS. El desarrollo, interpretación y aplicación de la presente ley se realizará con arreglo a los siguientes principios: Principio de Respeto: El desarrollo y el uso de la inteligencia artificial estará limitado por la preservación irrestricta de la dignidad humana y los derechos fundamentales. Principio de Bienestar Integral: El desarrollo y aplicación de la inteligencia artificial estará orientado al  mejoramiento de la calidad de vida de las personas, reconociendo sus riesgos y potenciales impactos negativos. Principio de Responsabilidad: Las personas que se vean perjudicadas con ocasión de los impactos negativos o vulneración generada del desarrollo de la inteligencia artificial, tendrán garantizado el derecho a reclamar indemnización o reparación a la que haya lugar ante las entidades públicas o privadas responsables. Principio de Supervisión y Prevalencia de la Inteligencia
decisión humana respecto de los resultados derivados de la Inteligencia Artificial. Toda decisión tomada por las inteligencias artificiales será susceptible de revisión humana y será responsabilidad ética y legal de personas naturales y jurídicas. Principio de privacidad y confidencialidad: El uso e implementación de la inteligencia artificial propenderá por la no intrusión y perturbación de los asuntos privados de las personas. Principio de seguridad y protección: La información que permita desarrollar algoritmos y crear programas informáticos deberá gozar de confidencialidad e integridad. Principio de desarrollo sostenible: El uso e implementación de la inteligencia artificial estará orientado a potenciar el desarrollo de la tecnología con consideraciones sociales y medioambientales. Principio de inclusión: La información que permita el uso e implementación de la inteligencia artificial no debe discriminar a ningún grupo, ni ser utilizada en perjuicio de este, y el desarrollo de la inteligencia artificial se realizará con perspectiva de género y diversidad sexual. Principio de proporcionalidad o inocuidad: El desarrollo de inteligencias artificiales estará justificado a través de evidencia científica robusta que garantice la conveniencia de su desarrollo y aplicación en beneficio de las personas, la humanidad y el ambiente. Quedarán prohibidos los desarrollos de Inteligencias artificiales que atenten contra los Derechos Humanos.Humana: Se preferirá la decisión humana respecto de los resultados derivados de la Inteligencia Artificial. Toda decisión tomada por con base en los resultados de sistemas de inteligencia artificial las inteligencias artificiales será susceptible de revisión humana y. La responsabilidad ética y legal de estas decisiones recaerá sobre las personas naturales o jurídicas involucradas en su uso. será responsabilidad ética y legal de personas naturales y jurídicas. Principio de Privacidad y  Confidencialidad: El uso e implementación de la inteligencia artificial propenderá por la no intrusión y perturbación de los asuntos privados de las personas. Principio de Seguridad y Protección: La información que permita desarrollar algoritmos y crear programas informáticos deberá gozar de confidencialidad e integridad. Principio de Desarrollo Sostenible: El uso e implementación de la inteligencia artificial estará orientado a potenciar el desarrollo de la tecnología con consideraciones sociales y medioambientales. Principio de Inclusión: La información que permita el uso e implementación de la inteligencia artificial no debe discriminar a ningún grupo, ni ser utilizada en perjuicio de éste, y el desarrollo de la inteligencia artificial se realizará con perspectiva de género y diversidad sexual. Principio de Proporcionalidad o Inocuidad: El desarrollo de inteligencias artificiales estará justificado a través de evidencia científica robusta que garantice
Principio de transparencia y explicabilidad: Los desarrollos, resultados y subprocesos de las Inteligencias artificiales serán inteligibles, trazables, explicables y comprensibles. La ciudadanía deberá conocer el propósito y alcance de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas, para saber los motivos por los que la Inteligencia Artificial llega a una u otra conclusión o decisión. Principio de responsabilidad y rendición de cuentas: Los creadores de inteligencias artificiales e intermediarios deben asumir las consecuencias éticas y jurídicas por las tecnologías que diseñen e  implementen de conformidad con el ordenamiento jurídico vigente. El sector público tendrá la obligación de rendir cuentas y crear mecanismos de supervisión a lo largo de todas las etapas que sean auditables y trazables. Principio de Neutralidad Tecnológica: Garantizar la libre adopción de tecnologías que permitan fomentar la eficiente prestación de servicios, el desarrollo de la inteligencia artificial y el empleo de contenidos y aplicaciones que usen Tecnologías de la Información y las Comunicaciones, así como garantizar la libre y leal competencia, y que su adopción sea armónica con el desarrollo ambiental sostenible. Principio de confidencialidad: Todas las personas que intervengan en los procesos de inteligencia artificial están obligadas a garantizar la reserva de la información privada que tengan, pudiendo sólo realizar suministro comunicación de datos personales cuando ello corresponda al desarrollo de las actividades autorizadas en la ley 1581 de 2012.la conveniencia de su desarrollo y aplicación en beneficio de las personas, la humanidad y el medio ambiente. Quedarán prohibidos los desarrollos de Inteligencias artificiales que atenten contra los Derechos Humanos. Principio de Transparencia y Explicabilidad: Los desarrollos, resultados y subprocesos de las Inteligencias artificiales serán inteligibles, trazables, explicables y comprensibles. La ciudadanía deberá conocer el propósito y alcance de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas, para saber los motivos por los que la Inteligencia Artificial llega a una u otra conclusión o decisión. Principio de Responsabilidad y Rendición de Cuentas: Los creadores de inteligencias artificiales e intermediarios deben asumir las consecuencias éticas y jurídicas por las tecnologías que diseñen e implementen de conformidad con el ordenamiento jurídico vigente. El sector público tendrá la obligación de rendir cuentas y crear mecanismos de supervisión a lo largo de todas las etapas que sean auditables y trazables. Principio de Neutralidad Tecnológica: Garantizar la libre adopción de tecnologías que permitan fomentar la eficiente prestación de servicios, el desarrollo de la inteligencia artificial y el empleo de contenidos y aplicaciones que usen Tecnologías de la Información y las Comunicaciones, así como garantizar la libre y leal competencia, y que su adopción sea armónica con el desarrollo ambiental sostenible. Principio de Confidencialidad: Todas las personas que intervengan en los procesos de inteligencia artificial están obligadas a garantizar la reserva de la información privada que tengan, pudiendo sólo realizar suministro comunicación de datos personales cuando ello corresponda al desarrollo de las actividades autorizadas en la ley 1581 de 2012.
PARÁGRAFO. Se entenderán igualmente como principios los establecidos en las leyes estatutarias 1266 de 2008 y 1581 de 2012.PARÁGRAFO. Se entenderán igualmente como principios los establecidos en las leyes estatutarias 1266 de 2008 y 1581 de 2012.
Justificación: Se realizan ajustes de forma al principios y se ajusta la redacción del Principio de Supervisión y Prevalencia de la Inteligencia Humana 
ARTICULO 5: VALORES. El desarrollo, interpretación y aplicación de la presente ley se realizará con arreglo de los siguientes valores: Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana: Los creadores e implementadores de inteligencias artificiales serán responsables de que el desarrollo tecnológico garantice el respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana. Ninguna persona o comunidad podrá sufrir daños o sometimiento como consecuencia del desarrollo y uso la inteligencia artificial. Construcción de una sociedad pacífica y justa: Los creadores e implementadores de inteligencias artificiales velarán porque el desarrollo tecnológico no afecte la paz y justicia en la sociedad. Las inteligencias artificiales no podrán dividir y enfrentar entre si a las personas ni promover la violencia.ARTÍCULO 5: VALORES. El desarrollo, interpretación y aplicación de la presente ley se realizará con arreglo de los siguientes valores: Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana: Los creadores e implementadores de inteligencias artificiales serán responsables de que el desarrollo tecnológico garantice el respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana. Ninguna persona o comunidad podrá sufrir daños o sometimiento como consecuencia del desarrollo y uso de la inteligencia artificial. Construcción de una sociedad pacífica y justa: Los creadores e implementadores de inteligencias artificiales velarán porque el desarrollo tecnológico no afecte la paz y justicia en la sociedad. Las inteligencias artificiales no podrán dividir y enfrentar
Diversidad e inclusión: Los creadores e implementadores de las inteligencias artificiales garantizarán el respeto,  ́protección y promoción de la diversidad e inclusión activa de todos los grupos y personas con independencia de su raza, color, ascendencia, genero edad, idioma, religión, opiniones políticas, origen regional, étnico o social, condición económica, discapacidad o cualquier otro motivo, respetando especialmente la diversidad en las elecciones de estilos de vida, creencias, opiniones o expresiones individuales. Prosperidad del medio ambiente y los ecosistemas: Los creadores e implementadores de las inteligencias artificiales impedirán que las tecnologías afecten los ecosistemas, los seres vivos y el ambiente en el marco de la constitución y la ley. Propenderán por reducir la huella de carbono, minimizar el cambio climático, los factores de riesgo ambiental y prevenir la explotación, utilización y transformación no sostenible de recursos naturales.  entre si a las personas ni promover la violencia. Diversidad e inclusión: Los creadores e implementadores de las inteligencias artificiales garantizarán el respeto,  ́protección y promoción de la diversidad e inclusión activa de todos los grupos y personas con independencia de su raza, color, ascendencia, genero género, edad, idioma, religión, opiniones políticas, origen regional, étnico o social, condición económica, discapacidad o cualquier otro motivo, respetando especialmente la diversidad en las elecciones de estilos de vida, creencias, opiniones o expresiones individuales. Prosperidad del medio ambiente y los ecosistemas: Los creadores e implementadores de las inteligencias artificiales impedirán que las tecnologías afecten los ecosistemas, los seres vivos y el ambiente en el marco de la constitución y la ley. Propenderán por reducir la huella de carbono, minimizar el cambio climático, los factores de riesgo ambiental y prevenir la explotación, utilización y transformación no sostenible de recursos naturales.
Justificación: Se realizan ajustes de redacción. 
ARTÍCULO 6. CLASIFICACIÓN DEL RIESGO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL. Los sistemas o programas informáticos que usen e implementen la inteligencia artificial serán identificados según el riesgo por los  ARTÍCULO 6. CLASIFICACIÓN DEL RIESGO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL. Los sistemas o programas informáticos que usen e implementen la inteligencia artificial serán identificados según el
productores y proveedores de la siguiente manera: Riesgo inaceptable: Constituye riesgo inaceptable aquel que genera afectación a la seguridad, la subsistencia y los derechos humanos y fundamentales, y por tanto está proscrito. Alto riesgo: Constituye alto riesgo aquel que, no siendo inaceptable, corresponde a actividades susceptibles de automatización admisibles bajo el mantenimiento de la calidad de los datos y facilidad de supervisión humana pero que eventualmente puede limitar algunos derechos humanos y fundamentales. Riesgo limitado: Constituye riesgo limitado aquel que se deriva del uso e implementación de chatbots o robots conversacionales. Riesgo nulo: Constituye riesgo nulo aquel derivado del uso e implementación de sistemas que no afectan los derechos y la seguridad de los usuarios. PARÁGRAFO 1. La clasificación de riesgos genera obligaciones diferenciadas para los proveedores y usuarios, según lo contemplado en la ley. PARÁGRAFO 2. Dentro del Reglamento que se expida se deberán identificar los sistemas o programas de inteligencia artificial que se consideren de riesgo inaceptableriesgo por los productores y proveedores de la siguiente manera: Riesgo inaceptable: Constituye riesgo inaceptable aquel que genera afectación a la seguridad, la subsistencia y los derechos humanos y fundamentales, y por tanto está proscrito. Alto riesgo: Constituye alto riesgo aquel que, no siendo inaceptable, corresponde a actividades susceptibles de automatización admisibles bajo el mantenimiento de la calidad de los datos y facilidad de supervisión humana pero que eventualmente puede limitar algunos derechos humanos y fundamentales. Riesgo limitado: Constituye riesgo limitado aquel que se deriva del uso e implementación de chatbots o robots conversacionales. Riesgo nulo: Constituye riesgo nulo aquel derivado del uso e implementación de sistemas que no afectan los derechos y la seguridad de los usuarios. PARÁGRAFO 1. La clasificación de riesgos genera obligaciones diferenciadas para los proveedores y usuarios, según lo contemplado en la ley. PARÁGRAFO 2. Dentro del Reglamento que se expida se deberán identificar los sistemas o programas de inteligencia artificial que se consideren de riesgo inaceptable , alto riesgo, riesgo limitado y riesgo nulo. El reglamento deberá contar con actualización periódica de los sistemas o programas teniendo en cuenta los avances de este tipo de tecnologías y también el tipo de industria o sector que provea o use estos sistemas.
Justificación: Se adicionan criterios a tener en cuenta en la reglamentación, frente a la solicitud realizada por semillero de la Universidad de los Andes, de Asociación Latinoamericana de Internet (ALAI) y La Cámara Colombiana de Informática y Telecomunicaciones, en el marco de la Audiencia Pública. 
ARTÍCULO 7. USO DE LA INTELIGENCIA ARTIFICIAL. Las personas naturales o jurídicas podrán usar e implementar inteligencia artificial que facilite la eficacia y eficiencia de gestión, siempre que dé cumplimiento a los principios señalados en esta ley y las obligaciones asignadas al nivel de riesgo de la inteligencia artificial que empleen en el marco de sus actividades PARÁGRAFO. Cualquier organización, tanto pública como privada, tendrá la facultad de ajustar sus reglamentos internos para determinar, cómo y hasta qué punto se utilizará la inteligencia artificial. Esta adaptación deberá realizarse respetando los derechos de autor y propiedad intelectual.ARTÍCULO 7. USO DE LA INTELIGENCIA ARTIFICIAL. Las personas naturales o jurídicas podrán usar e implementar inteligencia artificial que facilite la eficacia y eficiencia de gestión, siempre que dé cumplimiento a los principios señalados en esta ley y las obligaciones asignadas al nivel de riesgo de la inteligencia artificial que empleen en el marco de sus actividades PARÁGRAFO. Cualquier organización, tanto pública como privada, tendrá la facultad de ajustar sus reglamentos internos para determinar, cómo y hasta qué punto se utilizará la inteligencia artificial. Esta adaptación deberá realizarse respetando los derechos de autor y propiedad intelectual.
Justificación: Se realiza un ajuste de redacción en el parágrafo. 
ARTÍCULO 8. AFECTACIONES DERIVADAS DE LA INTELIGENCIA ARTIFICIAL. Las personas que resulten afectadas en sus derechos fundamentales con ocasión del uso e implementación de sistemas de inteligencia artificial podrán solicitar la revisión por parte de la autoridad competente, presentar reclamaciones y solicitudes de revocatoria ante la  autoridad competente y solicitar medidas cautelares así como para prevenir mayores afectaciones.Sin ajustes
ARTÍCULO 9. TRANSPARENCIA EN EL USO DE LA INTELIGENCIA ARTIFICIAL. Los productores y proveedores que desarrollen, ofrezcan y pongan en funcionamiento y los usuarios que empleen sistemas de inteligencia artificial de riesgo alto y limitado deberán publicar una evaluación sobre los riesgos y el impacto que pudieran llegar a sufrir los derechos humanos y fundamentales, antes de desplegar dichos sistemas. De impacto en la privacidad, que debe incluir por lo menos los siguientes criterios: a. Una descripción detallada de las operaciones de tratamiento de datos personales que involucre el desarrollo de la inteligencia artificial. b. Una evaluación de los riesgos específicos para los derechos y libertades de los titulares de los datos personales. c. Las medidas previas para afrontar los riesgos. PARÁGRAFO 1. Las entidades que tengan la intención de emplear la inteligencia artificial deberán asegurar la realización de capacitaciones orientadas al uso adecuado y responsable de esa tecnología para del personal PARÁGRAFO 2. Dicha evaluación deberá ser presentada ante el Ministerio de las TICs entidad encargada de almacenar y hacerle seguimiento a las evaluaciones presentadasARTÍCULO 9. TRANSPARENCIA EN EL USO DE LA INTELIGENCIA ARTIFICIAL. Los productores y proveedores que desarrollen, ofrezcan y pongan en funcionamiento y los usuarios que empleen sistemas de inteligencia artificial de riesgo alto y limitado deberán publicar una evaluación sobre los riesgos y el impacto que pudieran llegar a sufrir los derechos humanos y fundamentales, antes de desplegar dichos sistemas. De impacto en la privacidad, que debe incluir por lo menos los siguientes criterios: d. Una descripción detallada de las operaciones de tratamiento de datos personales que involucre el desarrollo de la inteligencia artificial. e. Una evaluación de los riesgos específicos para los derechos y libertades de los titulares de los datos personales. f. Las medidas previas para afrontar los riesgos. PARÁGRAFO 1. Las entidades públicas y/o privadas que tengan la intención de emplear la inteligencia artificial deberán asegurar la realización de capacitaciones orientadas al uso adecuado y responsable de esa tecnología para del personal PARÁGRAFO 2. Dicha evaluación deberá ser presentada ante el Ministerio de las TICs entidad encargada de almacenar y hacerle seguimiento a las evaluaciones presentadas.
Justificación: Se ajusta el parágrafo 1 para que sea más claro. 
ARTÍCULO 10. CONSENTIMIENTO INFORMADO. En el uso de los sistemas de inteligencia artificial los usuarios deberán manifestar de manera libre y voluntaria su consentimiento para asumir los riesgos expresamente identificados y comunicados por los productores y proveedores que llegare a representar para sus derechos humanos y fundamentales y para el tratamiento de sus datos personales. PARÁGRAFO 1. Los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial que genera un riesgo alto, limitado o nulo deberán comunicar a los titulares de los datos que los mismos están interactuando con un sistema de IA y la manera correcta en que deben hacerlo, así como informar de manera clara los riesgos en los que incurren en caso de no darle un correcto uso a la herramienta. PARÁGRAFO 2. En todo caso, el consentimiento informado no será interpretado como una cláusula de indemnidad de la responsabilidad legal de los productores o proveedores de la inteligencia artificial. PARÁGRAFO 3. Los productores y proveedores deberán responder solidariamente por los vicios ocultos de la inteligencia artificial.ARTÍCULO 10. CONSENTIMIENTO INFORMADO. En el uso de los sistemas de inteligencia artificial los usuarios deberán manifestar de manera libre y voluntaria su consentimiento para asumir los riesgos expresamente identificados y comunicados por los productores y proveedores que llegare a representar para sus derechos humanos y fundamentales y para el tratamiento de sus datos personales. PARÁGRAFO 1. Los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial que genera un riesgo alto, limitado o nulo deberán comunicar a los titulares de los datos que los mismos están interactuando con un sistema de IA y la manera correcta en que deben hacerlo, así como informar de manera clara los riesgos en los que incurren en caso de no darle un correcto uso a la herramienta. PARÁGRAFO 2. En todo caso, el consentimiento informado no será interpretado como una cláusula de indemnidad de la responsabilidad legal de los productores o proveedores de la inteligencia artificial que eventualmente pueda ser declarada por parte de un juez. PARÁGRAFO 3. Los productores y proveedores deberán responder solidariamente por los vicios ocultos de la inteligencia artificial.
Justificación: Se modifica el parágrafo 2 del artículo para hacer claridad frente a la responsabilidad legal. 
ARTÍCULO 11. ALFABETIZACIÓN DIGITAL. El Ministerio de Educación Nacional formulará, dentro de los seis meses siguientes a la entrada en vigencia de la presente ley, políticas de alfabetización digital con énfasis en el uso responsable y ético de los sistemas y/o programas de inteligencia artificial. Estas políticas se implementarán para estudiantes de educación básica, media y superior, con el único fin de entregar insumos necesarios a los jóvenes para el uso de las inteligencias artificiales.ARTÍCULO 11. ALFABETIZACIÓN DIGITAL. El Ministerio de Educación Nacional en coordinación con el Ministerio de tecnologías de la información y las comunicaciones formularán, dentro de los seis (6) meses siguientes a la entrada en vigencia de la presente ley, políticas de alfabetización digital con énfasis en el uso responsable y ético de los sistemas y/o programas de inteligencia artificial. Estas políticas se implementarán para estudiantes de educación básica, media y superior, con el único fin de formar integralmente entregar insumos necesarios a los jóvenes en para el uso responsable y  productivo de sistemas de las inteligencias artificiales.  
Justificación: Teniendo en cuenta las competencia del Ministerio de Tecnologías de la información y las comunicaciones frente al uso de la Inteligencia Artificial en el país, se agrega como competente para apoyar al Ministerio de Educación Nacional en la estrategía de Alfabetización Digital en programas de IA. 
ARTÍCULO 12. GARANTÍA DE ESTABILIDAD LABORAL. Las empresas públicas o privadas que con ocasión del uso e implementación de los sistemas de inteligencia artificial supriman puestos de trabajo, deberán ubicar al trabajador desfavorecido en un puesto de trabajo de iguales o superiores condiciones por un término igual al del contrato laboral que se encuentre vigente al momento de la supresión del puesto de trabajo; una vez vencido, el empleador podrá gestionar la desvinculación del trabajador, conforme a la legislación laboral vigente. PARÁGRAFO. Para el sector público, en ningún caso se podrá desvincular a los trabajadores con derechos de carrera administrativa, los cuales deberán ser reubicados en cargos iguales o mejores condiciones.ARTÍCULO 12. GARANTÍA DE ESTABILIDAD SEGURIDAD LABORAL A MEDIANO Y LARGO PLAZO. Las empresas públicas o privadas que con ocasión del uso e implementación de los sistemas de inteligencia artificial supriman puestos de trabajo, deberán ubicar al trabajador desfavorecido en un puesto de trabajo de iguales o superiores condiciones por un término igual al del contrato laboral que se encuentre vigente al momento de la supresión del puesto de trabajo; una vez vencido, el empleador podrá gestionar la desvinculación del trabajador, conforme a la legislación laboral vigente. Las empresas públicas o privadas que tomen la decisión de suprimir puestos de trabajo con ocasión del uso e implementación de sistemas de inteligencia artificial tendrán la obligación de: Informar a los empleados afectados sobre la eventual supresión de su puesto de trabajo, con una antelación no inferior a seis (6) meses previos a la fecha en que se prevé la supresión de los puestos. Desarrollar planes de reconversión laboral y capacitación en nuevas formas de trabajo, al menos durante los seis (6) meses previos a la fecha en que se prevé la supresión de los puestos. Los trabajadores cuyo puesto de trabajo sea suprimido con ocasión del uso e implementación de sistemas de inteligencia artificial ingresarán a la ruta de empleabilidad de la Unidad del Servicio Público de Empleo. Parágrafo 1. El Ministerio del Trabajo integrará al mecanismo de protección al cesante, el seguro de desempleo por automatización y una forma de continuidad en la cotización de la seguridad social de los trabajadores afectados. Parágrafo 2. El empleador deberá solicitar autorización al Ministerio del Trabajo cuando se trate de despidos colectivos, de conformidad con la normatividad vigente. Parágrafo 3. En las empresas donde exista organización sindical, se socializará con estos de manera previa la implementación y el uso de sistemas de inteligencia artificial y la ruta para la protección del empleo y derechos laborales, permitiendo que presenten observaciones al respecto. Parágrafo 4. Para el sector público, en ningún caso se podrá desvincular a los trabajadores con derechos de carrera administrativa, los cuales deberán ser reubicados en cargos iguales o mejores condiciones.
Justificación: Se modifica la totalidad del artículo 12 de la iniciativa legislativa, con la finalidad de establecer de manera clara y detallada en una nueva redacción laboral por la implementación de los Sistemas de Inteligencia Artificial. 
ARTÍCULO 13. ACTIVIDADES EXCLUIDAS DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL. Serán excluidas del uso e implementación de los sistemas de inteligencia artificial conforme a la clasificación de los riesgos prevista en el artículo 5° de la presente ley, las siguientes actividades: 1. Manipulación del comportamiento 2. Explotación de la vulnerabilidad de grupos o personas 3. Calificación de perfiles para el otorgamiento de créditos 4. Predicción policiva de conductas delictivas a partir de la elaboración de perfiles, ubicación o comportamientos pasados 5. Manipulación de emociones 6. Extracción no dirigida de imágenes faciales de internet para la creación de bases de datos de reconocimiento facial 7. Vigilancia e identificación biométrica remota en tiempo real sin previa autorización judicial 8. Identificación biométrica para persecución de delitos graves sin autorización judicialARTÍCULO 13. ACTIVIDADES EXCLUIDAS DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL. Serán excluidas del uso e implementación de los sistemas de inteligencia artificial conforme a la clasificación de los riesgos prevista en el artículo 5° de la presente ley, las siguientes actividades: 1. Manipulación del comportamiento. 2. Explotación de la vulnerabilidad de grupos o personas. 3. Imposición de barreras de acceso o la exclusión de personas mediante la Ccalificación de perfiles para el otorgamiento de créditos. 4. Predicción policiva de conductas delictivas a partir de la elaboración de perfiles demográficos, étnicos o socioeconómicos, la ubicación o comportamientos pasados. 5. Manipulación de emociones, instintos y razones de decisión. 6. Extracción no dirigida de imágenes faciales de internet para la creación de bases de datos de reconocimiento facial. 7. Vigilancia e identificación biométrica remota en tiempo real sin previa autorización judicial.
9. Categorización biométrica basada en género, raza, etnia, etc. 10. Realización de puntuación social o reputacional para la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales 11. Influencia en votantes y resultados de procesos electorales 12. Definición de sentencias y decisiones judiciales. 13. Limitar la libertad de expresión 14. Cualquier otra actividad que suponga un daño significativo para la vida, la salud, la seguridad, los derechos humanos y fundamentales o el ambiente, así como dividir y enfrentar entre sí a las personas y los grupos y amenazar la coexistencia armoniosa entre los seres humanos8. Identificación biométrica para persecución de delitos graves sin autorización judicial. 9. Categorización biométrica basada en género, raza, etnia, etc. 10. Realización de puntuación social o reputacional para la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales. 11. Influencia en votantes y resultados de procesos electorales. 12. La Definición de sentencias y decisiones judiciales o la generación de análisis normativos que configuren un reemplazo del ejercicio de la función jurisdiccional en cabeza de los jueces. 13. Limitar la libertad de expresión. 14. El diseño, fabricación, producción y comercialización de armas y sistemas de armas con autonomía para realizar ataques o ejercer violencia sobre personas y bienes, sin una supervisión humana efectiva y eficiente. 154. Cualquier otra actividad que suponga un daño significativo para la vida, la salud, la seguridad, los derechos humanos y fundamentales o el ambiente, así como dividir y enfrentar entre sí a las personas y los grupos y amenazar la coexistencia armoniosa entre los seres humanos.
Justificación: Se realizan los ajustes teniendo en cuenta la solicitud de José Armando Ordóñez de la ICESI y la Universidad Pontificia Bolivariana en el marco de la Audiencia Pública. Además, se toman en cuenta las disposiciones de la sentencia T-323 de 2024 de la Corte Constitucional. 
ARTÍCULO 14. RESPONSABILIDAD LEGAL EN MATERIA DE INTELIGENCIA ARTIFICIAL. En el uso e implementación de los sistemas de inteligencia artificial la responsabilidad legal no radica en los algoritmos sino en las empresas públicas o privadas personales naturales o jurídicas que los desarrollan y la entidad pública o privada que las contrata, quienes ostentan la capacidad de contraer obligaciones. PARÁGRAFO 1. Los responsables legales en materia de inteligencia artificial deberán informar y advertir a las autoridades competentes sobre los potenciales riesgos peligros, deficiencias e incidentes graves presentados en el manejo y gestión de esta. PARÁGRAFO 2. El Ministerio de Tecnologías de la Información y las Comunicaciones en coordinación con la Superintendencia de Industria y Comercio establecerán un guía de responsabilidades y plan de gestión de riesgos en lo concerniente al manejo de Inteligencia Artificial, en un término no mayor a un (1) año a partir de la vigencia de la presente ley.  ARTÍCULO 14. RESPONSABILIDAD LEGAL EN MATERIA DE INTELIGENCIA ARTIFICIAL. En el uso e implementación de los sistemas de inteligencia artificial la responsabilidad legal no radica en los algoritmos sino en las empresas públicas o privadas que los desarrollan y la entidad pública o privada que las contrata, quienes ostentan la capacidad de contraer obligaciones. PARÁGRAFO 1. Los responsables legales en materia de inteligencia artificial deberán informar y advertir a las autoridades competentes sobre los potenciales peligros, deficiencias e incidentes graves presentados en el manejo y gestión de esta. PARÁGRAFO 2. El Ministerio de Tecnologías de la Información y las Comunicaciones en coordinación con la Superintendencia de Industria y Comercio establecerán un guía de responsabilidades y plan de gestión de riesgos en lo concerniente al manejo de Inteligencia Artificial, en un término no mayor a un (1) año a partir de la vigencia de la presente ley.
Justificación: Se realizan los ajustes al presente artículo teniendo en cuenta las sugerencias de la Universidad Pontificia Bolivariana y la Superintendencia de Industria y Comercio en el marco de la Audiencia Pública. 
ARTÍCULO 15. RESPONSABILIDAD SOCIO AMBIENTAL. En el uso e implementación de los sistemas de inteligencia artificial las empresas públicas o privadas que los desarrollan, propenderán por la lucha contra el cambio climático. PARÁGRAFO 1. Los responsables legales en materia de inteligencia artificial deberán informar y advertir a las autoridades competentes sobre los potenciales peligros, deficiencias e incidentes graves presentados en el manejo y gestión de esta. PARÁGRAFO 2. El Ministerio de Tecnologías de la Información y las Comunicaciones en coordinación con la Superintendencia de Industria y Comercio establecerán un guía de responsabilidades y plan de gestión de riesgos en lo concerniente al manejo de Inteligencia Artificial, en un término no mayor a un (1) año a partir de la vigencia de la presente ley.ARTÍCULO 15. RESPONSABILIDAD SOCIO AMBIENTAL. En el uso e implementación de los sistemas de inteligencia artificial las empresas públicas o privadas que los desarrollan, propenderán por la lucha contra el cambio climático. PARÁGRAFO 1. Los responsables legales en materia de inteligencia artificial deberán informar y advertir a las autoridades competentes sobre los potenciales peligros, deficiencias e incidentes graves presentados en el manejo y gestión de esta. PARÁGRAFO 2. El Ministerio de Tecnologías de la Información y las Comunicaciones en coordinación con el Ministerio de Ambiente y Desarrollo Sostenible la Superintendencia de Industria y Comercio establecerán un guía de responsabilidades y plan de gestión de riesgos en lo concerniente al manejo de Inteligencia Artificial, en un término no mayor a un (1) año a partir de la vigencia de la presente ley.
Justificación: Se realizan los ajustes al presente artículo teniendo en cuenta la sugerencia de la Superintendencia de Industria y Comercio en el marco de la Audiencia Pública. 
ARTÍCULO 16. Modifíquese el artículo 19 de la Ley 1581 de 2012, el cual quedará así: Artículo 19. autoridad de protección de datos. La Superintendencia de Industria y Comercio, a través de la Delegatura para la Protección de Datos Personales, ejercerá la vigilancia para garantizar que en el Tratamiento de datos personales y en el desarrollo, uso e implementación de los sistemas de inteligencia artificial, se respeten los principios, derechos, garantías y procedimientos previstos en la constitución y la presente ley. Parágrafo. El Gobierno Nacional en el plazo de seis (6) meses contados a partir de la fecha de entrada en vigencia de la presente ley modificará el Decreto 4886 de 2011 e incorporará dentro de las funciones de la Superintendencia de Industria y Comercio la inspección control y vigilancia en materia de desarrollo, uso e implementación de los sistemas de inteligencia artificial, así como la administración de la Plataforma de Certificación de Sistemas de Inteligencia Artificial.ARTÍCULO 16. Modifíquese el artículo 19 de la Ley 1581 de 2012, el cual quedará así: Artículo 19.Autoridad de protección de datos. La Superintendencia de Industria y Comercio, a través de la Delegatura para la Protección de Datos Personales, ejercerá la vigilancia para garantizar que en el Tratamiento de datos personales y en el desarrollo, uso e implementación de los sistemas de inteligencia artificial, se respeten los principios, derechos, garantías y procedimientos previstos en la constitución y la presente ley. Parágrafo. El Gobierno Nacional en el plazo de seis (6) meses contados a partir de la fecha de entrada en vigencia de la presente ley modificará el Decreto 4886 de 2011 e incorporará dentro de las funciones de la Superintendencia de Industria y Comercio la inspección control y vigilancia en materia de desarrollo, uso e implementación de los sistemas de inteligencia artificial., así como la administración de la Plataforma de Certificación de Sistemas de Inteligencia Artificial.
Justificación: Se ajustan las competencias de la Superintendencia de Industria y Comercio, teniendo en cuenta que la administración de dicha plataforma estará a cargo del Ministerio de Tecnologías de la Información y las Comunicaciones. 
ARTÍCULO 17. Modifíquese el artículo 18 de la Ley 1341 de 2009, el cual quedará así: ARTÍCULO 18. FUNCIONES DEL MINISTERIO DE TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES. El Ministerio de Tecnologías de la Información y las Comunicaciones tendrá, además de las funciones que determinan la Constitución Política, y la Ley 489 de 1998, las siguientes: (…) 31. Velar por el cumplimiento de la legislación en materia de inteligencia artificial; 32. Promover, divulgar e implementar campañas pedagógicas para capacitar e informar a los ciudadanos acerca de sus derechos, riesgos del desarrollo, uso e implementación de la inteligencia artificial; 33. Administrar el Registro Nacional de la Plataforma de Certificación de Sistemas de Inteligencia Artificial, y emitir las órdenes y los actos necesarios para su administración y funcionamiento. 34. Las demás que le sean asignadas en la ley.ARTÍCULO 17. Modifíquese el artículo 18 de la Ley 1341 de 2009, el cual quedará así: ARTÍCULO 18. FUNCIONES DEL MINISTERIO DE TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES. El Ministerio de Tecnologías de la Información y las Comunicaciones tendrá, además de las funciones que determinan la Constitución Política, y la Ley 489 de 1998, las siguientes: (…) 31. Velar por el cumplimiento de la legislación en materia de inteligencia artificial Desarrollar los lineamientos de política pública necesarios para reglamentar y velar por el cumplimiento de la legislación en materia de inteligencia artificial; 32. Promover, divulgar e implementar campañas pedagógicas para capacitar e informar a los ciudadanos acerca de sus derechos, riesgos del desarrollo, uso e implementación de la inteligencia artificial; 33. Crear y Administrar el Registro Nacional de la Plataforma de Certificación de Sistemas de Inteligencia Artificial, y emitir las órdenes y los actos necesarios para su administración y funcionamiento. 34. Las demás que le sean asignadas en la ley.
Justificación: Se realizan ajustes a la redacción de las funciones del Ministerio de Tecnologías de la Información y las Comunicaciones para que sean más claras. 
ARTÍCULO 18. AUDITORÍA DE ALGORITMOS. La Superintendencia de Industria y Comercio implementará procesos de auditoría de los sistemas de inteligencia artificial en proceso de certificación o aquellos que generen riesgos altos, para garantizar la protección de los derechos de los usuarios, sus datos personales de los usuarios y el cumplimiento de lo previsto en la presente ley.Sin modificaciones
ARTÍCULO 19. PLATAFORMA DE CERTIFICACIÓN DE SISTEMAS DE INTELIGENCIA ARTIFICIAL. Los productores y proveedores que desarrollen, ofrezcan e instalen inteligencia artificial que desarrollen sistemas de inteligencia artificial deberán registrar sus modelos en la plataforma de certificación que administrará el Ministerio de las Tecnologías de la información y comunicaciones quien certificará que se encuentren ajustados a derechos humanos y fundamentales y autorizará su viabilidad. Los productores nacionales de inteligencia artificial deberán demostrar, como mínimo,  el cumplimiento de las obligaciones señaladas en la presente ley ante la Superintendencia de Industria y Comercio. La autoridad competente deberá constatar el efectivo cumplimiento de las obligaciones y certificará que se encuentra ajustado a los estándares de esta ley. PARÁGRAFO. El proceso de certificación de la inteligencia artificial deberá respetar los derechos de propiedad intelectual de los productores de inteligencia artificial. En este sentido, la autoridad competente deberá asegurar la reserva de las informaciones y documentos que conozca en el marco de sus funciones.ARTÍCULO 19. PLATAFORMA DE CERTIFICACIÓN DE SISTEMAS DE INTELIGENCIA ARTIFICIAL. Los productores y proveedores que desarrollen, ofrezcan e instalen inteligencia artificial que desarrollen sistemas de inteligencia artificial deberán registrar sus modelos en la plataforma de certificación que administrará el Ministerio de las Tecnologías de la información y comunicaciones quien certificará que se encuentren ajustados a derechos humanos y fundamentales y autorizará su viabilidad. Los productores nacionales e internacionales que usen sistemas de inteligencia artificial en Colombia deberán rendir un informe anual ante la Superintendencia de Industria y Comercio en el que demuestran demostrar, como mínimo, el cumplimiento de las obligaciones señaladas en la presente ley. ante la Superintendencia de Industria y Comercio. La autoridad competente deberá constatar el efectivo cumplimiento de las obligaciones y certificará que se la actividad se encuentra ajustado a los estándares de esta Ley. PARÁGRAFO. El proceso de certificación de la inteligencia artificial deberá respetar los derechos de propiedad intelectual de los productores de inteligencia artificial. En este sentido, la autoridad competente deberá asegurar la reserva de las informaciones y documentos que conozca en el marco de sus funciones.
Justificación: Se realizan ajustes de redacción y se modifica el segundo inciso del artículo teniendo en cuenta los comentarios del doctor José Armando Ordóñez de la ICESI en el marco de la Audiencia Pública. 
ARTÍCULO 20. PROHIBICIÓN DE TRANSFERENCIA DE INFORMACIÓN. Las empresas públicas o privadas que desarrollen sistemas de inteligencia artificial, ostentan prohibición para transferir e intercambiar datos personales destinados al uso e implementación de estos sistemas, salvo que el riesgo que comporte sea nulo y se encuentre excluido de lo previsto en el artículo 13 de la presente ley.  ARTÍCULO 20. PROHIBICIÓN DE TRANSFERENCIA DE INFORMACIÓN. Las empresas públicas o privadas que desarrollen sistemas de inteligencia artificial, ostentan prohibición para transferir e intercambiar datos personales destinados al uso e implementación de estos sistemas, salvo que el riesgo que comporte sea nulo y se encuentre excluido de lo previsto en el artículo 13 de la presente ley. En todo caso la Superintendencia de Industria y Comercio fijará los estándares y condiciones para obtener una declaración de conformidad para realizar transferencia internacional de datos personales.
Justificación: Se ajusta el artículo y se establecen competencias de la Superintendencia de Industria y Comercio frente a la transferencia internacional de datos personales. 
ARTÍCULO 21. PROCEDIMIENTO Y SANCIONES. La Superintendencia de Industria y Comercio determinará el incumplimiento de lo dispuesto en la presente ley y adoptará las medidas o impondrá las sanciones correspondientes conforme al Capítulo II del Título VII de la Ley 1581 de 2012. Lo anterior sin perjuicio de lo establecido en el artículo 296 del Código Penal.ARTÍCULO 21. PROCEDIMIENTO Y SANCIONES. La Superintendencia de Industria y Comercio determinará el incumplimiento de lo dispuesto en la presente ley y adoptará las medidas o impondrá las sanciones correspondientes conforme al Capítulo II del Título VII de la Ley 1581 de 2012. Lo anterior sin perjuicio de lo establecido en el artículo 296 del Código Penal.
Justificación: Se ajusta error de digitación 
ARTÍCULO 22. FORMACIÓN EN MATERIA DE INTELIGENCIA ARTIFICIAL. El gobierno nacional a través del Ministerio de tecnologías de la información y las comunicaciones adoptará medidas para que la sociedad conozca los beneficios, oportunidades, retos, implicaciones y riesgos para los derechos humanos y fundamentales del desarrollo, uso e implementación de la inteligencia artificial, especialmente a través de la formación de los servidores públicos sobre la materia, para ello promoverá descuentos en los cursos de extensión, diplomados, posgrados en materia tecnológica, dicho tema será reglamentado por el Gobierno Nacional en un plazo no menor a 6 meses.Sin modificaciones
ARTÍCULO 23. APRENDIZAJE DE LA INTELIGENCIA ARTIFICIAL. El gobierno nacional a través del Ministerio de tecnologías de la información y las comunicaciones promoverá el desarrollo de campañas sobre el uso responsable de la inteligencia artificial para los estudiantes de las instituciones públicas y privadas, así como se incentivará el desarrollo de cursos de formación en programación responsable.Sin modificaciones
ARTICULO 24. PROMOCIÓN E INCENTIVO AL DESARROLLO E IMPLEMENTACION DE LA INTELIGENCIA ARTIFICIAL: El gobierno nacional a través del Ministerio de tecnologías de la información y las comunicaciones promoverá el desarrollo, uso e implementación de las inteligencias artificiales y procesos de automatización para promover la educación, la ciencia, la innovación, la investigación, la identidad y diversidad culturales y facilitar los procesos al interior de las entidades estatales para la organización de información. El Gobierno Nacional propenderá el desarrollo de sistemas y/o programas de inteligencia artificial éticos y responsables con los derechos humanos y fundamentales.ARTÍCULO 24. PROMOCIÓN E INCENTIVO AL DESARROLLO, USO E IMPLEMENTACIÓN DE LA INTELIGENCIA ARTIFICIAL: El gobierno nacional a través del Ministerio de tecnologías de la información y las comunicaciones promoverá el desarrollo, uso e implementación de las inteligencias artificiales y procesos de automatización para promover la educación, la ciencia, la innovación, la investigación, la identidad y diversidad culturales y facilitar los procesos al interior de las entidades estatales para la organización de información. El Gobierno Nacional propenderá el desarrollo de sistemas y/o programas de inteligencia artificial éticos y responsables con los derechos humanos y fundamentales.  
Justificación: Se ajusta el título del artículo para que sea acorde al contenido del mismo. 
ARTÍCULO 25. RÉGIMEN DE TRANSICIÓN. Las empresas públicas o privadas que a la fecha de entrada en vigencia de la presente ley desarrollen, usen o implementen sistemas de inteligencia artificial o alguna de las actividades acá reguladas tendrán un plazo de hasta seis (6) meses para adecuarse a las disposiciones contempladas en esta ley.ARTÍCULO 25. RÉGIMEN DE TRANSICIÓN. Las empresas públicas o privadas que a la fecha de entrada en vigencia de la presente ley desarrollen, usen o implementen sistemas de inteligencia artificial o alguna de las actividades acá reguladas tendrán un plazo de hasta seis (6) meses contados a partir de la expedición de la reglamentación que trata la presente ley, para adecuarse a dichas las disposiciones. contempladas en esta ley.
Justificación: Se ajusta el artículo para especificar a partir de qué momento inicia el régimen de transición, por sugerencia del Grupo de Transformación Digital de la Presidencia de la República. 
ARTÍCULO 26. REGLAMENTACIÓN. El Ministerio de Tecnologías de la información y las Comunicaciones en coordinación con el Ministerio de Ciencia, Tecnología e Innovación, el Ministerio de Industria, Comercio y Turismo reglamentará en un período no mayor de un (1) año a partir de la promulgación de esta ley, los lineamientos, criterios, condiciones y disposiciones técnicos y éticos para el desarrollo, uso y manejo de la Inteligencia Artificial en el contexto nacional. Dicha reglamentación deberá garantizar la protección de los Derechos Humanos y del medio ambiente, en concordancia con las recomendaciones internacionales proferidas sobre el desarrollo y manejo de la Inteligencia artificial, para asegurar la armonía entre el desarrollo tecnológico y el bienestar de la sociedad en general, estableciendo un equilibrio que promueva el desarrollo responsable y ético de la Inteligencia Artificial. PARÁGRAFO 1. Las autoridades anteriormente mencionadas en articulación con la Superintendencia de Industria y Comercio deberán establecer un plan de seguimiento, control, vigilancia y evaluación para el cumplimiento de la reglamentación acerca del manejo y uso de la Inteligencia Artificial en un término no mayor de (1) año a partir de la promulgación de esta ley. PARÁGRAFO 2. El Gobierno Nacional promoverá y fomentará la participación e inclusión ciudadana a través de las veedurías para asegurar la transparencia y seguridad en la gestión de la Inteligencia Artificial.Sin modificaciones
ARTICULO 27. COOPERACIÓN NACIONAL E INTERNACIONAL. El Gobierno Nacional promoverá la cooperación y colaboración de las diferentes entidades, empresas y organizaciones nacionales e internacionales en materia de investigación, sensibilización, innovación, gestión y manejo ético e integral para el avance responsable de la Inteligencia ArtificialSin modificaciones
ARTÍCULO 28. VIGENCIA Y DEROGACIONES. La presente ley rige a partir de su sanción y publicación en el Diario Oficial y deroga todas las disposiciones legales o reglamentarias que le sean contrarias.Sin modificaciones

8. PROPOSICIÓN

En virtud de las consideraciones anteriormente expuestas, solicitamos a los miembros de la Comisión Primera de la Cámara de Representantes dar primer debate al Proyecto de Ley Estatutaria No. 154 de 2024 Cámara “Por la cual se define y regula la inteligencia artificial, se ajusta a estándares de derechos humanos, se establecen límites frente a su desarrollo, uso e implementación se modifica parcialmente la ley 1581 de 2012 y se dictan otras disposiciones”, de acuerdo con el texto propuesto.

Atentamente,

KARYME COTES MARTÍNEZ,  Coordinadora Ponente

ALIRIO URIBE MUÑOZ, Coordinador Ponente

ASTRID SÁNCHEZ MONTES DE OCA, Ponente

CATHERINE JUVINAO CLAVIJO, Ponente

MIGUEL POLO POLO, Ponente

OSCAR RODRIGO CAMPO, Ponente

ORLANDO CASTILLO ADVÍNCULA, Ponente

LUIS ALBERTO ALBÁN URBANO, Ponente

MARELEN CASTILLO TORRES, Ponente

(1) Parlamento Europeo, Considerandos de la Resolución de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales (2020/2016(INI)),

(2) Grupo de Trabajo UNESCO, Estudio preliminar sobre la ética de la Inteligencia Artificial, cit., n. 50. Vid. San Miguel Caso, C., “La aplicación de la Inteligencia Artificial en el proceso: ¿un nuevo reto para las garantías procesales?, Ius et Scientia vol. 7, no 1, 2021, pp. 286-303; De Asís Pulido, M., “La incidencia de las nuevas tecnologías en el derecho al debido proceso”, Ius et Scientia vol. 6, no 2, 2020, pp. 186-199

(3) PARLAMENTO EUROPEO, Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital, Disponible en: https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_ES.pdf

(4) REPÚBLICA DE COLOMBIA, MINISTERIO DE LAS TIC, Colombia se adhiere a acuerdo sobre Inteligencias Artificial ante los países de la OCDE. Mayo 22 de 2019. Disponible en: https://www.mintic.gov.co/portal/inicio/Sala-de-Prensa/Noticias/100683:Colombia-se-adhiere-a-acuerdo-sobre-Inteligencia-Artificial-ante-los-paises-de-la-OCDE

(5) REPÚBLICA DE COLOMBIA,MINISTERIO DE LAS TIC, Colombia adopta de forma temprana recomendaciones de ética en inteligencia artificial de la Unesco para la región. Mayo 2 de 2022. Disponible en: https://mintic.gov.co/portal/inicio/Sala-de-prensa/Noticias/208109:Colombia-adopta-de-forma-temprana-recomendaciones-de-etica-en-Inteligencia-Artificial-de-la-Unesco-para-la-region

(6) Unión Europea, Resolución 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL)).

(7) EU AI Act: first regulation on artificial intelligence. Nota de prensa publicada el 06 de agosto de 2023 disponible en https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence.  Traducción propia.

(8) Respuesta Suministrada por la Fiscalía General de la Nación a petición radicada por el HR Alirio Uribe cuya respuesta fue entregada con radicado No 20231200004051 el 25 de agosto de 2023.

(9) Respuesta Suministrada por el Departamento Nacional de Planeación a petición radicada por el HR Alirio Uribe cuya respuesta fue recibida con radicado No 20233100538591 el 25 de agosto de 2023.

(10) IBID

(11) https://2022.dnp.gov.co/programas/Desarrollo%20Digital/Paginas/Big%20Data2020.aspx

(12) Análisis cuantitativo y predicción del delito en Bucaramanga, Departamento Nacional de Planeación –DNP- julio de 2020 disponible en https://colaboracion.dnp.gov.co/CDT/Desarrollo%20Digital/Big%20Data/2020/08_Prediccion_crimen/Prediccion_crimen_Presentacion.pdf

(13) Respuesta Suministrada por La H. Corte Constitucional a petición radicada por el HR Alirio Uribe cuya respuesta fue recibida con Oficio No. 2023-3930 el 24 de agosto de 2023.

(14) Respuesta Suministrada por el H. Consejo Superior de la Judicatura a petición radicada por el HR Alirio Uribe cuya respuesta fue recibida con Oficio No. SGOJ 0857 con radicado interno NoRNEC-E-2023143191 del 23 agosto de 2023.

(15) Respuesta Suministrada por el H. Consejo Superior de la Judicatura a petición radicada por el HR Alirio Uribe cuya respuesta fue recibida con Oficio No. DEAJO23-594 el 23 de agosto de 2023.

(16) ORGANIZACIÓN DE COOPERACIÓN Y DESARROLLO ECONÓMICOS, OCDE, Recomendación del Consejo de Inteligencia Artificial,  Adoptado el: 21/05/2019, Disponible en: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

(17) UNESCO, Recomendación sobre la ética de la Inteligencia Artificial, Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000380455_spa

—————————————————————————

9. TEXTO PROPUESTO PARA PRIMER DEBATE PROYECTO DE LEY

ESTATUTARIA N.° 154 DE 2024 C

“POR LA CUAL SE DEFINE Y REGULA LA INTELIGENCIA ARTIFICIAL, SE AJUSTA A ESTÁNDARES DE DERECHOS HUMANOS, SE ESTABLECEN LÍMITES FRENTE A SU DESARROLLO, USO E IMPLEMENTACIÓN SE MODIFICA PARCIALMENTE LA LEY 1581 DE 2012 Y SE DICTAN OTRAS DISPOSICIONES”

EL CONGRESO DE COLOMBIA,

DECRETA:

T Í T U L O I.- D I S P O S I C I O N E S  G E N E R A L E S

ARTÍCULO 1. OBJETO.

La presente ley tiene por objeto definir y regular la inteligencia artificial ajustándola a estándares de respeto y garantía de los derechos humanos, así como para regular y promover su desarrollo y establecer límites frente a su uso, implementación y evaluación por parte de personas naturales y jurídicas.

ARTÍCULO 2. ÁMBITO DE APLICACIÓN.

Las disposiciones de esta ley son aplicables al diseño, innovación, aplicación, uso y desarrollo de la inteligencia artificial por parte de personas naturales o jurídicas, así como a los proveedores, productores o demás agentes que participen en el desarrollo de la inteligencia artificial nacionales y extranjeros, salvo en los casos donde resulte aplicable una regulación especial.

Los principios y disposiciones contenidos en la presente ley serán aplicables a:

d. Los Productores que desarrollen inteligencia artificial y/u ofrezcan o comercialicen la inteligencia artificial en territorio colombiano o fuera del territorio colombiano, sí el funcionamiento de la inteligencia artificial produce efectos en el territorio colombiano.

e. Los proveedores que ofrezcan y presten el servicio de instalación y funcionamiento inteligencia artificial fuera del territorio colombiano, sí la instalación y funcionamiento de inteligencia artificial produce efectos en el territorio colombiano.

f. Los usuarios de la inteligencia artificial ubicados en el territorio colombiano.

La regulación contenida en esta Ley Estatutaria no aplicará a la inteligencia artificial que:

c. Se desarrolla en el marco de actividades de carácter educativo o académico o científico en instituciones educativas de educación básica primaria y básica secundaria e instituciones de educación superior ubicadas en el territorio colombiano, siempre que la inteligencia artificial no se instalada y entre en funcionamiento de manera permanente en la misma institución, actividades de terceros o por fuera del ámbito educativo o científico.

En todo caso, cualquier institución educativa que pretenda desarrollar proyectos temporales de inteligencia artificial deberá conformar un comité de ética que conocerá de estos proyectos, exigirá planes de manejo del riesgo ético y los hará cumplir dentro de los lineamientos establecidos en la Ley 10 de 1990, o aquella que haga sus veces, y en las normas de origen legal y administrativo establecidas para regular la investigación con seres vivos.

d. Sea empleada por usuarios persona natural no comerciante en el marco de actividades de índole personal y no profesionales o que afecten a terceros.

ARTÍCULO 3. DEFINICIONES.

Para efectos de la aplicación e interpretación de la presente ley se establecen las siguientes definiciones:

Dato personal: Cualquier información vinculada o que pueda asociarse a una o varias personas naturales determinadas o determinables.

Productor de inteligencia artificial: Persona natural o jurídica nacional o extranjera, pública o privada, que diseña, produce, implementa y desarrolla la inteligencia artificial en el mercado o para actividades concretas de un usuario.

Proveedor de inteligencia artificial: Persona natural o jurídica nacional o extranjera, pública o privada, que ofrezca, suministre, distribuya, comercialice o instale la inteligencia artificial en el mercado o para actividades concretas de un usuario.

Usuario de inteligencia artificial: Persona natural o jurídica, pública o privada, que emplea la inteligencia artificial en el marco de sus funciones legales, actividades comerciales y empresariales.

Inteligencia Artificial: Conjunto de técnicas informáticas, sistema de programación, sistema computacional, máquinas físicas o procesos tecnológicos que permiten desarrollar algoritmos, toma decisiones y crear programas informáticos para ejecutar objetivos definidos por humanos, hacer predicciones, recomendaciones, tomar decisiones crear nuevo conocimiento y/o completar tareas cognitivas y científico-técnicas a partir de la extracción, selección, recorte y organización de la información disponible o cualquier tarea que requiera inteligencia como el razonamiento o el aprendizaje.

Encargado del tratamiento: Persona natural o jurídica, pública o privada, que por sí misma o en asocio con otros, realice el Tratamiento de datos personales por cuenta del Responsable del Tratamiento.

Responsable del tratamiento: Persona natural o jurídica, pública o privada, que por sí misma o en asocio con otros, decida sobre la base de datos y/o el tratamiento de los datos personales.

PARÁGRAFO. Los elementos técnicos y su aplicación de la definición de la Inteligencia Artificial dispuesta en el presente artículo se sujetarán a la reglamentación que expida el Ministerio de Tecnologías de la Información y Comunicaciones de Colombia, garantizando de esta manera la participación ciudadana y su actualización periódica.

ARTÍCULO 4. PRINCIPIOS.

El desarrollo, interpretación y aplicación de la presente ley se realizará con arreglo a los siguientes principios:

Principio de Respeto: El desarrollo y el uso de la inteligencia artificial estará limitado por la preservación irrestricta de la dignidad humana y los derechos fundamentales.

Principio de Bienestar Integral: El desarrollo y aplicación de la inteligencia artificial estará orientado al mejoramiento de la calidad de vida de las personas, reconociendo sus riesgos y potenciales impactos negativos.

Principio de Responsabilidad: Las personas que se vean perjudicadas con ocasión de los impactos negativos o vulneración generada del desarrollo de la inteligencia artificial, tendrán garantizado el derecho a reclamar indemnización o reparación a la que haya lugar ante las entidades públicas o privadas responsables.

Principio de Supervisión y Prevalencia de la Inteligencia Humana: Se preferirá la decisión humana respecto de los resultados derivados de la Inteligencia Artificial.

Toda decisión tomada con base en los resultados de sistemas de inteligencia artificial será susceptible de revisión humana y. La responsabilidad ética y legal de estas decisiones recaerá sobre las personas naturales o jurídicas involucradas en su uso.

Principio de Privacidad y Confidencialidad: El uso e implementación de la inteligencia artificial propenderá por la no intrusión y perturbación de los asuntos privados de las personas.

Principio de Seguridad y Protección: La información que permita desarrollar algoritmos y crear programas informáticos deberá gozar de confidencialidad e integridad.

Principio de Desarrollo Sostenible: El uso e implementación de la inteligencia artificial estará orientado a potenciar el desarrollo de la tecnología con consideraciones sociales y medioambientales.

Principio de Inclusión: La información que permita el uso e implementación de la inteligencia artificial no debe discriminar a ningún grupo, ni ser utilizada en perjuicio de éste, y el desarrollo de la inteligencia artificial se realizará con perspectiva de género y diversidad sexual.

Principio de Proporcionalidad o Inocuidad: El desarrollo de inteligencias artificiales estará justificado a través de evidencia científica robusta que garantice la conveniencia de su desarrollo y aplicación en beneficio de las personas, la humanidad y el medio ambiente. Quedarán prohibidos los desarrollos de Inteligencias artificiales que atenten contra los Derechos Humanos.

Principio de Transparencia y Explicabilidad: Los desarrollos, resultados y subprocesos de las Inteligencias artificiales serán inteligibles, trazables, explicables y comprensibles. La ciudadanía deberá conocer el propósito y alcance de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas, para saber los motivos por los que la Inteligencia Artificial llega a una u otra conclusión o decisión.

Principio de Responsabilidad y Rendición de Cuentas: Los creadores de inteligencias artificiales e intermediarios deben asumir las consecuencias éticas y jurídicas por las tecnologías que diseñen e implementen de conformidad con el ordenamiento jurídico vigente. El sector público tendrá la obligación de rendir cuentas y crear mecanismos de supervisión a lo largo de todas las etapas que sean auditables y trazables.

Principio de Neutralidad Tecnológica: Garantizar la libre adopción de tecnologías que permitan fomentar la eficiente prestación de servicios, el desarrollo de la inteligencia artificial y el empleo de contenidos y aplicaciones que usen Tecnologías de la Información y las Comunicaciones, así como garantizar la libre y leal competencia, y que su adopción sea armónica con el desarrollo ambiental sostenible.

Principio de Confidencialidad: Todas las personas que intervengan en los procesos de inteligencia artificial están obligadas a garantizar la reserva de la información privada que tengan, pudiendo sólo realizar suministro comunicación de datos personales cuando ello corresponda al desarrollo de las actividades autorizadas en la ley 1581 de 2012.

PARÁGRAFO. Se entenderán igualmente como principios los establecidos en las leyes estatutarias 1266 de 2008 y 1581 de 2012.

ARTÍCULO 5: VALORES. El desarrollo, interpretación y aplicación de la presente ley se realizará con arreglo de los siguientes valores:

Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana: Los creadores e implementadores de inteligencias artificiales serán responsables de que el desarrollo tecnológico garantice el respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana. Ninguna persona o comunidad podrá sufrir daños o sometimiento como consecuencia del desarrollo y uso de la inteligencia artificial.

Construcción de una sociedad pacífica y justa: Los creadores e implementadores de inteligencias artificiales velarán porque el desarrollo tecnológico no afecte la paz y justicia en la sociedad. Las inteligencias artificiales no podrán dividir y enfrentar entre sí a las personas ni promover la violencia.

Diversidad e inclusión: Los creadores e implementadores de las inteligencias artificiales garantizarán el respeto,  ́protección y promoción de la diversidad e inclusión activa de todos los grupos y personas con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen regional, étnico o social, condición económica, discapacidad o cualquier otro motivo, respetando especialmente la diversidad en las elecciones de estilos de vida, creencias, opiniones o expresiones individuales.

Prosperidad del medio ambiente y los ecosistemas: Los creadores e implementadores de las inteligencias artificiales impedirán que las tecnologías afecten los ecosistemas, los seres vivos y el ambiente en el marco de la constitución y la ley. Propenderán por reducir la huella de carbono, minimizar el cambio climático, los factores de riesgo ambiental y prevenir la explotación, utilización y transformación no sostenible de recursos naturales.

T Í T U L O II.-

CONDICIONES PARA EL DESARROLLO, USO E IMPLEMENTACIÓN DE LA INTELIGENCIA ARTIFICIAL

ARTÍCULO 6. CLASIFICACIÓN DEL RIESGO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL.

Los sistemas o programas informáticos que usen e implementen la inteligencia artificial serán identificados según el riesgo por los productores y proveedores de la siguiente manera:

Riesgo inaceptable: Constituye riesgo inaceptable aquel que genera afectación a la seguridad, la subsistencia y los derechos humanos y fundamentales, y por tanto está proscrito.

Alto riesgo: Constituye alto riesgo aquel que, no siendo inaceptable, corresponde a actividades susceptibles de automatización admisibles bajo el mantenimiento de

la calidad de los datos y facilidad de supervisión humana pero que eventualmente puede limitar algunos derechos humanos y fundamentales.

Riesgo limitado: Constituye riesgo limitado aquel que se deriva del uso e implementación de chatbots o robots conversacionales.

Riesgo nulo: Constituye riesgo nulo aquel derivado del uso e implementación de sistemas que no afectan los derechos y la seguridad de los usuarios.

PARÁGRAFO 1. La clasificación de riesgos genera obligaciones diferenciadas para los proveedores y usuarios, según lo contemplado en la ley.

PARÁGRAFO 2. Dentro del Reglamento que se expida se deberán identificar los sistemas o programas de inteligencia artificial que se consideren de riesgo inaceptable, alto riesgo, riesgo limitado y riesgo nulo. El reglamento deberá contar con actualización periódica de los sistemas o programas teniendo en cuenta los avances de este tipo de tecnologías y también el tipo de industria o sector que provea o use estos sistemas.

ARTÍCULO 7. USO DE LA INTELIGENCIA ARTIFICIAL.

Las personas naturales o jurídicas podrán usar e implementar inteligencia artificial que facilite la eficacia y eficiencia de gestión, siempre que dé cumplimiento a los principios señalados en esta ley y las obligaciones asignadas al nivel de riesgo de la inteligencia artificial que empleen en el marco de sus actividades

PARÁGRAFO. Cualquier organización, tanto pública como privada, tendrá la facultad de ajustar sus reglamentos internos para determinar cómo y hasta qué punto se utilizará la inteligencia artificial. Esta adaptación deberá realizarse respetando los derechos de autor y propiedad intelectual.

ARTÍCULO 8. AFECTACIONES DERIVADAS DE LA INTELIGENCIA ARTIFICIAL.

Las personas que resulten afectadas en sus derechos fundamentales con ocasión del uso e implementación de sistemas de inteligencia artificial podrán solicitar la revisión por parte de la autoridad competente, presentar reclamaciones y solicitudes de revocatoria ante la autoridad competente y solicitar medidas cautelares así como para prevenir mayores afectaciones.

ARTÍCULO 9. TRANSPARENCIA EN EL USO DE LA INTELIGENCIA ARTIFICIAL.

Los productores y proveedores que desarrollen, ofrezcan y pongan en funcionamiento y los usuarios que empleen sistemas de inteligencia artificial de riesgo alto y limitado deberán publicar una evaluación sobre los riesgos y el impacto que pudieran llegar a sufrir los derechos humanos y fundamentales, antes de desplegar dichos sistemas. De impacto en la privacidad, que debe incluir por lo menos los siguientes criterios:

g. Una descripción detallada de las operaciones de tratamiento de datos personales que involucre el desarrollo de la inteligencia artificial.

h. Una evaluación de los riesgos específicos para los derechos y libertades de los titulares de los datos personales.

i. Las medidas previas para afrontar los riesgos. PARÁGRAFO 1. Las entidades públicas y/o privadas que tengan la intención de emplear la inteligencia artificial deberán asegurar la realización de capacitaciones orientadas al uso adecuado y responsable de esa tecnología para del personal

PARÁGRAFO 2. Dicha evaluación deberá ser presentada ante el Ministerio de las TICs entidad encargada de almacenar y hacerle seguimiento a las evaluaciones presentadas.

ARTÍCULO 10. CONSENTIMIENTO INFORMADO.

En el uso de los sistemas de inteligencia artificial los usuarios deberán manifestar de manera libre y voluntaria su consentimiento para asumir los riesgos expresamente identificados y comunicados por los productores y proveedores que llegare a representar para sus derechos humanos y fundamentales y para el tratamiento de sus datos personales.

PARÁGRAFO 1. Los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial que genera un riesgo alto, limitado o nulo deberán comunicar a los titulares de los datos que los mismos están interactuando con un sistema de IA y la manera correcta en que deben hacerlo, así como informar de manera clara los riesgos en los que incurren en caso de no darle un correcto uso a la herramienta.

PARÁGRAFO 2. En todo caso, el consentimiento informado no será interpretado como una cláusula de indemnidad de la responsabilidad legal de los productores o proveedores de la inteligencia artificial que eventualmente pueda ser declarada por parte de un juez.

PARÁGRAFO 3. Los productores y proveedores deberán responder solidariamente por los vicios ocultos de la inteligencia artificial.

ARTÍCULO 11. ALFABETIZACIÓN DIGITAL.

El Ministerio de Educación Nacional en coordinación con el Ministerio de tecnologías de la información y las comunicaciones formularán, dentro de los seis (6) meses siguientes a la entrada en vigencia de la presente ley, políticas de alfabetización digital con énfasis en el uso responsable y ético de los sistemas y/o programas de inteligencia artificial. Estas  políticas se implementarán para estudiantes de educación básica, media y superior, con el único fin de formar integralmente a los jóvenes en el uso responsable y productivo de sistemas de inteligencia artificial.

ARTÍCULO 12. GARANTÍA DE SEGURIDAD LABORAL A MEDIANO Y LARGO PLAZO.

Las empresas públicas o privadas que tomen la decisión de suprimir puestos de trabajo con ocasión del uso e implementación de sistemas de inteligencia artificial tendrán la obligación de:

Informar a los empleados afectados sobre la eventual supresión de su puesto de trabajo, con una antelación no inferior a seis (6) meses previos a la fecha en que se prevé la supresión de los puestos.

Desarrollar planes de reconversión laboral y capacitación en nuevas formas de trabajo, al menos durante los seis (6) meses previos a la fecha en que se prevé la supresión de los puestos.

Los trabajadores cuyo puesto de trabajo sea suprimido con ocasión del uso e implementación de sistemas de inteligencia artificial ingresarán a la ruta de empleabilidad de la Unidad del Servicio Público de Empleo.

Parágrafo 1. El Ministerio del Trabajo integrará al mecanismo de protección al cesante, el seguro de desempleo por automatización y una forma de continuidad en la cotización de la seguridad social de los trabajadores afectados.

Parágrafo 2. El empleador deberá solicitar autorización al Ministerio del Trabajo cuando se trate de despidos colectivos, de conformidad con la normatividad vigente.

Parágrafo 3. En las empresas donde exista organización sindical, se socializará con estos de manera previa la implementación y el uso de sistemas de inteligencia artificial y la ruta para la protección del empleo y derechos laborales, permitiendo que presenten observaciones al respecto.

Parágrafo 4. Para el sector público, en ningún caso se podrá desvincular a los trabajadores con derechos de carrera administrativa, los cuales deberán ser reubicados en cargos iguales o mejores condiciones.

ARTÍCULO 13. ACTIVIDADES EXCLUIDAS DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL. Serán excluidas del uso e implementación de los sistemas de inteligencia artificial conforme a la clasificación de los riesgos prevista en el artículo 5° de la presente ley, las siguientes actividades:

1. Manipulación del comportamiento.

2. Explotación de la vulnerabilidad de grupos o personas.

3. Imposición de barreras de acceso o la exclusión de personas mediante la calificación de perfiles para el otorgamiento de créditos.

4. Predicción policiva de conductas delictivas a partir de la elaboración de perfiles demográficos, étnicos o socioeconómicos, la ubicación o comportamientos pasados.

5. Manipulación de emociones, instintos y razones de decisión.

6. Extracción no dirigida de imágenes faciales de internet para la creación de bases de datos de reconocimiento facial.

7. Vigilancia e identificación biométrica remota en tiempo real sin previa autorización judicial.

8. Identificación biométrica para persecución de delitos graves sin autorización judicial.

9. Categorización biométrica basada en género, raza, etnia, etc.

10. Realización de puntuación social o reputacional para la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales.

11. Influencia en votantes y resultados de procesos electorales.

12. La definición de sentencias y decisiones judiciales o la generación de análisis normativos que configuren un reemplazo del ejercicio de la función jurisdiccional en cabeza de los jueces.

13. Limitar la libertad de expresión.

14. El diseño, fabricación, producción y comercialización de armas y sistemas de armas con autonomía para realizar ataques o ejercer violencia sobre personas y bienes, sin una supervisión humana efectiva y eficiente.

15. Cualquier otra actividad que suponga un daño significativo para la vida, la salud, la seguridad, los derechos humanos y fundamentales o el ambiente, así como dividir y enfrentar entre sí a las personas y los grupos y amenazar la coexistencia armoniosa entre los seres humanos.

ARTÍCULO 14. RESPONSABILIDAD LEGAL EN MATERIA DE INTELIGENCIA ARTIFICIAL.

En el uso e implementación de los sistemas de inteligencia artificial la responsabilidad legal no radica en los algoritmos sino en las personales naturales o jurídicas que los desarrollan y la entidad pública o privada que las contrata, quienes ostentan la capacidad de contraer obligaciones.

PARÁGRAFO 1. Los responsables legales en materia de inteligencia artificial deberán informar y advertir a las autoridades competentes sobre los potenciales riesgos, deficiencias e incidentes graves presentados en el manejo y gestión de esta.

PARÁGRAFO 2. El Ministerio de Tecnologías de la Información y las Comunicaciones en coordinación con la Superintendencia de Industria y Comercio establecerán un guía de responsabilidades y plan de gestión de riesgos en lo concerniente al manejo de Inteligencia Artificial, en un término no mayor a un (1) año a partir de la vigencia de la presente ley.

ARTÍCULO 15. RESPONSABILIDAD SOCIO AMBIENTAL.

En el uso e implementación de los sistemas de inteligencia artificial las empresas públicas o privadas que los desarrollan, propenderán por la lucha contra el cambio climático.

PARÁGRAFO 1. Los responsables legales en materia de inteligencia artificial deberán informar y advertir a las autoridades competentes sobre los potenciales peligros, deficiencias e incidentes graves presentados en el manejo y gestión de esta.

PARÁGRAFO 2. El Ministerio de Tecnologías de la Información y las Comunicaciones en coordinación con el Ministerio de Ambiente y Desarrollo Sostenible establecerán un guía de responsabilidades y plan de gestión de riesgos en lo concerniente al manejo de Inteligencia Artificial, en un término no mayor a un (1) año a partir de la vigencia de la presente ley.

T Í T U L O III.- INSPECCIÓN, CONTROL Y VIGILANCIA EN MATERIA DE INTELIGENCIA

ARTIFICIAL

ARTÍCULO 16. Modifíquese el artículo 19 de la Ley 1581 de 2012, el cual quedará así:

Artículo 19. Autoridad de protección de datos. La Superintendencia de Industria y Comercio, a través de la Delegatura para la Protección de Datos Personales, ejercerá la vigilancia para garantizar que en el Tratamiento de datos personales y en el desarrollo, uso e implementación de los sistemas de inteligencia artificial, se respeten los principios, derechos, garantías y procedimientos previstos en la constitución y la presente ley.

Parágrafo. El Gobierno Nacional en el plazo de seis (6) meses contados a partir de la fecha de entrada en vigencia de la presente ley modificará el Decreto 4886 de 2011 e  incorporará dentro de las funciones de la Superintendencia de Industria y Comercio la inspección control y vigilancia en materia de desarrollo, uso e implementación de los sistemas de inteligencia artificial.

ARTÍCULO 17. Modifíquese el artículo 18 de la Ley 1341 de 2009, el cual quedará así:

ARTÍCULO 18. FUNCIONES DEL MINISTERIO DE TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES.

El Ministerio de Tecnologías de la Información y las Comunicaciones tendrá, además de las funciones que determinan la Constitución Política, y la Ley 489 de 1998, las siguientes:

(…)

31. Desarrollar los lineamientos de política pública necesarios para reglamentar y velar por el cumplimiento de la legislación en materia de inteligencia artificial;

32. Promover, divulgar e implementar campañas pedagógicas para capacitar e informar a los ciudadanos acerca de sus derechos, riesgos del desarrollo, uso e implementación de la inteligencia artificial;

33. Crear y administrar el Registro Nacional de la Plataforma de Certificación de Sistemas de Inteligencia Artificial, y emitir las órdenes y los actos necesarios para su administración y funcionamiento.

34. Las demás que le sean asignadas en la ley.

ARTÍCULO 18. AUDITORÍA DE ALGORITMOS.

La Superintendencia de Industria y Comercio implementará procesos de auditoría de los sistemas de inteligencia artificial en proceso de certificación o aquellos que generen riesgos altos, para garantizar la protección de los derechos de los usuarios, sus datos personales de los usuarios y el cumplimiento de lo previsto en la presente ley.

ARTÍCULO 19. PLATAFORMA DE CERTIFICACIÓN DE SISTEMAS DE INTELIGENCIA ARTIFICIAL.

Los productores y proveedores que desarrollen, ofrezcan e instalen inteligencia artificial que desarrollen sistemas de inteligencia artificial deberán registrar sus modelos en la plataforma de certificación que administrará el Ministerio de las Tecnologías de la Información y Comunicaciones quien certificará que se encuentren ajustados a derechos humanos y fundamentales y autorizará su viabilidad.

Los productores nacionales e internacionales que usen sistemas de inteligencia artificial en Colombia deberán rendir un informe anual ante la Superintendencia de Industria y Comercio en el que demuestran, como mínimo, el cumplimiento de las obligaciones señaladas en la presente ley. La autoridad competente deberá constatar el efectivo cumplimiento de las obligaciones y certificará que la actividad se encuentra ajustada a los estándares de esta Ley.

PARÁGRAFO. El proceso de certificación de la inteligencia artificial deberá respetar los derechos de propiedad intelectual de los productores de inteligencia artificial.

En este sentido, la autoridad competente deberá asegurar la reserva de las informaciones y documentos que conozca en el marco de sus funciones.

ARTÍCULO 20. PROHIBICIÓN DE TRANSFERENCIA DE INFORMACIÓN.

Las  empresas públicas o privadas que desarrollen sistemas de inteligencia artificial, ostentan prohibición para transferir e intercambiar datos personales destinados al uso e implementación de estos sistemas, salvo que el riesgo que comporte sea nulo y se encuentre excluido de lo previsto en el artículo 13 de la presente ley. En todo caso la Superintendencia de Industria y Comercio fijará los estándares y condiciones para obtener una declaración de conformidad para realizar transferencia internacional de datos personales.

ARTÍCULO 21. PROCEDIMIENTO Y SANCIONES.

La Superintendencia de Industria y Comercio determinará el incumplimiento de lo dispuesto en la presente ley y adoptará las medidas o impondrá las sanciones correspondientes conforme al Capítulo II del Título VII de la Ley 1581 de 2012. Lo anterior sin perjuicio de lo establecido en el artículo 296 del Código Penal.

T Í T U L O IV.- MEDIDAS PARA EL APOYO Y PROMOCIÓN DE LA INTELIGENCIA ARTIFICIAL

ARTÍCULO 22. FORMACIÓN EN MATERIA DE INTELIGENCIA ARTIFICIAL.

El gobierno nacional a través del Ministerio de tecnologías de la información y las comunicaciones adoptará medidas para que la sociedad conozca los beneficios, oportunidades, retos, implicaciones y riesgos para los derechos humanos y fundamentales del desarrollo, uso e implementación de la inteligencia artificial, especialmente a través de la formación de los servidores públicos sobre la materia, para ello promoverá descuentos en los cursos de extensión, diplomados, posgrados en materia tecnológica, dicho tema será reglamentado por el Gobierno Nacional en un plazo no menor a 6 meses.

ARTÍCULO 23. APRENDIZAJE DE LA INTELIGENCIA ARTIFICIAL.

El gobierno nacional a través del Ministerio de tecnologías de la información y las comunicaciones promoverá el desarrollo de campañas sobre el uso responsable de la inteligencia artificial para los estudiantes de las instituciones públicas y privadas, así como se incentivará el desarrollo de cursos de formación en programación responsable.

ARTÍCULO 24. PROMOCIÓN E INCENTIVO AL DESARROLLO, USO E IMPLEMENTACIÓN DE LA INTELIGENCIA ARTIFICIAL:

El gobierno nacional a través del Ministerio de tecnologías de la información y las comunicaciones promoverá el desarrollo, uso e implementación de las inteligencias artificiales y procesos de automatización para promover la educación, la ciencia, la innovación, la investigación, la identidad y diversidad culturales y facilitar los procesos al interior de las entidades estatales para la organización de información.

El Gobierno Nacional propenderá el desarrollo de sistemas y/o programas de inteligencia artificial éticos y responsables con los derechos humanos y fundamentales.

T Í T U L O V.- OTRAS DISPOSICIONES

ARTÍCULO 25. RÉGIMEN DE TRANSICIÓN.

Las empresas públicas o privadas que a la fecha de entrada en vigencia de la presente ley desarrollen, usen o implementen sistemas de inteligencia artificial o alguna de las actividades acá reguladas tendrán un plazo de hasta seis (6) meses contados a partir de la expedición de la reglamentación que trata la presente ley, para adecuarse a dichas disposiciones.

ARTÍCULO 26. REGLAMENTACIÓN.

El Ministerio de Tecnologías de la información y las Comunicaciones en coordinación con el Ministerio de Ciencia, Tecnología e Innovación, el Ministerio de Industria, Comercio y Turismo reglamentará en un período no mayor de un (1) año a partir de la promulgación de esta ley, los lineamientos, criterios, condiciones y disposiciones técnicos y éticos para el desarrollo, uso y manejo de la Inteligencia Artificial en el contexto nacional.

Dicha reglamentación deberá garantizar la protección de los Derechos Humanos y del medio ambiente, en concordancia con las recomendaciones internacionales proferidas sobre el desarrollo y manejo de la Inteligencia artificial, para asegurar la armonía entre el desarrollo tecnológico y el bienestar de la sociedad en general, estableciendo un equilibrio que promueva el desarrollo responsable y ético de la Inteligencia Artificial.

PARÁGRAFO 1. Las autoridades anteriormente mencionadas en articulación con la Superintendencia de Industria y Comercio deberán establecer un plan de seguimiento, control, vigilancia y evaluación para el cumplimiento de la reglamentación acerca del manejo y uso de la Inteligencia Artificial en un término no mayor de (1) año a partir de la promulgación de esta ley.

PARÁGRAFO 2. El Gobierno Nacional promoverá y fomentará la participación e inclusión ciudadana a través de las veedurías para asegurar la transparencia y seguridad en la gestión de la Inteligencia Artificial.

ARTÍCULO 27. COOPERACIÓN NACIONAL E INTERNACIONAL.

El Gobierno Nacional promoverá la cooperación y colaboración de las diferentes entidades, empresas y organizaciones nacionales e internacionales en materia de investigación, sensibilización, innovación, gestión y manejo ético e integral para el avance responsable de la Inteligencia Artificial.

ARTÍCULO 28. VIGENCIA Y DEROGACIONES.

La presente ley rige a partir de su sanción y publicación en el Diario Oficial y deroga todas las disposiciones legales o reglamentarias que le sean contrarias.

Atentamente,

KARYME COTES MARTÍNEZ , Coordinadora Ponente

ALIRIO URIBE MUÑOZ, Coordinador Ponente

ASTRID SÁNCHEZ MONTES DE OCA, Ponente

CATHERINE JUVINAO CLAVIJO, Ponente

MIGUEL POLO POLO, Ponente

 OSCAR RODRIGO CAMPO, Ponente

ORLANDO CASTILLO ADVÍNCULA, Ponente

LUIS ALBERTO ALBÁN URBANO, Ponente

MARELEN CASTILLO TORRES, Ponente

21Sep/24

Recomendación de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) de 23 de noviembre de 2021

Recomendación de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) de 23 de noviembre de 2021, sobre la ética de la inteligencia artificial, aprobada por la Conferencia General de la UNESCO en su 41.º período de sesiones

PREÁMBULO

La Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París del 9 al 24 de noviembre de 2021, en su 41ª reunión,

Reconociendo las repercusiones positivas y negativas profundas y dinámicas de la inteligencia artificial (IA) en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, en particular en la mente humana, debido en parte a las nuevas formas en que su utilización influye en el pensamiento, las interacciones y la adopción de decisiones de los seres humanos y afecta a la educación, las ciencias sociales y humanas, las ciencias exactas y naturales, la cultura y la comunicación y la información,

Recordando que, con arreglo a su Constitución, la UNESCO se propone contribuir a la paz y a la seguridad estrechando, mediante la educación, la ciencia, la cultura y la comunicación y la información, la colaboración entre las naciones, a fin de asegurar el respeto universal a la justicia, a la ley, a los derechos humanos y a las libertades fundamentales que se reconocen a todos los pueblos del mundo,

Convencida de que la Recomendación que aquí se presenta, en su calidad de instrumento normativo elaborado mediante un enfoque mundial, basado en el derecho internacional y centrado en la dignidad humana y los derechos humanos, así como en la igualdad de género, la justicia social y económica y el desarrollo, el bienestar físico y mental, la diversidad, la interconexión, la inclusión y la protección del medio ambiente y de los ecosistemas, puede dar una orientación responsable a las tecnologías de la IA,

Guiada por los propósitos y principios de la Carta de las Naciones Unidas,

Considerando que las tecnologías de la IA pueden ser de gran utilidad para la humanidad y que todos los países pueden beneficiarse de ellas, pero que también suscitan preocupaciones éticas fundamentales, por ejemplo, en relación con los sesgos que pueden incorporar y exacerbar, lo que puede llegar a provocar discriminación, desigualdad, brechas digitales y exclusión y suponer una amenaza para la diversidad cultural, social y biológica, así como generar divisiones sociales o económicas; la necesidad de transparencia e inteligibilidad del funcionamiento de los algoritmos y los datos con los que han sido entrenados; y su posible impacto en, entre otros, la dignidad humana, los derechos humanos y las libertades fundamentales, la igualdad de género, la democracia, los procesos sociales, económicos, políticos y culturales, las prácticas científicas y de ingeniería, el bienestar animal y el medio ambiente y los ecosistemas,

Reconociendo también que las tecnologías de la IA pueden agravar las divisiones y desigualdades existentes en el mundo, dentro de los países y entre ellos, y que es preciso defender la justicia, la confianza y la equidad para que ningún país y ninguna persona se queden atrás, ya sea mediante el acceso equitativo a las tecnologías de la IA y el disfrute de los beneficios que aportan o mediante la protección contra sus consecuencias negativas, reconociendo al mismo tiempo las diferentes circunstancias de los distintos países y respetando el deseo de algunas personas de no participar en todos los avances tecnológicos,

Consciente de que todos los países se enfrentan a una aceleración del uso de las tecnologías de la información y la comunicación y las tecnologías de la IA, así como a una necesidad cada vez mayor de alfabetización mediática e informacional, y de que la economía digital presenta importantes desafíos sociales, económicos y ambientales y ofrece oportunidades de compartir los beneficios, especialmente para los países de ingreso mediano bajo, incluidos, entre otros, los países menos adelantados (PMA), los países en desarrollo sin litoral (PDSL) y los pequeños Estados insulares en desarrollo (PEID), que requieren el reconocimiento, la protección y la promoción de las culturas, los valores y los conocimientos endógenos a fin de desarrollar economías digitales sostenibles,

Reconociendo además que las tecnologías de la IA pueden ser beneficiosas para el medio ambiente y los ecosistemas y que, para que esos beneficios se materialicen, no deberían pasarse por alto, sino tenerse en cuenta, los posibles daños y las repercusiones negativas que pueden ocasionar en el medio ambiente y los ecosistemas,

Observando que el hecho de tener en cuenta los riesgos y las preocupaciones éticas no debería obstaculizar la innovación y el desarrollo, sino más bien ofrecer nuevas oportunidades y estimular una investigación y una innovación realizadas de manera ética que afiancen las tecnologías de la IA en los derechos humanos y las libertades fundamentales, los valores, los principios y la reflexión moral y ética,

Recordando también que en noviembre de 2019 aprobó, en su 40ª reunión, la resolución 40 C/37, en la que encargó a la Directora General que “[preparara] un instrumento normativo internacional sobre la ética de la inteligencia artificial (IA) en forma de recomendación”, que se le presentaría en su 41ª reunión en 2021,

Reconociendo que el desarrollo de las tecnologías de la IA requiere un incremento proporcional de la educación en materia de datos y de la alfabetización mediática e informacional, así como el acceso a fuentes de información independientes, pluralistas y fidedignas, en particular en el marco de los esfuerzos destinados a atenuar los riesgos de información errónea, desinformación y discurso de odio, así como los daños causados por el uso indebido de los datos personales,

Observando también que el marco normativo para las tecnologías de la IA y sus implicaciones sociales se fundamenta en los marcos jurídicos internacionales y nacionales, los derechos humanos y las libertades fundamentales, la ética, la necesidad de acceder a los datos, la información y los conocimientos, la libertad de investigación e innovación y el bienestar de los seres humanos, del medio ambiente y de los ecosistemas, y conecta los valores y principios éticos con los retos y oportunidades vinculados a las tecnologías de la IA, sobre la base de un entendimiento común y unos objetivos compartidos,

Reconociendo también que los valores y principios éticos pueden ayudar a elaborar y aplicar medidas de política y normas jurídicas basadas en los derechos, proporcionando orientación con miras al rápido desarrollo tecnológico,

Convencida también de que las normas éticas aceptadas mundialmente para las tecnologías de la IA, que respetan plenamente el derecho internacional, en particular el derecho de los derechos humanos, pueden desempeñar una función esencial en la elaboración de normas relacionadas con la IA en todo el mundo,

Teniendo presentes la Declaración Universal de Derechos Humanos (1948), los instrumentos del marco internacional de derechos humanos, entre ellos la Convención sobre el Estatuto de los Refugiados (1951), el Convenio sobre la Discriminación (Empleo y Ocupación) (1958), la Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial (1965), el Pacto Internacional de Derechos Civiles y Políticos (1966), el Pacto Internacional de Derechos Económicos, Sociales y Culturales (1966), la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (1979), la Convención sobre los Derechos del Niño (1989), la Convención sobre los Derechos de las Personas con Discapacidad (2006), la Convención relativa a la Lucha contra las Discriminaciones en la Esfera de la Enseñanza (1960) y la Convención sobre la Protección y Promoción de la Diversidad de las Expresiones Culturales (2005), así como cualesquiera otros instrumentos, recomendaciones y declaraciones internacionales pertinentes,

Tomando nota de la Declaración sobre el Derecho al Desarrollo (1986); de la Declaración sobre las Responsabilidades de las Generaciones Actuales para con las Generaciones Futuras (1997); de la Declaración Universal sobre Bioética y Derechos Humanos (2005); de la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (2007); de la resolución de la Asamblea General de las Naciones Unidas sobre el examen de la Cumbre Mundial sobre la Sociedad de la Información (A/RES/70/125) (2015); de la resolución de la Asamblea General de las Naciones Unidas titulada “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible” (A/RES/70/1) (2015); de la Recomendación relativa a la Preservación del Patrimonio Documental, comprendido el Patrimonio Digital, y el Acceso al mismo (2015); de la Declaración de Principios Éticos en relación con el Cambio Climático (2017); de la Recomendación sobre la Ciencia y los Investigadores Científicos (2017); de los indicadores sobre la universalidad de Internet (aprobados en 2018 por el Programa Internacional para el Desarrollo de la Comunicación de la UNESCO), incluidos los principios ROAM (aprobados por la Conferencia General de la UNESCO en 2015); de la resolución del Consejo de Derechos Humanos sobre “El derecho a la privacidad en la era digital” (A/HRC/RES/42/15) (2019); y de la resolución del Consejo de Derechos Humanos titulada “Las tecnologías digitales nuevas y emergentes y los derechos humanos” (A/HRC/RES/41/11) (2019),

Haciendo hincapié en que debe prestarse atención específica a los países de ingreso mediano bajo, incluidos, entre otros, los PMA, los PDSL y los PEID, ya que, aunque tienen su propia capacidad, han estado insuficientemente representados en el debate sobre la ética de la IA, lo que suscita la preocupación de que se descuiden los conocimientos locales, el pluralismo cultural, los sistemas de valores y las exigencias de equidad mundial para gestionar las repercusiones positivas y negativas de las tecnologías de la IA,

Consciente también de que existen numerosas políticas en el plano nacional, así como otros marcos e iniciativas elaborados por las entidades pertinentes de las Naciones Unidas, por organizaciones intergubernamentales, incluidas organizaciones regionales, así como las del sector privado, y por organizaciones profesionales, organizaciones no gubernamentales y de la comunidad científica, relacionados con la ética y la regulación de las tecnologías de la IA,

Convencida además de que las tecnologías de la IA pueden aportar importantes beneficios, pero que su consecución también puede hacer aumentar la tensión en lo que respecta a la innovación, el acceso asimétrico a los conocimientos y las tecnologías, en particular la insuficiente educación digital y cívica que limita la capacidad del público para participar en los temas relacionados con la IA, así como las barreras al acceso a la información y las brechas en cuanto a las capacidades humanas e institucionales, los obstáculos al acceso a la innovación tecnológica y la falta de infraestructura física y digital y de marcos reguladores adecuados, en particular los relativos a los datos, problemas todos ellos que deben ser abordados,

Subrayando que es necesario fortalecer la cooperación y la solidaridad mundiales, en particular mediante el multilateralismo, para facilitar el acceso equitativo a las tecnologías de la IA y hacer frente a los desafíos que estas plantean en culturas y sistemas éticos diversos e interconectados, para reducir la posibilidad de usos indebidos, para aprovechar todo el potencial que la IA puede aportar, especialmente en el ámbito del desarrollo, y para garantizar que las estrategias nacionales en materia de IA se guíen por principios éticos,

Teniendo plenamente en cuenta que el rápido desarrollo de las tecnologías de la IA complica su aplicación y gobernanza éticas, así como el respeto y la protección de la diversidad cultural, y puede perturbar las normas y los valores éticos locales y regionales,

1. Aprueba la presente Recomendación sobre la Ética de la Inteligencia Artificial en este día veintitrés de noviembre de 2021;

2. Recomienda que los Estados Miembros apliquen, de manera voluntaria, las disposiciones de la presente Recomendación mediante la adopción de las medidas adecuadas, en particular las medidas legislativas o de otra índole que puedan ser necesarias, de acuerdo con la práctica constitucional y las estructuras de gobierno de cada Estado, con el fin de dar efecto en sus respectivas jurisdicciones a los principios y normas enunciados en la Recomendación, de conformidad con el derecho internacional, incluido el derecho internacional de los derechos humanos;

3. Recomienda también a los Estados Miembros que hagan partícipes a todas las partes interesadas, incluidas las empresas, para asegurarse de que desempeñan sus respectivas funciones en la aplicación de la presente Recomendación y que señalen la Recomendación a la atención de las autoridades, organismos, organizaciones universitarias y de investigación, instituciones y organizaciones de los sectores público, privado y de la sociedad civil que participan en las tecnologías de la IA, para que el desarrollo y la utilización de esas tecnologías se guíen tanto por una investigación científica sólida como por un análisis y una evaluación éticos.

I. ÁMBITO DE APLICACIÓN

1. La presente Recomendación trata de las cuestiones éticas relacionadas con el ámbito de la inteligencia artificial en la medida en que competen al mandato de la UNESCO. Aborda la ética de la IA como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación y la orientación normativas de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños y apoyándose en la ética de la ciencia y la tecnología.

2. La presente Recomendación no pretende proporcionar una única definición de la IA, ya que tal definición tendría que cambiar con el tiempo en función de los avances tecnológicos. Su objetivo es más bien abordar las características de los sistemas de IA que tienen una importancia ética central. Por tanto, la presente Recomendación considera los sistemas de IA sistemas capaces de procesar datos e información de una manera que se asemeja a un comportamiento inteligente, y abarca generalmente aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control. Tres elementos ocupan un lugar central en este enfoque:

(a) los sistemas de IA son tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diferentes grados de autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones. Pueden incluir varios métodos, como, por ejemplo, aunque no exclusivamente:

i) el aprendizaje automático, incluido el aprendizaje profundo y el aprendizaje de refuerzo;

ii) el razonamiento automático, incluidas la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización.

Los sistemas de IA pueden utilizarse en los sistemas ciberfísicos, incluidos la Internet de las cosas, los sistemas robóticos, la robótica social y las interfaces entre seres humanos y ordenadores, que comportan el control, la percepción, el procesamiento de los datos recogidos por sensores y el funcionamiento de los actuadores en el entorno en que operan los sistemas de IA;

b) las cuestiones éticas relativas a los sistemas de IA atañen a todas las etapas del ciclo de vida de estos sistemas, que aquí se entiende que van desde la investigación, la concepción y el desarrollo hasta el despliegue y la utilización, pasando por el mantenimiento, el funcionamiento, la comercialización, la financiación, el seguimiento y la evaluación, la validación, el fin de la utilización, el desmontaje y la terminación. Además, los actores de la IA pueden definirse como todo actor que participe en al menos una etapa del ciclo de vida del sistema de IA y pueden ser tanto personas físicas como jurídicas, por ejemplo, investigadores, programadores, ingenieros, especialistas en datos, usuarios finales, empresas, universidades y entidades públicas y privadas, entre otros;

c) los sistemas de IA plantean nuevos tipos de cuestiones éticas que incluyen, aunque no exclusivamente, su impacto en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación. Además, surgen nuevos desafíos éticos por el potencial de los algoritmos de la IA para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos. Algunas de estas cuestiones tienen que ver con la capacidad de los sistemas de IA para realizar tareas que antes solo podían hacer los seres vivos y que, en algunos casos, incluso se limitaban solo a los seres humanos. Estas características otorgan a los sistemas de IA una función nueva y determinante en las prácticas y la sociedad humanas, así como en su relación con el medio ambiente y los ecosistemas, creando un nuevo contexto para que los niños y los jóvenes crezcan, desarrollen una comprensión del mundo y de sí mismos, comprendan críticamente los medios de comunicación y la información y aprendan a tomar decisiones. A largo plazo, los sistemas de IA podrían disputar al ser humano el sentido especial de la experiencia y la capacidad de actuar que le son propios, lo que plantearía nuevas inquietudes sobre la autocomprensión, la interacción social, cultural y ambiental, la autonomía, la capacidad de actuar, el valor y la dignidad del ser humano, entre otras.

3. En la presente Recomendación se presta especial atención a las repercusiones éticas más amplias de los sistemas de IA en las principales esferas de competencia de la UNESCO ―la educación, la ciencia, la cultura y la comunicación y la información―, examinadas en el estudio preliminar sobre la ética de la inteligencia artificial elaborado en 2019 por la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO:

a) la educación, porque vivir en sociedades en proceso de digitalización exige nuevas prácticas educativas, una reflexión ética, un pensamiento crítico, prácticas de concepción responsables y nuevas competencias, dadas las implicaciones para el mercado laboral, la empleabilidad y la participación cívica;

b) la ciencia, en el sentido más amplio, que abarca todos los ámbitos académicos desde las ciencias exactas y naturales y las ciencias médicas hasta las ciencias sociales y humanas, ya que las tecnologías de la IA aportan nuevas capacidades y enfoques de investigación, influyen en nuestra concepción de la comprensión y la explicación científicas y crean una nueva base para la adopción de decisiones;

c) la identidad y la diversidad culturales, ya que las tecnologías de la IA pueden enriquecer las industrias culturales y creativas, pero también pueden dar lugar a una mayor concentración de la oferta de contenidos, los datos, los mercados y los ingresos de la cultura en manos de unos pocos actores, lo que puede tener consecuencias negativas para la diversidad y el pluralismo de las lenguas, los medios de comunicación, las expresiones culturales, la participación y la igualdad;

d) la comunicación y la información, ya que las tecnologías de la IA desempeñan una función cada vez más importante en el procesamiento, la estructuración y el suministro de información; las cuestiones del periodismo automatizado y del suministro algorítmico de noticias y la moderación y la conservación de contenidos en los medios sociales y los buscadores son solo algunos ejemplos que plantean cuestiones relacionadas con el acceso a la información, la desinformación, la información errónea, el discurso de odio, la aparición de nuevas formas de narrativa social, la discriminación, la libertad de expresión, la privacidad y la alfabetización mediática e informacional, entre otras.

4. La presente Recomendación se dirige a los Estados Miembros, tanto en su calidad de actores de la IA como de autoridades responsables de la elaboración de marcos jurídicos y reguladores a lo largo de todo el ciclo de vida de los sistemas de IA, así como de la promoción de la responsabilidad empresarial. También proporciona orientación ética a todos los actores de la IA, incluidos los sectores público y privado, al sentar las bases para una evaluación del impacto ético de los sistemas de IA a lo largo de su ciclo de vida.

II. FINES Y OBJETIVOS

5. La presente Recomendación tiene por objeto servir de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, así como para prevenir daños. Aspira también a estimular la utilización de los sistemas de IA con fines pacíficos.

6. Además de los marcos éticos relativos a la IA existentes en todo el mundo, la presente Recomendación pretende aportar un instrumento normativo aceptado mundialmente que no solo se centre en la articulación de valores y principios, sino también en su aplicación práctica, mediante recomendaciones de política concretas, haciendo especial hincapié en la inclusión, las cuestiones de igualdad de género y la protección del medio ambiente y los ecosistemas.

7. Dado que la complejidad de las cuestiones éticas que rodean a la IA exige la cooperación de múltiples partes interesadas en los diversos niveles y sectores de las comunidades internacionales, regionales y nacionales, la presente Recomendación tiene por objeto permitir que las partes interesadas asuman una responsabilidad compartida basada en un diálogo mundial e intercultural.

8. Los objetivos de la presente Recomendación son los siguientes:

a) proporcionar un marco universal de valores, principios y acciones para orientar a los Estados en la formulación de sus leyes, políticas u otros instrumentos relativos a la IA, de conformidad con el derecho internacional;

b) orientar las acciones de las personas, los grupos, las comunidades, las instituciones y las empresas del sector privado a fin de asegurar la incorporación de la ética en todas las etapas del ciclo de vida de los sistemas de IA;

c) proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana y la igualdad, incluida la igualdad de género; salvaguardar los intereses de las generaciones presentes y futuras; preservar el medio ambiente, la biodiversidad y los ecosistemas; y respetar la diversidad cultural en todas las etapas del ciclo de vida de los sistemas de IA;

d) fomentar el diálogo multidisciplinario y pluralista entre múltiples partes interesadas y la concertación sobre cuestiones éticas relacionadas con los sistemas de IA;

e) promover el acceso equitativo a los avances y los conocimientos en el ámbito de la IA y el aprovechamiento compartido de los beneficios, prestando especial atención a las necesidades y contribuciones de los países de ingreso mediano bajo, incluidos los PMA, los PDSL y los PEID.

III. VALORES Y PRINCIPIOS

9. Los valores y principios que figuran a continuación deberían ser respetados por todos los actores durante el ciclo de vida de los sistemas de IA, en primer lugar, y, cuando resulte necesario y conveniente, ser promovidos mediante modificaciones de las leyes, los reglamentos y las directrices empresariales existentes y la elaboración de otros nuevos. Todo ello debe ajustarse al derecho internacional, en particular la Carta de las Naciones Unidas y las obligaciones de los Estados Miembros en materia de derechos humanos, y estar en consonancia con los objetivos de sostenibilidad social, política, ambiental, educativa, científica y económica acordados internacionalmente, como los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

10. Los valores desempeñan una importante función como ideales que motivan la orientación de las medidas de política y las normas jurídicas. Mientras que el conjunto de valores que se enuncian a continuación inspira, por tanto, un comportamiento deseable y representa los fundamentos de los principios, los principios, por su parte, revelan los valores subyacentes de manera más concreta, de modo que estos últimos puedan aplicarse más fácilmente en las declaraciones de política y las acciones.

11. Si bien todos los valores y principios que se enuncian a continuación son deseables en sí mismos, en cualquier contexto práctico, puede haber tensiones entre ellos. En cualquier situación, será necesaria una evaluación del contexto para gestionar estas posibles tensiones, teniendo en cuenta el principio de proporcionalidad y de conformidad con los derechos humanos y las libertades fundamentales. En todos los casos, toda posible limitación de los derechos humanos y las libertades fundamentales ha de tener una base jurídica y ser razonable, necesaria y proporcional, así como conforme a las obligaciones de los Estados con arreglo al derecho internacional. Para elegir de manera juiciosa entre esas posibilidades, será necesario por lo general colaborar con una amplia gama de partes interesadas apropiadas, haciendo uso del diálogo social, así como de la deliberación ética, la diligencia debida y la evaluación del impacto.

12. La fiabilidad y la integridad del ciclo de vida de los sistemas de IA son esenciales para velar por que las tecnologías de la IA estén al servicio del bien de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, y encarnen los valores y principios enunciados en la presente Recomendación. Las personas deberían tener buenas razones para confiar en que los sistemas de IA pueden aportar beneficios individuales y compartidos, al tiempo que se adoptan medidas adecuadas para atenuar los riesgos. Un requisito esencial para la fiabilidad es que, a lo largo de su ciclo de vida, los sistemas de IA estén sujetos a un seguimiento exhaustivo por las partes interesadas pertinentes, según corresponda. Dado que la fiabilidad resulta de la aplicación de los principios expuestos en este documento, todas las medidas políticas propuestas en la presente Recomendación están dirigidas a promover la fiabilidad en todas las etapas del ciclo de vida de los sistemas de IA.

III.1 VALORES

Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana

13. La dignidad inviolable e intrínseca de cada ser humano constituye la base del sistema universal, indivisible, inalienable, interdependiente e interrelacionado de derechos humanos y libertades fundamentales. Por consiguiente, el respeto, la protección y la promoción de la dignidad humana y de los derechos establecidos por el derecho internacional, en particular el derecho internacional de los derechos humanos, son esenciales a lo largo del ciclo de vida de los sistemas de IA. La dignidad humana tiene que ver con el reconocimiento del valor intrínseco e igual de cada ser humano, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

14. Ningún ser humano ni comunidad humana debería sufrir daños o sometimiento, ya sean de carácter físico, económico, social, político, cultural o mental, durante ninguna etapa del ciclo de vida de los sistemas de IA. A lo largo de su ciclo de vida, los sistemas de IA deberían mejorar la calidad de vida de los seres humanos, dejando a las personas o los grupos la tarea de definir el concepto de “calidad de vida”, siempre que como resultado de esa definición no se produzca ninguna violación o abuso de los derechos humanos y las libertades fundamentales ni de la dignidad de las personas.

15. Las personas pueden interactuar con los sistemas de IA a lo largo de su ciclo de vida y recibir su asistencia, por ejemplo, para el cuidado de las personas vulnerables o en situación de vulnerabilidad, incluidos, entre otros, los niños, las personas de edad, las personas con discapacidad o los enfermos. En el marco de esas interacciones, las personas nunca deberían ser cosificadas, su dignidad no debería ser menoscabada de ninguna otra manera, y sus derechos humanos y libertades fundamentales nunca deberían ser objeto de violación o abusos.

16. Los derechos humanos y las libertades fundamentales han de ser respetados, protegidos y promovidos a lo largo del ciclo de vida de los sistemas de IA. Los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnicas y las universidades deben respetar los instrumentos y marcos de derechos humanos en sus intervenciones en los procesos que rodean el ciclo de vida de los sistemas de IA. Es necesario que las nuevas tecnologías proporcionen nuevos medios para promover, defender y ejercer los derechos humanos, y no para vulnerarlos.

Prosperidad del medio ambiente y los ecosistemas

17. La prosperidad del medio ambiente y los ecosistemas debería ser reconocida, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Además, el medio ambiente y los ecosistemas son una necesidad existencial para que la humanidad y los demás seres vivos puedan disfrutar de los beneficios derivados de los avances de la IA.

18. Todos los actores que participan en el ciclo de vida de los sistemas de IA deben respetar el derecho internacional y las leyes, normas y prácticas nacionales aplicables, como la precaución, concebidas para la protección y la restauración del medio ambiente y los ecosistemas y para el desarrollo sostenible. Deberían reducir el impacto ambiental de los sistemas de IA, en particular, aunque no exclusivamente, su huella de carbono, para asegurar la minimización del cambio climático y los factores de riesgo ambiental, y prevenir la explotación, la utilización y la transformación no sostenibles de los recursos naturales que contribuyen al deterioro del medio ambiente y a la degradación de los ecosistemas.

Garantizar la diversidad y la inclusión

19. El respeto, la protección y la promoción de la diversidad y la inclusión deberían garantizarse a lo largo del ciclo de vida de los sistemas de IA, de conformidad con el derecho internacional, en particular el derecho de los derechos humanos. Para ello se podría promover la participación activa de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

20. La diversidad de las elecciones de estilo de vida, creencias, opiniones, expresiones o experiencias personales, incluida la utilización opcional de sistemas de IA y la concepción conjunta de estas arquitecturas, no debería restringirse durante ninguna etapa del ciclo de vida de dichos sistemas.

21. Además, habría que esforzarse, principalmente mediante la cooperación internacional, por paliar la falta de infraestructura, educación y competencias tecnológicas necesarias, así como de marcos jurídicos, que afecta a algunas comunidades, en particular en los países de ingreso mediano bajo, los PMA, los PDSL y los PEID, y no aprovecharse nunca de esa situación.

Vivir en sociedades pacíficas, justas e interconectadas

22. Los actores de la IA deberían propiciar sociedades pacíficas y justas, sobre la base de un futuro interconectado en beneficio de todos, compatibles con los derechos humanos y las libertades fundamentales, y participar en su construcción. El valor de vivir en sociedades pacíficas y justas apunta al potencial de los sistemas de IA para contribuir a lo largo de su ciclo de vida a la interconexión de todas las criaturas vivas entre sí y con el medio natural.

23. La noción de interconexión de los seres humanos se basa en el conocimiento de que cada uno de ellos pertenece a un todo más amplio, que prospera cuando todas las partes que lo constituyen pueden progresar. Vivir en sociedades pacíficas, justas e interconectadas requiere un vínculo orgánico, inmediato y no calculado de solidaridad, caracterizado por una búsqueda permanente de relaciones pacíficas, tendentes al cuidado de los demás y del medio natural en el sentido más amplio del término.

24. Este valor exige que se promuevan la paz, la inclusión y la justicia, la equidad y la interconexión durante el ciclo de vida de los sistemas de IA, en la medida en que los procesos de dicho ciclo de vida no deberían segregar ni cosificar a los seres humanos y las comunidades ni mermar su libertad, su autonomía de decisión y su seguridad, así como tampoco dividir y enfrentar entre sí a las personas y los grupos ni amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio natural.

III.2 PRINCIPIOS

Proporcionalidad e inocuidad

25. Debería reconocerse que las tecnologías de la IA no garantizan necesariamente, por sí mismas, la prosperidad de los seres humanos ni del medio ambiente y los ecosistemas. Además, ninguno de los procesos relacionados con el ciclo de vida de los sistemas de IA podrá ir más allá de lo necesario para lograr propósitos u objetivos legítimos, y esos procesos deberían ser adecuados al contexto. En caso de que pueda producirse cualquier daño para los seres humanos, los derechos humanos y las libertades fundamentales, las comunidades y la sociedad en general, o para el medio ambiente y los ecosistemas, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca.

26. La decisión de utilizar sistemas de IA y la elección del método de IA deberían justificarse de las siguientes maneras: a) el método de IA elegido debería ser adecuado y proporcional para lograr un objetivo legítimo determinado; b) el método de IA elegido no debería vulnerar los valores fundamentales enunciados en el presente documento, en particular, su utilización no debe constituir una violación o un abuso de los derechos humanos; y c) el método de IA elegido debería ser adecuado al contexto y basarse en fundamentos científicos rigurosos. En los casos en que se entienda que las decisiones tienen un impacto irreversible o difícil de revertir o que pueden implicar decisiones de vida o muerte, la decisión final debería ser adoptada por un ser humano. En particular, los sistemas de IA no deberían utilizarse con fines de calificación social o vigilancia masiva.

Seguridad y protección

27. Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y deberían tenerse en cuenta, prevenirse y eliminarse a lo largo del ciclo de vida de los sistemas de IA para garantizar la seguridad y la protección de los seres humanos, del medio ambiente y de los ecosistemas. La seguridad y la protección de la IA se propiciarán mediante el desarrollo de marcos de acceso a los datos que sean sostenibles, respeten la privacidad y fomenten un mejor entrenamiento y validación de los modelos de IA que utilicen datos de calidad.

Equidad y no discriminación

28. Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, de conformidad con el derecho internacional. Ello supone adoptar un enfoque inclusivo para garantizar que los beneficios de las tecnologías de la IA estén disponibles y sean accesibles para todos, teniendo en cuenta las necesidades específicas de los diferentes grupos de edad, los sistemas culturales, los diferentes grupos lingüísticos, las personas con discapacidad, las niñas y las mujeres y las personas desfavorecidas, marginadas y vulnerables o en situación de vulnerabilidad. Los Estados Miembros deberían esforzarse por promover un acceso inclusivo para todos, incluidas las comunidades locales, a sistemas de IA con contenidos y servicios adaptados al contexto local, y respetando el multilingüismo y la diversidad cultural. Los Estados Miembros deberían esforzarse por reducir las brechas digitales y garantizar el acceso inclusivo al desarrollo de la IA y la participación en él. En el plano nacional, los Estados Miembros deberían promover la equidad entre las zonas rurales y urbanas y entre todas las personas, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo, en lo que respecta al acceso al ciclo de vida de los sistemas de IA y la participación en él. En el plano internacional, los países más avanzados tecnológicamente tienen la responsabilidad de ser solidarios con los menos avanzados para garantizar que los beneficios de las tecnologías de la IA se compartan de manera que, para estos últimos, el acceso al ciclo de vida de los sistemas de IA y la participación en él contribuyan a un orden mundial más equitativo en lo que respecta a la información, la comunicación, la cultura, la educación, la investigación y la estabilidad socioeconómica y política.

29. Los actores de la IA deberían hacer todo lo razonablemente posible por reducir al mínimo y evitar reforzar o perpetuar aplicaciones y resultados discriminatorios o sesgados a lo largo del ciclo de vida de los sistemas de IA, a fin de garantizar la equidad de dichos sistemas. Debería disponerse de un recurso efectivo contra la discriminación y la determinación algorítmica sesgada.

30. Además, es necesario abordar las brechas digital y de conocimientos dentro de los países y entre ellos a lo largo del ciclo de vida de los sistemas de IA, en particular en lo que respecta al acceso y la calidad del acceso a la tecnología y los datos, de conformidad con los marcos jurídicos nacionales, regionales e internacionales pertinentes, así como en lo referente a la conectividad, los conocimientos y las competencias y a la participación significativa de las comunidades afectadas, de manera que todas las personas sean tratadas equitativamente.

Sostenibilidad

31. El desarrollo de sociedades sostenibles depende del logro de un complejo conjunto de objetivos relacionados con distintas dimensiones humanas, sociales, culturales, económicas y ambientales. La llegada de las tecnologías de la IA puede beneficiar los objetivos de sostenibilidad o dificultar su consecución, dependiendo de la forma en que se apliquen en países con diferentes niveles de desarrollo. Por consiguiente, la evaluación continua de los efectos humanos, sociales, culturales, económicos y ambientales de las tecnologías de la IA debería llevarse a cabo con pleno conocimiento de las repercusiones de dichas tecnologías en la sostenibilidad como un conjunto de metas en constante evolución en toda una serie de dimensiones, como las que se definen actualmente en los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

Derecho a la intimidad y protección de datos

32. La privacidad, que constituye un derecho esencial para la protección de la dignidad, la autonomía y la capacidad de actuar de los seres humanos, debe ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Es importante que los datos para los sistemas de IA se recopilen, utilicen, compartan, archiven y supriman de forma coherente con el derecho internacional y acorde con los valores y principios enunciados en la presente Recomendación, respetando al mismo tiempo los marcos jurídicos nacionales, regionales e internacionales pertinentes.

33. Deberían establecerse en los planos nacional o internacional, de acuerdo con un enfoque de múltiples partes interesadas, marcos de protección de datos y mecanismos de gobernanza adecuados, protegidos por los sistemas judiciales y aplicados a lo largo del ciclo de vida de los sistemas de IA. Los marcos de protección de datos y todo mecanismo conexo deberían tomar como referencia los principios y normas internacionales de protección de datos relativos a la recopilación, la utilización y la divulgación de datos personales y al ejercicio de sus derechos por parte de los interesados, garantizando al mismo tiempo un objetivo legítimo y una base jurídica válida para el tratamiento de los datos personales, incluido el consentimiento informado.

34. Los sistemas algorítmicos requieren evaluaciones adecuadas del impacto en la privacidad, que incluyan también consideraciones sociales y éticas de su utilización y un empleo innovador del enfoque de privacidad desde la etapa de concepción. Los actores de la IA deben asumir la responsabilidad de la concepción y la aplicación de los sistemas de IA de manera que se garantice la protección de la información personal durante todo el ciclo de vida del sistema de IA.

Supervisión y decisión humanas

35. Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recurso relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes. La supervisión humana se refiere, por tanto, no solo a la supervisión humana individual, sino también a la supervisión pública inclusiva, según corresponda.

36. Puede ocurrir que, en algunas ocasiones, los seres humanos decidan depender de los sistemas de IA por razones de eficacia, pero la decisión de ceder el control en contextos limitados seguirá recayendo en los seres humanos, ya que estos pueden recurrir a los sistemas de IA en la adopción de decisiones y en la ejecución de tareas, pero un sistema de IA nunca podrá reemplazar la responsabilidad final de los seres humanos y su obligación de rendir cuentas. Por regla general, las decisiones de vida o muerte no deberían cederse a los sistemas de IA.

Transparencia y explicabilidad

37. La transparencia y la explicabilidad de los sistemas de IA suelen ser condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos. La transparencia es necesaria para que los regímenes nacionales e internacionales pertinentes en materia de responsabilidad funcionen eficazmente. La falta de transparencia también podría mermar la posibilidad de impugnar eficazmente las decisiones basadas en resultados producidos por los sistemas de IA y, por lo tanto, podría vulnerar el derecho a un juicio imparcial y a un recurso efectivo, y limita los ámbitos en los que estos sistemas pueden utilizarse legalmente.

38. Si bien hay que hacer todo lo posible por aumentar la transparencia y la explicabilidad de los sistemas de IA, incluidos los que tienen un efecto extraterritorial, a lo largo de su ciclo de vida para respaldar la gobernanza democrática, el grado de transparencia y explicabilidad debería ser siempre adecuado al contexto y al efecto, ya que puede ser necesario encontrar un equilibrio entre la transparencia y la explicabilidad y otros principios como la privacidad, la seguridad y la protección. Las personas deberían estar plenamente informadas cuando una decisión se basa en algoritmos de IA o se toma a partir de ellos, en particular cuando afecta a su seguridad o a sus derechos humanos; en esas circunstancias, deberían tener la oportunidad de solicitar explicaciones e información al actor de la IA o a las instituciones del sector público correspondientes. Además, las personas deberían poder conocer los motivos por los que se ha tomado una decisión que afecta a sus derechos y libertades y tener la posibilidad de presentar alegaciones a un miembro del personal de la empresa del sector privado o de la institución del sector público habilitado para revisar y enmendar la decisión. Los actores de la IA deberían informar a los usuarios cuando un producto o servicio se proporcione directamente o con la ayuda de sistemas de IA de manera adecuada y oportuna.

39. Desde un punto de vista sociotécnico, una mayor transparencia contribuye a crear sociedades más pacíficas, justas, democráticas e inclusivas. Posibilita un escrutinio público que puede reducir la corrupción y la discriminación, y también puede ayudar a detectar y prevenir los efectos negativos sobre los derechos humanos. La transparencia tiene como objetivo proporcionar información adecuada a los respectivos destinatarios para permitir su comprensión y fomentar la confianza. En el caso específico de los sistemas de IA, la transparencia puede permitir a las personas comprender cómo se implementa cada etapa de un sistema de IA, en función del contexto y la sensibilidad del sistema en cuestión. También puede proporcionar información sobre los factores que influyen en una predicción o decisión específicas, y sobre la existencia o no de garantías adecuadas (como medidas de seguridad o de equidad). En los casos de amenazas graves con repercusiones adversas para los derechos humanos, la transparencia puede requerir también que se compartan códigos o conjuntos de datos.

40. La explicabilidad supone hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos. La explicabilidad de los sistemas de IA también se refiere a la inteligibilidad de la entrada, salida y funcionamiento de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas. Así pues, la explicabilidad está estrechamente relacionada con la transparencia, ya que los resultados y los subprocesos que conducen a ellos deberían aspirar a ser comprensibles y trazables, apropiados al contexto. Los actores de la IA deberían comprometerse a velar por que los algoritmos desarrollados sean explicables. En el caso de las aplicaciones de IA cuyo impacto en el usuario final no es temporal, fácilmente reversible o de bajo riesgo, debería garantizarse que se proporcione una explicación satisfactoria con toda decisión que haya dado lugar a la acción tomada, a fin de que el resultado se considere transparente.

41. La transparencia y la explicabilidad están estrechamente relacionadas con las medidas adecuadas de responsabilidad y rendición de cuentas, así como con la fiabilidad de los sistemas de IA.

Responsabilidad y rendición de cuentas

42. Los actores de la IA y los Estados Miembros deberían respetar, proteger y promover los derechos humanos y las libertades fundamentales, y deberían también fomentar la protección del medio ambiente y los ecosistemas, asumiendo su responsabilidad ética y jurídica respectiva, de conformidad con el derecho nacional e internacional, en particular las obligaciones de los Estados Miembros en materia de derechos humanos, y con las directrices éticas establecidas durante todo el ciclo de vida de los sistemas de IA, incluso con respecto a los actores de la IA dentro de su territorio y bajo su control efectivos. La responsabilidad ética y la obligación de rendir cuentas de las decisiones y las acciones basadas de alguna manera en un sistema de IA siempre deberían ser atribuibles, en última instancia, a los actores de la IA conforme a la función que tengan en el ciclo de vida del sistema de IA.

43. Deberían elaborarse mecanismos adecuados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluso en lo que se refiere a la protección de los denunciantes de irregularidades, para garantizar la rendición de cuentas respecto de los sistemas de IA y de su impacto a lo largo de su ciclo de vida. Dispositivos tanto técnicos como institucionales deberían garantizar la auditabilidad y la trazabilidad (del funcionamiento) de los sistemas de IA, en particular para intentar solucionar cualquier conflicto con las normas relativas a los derechos humanos y las amenazas al bienestar del medio ambiente y los ecosistemas.

Sensibilización y educación

44. La sensibilización y la comprensión del público respecto de las tecnologías de la IA y el valor de los datos deberían promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación en materia de ética de la IA, la alfabetización mediática e informacional y la capacitación dirigida conjuntamente por los gobiernos, las organizaciones intergubernamentales, la sociedad civil, las universidades, los medios de comunicación, los dirigentes comunitarios y el sector privado, y teniendo en cuenta la diversidad lingüística, social y cultural existente, a fin de garantizar una participación pública efectiva, de modo que todos los miembros de la sociedad puedan adoptar decisiones informadas sobre su utilización de los sistemas de IA y estén protegidos de influencias indebidas.

45. El aprendizaje sobre el impacto de los sistemas de IA debería incluir el aprendizaje sobre los derechos humanos y las libertades fundamentales, a través de ellos y para ellos, lo que significa que el enfoque y la comprensión de los sistemas de IA deberían basarse en el impacto de estos sistemas en los derechos humanos y el acceso a esos derechos, así como en el medio ambiente y los ecosistemas.

Gobernanza y colaboración adaptativas y de múltiples partes interesadas

46. En la utilización de datos deben respetarse el derecho internacional y la soberanía nacional. Esto significa que los Estados, en cumplimiento del derecho internacional, pueden regular los datos generados dentro de sus territorios o que pasan por ellos y adoptar medidas para la regulación efectiva de los datos, en particular su protección, sobre la base del respeto del derecho a la privacidad, de conformidad con el derecho internacional y otras normas relativas a los derechos humanos.

47. La participación de las diferentes partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para garantizar enfoques inclusivos de la gobernanza de la IA, de modo que los beneficios puedan ser compartidos por todos, y para contribuir al desarrollo sostenible. Entre las partes interesadas figuran, entre otros, los gobiernos, las organizaciones intergubernamentales, la comunidad técnica, la sociedad civil, los investigadores y los círculos universitarios, los medios de comunicación, los responsables de la educación, los encargados de formular políticas, las empresas del sector privado, las instituciones de derechos humanos y los organismos de fomento de la igualdad, los órganos de vigilancia de la lucha contra la discriminación y los grupos de jóvenes y niños. Convendría adoptar normas abiertas y garantizar la interoperabilidad para facilitar la colaboración. Deberían adoptarse medidas para tener en cuenta los cambios en las tecnologías y la aparición de nuevos grupos de partes interesadas y para permitir una participación significativa de las personas, las comunidades y los grupos marginados y, si procede, en el caso de los pueblos indígenas, el respeto de su autonomía en la gestión de sus datos.

IV. ÁMBITOS DE ACCIÓN POLÍTICA

48. Las acciones políticas que se describen en los siguientes ámbitos de actuación ponen en práctica los valores y principios enunciados en la presente Recomendación. La principal acción consiste en que los Estados Miembros establezcan medidas eficaces, por ejemplo marcos o mecanismos normativos, y velen por que otras partes interesadas, como las empresas del sector privado, las instituciones universitarias y de investigación y la sociedad civil, se adhieran a ellas, sobre todo alentando a todas las partes interesadas a que elaboren instrumentos de evaluación del impacto en los derechos humanos, el estado de derecho, la democracia y la ética, así como instrumentos de diligencia debida, de conformidad con las orientaciones, incluidos los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. El proceso de elaboración de esas políticas o mecanismos debería incluir a todas las partes interesadas y tener en cuenta las circunstancias y prioridades de cada Estado Miembro. La UNESCO puede ser un asociado y apoyar a los Estados Miembros en la elaboración, así como en el seguimiento y la evaluación, de los mecanismos de política.

49. La UNESCO reconoce que los Estados Miembros se encontrarán en diferentes estadios de preparación para aplicar la presente Recomendación, desde los puntos de vista científico, tecnológico, económico, educativo, jurídico, regulador, de infraestructura, social y cultural, entre otros. Cabe señalar que, aquí, el “estadio de preparación” es un estado dinámico. Por consiguiente, a fin de posibilitar la aplicación efectiva de la presente Recomendación, la UNESCO: 1) elaborará una metodología de evaluación del estadio de preparación para ayudar a los Estados Miembros interesados a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones; y 2) garantizará el apoyo a los Estados Miembros interesados en lo que respecta a la elaboración de una metodología de la UNESCO para la evaluación del impacto ético de las tecnologías de la IA y el intercambio de mejores prácticas, directrices de evaluación y otros mecanismos y trabajo analítico.

ÁMBITO DE ACTUACIÓN 1: EVALUACIÓN DEL IMPACTO ÉTICO

50. Los Estados Miembros deberían establecer marcos de evaluación del impacto, como evaluaciones del impacto ético, para determinar y analizar los beneficios, los problemas y los riesgos de los sistemas de IA, así como medidas adecuadas de prevención, atenuación y seguimiento de los riesgos, entre otros mecanismos de garantía. Esas evaluaciones del impacto deberían revelar las repercusiones en los derechos humanos y las libertades fundamentales, en particular, aunque no exclusivamente, los derechos de las personas marginadas y vulnerables o en situación de vulnerabilidad, los derechos laborales, el medio ambiente y los ecosistemas, así como las consecuencias éticas y sociales, y facilitar la participación ciudadana, de conformidad con los valores y principios enunciados en la presente Recomendación.

51. Los Estados Miembros y las empresas del sector privado deberían desarrollar mecanismos de diligencia debida y supervisión para determinar, prevenir y atenuar los riesgos y rendir cuentas de la forma en que abordan el impacto de los sistemas de IA en el respeto de los derechos humanos, el estado de derecho y las sociedades inclusivas. Los Estados Miembros deberían también poder evaluar los efectos socioeconómicos de los sistemas de IA en la pobreza y velar por que la brecha entre los ricos y los pobres, así como la brecha digital entre los países y dentro de ellos, no aumenten con la adopción masiva de tecnologías de la IA en la actualidad y en el futuro. Para ello, en particular, deberían aplicarse protocolos de transparencia ejecutables, que correspondan al acceso a la información, incluida la información de interés público en poder de entidades privadas. Los Estados Miembros, las empresas del sector privado y la sociedad civil deberían investigar los efectos sociológicos y psicológicos de las recomendaciones basadas en la IA sobre los seres humanos en lo que respecta a su autonomía de decisión. Los sistemas de IA considerados riesgos potenciales para los derechos humanos deberían ser ampliamente probados por los actores de la IA, incluso en condiciones reales si es necesario, en el marco de la evaluación del impacto ético, antes de sacarlos al mercado.

52. Los Estados Miembros y las empresas deberían aplicar medidas adecuadas para vigilar todas las etapas del ciclo de vida de los sistemas de IA en el marco de la evaluación del impacto ético, incluidos el funcionamiento de los algoritmos utilizados para la adopción de decisiones, los datos y los actores de la IA que participan en el proceso, especialmente en los servicios públicos y en los casos en que se necesita una interacción directa con el usuario final. Las obligaciones de los Estados Miembros en materia de derechos humanos deberían formar parte de los aspectos éticos de las evaluaciones de los sistemas de IA.

53. Los gobiernos deberían adoptar un marco regulador que establezca un procedimiento para que las autoridades públicas, en particular, lleven a cabo evaluaciones del impacto ético de los sistemas de IA a fin de anticipar las repercusiones, atenuar los riesgos, evitar las consecuencias perjudiciales, facilitar la participación de los ciudadanos y hacer frente a los desafíos sociales. La evaluación también debería establecer mecanismos de supervisión adecuados, como la auditabilidad, la trazabilidad y la explicabilidad, que permitan evaluar los algoritmos, los datos y los procesos de concepción, así como incluir un examen externo de los sistemas de IA. Las evaluaciones del impacto ético deberían ser transparentes y abiertas al público, cuando proceda. También deberían ser multidisciplinarias, multiculturales, pluralistas e inclusivas y contar con múltiples partes interesadas. Se debería exigir a las autoridades públicas que supervisen los sistemas de IA que hayan implantado o desplegado, mediante la introducción de mecanismos e instrumentos adecuados.

ÁMBITO DE ACTUACIÓN 2: GOBERNANZA Y ADMINISTRACIÓN ÉTICAS

54. Los Estados Miembros deberían velar por que los mecanismos de gobernanza de la IA sean inclusivos, transparentes, multidisciplinarios y multilaterales (lo que incluye la posibilidad de atenuar y reparar daños más allá de las fronteras) y cuenten con múltiples partes interesadas. En particular, la gobernanza debería incluir aspectos de previsión y dispositivos eficaces de protección, seguimiento de los efectos, aplicación y reparación.

55. Los Estados Miembros deberían velar por que se investiguen y reparen los daños causados mediante sistemas de IA, estableciendo mecanismos de aplicación estrictos y medidas correctivas, a fin de asegurarse de que los derechos humanos, las libertades fundamentales y el estado de derecho son respetados en el mundo digital y en el mundo físico. Entre esos mecanismos y medidas deberían figurar mecanismos de reparación aportados por empresas de los sectores público y privado. Con ese fin, debería promoverse la auditabilidad y la trazabilidad de los sistemas de IA. Además, los Estados Miembros deberían reforzar sus capacidades institucionales para cumplir con este compromiso y deberían colaborar con investigadores y otras partes interesadas para investigar, prevenir y minimizar todo uso potencialmente malicioso de los sistemas de IA.

56. Se alienta a los Estados Miembros a que elaboren estrategias nacionales y regionales en materia de IA y consideren la posibilidad de adoptar formas de gobernanza “blanda”, por ejemplo, un mecanismo de certificación para los sistemas de IA y el reconocimiento mutuo de su certificación, con arreglo a la sensibilidad del ámbito de aplicación y al impacto previsto en los derechos humanos, el medio ambiente y los ecosistemas, así como otras consideraciones éticas establecidas en la presente Recomendación. Dicho mecanismo podría incluir diferentes niveles de auditoría de los sistemas, los datos y el cumplimiento de las directrices éticas y de los requisitos de procedimiento teniendo en cuenta los aspectos éticos. Al mismo tiempo, no debería obstaculizar la innovación ni poner en situación de desventaja a las pequeñas y medianas empresas o las empresas incipientes, la sociedad civil y las organizaciones científicas y de investigación como resultado de una carga administrativa excesiva. Ese mecanismo también debería incluir un componente de seguimiento periódico para garantizar la solidez del sistema de IA y el mantenimiento de su integridad y su cumplimiento de las directrices éticas durante todo su ciclo de vida, exigiendo una nueva certificación si fuera necesario.

57. Los Estados Miembros y las autoridades públicas deberían realizar una autoevaluación transparente de los sistemas de IA existentes y propuestos, en la cual se debería analizar, en particular, si la adopción de la IA es apropiada y, en caso afirmativo, realizar una nueva evaluación para establecer cuál es el método adecuado, así como una evaluación para determinar si dicha adopción daría lugar a violaciones o abusos de las obligaciones de los Estados Miembros en materia de derechos humanos y, si así fuera, prohibir su utilización.

58. Los Estados Miembros deberían alentar a las entidades públicas, las empresas del sector privado y las organizaciones de la sociedad civil a que incorporen a diferentes partes interesadas a su gobernanza en materia de IA y consideren la posibilidad de añadir una función de responsable independiente de la ética de la IA o algún otro mecanismo para supervisar las actividades relacionadas con la evaluación del impacto ético, las auditorías y el seguimiento continuo, así como para garantizar la orientación ética de los sistemas de IA. Se alienta a los Estados Miembros, las empresas del sector privado y las organizaciones de la sociedad civil a que, con el respaldo de la UNESCO, creen una red de responsables independientes de la ética de la IA para apoyar este proceso en los planos nacional, regional e internacional.

59. Los Estados Miembros deberían fomentar el desarrollo y la accesibilidad de un ecosistema digital para el desarrollo ético e inclusivo de los sistemas de IA en el plano nacional, en particular con miras a reducir las diferencias de acceso durante el ciclo de vida de los sistemas de IA, contribuyendo al mismo tiempo a la colaboración internacional. Ese ecosistema incluiría, en particular, tecnologías e infraestructuras digitales y mecanismos para compartir los conocimientos en materia de IA, según proceda.

60. Los Estados Miembros deberían establecer mecanismos, en colaboración con las organizaciones internacionales, las empresas transnacionales, las instituciones universitarias y la sociedad civil, para garantizar la participación activa de todos los Estados Miembros, especialmente los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, en los debates internacionales sobre la gobernanza de la IA. Esto puede hacerse mediante la provisión de fondos, garantizando la participación regional en condiciones de igualdad, o mediante cualquier otro mecanismo. Además, para velar por que los foros sobre la IA sean inclusivos, los Estados Miembros deberían facilitar los desplazamientos de los actores de la IA dentro y fuera de su territorio, especialmente los de los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, para que puedan participar en esos foros.

61. Las modificaciones de la legislación nacional existente o la elaboración de una nueva legislación nacional en materia de sistemas de IA deben ajustarse a las obligaciones de los Estados Miembros en materia de derechos humanos y promover los derechos humanos y las libertades fundamentales a lo largo del ciclo de vida de esos sistemas. La promoción de los derechos humanos y las libertades fundamentales también debería adoptar la forma de iniciativas de gobernanza, buenos ejemplos de prácticas de colaboración en relación con los sistemas de IA y directrices técnicas y metodológicas nacionales e internacionales a medida que avancen las tecnologías de la IA. En sus prácticas relativas a los sistemas de IA, diversos sectores, incluido el privado, deben respetar, proteger y promover los derechos humanos y las libertades fundamentales utilizando los instrumentos existentes y nuevos en combinación con la presente Recomendación.

62. Los Estados Miembros que adquieran sistemas de IA para casos de utilización sensible en materia de derechos humanos, como la aplicación de la ley, la asistencia social, el empleo, los medios de comunicación y los proveedores de información, la atención de la salud y el sistema judicial independiente, deberían prever mecanismos para vigilar el impacto social y económico de dichos sistemas mediante autoridades de supervisión adecuadas, como autoridades independientes de protección de datos, una supervisión sectorial y organismos públicos encargados de la supervisión.

63. Los Estados Miembros deberían reforzar la capacidad del poder judicial para adoptar decisiones relacionadas con los sistemas de IA en el marco del estado de derecho y de conformidad con el derecho y las normas internacionales, en particular en lo que respecta a la utilización de los sistemas de IA en sus deliberaciones, velando al mismo tiempo por que se respete el principio de la supervisión humana. En caso de que los sistemas de IA sean utilizados por el poder judicial, se necesitan suficientes salvaguardias para garantizar, entre otras cosas, la protección de los derechos humanos fundamentales, el estado de derecho, la independencia judicial y el principio de supervisión humana, así como para asegurar un desarrollo y una utilización de los sistemas de IA en el poder judicial que sean fiables, orientados al interés público y centrados en el ser humano.

64. Los Estados Miembros deberían velar por que los gobiernos y las organizaciones multilaterales desempeñen una función de liderazgo para garantizar la seguridad y la protección de los sistemas de IA, con la participación de múltiples partes interesadas. En concreto, los Estados Miembros, las organizaciones internacionales y otros órganos pertinentes deberían elaborar normas internacionales que describan niveles de seguridad y transparencia mensurables y comprobables, de modo que se puedan evaluar objetivamente los sistemas y determinar los niveles de cumplimiento. Además, los Estados Miembros y las empresas deberían apoyar continuamente la investigación estratégica sobre los posibles riesgos de seguridad y protección de las tecnologías de la IA y deberían alentar la investigación sobre la transparencia y la explicabilidad, la inclusión y los conocimientos de esas tecnologías asignando fondos adicionales a esas esferas para diferentes ámbitos y en diferentes niveles, como el lenguaje técnico y natural.

65. Los Estados Miembros deberían aplicar políticas destinadas a garantizar que las acciones de los actores de la IA se ajusten al derecho, las normas y los principios internacionales de derechos humanos durante todo el ciclo de vida de los sistemas de IA, tomando plenamente en consideración al mismo tiempo las diversidades culturales y sociales existentes, en particular las costumbres locales y las tradiciones religiosas, con el debido respeto a la primacía y la universalidad de los derechos humanos.

66. Los Estados Miembros deberían establecer mecanismos para exigir a los actores de la IA que revelen y combatan toda clase de estereotipos en los resultados de los sistemas y datos de IA, ya sean deliberados o por negligencia, y que velen por que los conjuntos de datos de entrenamiento para los sistemas de IA no fomenten las desigualdades culturales, económicas o sociales, los prejuicios, la propagación de desinformación y de información falsa y la vulneración de la libertad de expresión y del acceso a la información. Debería prestarse especial atención a las regiones donde los datos son escasos.

67. Los Estados Miembros deberían aplicar políticas para promover y aumentar la diversidad y la inclusión en los equipos de desarrollo de la IA y los conjuntos de datos de entrenamiento, de modo que estos sean un reflejo de su población, así como para velar por la igualdad de acceso a las tecnologías de la IA y sus beneficios, en particular para los grupos marginados, tanto de zonas rurales como urbanas.

68. Los Estados Miembros deberían elaborar, examinar y adaptar, según proceda, marcos reguladores para alcanzar la rendición de cuentas y la responsabilidad por el contenido y los resultados de los sistemas de IA en las diferentes etapas de su ciclo de vida. Cuando sea necesario, los Estados Miembros deberían introducir marcos de responsabilidad o aclarar la interpretación de los marcos existentes para garantizar la atribución de la responsabilidad por los resultados y el funcionamiento de los sistemas de IA. Además, al elaborar los marcos reguladores, los Estados Miembros deberían tener en cuenta, en particular, que la responsabilidad y la rendición de cuentas deben recaer siempre en última instancia en personas físicas o jurídicas y que no se debe otorgar personalidad jurídica a los propios sistemas de IA. Para lograrlo, esos marcos reguladores deberían ajustarse al principio de la supervisión humana y establecer un enfoque global centrado en los actores de la IA y los procesos tecnológicos que intervienen en las diferentes etapas del ciclo de vida de los sistemas de IA.

69. A fin de establecer normas cuando no las haya, o de adaptar los marcos jurídicos existentes, los Estados Miembros deberían contar con todos los actores de la IA (incluidos, entre otros, investigadores, representantes de la sociedad civil y de los organismos encargados de hacer cumplir la ley, aseguradores, inversores, fabricantes, ingenieros, abogados y usuarios). Las normas pueden evolucionar hasta convertirse en mejores prácticas, leyes y reglamentos. Se alienta además a los Estados Miembros a que utilicen mecanismos como los prototipos de políticas y los entornos de pruebas reguladores para acelerar la formulación de leyes, reglamentos y políticas, incluidas sus revisiones periódicas, acordes con el rápido desarrollo de las nuevas tecnologías y garantizar que las leyes y los reglamentos se puedan poner a prueba en un entorno seguro antes de su aprobación oficial. Los Estados Miembros deberían apoyar a los gobiernos locales en la formulación de políticas, reglamentos y leyes locales que estén en consonancia con los marcos jurídicos nacionales e internacionales.

70. Los Estados Miembros deberían establecer requisitos claros de transparencia y explicabilidad de los sistemas de IA para ayudar a garantizar la fiabilidad de dichos sistemas durante todo su ciclo de vida. Esos requisitos deberían abarcar la concepción y la aplicación de mecanismos de evaluación del impacto que tengan en cuenta la naturaleza del ámbito de aplicación, la utilización prevista, los destinatarios y la viabilidad de cada sistema de IA en particular.

ÁMBITO DE ACTUACIÓN 3: POLÍTICA DE DATOS

71. Los Estados Miembros deberían procurar elaborar estrategias de gobernanza de datos que garanticen la evaluación continua de la calidad de los datos de entrenamiento para los sistemas de IA, en particular la idoneidad de los procesos de recopilación y selección de datos, y que prevean medidas adecuadas de seguridad y protección de los datos, así como mecanismos de retroalimentación para aprender de los errores y compartir las mejores prácticas entre todos los actores de la IA.

72. Los Estados Miembros deberían establecer salvaguardias adecuadas para proteger el derecho a la privacidad, de conformidad con el derecho internacional, en particular respondiendo a preocupaciones como la vigilancia. Los Estados Miembros deberían, entre otras medidas, adoptar o aplicar marcos legislativos que proporcionen una protección adecuada, conforme al derecho internacional. Los Estados Miembros deberían alentar enérgicamente a todos los actores de la IA, incluidas las empresas, a que cumplan las normas internacionales vigentes y, en particular, a que realicen evaluaciones adecuadas del impacto en la privacidad, como parte de las evaluaciones del impacto ético, que tengan en cuenta las repercusiones socioeconómicas más amplias del tratamiento previsto de los datos, y a que apliquen el principio de protección de la privacidad desde la concepción de sus sistemas. La privacidad debería ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA.

73. Los Estados Miembros deberían velar por que las personas conserven sus derechos sobre sus datos personales y estén protegidas por un marco que prevea, en particular: la transparencia; salvaguardias adecuadas para el tratamiento de datos sensibles; un nivel adecuado de protección de los datos; planes y mecanismos de rendición de cuentas eficaces y significativos; el pleno disfrute de los derechos de los interesados y la posibilidad de acceder a los datos personales en los sistemas de IA y de borrarlos, excepto en determinadas circunstancias, de conformidad con el derecho internacional; un nivel adecuado de protección que cumpla plenamente la legislación en materia de protección de datos cuando estos se utilicen con fines comerciales —por ejemplo, para permitir la publicidad con fines específicos— o sean transferidos al extranjero; y una supervisión eficaz e independiente en el marco de un mecanismo de gobernanza de los datos que permita a las personas mantener el control de sus datos personales y promueva los beneficios de la libre circulación de información a nivel internacional, incluido el acceso a los datos.

74. Los Estados Miembros deberían establecer sus políticas de datos o marcos equivalentes, o reforzar las políticas y marcos existentes, para garantizar la seguridad total de los datos personales y los datos sensibles que, de ser divulgados, puedan causar daños, lesiones o dificultades excepcionales a las personas. Cabe citar como ejemplos los datos relativos a infracciones, procesos penales y condenas, así como a las medidas de seguridad conexas; los datos biométricos, genéticos y de salud; y los datos personales como los relativos a la raza, el color, la ascendencia, el género, la edad, el idioma, la religión, las opiniones políticas, el origen nacional, étnico o social, la condición económica o social de nacimiento, la discapacidad o cualquier otra característica.

75. Los Estados Miembros deberían promover los datos abiertos. A este respecto, los Estados Miembros deberían considerar la posibilidad de revisar sus políticas y marcos reguladores, particularmente en lo que respecta al acceso a la información y el gobierno abierto, para reflejar los requisitos específicos de la IA y promover mecanismos, como repositorios abiertos de datos y códigos fuente públicos o de financiación pública y fideicomisos de datos, a fin de apoyar el intercambio seguro, equitativo, legal y ético de datos, entre otros.

76. Los Estados Miembros deberían promover y facilitar el uso de conjuntos de datos sólidos y de calidad para el entrenamiento, el desarrollo y la utilización de los sistemas de IA y ejercer vigilancia al supervisar su recopilación y utilización. Esto podría suponer, si es posible y factible, invertir en la creación de conjuntos de datos de excelencia, incluidos conjuntos de datos abiertos y fiables, que sean diversos, establecidos sobre una base jurídica válida, en particular con el consentimiento de los interesados, cuando así lo exija la ley. Debería alentarse la elaboración de normas para anotar los conjuntos de datos, incluido el desglose de datos por género y otros criterios, de manera que pueda determinarse fácilmente cómo se recopila un conjunto de datos y qué propiedades tiene.

77. Como también se sugiere en el informe del Panel de Alto Nivel sobre la Cooperación Digital del Secretario General de las Naciones Unidas, los Estados Miembros, con el apoyo de las Naciones Unidas y la UNESCO, deberían adoptar un enfoque de patrimonio digital común respecto a los datos, cuando proceda, aumentar la interoperabilidad de los instrumentos y conjuntos de datos, así como las interfaces de los sistemas que albergan datos, y alentar a las empresas del sector privado a que compartan con todas las partes interesadas los datos que recopilan, en beneficio de la investigación, la innovación o el interés público, según proceda. También deberían promover las iniciativas públicas y privadas para crear plataformas de colaboración destinadas a compartir datos de calidad en espacios de datos fiables y seguros.

ÁMBITO DE ACTUACIÓN 4: DESARROLLO Y COOPERACIÓN INTERNACIONAL

78. Los Estados Miembros y las empresas transnacionales deberían dar prioridad a la ética de la IA, incluyendo debates sobre cuestiones éticas relacionadas con la IA en los foros internacionales, intergubernamentales y de múltiples partes interesadas pertinentes.

79. Los Estados Miembros deberían velar por que la utilización de la IA en esferas relacionadas con el desarrollo, como la educación, la ciencia, la cultura, la comunicación y la información, la atención sanitaria, la agricultura y el suministro de alimentos, el medio ambiente, la gestión de recursos naturales y de infraestructuras y la planificación y el crecimiento económicos, entre otras, respete los valores y principios enunciados en la presente Recomendación.

80. Los Estados Miembros deberían procurar, por conducto de organizaciones internacionales, establecer plataformas de cooperación internacional en el ámbito de la IA para el desarrollo, en particular aportando competencias técnicas, financiación, datos, conocimientos del sector e infraestructura y facilitando la colaboración entre múltiples partes interesadas para hacer frente a los problemas complejos en materia de desarrollo, especialmente para los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID.

81. Los Estados Miembros deberían procurar promover la colaboración internacional en materia de investigación e innovación en IA, especialmente en centros y redes de investigación e innovación que promuevan una mayor participación y liderazgo de los investigadores procedentes de países de ingreso mediano bajo y otros países, en particular de PMA, PDSL y PEID.

82. Los Estados Miembros deberían promover las investigaciones sobre la ética de la IA recurriendo a organizaciones internacionales e instituciones de investigación, así como a empresas transnacionales, que puedan servir de base para la utilización ética de los sistemas de IA por entidades públicas y privadas, incluidas las investigaciones sobre la aplicabilidad de marcos éticos específicos en culturas y contextos concretos y sobre las posibilidades de elaborar soluciones tecnológicamente viables de conformidad con esos marcos.

83. Los Estados Miembros deberían alentar la cooperación y la colaboración internacionales en el ámbito de la IA para salvar las divisiones geotecnológicas. Deberían realizarse intercambios y consultas de carácter tecnológico entre los Estados Miembros y su población, entre los sectores público y privado y entre los países más y menos avanzados tecnológicamente, respetando plenamente el derecho internacional.

ÁMBITO DE ACTUACIÓN 5: MEDIO AMBIENTE Y ECOSISTEMAS

84. Los Estados Miembros y las empresas deberían evaluar el impacto ambiental directo e indirecto de los sistemas de IA a lo largo de su ciclo de vida, en particular, aunque no exclusivamente, su huella de carbono, su consumo de energía y el impacto ambiental de la extracción de las materias primas necesarias para la fabricación de tecnologías de la IA, y reducir el impacto ambiental de los sistemas de IA y las infraestructuras de datos. Los Estados Miembros deberían asegurar el cumplimiento de las leyes, políticas y prácticas ambientales por parte de todos los actores de la IA.

85. Los Estados Miembros deberían establecer incentivos, cuando sea necesario y apropiado, para garantizar la elaboración y adopción de soluciones basadas en los derechos y en la ética de la IA en favor de la resiliencia ante el riesgo de desastres; la vigilancia, protección y regeneración del medio ambiente y los ecosistemas; y la preservación del planeta. Esos sistemas de IA deberían contar, durante todo su ciclo de vida, con la participación de las comunidades locales e indígenas y apoyar enfoques del tipo de economía circular y modalidades de consumo y producción sostenibles. Por ejemplo, los sistemas de IA podrían utilizarse, cuando sea necesario y apropiado, para:

a) apoyar la protección, el seguimiento y la gestión de los recursos naturales;

b) apoyar la predicción, la prevención, el control y la atenuación de los problemas relacionados con el clima;

c) favorecer un ecosistema alimentario más eficiente y sostenible;

d) contribuir a acelerar el acceso a la energía sostenible y su adopción a gran escala;

e) facilitar y promover la incorporación de infraestructuras sostenibles, modelos empresariales sostenibles y financiación sostenible al servicio del desarrollo sostenible;

f) detectar los contaminantes o prever los niveles de contaminación y, de ese modo, ayudar a las partes interesadas pertinentes a definir, planificar y poner en marcha intervenciones específicas para prevenir y reducir la contaminación y la exposición.

86. Al elegir un método de IA, dada la gran necesidad potencial de datos o recursos de algunos de ellos y su consiguiente impacto en el medio ambiente, los Estados Miembros deberían velar por que los actores de la IA, de conformidad con el principio de proporcionalidad, favorezcan los métodos de IA eficientes en cuanto a datos, energía y recursos. Deberían establecerse requisitos destinados a garantizar que se disponga de pruebas adecuadas para demostrar que una aplicación de IA tendrá el efecto deseado, o que dicha aplicación cuenta con garantías que permitan justificar su utilización. Si esto no es posible, deberá privilegiarse el principio de precaución y, en los casos en que haya impactos negativos desproporcionados en el medio ambiente, no debería utilizarse la IA.

ÁMBITO DE ACTUACIÓN 6: GÉNERO

87. Los Estados Miembros deberían velar por que se optimice plenamente el potencial de las tecnologías digitales y la inteligencia artificial para contribuir a lograr la igualdad de género, y han de asegurarse de que no se conculquen los derechos humanos y las libertades fundamentales de las niñas y las mujeres, ni su seguridad e integridad, en ninguna etapa del ciclo de vida de los sistemas de IA. Además, la evaluación del impacto ético debería incluir una perspectiva transversal de género.

88. Los Estados Miembros deberían asignar fondos específicos de sus presupuestos públicos a la financiación de planes con perspectiva de género, velar por que las políticas digitales nacionales incluyan un plan de acción en materia de género y elaborar políticas pertinentes, por ejemplo, sobre la educación laboral, destinadas a apoyar a las niñas y las mujeres para que no queden excluidas de la economía digital impulsada por la IA. Deberían considerarse y realizarse inversiones especiales para ofrecer programas específicos y un lenguaje que respete la igualdad de género, a fin de ampliar las oportunidades de participación de las niñas y las mujeres en la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), incluidas las disciplinas relacionadas con las tecnologías de la información y la comunicación (TIC), y mejorar la preparación, la empleabilidad, el desarrollo de las perspectivas de carrera en condiciones de igualdad y el crecimiento profesional de las niñas y las mujeres.

89. Los Estados Miembros deberían velar por que se aproveche el potencial de los sistemas de IA para impulsar el logro de la igualdad de género. Deberían asegurarse de que estas tecnologías no exacerben las ya amplias brechas que existen entre los géneros en varios ámbitos del mundo analógico, sino que, al contrario, las eliminen. Entre estas brechas cabe citar la disparidad salarial entre hombres y mujeres; su representación desigual en ciertas profesiones y actividades; la falta de representación en los puestos directivos superiores, las juntas directivas o los equipos de investigación en el campo de la IA; la brecha educativa; las desigualdades en el acceso, la adopción, la utilización y la asequibilidad de la tecnología digital y de la IA; y la distribución desigual del trabajo no remunerado y de las responsabilidades de cuidado en nuestras sociedades.

90. Los Estados Miembros deberían velar por que los estereotipos de género y los sesgos discriminatorios no se trasladen a los sistemas de IA, sino que se detecten y corrijan de manera proactiva. Es preciso esforzarse por evitar el efecto negativo combinado de las brechas tecnológicas para lograr la igualdad de género y prevenir la violencia contra las niñas y las mujeres, así como contra los grupos insuficientemente representados, que puede manifestarse en forma de hostigamiento, acoso o trata, incluso en línea.

91. Los Estados Miembros deberían alentar la iniciativa empresarial, la participación y el compromiso de las mujeres en todas las etapas del ciclo de vida de los sistemas de IA, ofreciendo y promoviendo incentivos económicos y reguladores, entre otros estímulos y planes de apoyo, así como políticas encaminadas a lograr una participación equilibrada de hombres y mujeres en la investigación en IA en las universidades y la representación de género en los puestos directivos superiores, las juntas directivas y los equipos de investigación de las empresas digitales y de IA. Los Estados Miembros deberían garantizar que los fondos públicos (para innovación, investigación y tecnologías) se destinen a programas y empresas inclusivos, con un claro equilibrio de género, y que se alienten igualmente los fondos privados mediante principios de acción afirmativa. Deberían elaborarse y aplicarse políticas que favorezcan los entornos libres de acoso, alentando al mismo tiempo la transferencia de las mejores prácticas sobre la forma de promover la diversidad durante el ciclo de vida de los sistemas de IA.

92. Los Estados Miembros deberían promover la diversidad de género en la investigación en IA en el mundo universitario y la industria, ofreciendo incentivos a las niñas y las mujeres para que se incorporen a este campo, estableciendo mecanismos para luchar contra los estereotipos de género y el acoso en la comunidad de investigadores en IA y alentando a las entidades universitarias y privadas a que compartan las mejores prácticas sobre la forma de potenciar la diversidad de género.

93. La UNESCO puede ayudar a compilar un repositorio de mejores prácticas para incentivar la participación de las niñas, las mujeres y los grupos insuficientemente representados en todas las etapas del ciclo de vida de los sistemas de IA.

ÁMBITO DE ACTUACIÓN 7: CULTURA

94. Se alienta a los Estados Miembros a que incorporen sistemas de IA, cuando proceda, a la preservación, el enriquecimiento, la comprensión, la promoción, la gestión y la accesibilidad del patrimonio cultural material, documental e inmaterial, incluidas las lenguas en peligro y las lenguas y conocimientos indígenas, por ejemplo, introduciendo o actualizando programas educativos relacionados con la aplicación de los sistemas de IA en esas esferas, cuando sea apropiado, y asegurando un enfoque participativo, dirigidos a las instituciones y al público.

95. Se alienta a los Estados Miembros a que examinen y aborden las repercusiones de los sistemas de IA en la cultura, especialmente de las aplicaciones de procesamiento del lenguaje natural (PLN), como la traducción automática y los asistentes de voz, en los matices del lenguaje y la expresión humanos. Esas evaluaciones deberían contribuir a la elaboración y aplicación de estrategias que maximicen los beneficios de esos sistemas reduciendo las desigualdades culturales y mejorando la comprensión humana, así como haciendo frente a las repercusiones negativas, como una menor utilización, que podría conducir a la desaparición de lenguas en peligro, dialectos locales y variaciones tonales y culturales asociadas con el lenguaje y la expresión humanos.

96. Los Estados Miembros deberían promover la educación en IA y la capacitación digital de los artistas y los profesionales creativos, a fin de que puedan evaluar la idoneidad de las tecnologías de la IA para utilizarlas en su profesión y contribuir a la concepción y aplicación de tecnologías de la IA adecuadas, ya que estas tecnologías se emplean actualmente para crear, producir, distribuir, difundir y consumir una variedad de bienes y servicios culturales, teniendo en cuenta la importancia de preservar el patrimonio cultural, la diversidad y la libertad artística.

97. Los Estados Miembros deberían promover el conocimiento y la evaluación de los instrumentos de IA entre las industrias culturales locales y las pequeñas y medianas empresas que trabajan en el ámbito de la cultura, a fin de evitar el riesgo de concentración en el mercado cultural.

98. Los Estados Miembros deberían contar con las empresas tecnológicas y otras partes interesadas para promover una oferta diversa de expresiones culturales y un acceso plural a ellas y, en particular, para garantizar que la recomendación algorítmica aumente la notoriedad de los contenidos locales y la posibilidad de descubrirlos.

99. Los Estados Miembros deberían promover nuevas investigaciones en la intersección entre la IA y la propiedad intelectual, por ejemplo, para determinar si hay que proteger con derechos de propiedad intelectual las obras creadas mediante tecnologías de la IA y la manera de hacerlo. Los Estados Miembros también deberían evaluar cómo afectan las tecnologías de la IA a los derechos o los intereses de los titulares de derechos de propiedad intelectual cuyas obras se utilizan para investigar, desarrollar, entrenar o implantar aplicaciones de IA.

100. Los Estados Miembros deberían alentar a los museos, las galerías, las bibliotecas y los archivos de ámbito nacional a que utilicen sistemas de IA para realzar sus colecciones y enriquecer sus bibliotecas, bases de datos y bases de conocimientos, ofreciendo al mismo tiempo acceso a sus usuarios.

ÁMBITO DE ACTUACIÓN 8: EDUCACIÓN E INVESTIGACIÓN

101. Los Estados Miembros deberían colaborar con organizaciones internacionales, instituciones educativas y entidades privadas y no gubernamentales para impartir al público de todos los países, a todos los niveles, conocimientos adecuados en materia de IA, a fin de empoderar a la población y reducir las brechas digitales y las desigualdades en el acceso a la tecnología digital resultantes de la adopción a gran escala de sistemas de IA.

102. Los Estados Miembros deberían promover la adquisición de “competencias previas” para la educación en materia de IA, como la alfabetización básica, la aritmética elemental, las competencias digitales y de codificación y la alfabetización mediática e informacional, así como el pensamiento crítico y creativo, el trabajo en equipo, la comunicación, las aptitudes socioemocionales y las competencias en materia de ética de la IA, especialmente en los países y en las regiones o zonas dentro de los países en que existen lagunas notables en la enseñanza de esas competencias.

103. Los Estados Miembros deberían promover programas generales de sensibilización sobre los avances de la IA, en particular sobre los datos y las oportunidades que ofrecen y los retos que plantean las tecnologías de la IA, el impacto de los sistemas de IA en los derechos humanos, incluidos los derechos de los niños, y sus repercusiones. Estos programas deberían ser accesibles tanto a los grupos técnicos como a los no técnicos.

104. Los Estados Miembros deberían alentar las iniciativas de investigación sobre la utilización responsable y ética de las tecnologías de la IA en la enseñanza, la formación de docentes y el aprendizaje electrónico, entre otras cuestiones, a fin de aumentar las oportunidades y atenuar los problemas y los riesgos existentes en este ámbito. Esas iniciativas deberían ir acompañadas de una evaluación adecuada de la calidad de la educación y de las repercusiones que la utilización de las tecnologías de la IA tiene para los educandos y los docentes. Los Estados Miembros deberían también velar por que las tecnologías de la IA empoderen a los educandos y los docentes y mejoren su experiencia, teniendo presente que los aspectos relacionales y sociales y el valor de las formas tradicionales de educación son fundamentales en las relaciones entre docentes y educandos y entre los propios educandos y deberían tenerse en cuenta al examinar la adopción de las tecnologías de la IA en la educación. Los sistemas de IA utilizados en el aprendizaje deberían estar sujetos a requisitos estrictos en materia de supervisión, evaluación de las capacidades o predicción de los comportamientos de los educandos. La IA debería apoyar el proceso de aprendizaje sin reducir las capacidades cognitivas y sin recabar información sensible, respetando las normas pertinentes en materia de protección de los datos personales. Los datos facilitados para adquirir conocimientos, recopilados durante las interacciones del educando con el sistema de IA, no deben ser objeto de uso indebido, apropiación indebida o explotación delictiva, incluidos los fines comerciales.

105. Los Estados Miembros deberían promover la participación y el liderazgo de las niñas y las mujeres, las personas de diversos orígenes étnicos y culturas, las personas con discapacidad, las personas marginadas y vulnerables o en situación de vulnerabilidad y las minorías, así como de todas aquellas personas que no gocen plenamente de los beneficios de la inclusión digital, en los programas de educación en materia de IA en todos los niveles, así como el seguimiento y el intercambio con otros Estados Miembros de las mejores prácticas en este ámbito.

106. Los Estados Miembros deberían elaborar, de conformidad con sus tradiciones y programas de educación nacionales, planes de estudios sobre la ética de la IA para todos los niveles y promover la colaboración cruzada entre la enseñanza de competencias técnicas de IA y los aspectos humanísticos, éticos y sociales de la educación en IA. Deberían elaborarse cursos en línea y recursos digitales de enseñanza de la ética de la IA en las lenguas locales, incluidas las lenguas indígenas, y tenerse en cuenta la diversidad de los entornos, velando especialmente por la accesibilidad de los formatos para las personas con discapacidad.

107. Los Estados Miembros deberían promover y apoyar las investigaciones sobre la IA, en particular las investigaciones sobre la ética de la IA, por ejemplo mediante inversiones en este tipo de investigaciones o creando incentivos para que los sectores público y privado inviertan en este ámbito, reconociendo que las investigaciones contribuyen de manera significativa al desarrollo y la mejora ulteriores de las tecnologías de la IA con miras a promover el derecho internacional y los valores y principios enunciados en la presente Recomendación. Los Estados Miembros también deberían promover públicamente las mejores prácticas de los investigadores y las empresas que desarrollan la IA de forma ética y cooperar con ellos.

108. Los Estados Miembros deberían velar por que los investigadores en IA reciban formación en ética de la investigación y exigirles que tengan en cuenta consideraciones éticas en sus concepciones, productos y publicaciones, especialmente en los análisis de los conjuntos de datos que utilizan, la forma en que estos se anotan y la calidad y el alcance de los resultados, así como las posibles aplicaciones.

109. Los Estados Miembros deberían alentar a las empresas del sector privado a que faciliten el acceso de la comunidad científica a sus datos para la investigación, especialmente en los países de ingreso mediano bajo, en particular en los PMA, los PDSL y los PEID. Este acceso debería ser conforme a las normas pertinentes en materia de respeto de la privacidad y protección de datos.

110. Para asegurar una evaluación crítica de las investigaciones en IA y un seguimiento adecuado de los posibles usos indebidos o efectos adversos, los Estados Miembros deberían velar por que cualquier evolución futura relacionada con las tecnologías de la IA se base en investigaciones científicas rigurosas e independientes y promover la investigación interdisciplinaria en IA mediante la inclusión de disciplinas distintas de la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), como los estudios culturales, la educación, la ética, las relaciones internacionales, el derecho, la lingüística, la filosofía, las ciencias políticas, la sociología y la psicología.

111. Reconociendo que las tecnologías de la IA ofrecen grandes oportunidades para contribuir al avance de los conocimientos y las prácticas científicos, especialmente en las disciplinas tradicionalmente basadas en modelos, los Estados Miembros deberían alentar a las comunidades científicas a ser conscientes de los beneficios, los límites y los riesgos de su utilización, por ejemplo, intentando garantizar que las conclusiones extraídas de los enfoques, modelos y tratamientos basados en los datos sean sólidas y consistentes. Además, los Estados Miembros deberían celebrar y apoyar la función de la comunidad científica en la contribución a las políticas y en la concienciación respecto de los puntos fuertes y débiles de las tecnologías de la IA.

ÁMBITO DE ACTUACIÓN 9: COMUNICACIÓN E INFORMACIÓN

112. Los Estados Miembros deberían utilizar los sistemas de IA para mejorar el acceso a la información y el conocimiento. Para ello, pueden, por ejemplo, apoyar a los investigadores, las universidades, los periodistas, el público en general y los desarrolladores, a fin de mejorar la libertad de expresión, las libertades académicas y científicas y el acceso a la información, así como aumentar la divulgación proactiva de los datos y la información oficiales.

113. Los Estados Miembros deberían garantizar que los actores de la IA respeten y promuevan la libertad de expresión y el acceso a la información en lo que respecta a la generación, moderación y conservación automáticas de contenidos. Marcos adecuados, incluso reglamentarios, deberían propiciar la transparencia de los operadores de comunicación e información en línea, velar por que los usuarios tengan acceso a puntos de vista diversos y prever procesos de notificación rápida a los usuarios sobre los motivos de la eliminación u otro tratamiento de los contenidos, así como mecanismos de recurso que permitan a los usuarios solicitar reparación.

114. Los Estados Miembros deberían invertir en competencias digitales y de alfabetización mediática e informacional y promoverlas, a fin de reforzar el pensamiento crítico y las competencias necesarias para comprender el uso y las implicaciones de los sistemas de IA, con miras a atenuar y contrarrestar la desinformación, la información errónea y el discurso de odio. Una mejor comprensión y evaluación de los efectos tanto positivos como potencialmente perjudiciales de los sistemas de recomendación debería formar parte de esos esfuerzos.

115. Los Estados Miembros deberían crear entornos propicios para que los medios de comunicación tengan los derechos y recursos necesarios para informar eficazmente sobre las ventajas y los inconvenientes de los sistemas de IA, y también alentar a los medios de comunicación a que hagan un uso ético de estos sistemas en su trabajo.

ÁMBITO DE ACTUACIÓN 10: ECONOMÍA Y TRABAJO

116. Los Estados Miembros deberían evaluar y abordar el impacto de los sistemas de IA en los mercados de trabajo y sus consecuencias en las necesidades educativas en todos los países y, más concretamente, en los países cuya economía requiere mucha mano de obra. Para ello puede ser preciso introducir una gama más amplia de competencias “básicas” e interdisciplinarias en todos los niveles educativos, a fin de dar a los trabajadores actuales y a las nuevas generaciones una oportunidad equitativa de encontrar empleo en un mercado en rápida evolución y para asegurar que sean conscientes de los aspectos éticos de los sistemas de IA. Junto a las competencias técnicas especializadas, así como a las tareas poco especializadas, deberían enseñarse competencias como “aprender a aprender”, comunicación, pensamiento crítico, trabajo en equipo, empatía y la capacidad de transferir los conocimientos propios a diversos ámbitos. Es fundamental actuar con transparencia con respecto a las competencias de las que existe demanda y actualizar los planes de estudios en torno a ellas.

117. Los Estados Miembros deberían apoyar los acuerdos de colaboración entre los gobiernos, las instituciones universitarias, las instituciones de enseñanza y formación profesional, la industria, las organizaciones de trabajadores y la sociedad civil a fin de reducir la brecha en cuanto a las competencias exigidas para adecuar los programas y estrategias de capacitación a las futuras implicaciones del trabajo y a las necesidades de la industria, incluidas las pequeñas y medianas empresas. Deberían promoverse enfoques de enseñanza y aprendizaje de la IA basados en proyectos, facilitando las asociaciones de colaboración entre las instituciones públicas, las empresas del sector privado, las universidades y los centros de investigación.

118. Los Estados Miembros deberían colaborar con empresas del sector privado, organizaciones de la sociedad civil y otras partes interesadas, incluidos trabajadores y sindicatos, para garantizar una transición equitativa a los empleados en situación de riesgo. Esto supone poner en marcha programas de perfeccionamiento y reconversión profesional, encontrar mecanismos eficaces para retener a los empleados durante esos periodos de transición y explorar programas de protección social para aquellos que no puedan reconvertirse. Los Estados Miembros deberían elaborar y aplicar programas para analizar los problemas detectados y darles respuesta, entre los que podrían figurar el perfeccionamiento y la reconversión profesional, el fortalecimiento de la protección social, la aplicación de políticas e intervenciones sectoriales proactivas y la introducción de ventajas fiscales y nuevas formas de tributación. Los Estados Miembros deberían garantizar que haya suficiente financiación pública para apoyar estos programas. Las reglamentaciones pertinentes, como los regímenes fiscales, deberían examinarse cuidadosamente y modificarse, si es necesario, para contrarrestar las consecuencias del desempleo causado por la automatización basada en la IA.

119. Los Estados Miembros deberían alentar y apoyar a los investigadores para que analicen el impacto de los sistemas de IA en el entorno laboral local con miras a anticipar las tendencias y los desafíos futuros. Estos estudios deberían tener un enfoque interdisciplinario y examinar el impacto de los sistemas de IA en los sectores económico, social y geográfico, así como en las interacciones entre seres humanos y robots y entre los propios seres humanos, a fin de asesorar sobre las mejores prácticas de reconversión y reasignación profesionales.

120. Los Estados Miembros deberían adoptar las medidas adecuadas para garantizar la competitividad de los mercados y la protección de los consumidores, considerando posibles medidas y mecanismos en los planos nacional, regional e internacional, a fin de impedir los abusos de posición dominante en el mercado, incluidos los monopolios, en relación con los sistemas de IA durante su ciclo de vida, ya se trate de datos, investigación, tecnología o mercados. Los Estados Miembros deberían prevenir las desigualdades resultantes, evaluar los mercados correspondientes y promover mercados competitivos. Se debería prestar la debida atención a los países de ingreso mediano bajo, en particular a los PMA, los PDSL y los PEID, que están más expuestos y son más vulnerables a la posibilidad de que se produzcan abusos de posición dominante en el mercado, como consecuencia de la falta de infraestructuras, capacidad humana y reglamentación, entre otros factores. Los actores de la IA que desarrollen sistemas de IA en países que hayan establecido o adoptado normas éticas en materia de IA deberían respetar estas normas cuando exporten estos productos, desarrollen sus sistemas de IA o los apliquen en países donde no existan dichas normas, respetando al mismo tiempo el derecho internacional y las leyes, normas y prácticas nacionales aplicables de estos países.

ÁMBITO DE ACTUACIÓN 11: SALUD Y BIENESTAR SOCIAL

121. Los Estados Miembros deberían esforzarse por emplear sistemas eficaces de IA para mejorar la salud humana y proteger el derecho a la vida, en particular atenuando los brotes de enfermedades, al tiempo que desarrollan y mantienen la solidaridad internacional para hacer frente a los riesgos e incertidumbres relacionados con la salud en el plano mundial, y garantizar que su despliegue de sistemas de IA en el ámbito de la atención de la salud sea conforme al derecho internacional y a sus obligaciones en materia de derechos humanos. Los Estados Miembros deberían velar por que los actores que participan en los sistemas de IA relacionados con la atención de la salud tengan en cuenta la importancia de las relaciones del paciente con su familia y con el personal sanitario.

122. Los Estados Miembros deberían garantizar que el desarrollo y el despliegue de los sistemas de IA relacionados con la salud en general y con la salud mental en particular —prestando la debida atención a los niños y los jóvenes— estén regulados, de modo que esos sistemas sean seguros, eficaces, eficientes y probados desde el punto de vista científico y médico y faciliten la innovación y el progreso médico con base empírica. Además, en el ámbito conexo de las intervenciones de salud digital, se alienta encarecidamente a los Estados Miembros a que hagan participar activamente a los pacientes y sus representantes en todas las etapas pertinentes del desarrollo del sistema.

123. Los Estados Miembros deberían prestar particular atención a la regulación de las soluciones de predicción, detección y tratamiento médicos en las aplicaciones de la IA, mediante:

a) la supervisión para minimizar y atenuar los sesgos;

b) la inclusión del profesional, el paciente, el cuidador o el usuario del servicio en el equipo en calidad de “experto en la materia” en todas las etapas pertinentes al elaborar los algoritmos;

c) una debida atención a la privacidad, dado que quizá sea necesaria una vigilancia médica, y el cumplimiento de todos los requisitos nacionales e internacionales pertinentes en materia de protección de datos;

d) mecanismos eficaces para que las personas cuyos datos personales se están analizando sepan de la utilización y el análisis de sus datos y den su consentimiento informado al respecto, sin impedir el acceso a la atención de la salud;

e) la garantía de que el cuidado humano y la decisión final sobre el diagnóstico y el tratamiento correspondan siempre a seres humanos, reconociendo al mismo tiempo que los sistemas de IA también pueden ayudarlos en su trabajo;

f) el examen, cuando sea necesario, de los sistemas de IA por un comité de investigación ética antes de su uso clínico.

124. Los Estados Miembros deberían realizar investigaciones sobre los efectos y la regulación de los posibles daños de los sistemas de IA para la salud mental, tales como un aumento de la depresión, la ansiedad, el aislamiento social, el desarrollo de adicciones, el tráfico, la radicalización y la información errónea, entre otros.

125. Los Estados Miembros deberían elaborar directrices sobre las interacciones entre seres humanos y robots y sus repercusiones en las relaciones entre seres humanos, basadas en la investigación y orientadas al desarrollo futuro de robots, y prestando especial atención a la salud mental y física de los seres humanos. Debería prestarse particular atención al uso de robots en la atención de la salud, en la atención a las personas de edad y las personas con discapacidad y en el ámbito de la educación, así como a los robots para uso infantil y para usos lúdicos, conversacionales y de compañía para niños y adultos. Además, deberían utilizarse las tecnologías de la IA para mejorar la seguridad y el uso ergonómico de los robots, en particular en entornos de trabajo en los que intervienen robots y seres humanos. Debería prestarse especial atención a la posibilidad de utilizar la IA para manipular los sesgos cognitivos humanos y hacer un mal uso de ellos.

126. Los Estados Miembros deberían velar por que las interacciones entre seres humanos y robots se ajusten a los mismos valores y principios que se aplican a cualquier otro sistema de IA, lo que incluye los derechos humanos y las libertades fundamentales, la promoción de la diversidad y la protección de las personas vulnerables o en situación de vulnerabilidad. Las cuestiones éticas relativas a los sistemas basados en la IA utilizados en las neurotecnologías y las interfaces cerebro-ordenador deberían tenerse en cuenta a fin de preservar la dignidad y la autonomía humanas.

127. Los Estados Miembros deberían velar por que los usuarios puedan determinar fácilmente si interactúan con un ser vivo o con un sistema de IA que imita las características humanas o animales y puedan rechazar eficazmente dicha interacción y solicitar la intervención humana.

128. Los Estados Miembros deberían aplicar políticas de sensibilización sobre la antropomorfización de las tecnologías de la IA y las tecnologías que reconocen e imitan las emociones humanas, especialmente en el lenguaje utilizado para referirse a ellas, y evaluar las manifestaciones, las implicaciones éticas y las posibles limitaciones de esa antropomorfización, en particular en el contexto de la interacción entre robots y seres humanos y, especialmente, cuando se trate de niños.

129. Los Estados Miembros deberían alentar y promover la investigación colaborativa sobre los efectos de la interacción a largo plazo de las personas con los sistemas de IA, prestando especial atención a las consecuencias psicológicas y cognitivas que estos sistemas pueden tener en los niños y los jóvenes. Para ello deberían utilizarse múltiples normas, principios, protocolos, enfoques disciplinarios y un análisis de la modificación de las conductas y los hábitos, así como una cuidadosa evaluación de los impactos culturales y sociales posteriores. Además, los Estados Miembros deberían alentar la investigación sobre el efecto de las tecnologías de la IA en el desempeño del sistema sanitario y los resultados en materia de salud.

130. Los Estados Miembros, así como todas las partes interesadas, deberían establecer mecanismos para hacer participar de manera significativa a los niños y los jóvenes en las conversaciones, los debates y la adopción de decisiones sobre las repercusiones de los sistemas de IA en sus vidas y su futuro.

V. SEGUIMIENTO Y EVALUACIÓN

131. Los Estados Miembros, de acuerdo con sus circunstancias, estructuras de gobierno y disposiciones constitucionales específicas, deberían velar por el seguimiento y la evaluación de las políticas, los programas y los mecanismos relativos a la ética de la IA de forma creíble y transparente mediante una combinación de enfoques cuantitativos y cualitativos. La UNESCO puede contribuir a apoyar a los Estados Miembros mediante:

a) la elaboración de una metodología de la UNESCO de evaluación del impacto ético de las tecnologías de la IA basada en una investigación científica rigurosa y fundamentada en el derecho internacional de los derechos humanos, orientaciones para su aplicación en todas las etapas del ciclo de vida de los sistemas de IA y materiales de desarrollo de las capacidades para apoyar la labor de los Estados Miembros dirigida a capacitar a funcionarios públicos, responsables de formular políticas y otros actores pertinentes de la IA en la metodología de la evaluación del impacto ético;

b) la elaboración de una metodología de la UNESCO de evaluación del estadio de preparación para ayudar a los Estados Miembros a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones;

c) la elaboración de una metodología de la UNESCO para evaluar ex ante y ex post la eficacia y la eficiencia de las políticas y los incentivos relacionados con la ética de la IA con respecto a objetivos definidos;

d) el fortalecimiento del análisis, basado en investigaciones y pruebas, de las políticas relativas a la ética de la IA y la presentación de informes a este respecto;

e) la recopilación y difusión de información sobre los avances y las innovaciones, informes de investigación, publicaciones científicas, datos y estadísticas relativos a las políticas sobre la ética de la IA, en particular mediante las iniciativas existentes, a fin de apoyar el intercambio de mejores prácticas y el aprendizaje mutuo y de impulsar la aplicación de la presente Recomendación.

132. Los procesos de seguimiento y evaluación deberían asegurar una amplia participación de todas las partes interesadas, entre ellas, aunque no exclusivamente, las personas vulnerables o en situación de vulnerabilidad. Se debería garantizar la diversidad social, cultural y de género, con miras a mejorar los procesos de aprendizaje y fortalecer los nexos entre las conclusiones, la adopción de decisiones, la transparencia y la rendición de cuentas sobre los resultados.

133. A fin de promover las mejores políticas y prácticas relacionadas con la ética de la IA, deberían elaborarse instrumentos e indicadores adecuados para evaluar su eficacia y eficiencia en función de normas, prioridades y objetivos acordados, incluidos objetivos específicos para las personas pertenecientes a poblaciones desfavorecidas y marginadas y personas vulnerables o en situación de vulnerabilidad, así como el impacto de los sistemas de IA en los planos individual y social. El seguimiento y la evaluación del impacto de los sistemas de IA y de las políticas y prácticas conexas relativas a la ética de la IA deberían realizarse de manera continua y sistemática proporcionalmente a los riesgos correspondientes. Este proceso debería basarse en marcos acordados internacionalmente e ir acompañado de evaluaciones de instituciones, proveedores y programas públicos y privados, incluidas autoevaluaciones, así como de estudios de seguimiento y la elaboración de conjuntos de indicadores. La recopilación y el procesamiento de datos deberían realizarse de conformidad con el derecho internacional, la legislación nacional en materia de protección y confidencialidad de datos y los valores y principios enunciados en la presente Recomendación.

134. En particular, los Estados Miembros podrían considerar posibles mecanismos de seguimiento y evaluación, como una comisión de ética, un observatorio de ética de la IA, un repositorio que abarque el desarrollo ético y conforme a los derechos humanos de los sistemas de IA, o contribuciones a las iniciativas existentes para reforzar la conformidad a los principios éticos en todas las esferas de competencia de la UNESCO, un mecanismo de intercambio de experiencias, entornos de pruebas reguladores de la IA y una guía de evaluación para que todos los actores de la IA determinen en qué medida cumplen las recomendaciones de actuación mencionadas en el presente documento.

VI. UTILIZACIÓN Y APLICACIÓN DE LA PRESENTE RECOMENDACIÓN

135. Los Estados Miembros y todas las demás partes interesadas que se indican en la presente Recomendación deberían respetar, promover y proteger los valores, principios y normas éticos relativos a la IA que se establecen en esta Recomendación y adoptar todas las medidas posibles para dar efecto a sus recomendaciones de actuación.

136. Los Estados Miembros deberían esforzarse por ampliar y complementar su propia acción en lo que respecta a la presente Recomendación, cooperando con todas las organizaciones gubernamentales y no gubernamentales nacionales e internacionales pertinentes, así como con las empresas transnacionales y las organizaciones científicas, cuyas actividades correspondan al ámbito de aplicación y a los objetivos de la presente Recomendación. La elaboración de una metodología de la UNESCO de evaluación del impacto ético y el establecimiento de comisiones nacionales de ética de la IA pueden ser instrumentos importantes a este respecto.

VII. PROMOCIÓN DE LA PRESENTE RECOMENDACIÓN

137. La UNESCO tiene la vocación de ser el principal organismo de las Naciones Unidas encargado de promover y difundir la presente Recomendación y, en consecuencia, trabajará en colaboración con otras entidades pertinentes de las Naciones Unidas, respetando al mismo tiempo su mandato y evitando la duplicación de esfuerzos.

138. La UNESCO, incluidos algunos de sus órganos, como la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST), el Comité Internacional de Bioética (CIB) y el Comité Intergubernamental de Bioética (CIGB), trabajará también en colaboración con otras organizaciones gubernamentales y no gubernamentales internacionales, regionales y subregionales.

139. Aunque en la UNESCO el mandato de promover y proteger es competencia de los gobiernos y los organismos intergubernamentales, la sociedad civil desempeñará una función importante en la defensa de los intereses del sector público y, por lo tanto, la UNESCO debe garantizar y promover su legitimidad.

VIII. DISPOSICIONES FINALES

140. La presente Recomendación debe entenderse como un todo, y los valores y principios fundamentales deben considerarse complementarios y relacionados entre sí.

141. Ninguna disposición de la presente Recomendación podrá interpretarse como si reemplazara, modificara o menoscabara de cualquier otra manera las obligaciones o los derechos de los Estados con arreglo al derecho internacional o como si autorizara a un Estado, otro agente político, económico o social, grupo o individuo a emprender actividades o realizar actos que sean contrarios a los derechos humanos, las libertades fundamentales, la dignidad humana y el respeto del medio ambiente y los ecosistemas, tanto vivos como no vivos.

20Ene/24

Recomendación de la UNESCO, de noviembre de 2021

RECOMENDACIÓN SOBRE LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL

PREÁMBULO

La Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París del 9 al 24 de noviembre de 2021, en su 41ª reunión,

Reconociendo las repercusiones positivas y negativas profundas y dinámicas de la inteligencia artificial (IA) en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, en particular en la mente humana, debido en parte a las nuevas formas en que su utilización influye en el pensamiento, las interacciones y la adopción de decisiones de los seres humanos y afecta a la educación, las ciencias sociales y humanas, las ciencias exactas y naturales, la cultura y la comunicación y la información,

Recordando que, con arreglo a su Constitución, la UNESCO se propone contribuir a la paz y a la seguridad estrechando, mediante la educación, la ciencia, la cultura y la comunicación y la información, la colaboración entre las naciones, a fin de asegurar el respeto universal a la justicia, a la ley, a los derechos humanos y a las libertades fundamentales que se reconocen a todos los pueblos del mundo,

Convencida de que la Recomendación que aquí se presenta, en su calidad de instrumento normativo elaborado mediante un enfoque mundial, basado en el derecho internacional y centrado en la dignidad humana y los derechos humanos, así como en la igualdad de género, la justicia social y económica y el desarrollo, el bienestar físico y mental, la diversidad, la interconexión, la inclusión y la protección del medio ambiente y de los ecosistemas, puede dar una orientación responsable a las tecnologías de la IA,

Guiada por los propósitos y principios de la Carta de las Naciones Unidas,

Considerando que las tecnologías de la IA pueden ser de gran utilidad para la humanidad y que todos los países pueden beneficiarse de ellas, pero que también suscitan preocupaciones éticas fundamentales, por ejemplo, en relación con los sesgos que pueden incorporar y exacerbar, lo que puede llegar a provocar discriminación, desigualdad, brechas digitales y exclusión y suponer una amenaza para la diversidad cultural, social y biológica, así como generar divisiones sociales o económicas; la necesidad de transparencia e inteligibilidad del funcionamiento de los algoritmos y los datos con los que han sido entrenados; y su posible impacto en, entre otros, la dignidad humana, los derechos humanos y las libertades fundamentales, la igualdad de género, la democracia, los procesos sociales, económicos, políticos y culturales, las prácticas científicas y de ingeniería, el bienestar animal y el medio ambiente y los ecosistemas,

Reconociendo también que las tecnologías de la IA pueden agravar las divisiones y desigualdades existentes en el mundo, dentro de los países y entre ellos, y que es preciso defender la justicia, la confianza y la equidad para que ningún país y ninguna persona se queden atrás, ya sea mediante el acceso equitativo a las tecnologías de la IA y el disfrute de los beneficios que aportan o mediante la protección contra sus consecuencias negativas, reconociendo al mismo tiempo las diferentes circunstancias de los distintos países y respetando el deseo de algunas personas de no participar en todos los avances tecnológicos,

Consciente de que todos los países se enfrentan a una aceleración del uso de las tecnologías de la información y la comunicación y las tecnologías de la IA, así como a una necesidad cada vez mayor de alfabetización mediática e informacional, y de que la economía digital presenta importantes desafíos sociales, económicos y ambientales y ofrece oportunidades de compartir los beneficios, especialmente para los países de ingreso mediano bajo, incluidos, entre otros, los países menos adelantados (PMA), los países en desarrollo sin litoral (PDSL) y los pequeños Estados insulares en desarrollo (PEID), que requieren el reconocimiento, la protección y la promoción de las culturas, los valores y los conocimientos endógenos a fin de desarrollar economías digitales sostenibles,

Reconociendo además que las tecnologías de la IA pueden ser beneficiosas para el medio ambiente y los ecosistemas y que, para que esos beneficios se materialicen, no deberían pasarse por alto, sino tenerse en cuenta, los posibles daños y las repercusiones negativas que pueden ocasionar en el medio ambiente y los ecosistemas,

Observando que el hecho de tener en cuenta los riesgos y las preocupaciones éticas no debería obstaculizar la innovación y el desarrollo, sino más bien ofrecer nuevas oportunidades y estimular una investigación y una innovación realizadas de manera ética que afiancen las tecnologías de la IA en los derechos humanos y las libertades fundamentales, los valores, los principios y la reflexión moral y ética,

Recordando también que en noviembre de 2019 aprobó, en su 40ª reunión, la resolución 40 C/37, en la que encargó a la Directora General que “[preparara] un instrumento normativo internacional sobre la ética de la inteligencia artificial (IA) en forma de recomendación”, que se le presentaría en su 41ª reunión en 2021,

Reconociendo que el desarrollo de las tecnologías de la IA requiere un incremento proporcional de la educación en materia de datos y de la alfabetización mediática e informacional, así como el acceso a fuentes de información independientes, pluralistas y fidedignas, en particular en el marco de los esfuerzos destinados a atenuar los riesgos de información errónea, desinformación y discurso de odio, así como los daños causados por el uso indebido de los datos personales,

Observando también que el marco normativo para las tecnologías de la IA y sus implicaciones sociales se fundamenta en los marcos jurídicos internacionales y nacionales, los derechos humanos y las libertades fundamentales, la ética, la necesidad de acceder a los datos, la información y los conocimientos, la libertad de investigación e innovación y el bienestar de los seres humanos, del medio ambiente y de los ecosistemas, y conecta los valores y principios éticos con los retos y oportunidades vinculados a las tecnologías de la IA, sobre la base de un entendimiento común y unos objetivos compartidos,

Reconociendo también que los valores y principios éticos pueden ayudar a elaborar y aplicar medidas de política y normas jurídicas basadas en los derechos, proporcionando orientación con miras al rápido desarrollo tecnológico,

Convencida también de que las normas éticas aceptadas mundialmente para las tecnologías de la IA, que respetan plenamente el derecho internacional, en particular el derecho de los derechos humanos, pueden desempeñar una función esencial en la elaboración de normas relacionadas con la IA en todo el mundo,

Teniendo presentes la Declaración Universal de Derechos Humanos (1948), los instrumentos del marco internacional de derechos humanos, entre ellos la Convención sobre el Estatuto de los Refugiados (1951), el Convenio sobre la Discriminación (Empleo y Ocupación) (1958), la Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial (1965), el Pacto Internacional de Derechos Civiles y Políticos (1966), el Pacto Internacional de Derechos Económicos, Sociales y Culturales (1966), la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (1979), la Convención sobre los Derechos del Niño (1989), la Convención sobre los Derechos de las Personas con Discapacidad (2006), la Convención relativa a la Lucha contra las Discriminaciones en la Esfera de la Enseñanza (1960) y la Convención sobre la Protección y Promoción de la Diversidad de las Expresiones Culturales (2005), así como cualesquiera otros instrumentos, recomendaciones y declaraciones internacionales pertinentes,

Tomando nota de la Declaración sobre el Derecho al Desarrollo (1986); de la Declaración sobre las Responsabilidades de las Generaciones Actuales para con las Generaciones Futuras (1997); de la Declaración Universal sobre Bioética y Derechos Humanos (2005); de la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (2007); de la resolución de la Asamblea General de las Naciones Unidas sobre el examen de la Cumbre Mundial sobre la Sociedad de la Información (A/RES/70/125) (2015); de la resolución de la Asamblea General de las Naciones Unidas titulada “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible” (A/RES/70/1) (2015); de la Recomendación relativa a la Preservación del Patrimonio Documental, comprendido el Patrimonio Digital, y el Acceso al mismo (2015); de la Declaración de Principios Éticos en relación con el Cambio Climático (2017); de la Recomendación sobre la Ciencia y los Investigadores Científicos (2017); de los indicadores sobre la universalidad de Internet (aprobados en 2018 por el Programa Internacional para el Desarrollo de la Comunicación de la UNESCO), incluidos los principios ROAM (aprobados por la Conferencia General de la UNESCO en 2015); de la resolución del Consejo de Derechos Humanos sobre “El derecho a la privacidad en la era digital” (A/HRC/RES/42/15) (2019); y de la resolución del Consejo de Derechos Humanos titulada “Las tecnologías digitales nuevas y emergentes y los derechos humanos” (A/HRC/RES/41/11) (2019),

Haciendo hincapié en que debe prestarse atención específica a los países de ingreso mediano bajo, incluidos, entre otros, los PMA, los PDSL y los PEID, ya que, aunque tienen su propia capacidad, han estado insuficientemente representados en el debate sobre la ética de la IA, lo que suscita la preocupación de que se descuiden los conocimientos locales, el pluralismo cultural, los sistemas de valores y las exigencias de equidad mundial para gestionar las repercusiones positivas y negativas de las tecnologías de la IA,

Consciente también de que existen numerosas políticas en el plano nacional, así como otros marcos e iniciativas elaborados por las entidades pertinentes de las Naciones Unidas, por organizaciones intergubernamentales, incluidas organizaciones regionales, así como las del sector privado, y por organizaciones profesionales, organizaciones no gubernamentales y de la comunidad científica, relacionados con la ética y la regulación de las tecnologías de la IA,

Convencida además de que las tecnologías de la IA pueden aportar importantes beneficios, pero que su consecución también puede hacer aumentar la tensión en lo que respecta a la innovación, el acceso asimétrico a los conocimientos y las tecnologías, en particular la insuficiente educación digital y cívica que limita la capacidad del público para participar en los temas relacionados con la IA, así como las barreras al acceso a la información y las brechas en cuanto a las capacidades humanas e institucionales, los obstáculos al acceso a la innovación tecnológica y la falta de infraestructura física y digital y de marcos reguladores adecuados, en particular los relativos a los datos, problemas todos ellos que deben ser abordados,

Subrayando que es necesario fortalecer la cooperación y la solidaridad mundiales, en particular mediante el multilateralismo, para facilitar el acceso equitativo a las tecnologías de la IA y hacer frente a los desafíos que estas plantean en culturas y sistemas éticos diversos e interconectados, para reducir la posibilidad de usos indebidos, para aprovechar todo el potencial que la IA puede aportar, especialmente en el ámbito del desarrollo, y para garantizar que las estrategias nacionales en materia de IA se guíen por principios éticos,

Teniendo plenamente en cuenta que el rápido desarrollo de las tecnologías de la IA complica su aplicación y gobernanza éticas, así como el respeto y la protección de la diversidad cultural, y puede perturbar las normas y los valores éticos locales y regionales,

1. Aprueba, en este día veintitrés de noviembre de dos mil veintiuno, la presente Recomendación sobre la Ética de la Inteligencia Artificial;

2. Recomienda que los Estados Miembros apliquen, de manera voluntaria, las disposiciones de la presente Recomendación mediante la adopción de las medidas adecuadas, en particular las medidas legislativas o de otra índole que puedan ser necesarias, de acuerdo con la práctica constitucional y las estructuras de gobierno de cada Estado, con el fin de dar efecto en sus respectivas jurisdicciones a los principios y normas enunciados en la Recomendación, de conformidad con el derecho internacional, incluido el derecho internacional de los derechos humanos;

3. Recomienda también a los Estados Miembros que hagan partícipes a todas las partes interesadas, incluidas las empresas, para asegurarse de que desempeñan sus respectivas funciones en la aplicación de la presente Recomendación y que señalen la Recomendación a la atención de las autoridades, organismos, organizaciones universitarias y de investigación, instituciones y organizaciones de los sectores público, privado y de la sociedad civil que participan en las tecnologías de la IA, para que el desarrollo y la utilización de esas tecnologías se guíen tanto por una investigación científica sólida como por un análisis y una evaluación éticos.

I. ÁMBITO DE APLICACIÓN

1. La presente Recomendación trata de las cuestiones éticas relacionadas con el ámbito de la inteligencia artificial en la medida en que competen al mandato de la UNESCO. Aborda la ética de la IA como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación y la orientación normativas de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños y apoyándose en la ética de la ciencia y la tecnología.

2. La presente Recomendación no pretende proporcionar una única definición de la IA, ya que tal definición tendría que cambiar con el tiempo en función de los avances tecnológicos. Su objetivo es más bien abordar las características de los sistemas de IA que tienen una importancia ética central. Por tanto, la presente Recomendación considera los sistemas de IA sistemas capaces de procesar datos e información de una manera que se asemeja a un comportamiento inteligente, y abarca generalmente aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control. Tres elementos ocupan un lugar central en este enfoque:

a) los sistemas de IA son tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diferentes grados de autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones. Pueden incluir varios métodos, como, por ejemplo, aunque no exclusivamente:

i) el aprendizaje automático, incluido el aprendizaje profundo y el aprendizaje de refuerzo;

ii) el razonamiento automático, incluidas la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización.

Los sistemas de IA pueden utilizarse en los sistemas ciberfísicos, incluidos la Internet de las cosas, los sistemas robóticos, la robótica social y las interfaces entre seres humanos y ordenadores, que comportan el control, la percepción, el procesamiento de los datos recogidos por sensores y el funcionamiento de los actuadores en el entorno en que operan los sistemas de IA;                         

b) las cuestiones éticas relativas a los sistemas de IA atañen a todas las etapas del ciclo de vida de estos sistemas, que aquí se entiende que van desde la investigación, la concepción y el desarrollo hasta el despliegue y la utilización, pasando por el mantenimiento, el funcionamiento, la comercialización, la financiación, el seguimiento y la evaluación, la validación, el fin de la utilización, el desmontaje y la terminación. Además, los actores de la IA pueden definirse como todo actor que participe en al menos una etapa del ciclo de vida del sistema de IA y pueden ser tanto personas físicas como jurídicas, por ejemplo, investigadores, programadores, ingenieros, especialistas en datos, usuarios finales, empresas, universidades y entidades públicas y privadas, entre otros;

c) los sistemas de IA plantean nuevos tipos de cuestiones éticas que incluyen, aunque no exclusivamente, su impacto en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación. Además, surgen nuevos desafíos éticos por el potencial de los algoritmos de la IA para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos. Algunas de estas cuestiones tienen que ver con la capacidad de los sistemas de IA para realizar tareas que antes solo podían hacer los seres vivos y que, en algunos casos, incluso se limitaban solo a los seres humanos. Estas características otorgan a los sistemas de IA una función nueva y determinante en las prácticas y la sociedad humanas, así como en su relación con el medio ambiente y los ecosistemas, creando un nuevo contexto para que los niños y los jóvenes crezcan, desarrollen una comprensión del mundo y de sí mismos, comprendan críticamente los medios de comunicación y la información y aprendan a tomar decisiones. A largo plazo, los sistemas de IA podrían disputar al ser humano el sentido especial de la experiencia y la capacidad de actuar que le son propios, lo que plantearía nuevas inquietudes sobre la autocomprensión, la interacción social, cultural y ambiental, la autonomía, la capacidad de actuar, el valor y la dignidad del ser humano, entre otras.

3. En la presente Recomendación se presta especial atención a las repercusiones éticas más amplias de los sistemas de IA en las principales esferas de competencia de la UNESCO ―la educación, la ciencia, la cultura y la comunicación y la información―, examinadas en el estudio preliminar sobre la ética de la inteligencia artificial elaborado en 2019 por la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO:

a) la educación, porque vivir en sociedades en proceso de digitalización exige nuevas prácticas educativas, una reflexión ética, un pensamiento crítico, prácticas de concepción responsables y nuevas competencias, dadas las implicaciones para el mercado laboral, la empleabilidad y la participación cívica;

b) la ciencia, en el sentido más amplio, que abarca todos los ámbitos académicos desde las ciencias exactas y naturales y las ciencias médicas hasta las ciencias sociales y humanas, ya que las tecnologías de la IA aportan nuevas capacidades y enfoques de investigación, influyen en nuestra concepción de la comprensión y la explicación científicas y crean una nueva base para la adopción de decisiones;

c) la identidad y la diversidad culturales, ya que las tecnologías de la IA pueden enriquecer las industrias culturales y creativas, pero también pueden dar lugar a una mayor concentración de la oferta de contenidos, los datos, los mercados y los ingresos de la cultura en manos de unos pocos actores, lo que puede tener consecuencias negativas para la diversidad y el pluralismo de las lenguas, los medios de comunicación, las expresiones culturales, la participación y la igualdad;

d) la comunicación y la información, ya que las tecnologías de la IA desempeñan una función cada vez más importante en el procesamiento, la estructuración y el suministro de información; las cuestiones del periodismo automatizado y del suministro algorítmico de noticias y la moderación y la conservación de contenidos en los medios sociales y los buscadores son solo algunos ejemplos que plantean cuestiones relacionadas con el acceso a la información, la desinformación, la información errónea, el discurso de odio, la aparición de nuevas formas de narrativa social, la discriminación, la libertad de expresión, la privacidad y la alfabetización mediática e informacional, entre otras.

4. La presente Recomendación se dirige a los Estados Miembros, tanto en su calidad de actores de la IA como de autoridades responsables de la elaboración de marcos jurídicos y reguladores a lo largo de todo el ciclo de vida de los sistemas de IA, así como de la promoción de la responsabilidad empresarial. También proporciona orientación ética a todos los actores de la IA, incluidos los sectores público y privado, al sentar las bases para una evaluación del impacto ético de los sistemas de IA a lo largo de su ciclo de vida.

II. FINES Y OBJETIVOS

5. La presente Recomendación tiene por objeto servir de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, así como para prevenir daños. Aspira también a estimular la utilización de los sistemas de IA con fines pacíficos.

6. Además de los marcos éticos relativos a la IA existentes en todo el mundo, la presente Recomendación pretende aportar un instrumento normativo aceptado mundialmente que no solo se centre en la articulación de valores y principios, sino también en su aplicación práctica, mediante recomendaciones de política concretas, haciendo especial hincapié en la inclusión, las cuestiones de igualdad de género y la protección del medio ambiente y los ecosistemas.

7. Dado que la complejidad de las cuestiones éticas que rodean a la IA exige la cooperación de múltiples partes interesadas en los diversos niveles y sectores de las comunidades internacionales, regionales y nacionales, la presente Recomendación tiene por objeto permitir que las partes interesadas asuman una responsabilidad compartida basada en un diálogo mundial e intercultural.

8. Los objetivos de la presente Recomendación son los siguientes:

a) proporcionar un marco universal de valores, principios y acciones para orientar a los Estados en la formulación de sus leyes, políticas u otros instrumentos relativos a la IA, de conformidad con el derecho internacional;

b) orientar las acciones de las personas, los grupos, las comunidades, las instituciones y las empresas del sector privado a fin de asegurar la incorporación de la ética en todas las etapas del ciclo de vida de los sistemas de IA;

c) proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana y la igualdad, incluida la igualdad de género; salvaguardar los intereses de las generaciones presentes y futuras; preservar el medio ambiente, la biodiversidad y los ecosistemas; y respetar la diversidad cultural en todas las etapas del ciclo de vida de los sistemas de IA;

d) fomentar el diálogo multidisciplinario y pluralista entre múltiples partes interesadas y la concertación sobre cuestiones éticas relacionadas con los sistemas de IA;

e) promover el acceso equitativo a los avances y los conocimientos en el ámbito de la IA y el aprovechamiento compartido de los beneficios, prestando especial atención a las necesidades y contribuciones de los países de ingreso mediano bajo, incluidos los PMA, los PDSL y los PEID.

III. VALORES Y PRINCIPIOS

9. Los valores y principios que figuran a continuación deberían ser respetados por todos los actores durante el ciclo de vida de los sistemas de IA, en primer lugar, y, cuando resulte necesario y conveniente, ser promovidos mediante modificaciones de las leyes, los reglamentos y las directrices empresariales existentes y la elaboración de otros nuevos. Todo ello debe ajustarse al derecho internacional, en particular la Carta de las Naciones Unidas y las obligaciones de los Estados Miembros en materia de derechos humanos, y estar en consonancia con los objetivos de sostenibilidad social, política, ambiental, educativa, científica y económica acordados internacionalmente, como los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

10. Los valores desempeñan una importante función como ideales que motivan la orientación de las medidas de política y las normas jurídicas. Mientras que el conjunto de valores que se enuncian a continuación inspira, por tanto, un comportamiento deseable y representa los fundamentos de los principios, los principios, por su parte, revelan los valores subyacentes de manera más concreta, de modo que estos últimos puedan aplicarse más fácilmente en las declaraciones de política y las acciones.

11. Si bien todos los valores y principios que se enuncian a continuación son deseables en sí mismos, en cualquier contexto práctico, puede haber tensiones entre ellos. En cualquier situación, será necesaria una evaluación del contexto para gestionar estas posibles tensiones, teniendo en cuenta el principio de proporcionalidad y de conformidad con los derechos humanos y las libertades fundamentales. En todos los casos, toda posible limitación de los derechos humanos y las libertades fundamentales ha de tener una base jurídica y ser razonable, necesaria y proporcional, así como conforme a las obligaciones de los Estados con arreglo al derecho internacional. Para elegir de manera juiciosa entre esas posibilidades, será necesario por lo general colaborar con una amplia gama de partes interesadas apropiadas, haciendo uso del diálogo social, así como de la deliberación ética, la diligencia debida y la evaluación del impacto.

12. La fiabilidad y la integridad del ciclo de vida de los sistemas de IA son esenciales para velar por que las tecnologías de la IA estén al servicio del bien de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, y encarnen los valores y principios enunciados en la presente Recomendación. Las personas deberían tener buenas razones para confiar en que los sistemas de IA pueden aportar beneficios individuales y compartidos, al tiempo que se adoptan medidas adecuadas para atenuar los riesgos. Un requisito esencial para la fiabilidad es que, a lo largo de su ciclo de vida, los sistemas de IA estén sujetos a un seguimiento exhaustivo por las partes interesadas pertinentes, según corresponda. Dado que la fiabilidad resulta de la aplicación de los principios expuestos en este documento, todas las medidas políticas propuestas en la presente Recomendación están dirigidas a promover la fiabilidad en todas las etapas del ciclo de vida de los sistemas de IA.

III. 1 VALORES

Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana

13. La dignidad inviolable e intrínseca de cada ser humano constituye la base del sistema universal, indivisible, inalienable, interdependiente e interrelacionado de derechos humanos y libertades fundamentales. Por consiguiente, el respeto, la protección y la promoción de la dignidad humana y de los derechos establecidos por el derecho internacional, en particular el derecho internacional de los derechos humanos, son esenciales a lo largo del ciclo de vida de los sistemas de IA. La dignidad humana tiene que ver con el reconocimiento del valor intrínseco e igual de cada ser humano, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

14. Ningún ser humano ni comunidad humana debería sufrir daños o sometimiento, ya sean de carácter físico, económico, social, político, cultural o mental, durante ninguna etapa del ciclo de vida de los sistemas de IA. A lo largo de su ciclo de vida, los sistemas de IA deberían mejorar la calidad de vida de los seres humanos, dejando a las personas o los grupos la tarea de definir el concepto de “calidad de vida”, siempre que como resultado de esa definición no se produzca ninguna violación o abuso de los derechos humanos y las libertades fundamentales ni de la dignidad de las personas.

15. Las personas pueden interactuar con los sistemas de IA a lo largo de su ciclo de vida y recibir su asistencia, por ejemplo, para el cuidado de las personas vulnerables o en situación de vulnerabilidad, incluidos, entre otros, los niños, las personas de edad, las personas con discapacidad o los enfermos. En el marco de esas interacciones, las personas nunca deberían ser cosificadas, su dignidad no debería ser menoscabada de ninguna otra manera, y sus derechos humanos y libertades fundamentales nunca deberían ser objeto de violación o abusos.

16. Los derechos humanos y las libertades fundamentales han de ser respetados, protegidos y promovidos a lo largo del ciclo de vida de los sistemas de IA. Los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnicas y las universidades deben respetar los instrumentos y marcos de derechos humanos en sus intervenciones en los procesos que rodean el ciclo de vida de los sistemas de IA. Es necesario que las nuevas tecnologías proporcionen nuevos medios para promover, defender y ejercer los derechos humanos, y no para vulnerarlos.

Prosperidad del medio ambiente y los ecosistemas

17. La prosperidad del medio ambiente y los ecosistemas debería ser reconocida, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Además, el medio ambiente y los ecosistemas son una necesidad existencial para que la humanidad y los demás seres vivos puedan disfrutar de los beneficios derivados de los avances de la IA.

18. Todos los actores que participan en el ciclo de vida de los sistemas de IA deben respetar el derecho internacional y las leyes, normas y prácticas nacionales aplicables, como la precaución, concebidas para la protección y la restauración del medio ambiente y los ecosistemas y para el desarrollo sostenible. Deberían reducir el impacto ambiental de los sistemas de IA, en particular, aunque no exclusivamente, su huella de carbono, para asegurar la minimización del cambio climático y los factores de riesgo ambiental, y prevenir la explotación, la utilización y la transformación no sostenibles de los recursos naturales que contribuyen al deterioro del medio ambiente y a la degradación de los ecosistemas.

Garantizar la diversidad y la inclusión

19. El respeto, la protección y la promoción de la diversidad y la inclusión deberían garantizarse a lo largo del ciclo de vida de los sistemas de IA, de conformidad con el derecho internacional, en particular el derecho de los derechos humanos. Para ello se podría promover la participación activa de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

20. La diversidad de las elecciones de estilo de vida, creencias, opiniones, expresiones o experiencias personales, incluida la utilización opcional de sistemas de IA y la concepción conjunta de estas arquitecturas, no debería restringirse durante ninguna etapa del ciclo de vida de dichos sistemas.

21. Además, habría que esforzarse, principalmente mediante la cooperación internacional, por paliar la falta de infraestructura, educación y competencias tecnológicas necesarias, así como de marcos jurídicos, que afecta a algunas comunidades, en particular en los países de ingreso mediano bajo, los PMA, los PDSL y los PEID, y no aprovecharse nunca de esa situación.

Vivir en sociedades pacíficas, justas e interconectadas

22. Los actores de la IA deberían propiciar sociedades pacíficas y justas, sobre la base de un futuro interconectado en beneficio de todos, compatibles con los derechos humanos y las libertades fundamentales, y participar en su construcción. El valor de vivir en sociedades pacíficas y justas apunta al potencial de los sistemas de IA para contribuir a lo largo de su ciclo de vida a la interconexión de todas las criaturas vivas entre sí y con el medio natural.

23. La noción de interconexión de los seres humanos se basa en el conocimiento de que cada uno de ellos pertenece a un todo más amplio, que prospera cuando todas las partes que lo constituyen pueden progresar. Vivir en sociedades pacíficas, justas e interconectadas requiere un vínculo orgánico, inmediato y no calculado de solidaridad, caracterizado por una búsqueda permanente de relaciones pacíficas, tendentes al cuidado de los demás y del medio natural en el sentido más amplio del término.

24. Este valor exige que se promuevan la paz, la inclusión y la justicia, la equidad y la interconexión durante el ciclo de vida de los sistemas de IA, en la medida en que los procesos de dicho ciclo de vida no deberían segregar ni cosificar a los seres humanos y las comunidades ni mermar su libertad, su autonomía de decisión y su seguridad, así como tampoco dividir y enfrentar entre sí a las personas y los grupos ni amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio natural.

III. 2 PRINCIPIOS

Proporcionalidad e inocuidad

25. Debería reconocerse que las tecnologías de la IA no garantizan necesariamente, por sí mismas, la prosperidad de los seres humanos ni del medio ambiente y los ecosistemas. Además, ninguno de los procesos relacionados con el ciclo de vida de los sistemas de IA podrá ir más allá de lo necesario para lograr propósitos u objetivos legítimos, y esos procesos deberían ser adecuados al contexto. En caso de que pueda producirse cualquier daño para los seres humanos, los derechos humanos y las libertades fundamentales, las comunidades y la sociedad en general, o para el medio ambiente y los ecosistemas, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca.

26. La decisión de utilizar sistemas de IA y la elección del método de IA deberían justificarse de las siguientes maneras:

a) el método de IA elegido debería ser adecuado y proporcional para lograr un objetivo legítimo determinado;

b) el método de IA elegido no debería vulnerar los valores fundamentales enunciados en el presente documento, en particular, su utilización no debe constituir una violación o un abuso de los derechos humanos; y

c) el método de IA elegido debería ser adecuado al contexto y basarse en fundamentos científicos rigurosos. En los casos en que se entienda que las decisiones tienen un impacto irreversible o difícil de revertir o que pueden implicar decisiones de vida o muerte, la decisión final debería ser adoptada por un ser humano. En particular, los sistemas de IA no deberían utilizarse con fines de calificación social o vigilancia masiva.

Seguridad y protección

27. Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y deberían tenerse en cuenta, prevenirse y eliminarse a lo largo del ciclo de vida de los sistemas de IA para garantizar la seguridad y la protección de los seres humanos, del medio ambiente y de los ecosistemas. La seguridad y la protección de la IA se propiciarán mediante el desarrollo de marcos de acceso a los datos que sean sostenibles, respeten la privacidad y fomenten un mejor entrenamiento y validación de los modelos de IA que utilicen datos de calidad.

Equidad y no discriminación

28. Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, de conformidad con el derecho internacional. Ello supone adoptar un enfoque inclusivo para garantizar que los beneficios de las tecnologías de la IA estén disponibles y sean accesibles para todos, teniendo en cuenta las necesidades específicas de los diferentes grupos de edad, los sistemas culturales, los diferentes grupos lingüísticos, las personas con discapacidad, las niñas y las mujeres y las personas desfavorecidas, marginadas y vulnerables o en situación de vulnerabilidad. Los Estados Miembros deberían esforzarse por promover un acceso inclusivo para todos, incluidas las comunidades locales, a sistemas de IA con contenidos y servicios adaptados al contexto local, y respetando el multilingüismo y la diversidad cultural. Los Estados Miembros deberían esforzarse por reducir las brechas digitales y garantizar el acceso inclusivo al desarrollo de la IA y la participación en él. En el plano nacional, los Estados Miembros deberían promover la equidad entre las zonas rurales y urbanas y entre todas las personas, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo, en lo que respecta al acceso al ciclo de vida de los sistemas de IA y la participación en él. En el plano internacional, los países más avanzados tecnológicamente tienen la responsabilidad de ser solidarios con los menos avanzados para garantizar que los beneficios de las tecnologías de la IA se compartan de manera que, para estos últimos, el acceso al ciclo de vida de los sistemas de IA y la participación en él contribuyan a un orden mundial más equitativo en lo que respecta a la información, la comunicación, la cultura, la educación, la investigación y la estabilidad socioeconómica y política.

29. Los actores de la IA deberían hacer todo lo razonablemente posible por reducir al mínimo y evitar reforzar o perpetuar aplicaciones y resultados discriminatorios o sesgados a lo largo del ciclo de vida de los sistemas de IA, a fin de garantizar la equidad de dichos sistemas. Debería disponerse de un recurso efectivo contra la discriminación y la determinación algorítmica sesgada.

30. Además, es necesario abordar las brechas digital y de conocimientos dentro de los países y entre ellos a lo largo del ciclo de vida de los sistemas de IA, en particular en lo que respecta al acceso y la calidad del acceso a la tecnología y los datos, de conformidad con los marcos jurídicos nacionales, regionales e internacionales pertinentes, así como en lo referente a la conectividad, los conocimientos y las competencias y a la participación significativa de las comunidades afectadas, de manera que todas las personas sean tratadas equitativamente.

Sostenibilidad

31. El desarrollo de sociedades sostenibles depende del logro de un complejo conjunto de objetivos relacionados con distintas dimensiones humanas, sociales, culturales, económicas y ambientales. La llegada de las tecnologías de la IA puede beneficiar los objetivos de sostenibilidad o dificultar su consecución, dependiendo de la forma en que se apliquen en países con diferentes niveles de desarrollo. Por consiguiente, la evaluación continua de los efectos humanos, sociales, culturales, económicos y ambientales de las tecnologías de la IA debería llevarse a cabo con pleno conocimiento de las repercusiones de dichas tecnologías en la sostenibilidad como un conjunto de metas en constante evolución en toda una serie de dimensiones, como las que se definen actualmente en los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

Derecho a la intimidad y protección de datos

32. La privacidad, que constituye un derecho esencial para la protección de la dignidad, la autonomía y la capacidad de actuar de los seres humanos, debe ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Es importante que los datos para los sistemas de IA se recopilen, utilicen, compartan, archiven y supriman de forma coherente con el derecho internacional y acorde con los valores y principios enunciados en la presente Recomendación, respetando al mismo tiempo los marcos jurídicos nacionales, regionales e internacionales pertinentes.

33. Deberían establecerse en los planos nacional o internacional, de acuerdo con un enfoque de múltiples partes interesadas, marcos de protección de datos y mecanismos de gobernanza adecuados, protegidos por los sistemas judiciales y aplicados a lo largo del ciclo de vida de los sistemas de IA. Los marcos de protección de datos y todo mecanismo conexo deberían tomar como referencia los principios y normas internacionales de protección de datos relativos a la recopilación, la utilización y la divulgación de datos personales y al ejercicio de sus derechos por parte de los interesados, garantizando al mismo tiempo un objetivo legítimo y una base jurídica válida para el tratamiento de los datos personales, incluido el consentimiento informado.

34. Los sistemas algorítmicos requieren evaluaciones adecuadas del impacto en la privacidad, que incluyan también consideraciones sociales y éticas de su utilización y un empleo innovador del enfoque de privacidad desde la etapa de concepción. Los actores de la IA deben asumir la responsabilidad de la concepción y la aplicación de los sistemas de IA de manera que se garantice la protección de la información personal durante todo el ciclo de vida del sistema de IA.

Supervisión y decisión humanas

35. Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recurso relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes. La supervisión humana se refiere, por tanto, no solo a la supervisión humana individual, sino también a la supervisión pública inclusiva, según corresponda.

36. Puede ocurrir que, en algunas ocasiones, los seres humanos decidan depender de los sistemas de IA por razones de eficacia, pero la decisión de ceder el control en contextos limitados seguirá recayendo en los seres humanos, ya que estos pueden recurrir a los sistemas de IA en la adopción de decisiones y en la ejecución de tareas, pero un sistema de IA nunca podrá reemplazar la responsabilidad final de los seres humanos y su obligación de rendir cuentas. Por regla general, las decisiones de vida o muerte no deberían cederse a los sistemas de IA.

Transparencia y explicabilidad

37. La transparencia y la explicabilidad de los sistemas de IA suelen ser condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos. La transparencia es necesaria para que los regímenes nacionales e internacionales pertinentes en materia de responsabilidad funcionen eficazmente. La falta de transparencia también podría mermar la posibilidad de impugnar eficazmente las decisiones basadas en resultados producidos por los sistemas de IA y, por lo tanto, podría vulnerar el derecho a un juicio imparcial y a un recurso efectivo, y limita los ámbitos en los que estos sistemas pueden utilizarse legalmente.

38. Si bien hay que hacer todo lo posible por aumentar la transparencia y la explicabilidad de los sistemas de IA, incluidos los que tienen un efecto extraterritorial, a lo largo de su ciclo de vida para respaldar la gobernanza democrática, el grado de transparencia y explicabilidad debería ser siempre adecuado al contexto y al efecto, ya que puede ser necesario encontrar un equilibrio entre la transparencia y la explicabilidad y otros principios como la privacidad, la seguridad y la protección. Las personas deberían estar plenamente informadas cuando una decisión se basa en algoritmos de IA o se toma a partir de ellos, en particular cuando afecta a su seguridad o a sus derechos humanos; en esas circunstancias, deberían tener la oportunidad de solicitar explicaciones e información al actor de la IA o a las instituciones del sector público correspondientes. Además, las personas deberían poder conocer los motivos por los que se ha tomado una decisión que afecta a sus derechos y libertades y tener la posibilidad de presentar alegaciones a un miembro del personal de la empresa del sector privado o de la institución del sector público habilitado para revisar y enmendar la decisión. Los actores de la IA deberían informar a los usuarios cuando un producto o servicio se proporcione directamente o con la ayuda de sistemas de IA de manera adecuada y oportuna.

39. Desde un punto de vista sociotécnico, una mayor transparencia contribuye a crear sociedades más pacíficas, justas, democráticas e inclusivas. Posibilita un escrutinio público que puede reducir la corrupción y la discriminación, y también puede ayudar a detectar y prevenir los efectos negativos sobre los derechos humanos. La transparencia tiene como objetivo proporcionar información adecuada a los respectivos destinatarios para permitir su comprensión y fomentar la confianza. En el caso específico de los sistemas de IA, la transparencia puede permitir a las personas comprender cómo se implementa cada etapa de un sistema de IA, en función del contexto y la sensibilidad del sistema en cuestión. También puede proporcionar información sobre los factores que influyen en una predicción o decisión específicas, y sobre la existencia o no de garantías adecuadas (como medidas de seguridad o de equidad). En los casos de amenazas graves con repercusiones adversas para los derechos humanos, la transparencia puede requerir también que se compartan códigos o conjuntos de datos.

40. La explicabilidad supone hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos. La explicabilidad de los sistemas de IA también se refiere a la inteligibilidad de la entrada, salida y funcionamiento de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas. Así pues, la explicabilidad está estrechamente relacionada con la transparencia, ya que los resultados y los subprocesos que conducen a ellos deberían aspirar a ser comprensibles y trazables, apropiados al contexto. Los actores de la IA deberían comprometerse a velar por que los algoritmos desarrollados sean explicables. En el caso de las aplicaciones de IA cuyo impacto en el usuario final no es temporal, fácilmente reversible o de bajo riesgo, debería garantizarse que se proporcione una explicación satisfactoria con toda decisión que haya dado lugar a la acción tomada, a fin de que el resultado se considere transparente.

41. La transparencia y la explicabilidad están estrechamente relacionadas con las medidas adecuadas de responsabilidad y rendición de cuentas, así como con la fiabilidad de los sistemas de IA.

Responsabilidad y rendición de cuentas

42. Los actores de la IA y los Estados Miembros deberían respetar, proteger y promover los derechos humanos y las libertades fundamentales, y deberían también fomentar la protección del medio ambiente y los ecosistemas, asumiendo su responsabilidad ética y jurídica respectiva, de conformidad con el derecho nacional e internacional, en particular las obligaciones de los Estados Miembros en materia de derechos humanos, y con las directrices éticas establecidas durante todo el ciclo de vida de los sistemas de IA, incluso con respecto a los actores de la IA dentro de su territorio y bajo su control efectivos. La responsabilidad ética y la obligación de rendir cuentas de las decisiones y las acciones basadas de alguna manera en un sistema de IA siempre deberían ser atribuibles, en última instancia, a los actores de la IA conforme a la función que tengan en el ciclo de vida del sistema de IA.

43. Deberían elaborarse mecanismos adecuados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluso en lo que se refiere a la protección de los denunciantes de irregularidades, para garantizar la rendición de cuentas respecto de los sistemas de IA y de su impacto a lo largo de su ciclo de vida. Dispositivos tanto técnicos como institucionales deberían garantizar la auditabilidad y la trazabilidad (del funcionamiento) de los sistemas de IA, en particular para intentar solucionar cualquier conflicto con las normas relativas a los derechos humanos y las amenazas al bienestar del medio ambiente y los ecosistemas.

Sensibilización y educación

44. La sensibilización y la comprensión del público respecto de las tecnologías de la IA y el valor de los datos deberían promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación en materia de ética de la IA, la alfabetización mediática e informacional y la capacitación dirigida conjuntamente por los gobiernos, las organizaciones intergubernamentales, la sociedad civil, las universidades, los medios de comunicación, los dirigentes comunitarios y el sector privado, y teniendo en cuenta la diversidad lingüística, social y cultural existente, a fin de garantizar una participación pública efectiva, de modo que todos los miembros de la sociedad puedan adoptar decisiones informadas sobre su utilización de los sistemas de IA y estén protegidos de influencias indebidas.

45. El aprendizaje sobre el impacto de los sistemas de IA debería incluir el aprendizaje sobre los derechos humanos y las libertades fundamentales, a través de ellos y para ellos, lo que significa que el enfoque y la comprensión de los sistemas de IA deberían basarse en el impacto de estos sistemas en los derechos humanos y el acceso a esos derechos, así como en el medio ambiente y los ecosistemas.

Gobernanza y colaboración adaptativas y de múltiples partes interesadas

46. En la utilización de datos deben respetarse el derecho internacional y la soberanía nacional. Esto significa que los Estados, en cumplimiento del derecho internacional, pueden regular los datos generados dentro de sus territorios o que pasan por ellos y adoptar medidas para la regulación efectiva de los datos, en particular su protección, sobre la base del respeto del derecho a la privacidad, de conformidad con el derecho internacional y otras normas relativas a los derechos humanos.

47. La participación de las diferentes partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para garantizar enfoques inclusivos de la gobernanza de la IA, de modo que los beneficios puedan ser compartidos por todos, y para contribuir al desarrollo sostenible. Entre las partes interesadas figuran, entre otros, los gobiernos, las organizaciones intergubernamentales, la comunidad técnica, la sociedad civil, los investigadores y los círculos universitarios, los medios de comunicación, los responsables de la educación, los encargados de formular políticas, las empresas del sector privado, las instituciones de derechos humanos y los organismos de fomento de la igualdad, los órganos de vigilancia de la lucha contra la discriminación y los grupos de jóvenes y niños. Convendría adoptar normas abiertas y garantizar la interoperabilidad para facilitar la colaboración. Deberían adoptarse medidas para tener en cuenta los cambios en las tecnologías y la aparición de nuevos grupos de partes interesadas y para permitir una participación significativa de las personas, las comunidades y los grupos marginados y, si procede, en el caso de los pueblos indígenas, el respeto de su autonomía en la gestión de sus datos.  

IV. ÁMBITOS DE ACCIÓN POLÍTICA

48. Las acciones políticas que se describen en los siguientes ámbitos de actuación ponen en práctica los valores y principios enunciados en la presente Recomendación. La principal acción consiste en que los Estados Miembros establezcan medidas eficaces, por ejemplo marcos o mecanismos normativos, y velen por que otras partes interesadas, como las empresas del sector privado, las instituciones universitarias y de investigación y la sociedad civil, se adhieran a ellas, sobre todo alentando a todas las partes interesadas a que elaboren instrumentos de evaluación del impacto en los derechos humanos, el estado de derecho, la democracia y la ética, así como instrumentos de diligencia debida, de conformidad con las orientaciones, incluidos los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. El proceso de elaboración de esas políticas o mecanismos debería incluir a todas las partes interesadas y tener en cuenta las circunstancias y prioridades de cada Estado Miembro.

La UNESCO puede ser un asociado y apoyar a los Estados Miembros en la elaboración, así como en el seguimiento y la evaluación, de los mecanismos de política.

49. La UNESCO reconoce que los Estados Miembros se encontrarán en diferentes estadios de preparación para aplicar la presente Recomendación, desde los puntos de vista científico, tecnológico, económico, educativo, jurídico, regulador, de infraestructura, social y cultural, entre otros. Cabe señalar que, aquí, el “estadio de preparación” es un estado dinámico. Por consiguiente, a fin de posibilitar la aplicación efectiva de la presente Recomendación, la UNESCO:

1) elaborará una metodología de evaluación del estadio de preparación para ayudar a los Estados Miembros interesados a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones; y

2) garantizará el apoyo a los Estados Miembros interesados en lo que respecta a la elaboración de una metodología de la UNESCO para la evaluación del impacto ético de las tecnologías de la IA y el intercambio de mejores prácticas, directrices de evaluación y otros mecanismos y trabajo analítico.

ÁMBITO DE ACTUACIÓN 1: EVALUACIÓN DEL IMPACTO ÉTICO

50. Los Estados Miembros deberían establecer marcos de evaluación del impacto, como evaluaciones del impacto ético, para determinar y analizar los beneficios, los problemas y los riesgos de los sistemas de IA, así como medidas adecuadas de prevención, atenuación y seguimiento de los riesgos, entre otros mecanismos de garantía. Esas evaluaciones del impacto deberían revelar las repercusiones en los derechos humanos y las libertades fundamentales, en particular, aunque no exclusivamente, los derechos de las personas marginadas y vulnerables o en situación de vulnerabilidad, los derechos laborales, el medio ambiente y los ecosistemas, así como las consecuencias éticas y sociales, y facilitar la participación ciudadana, de conformidad con los valores y principios enunciados en la presente Recomendación.

51. Los Estados Miembros y las empresas del sector privado deberían desarrollar mecanismos de diligencia debida y supervisión para determinar, prevenir y atenuar los riesgos y rendir cuentas de la forma en que abordan el impacto de los sistemas de IA en el respeto de los derechos humanos, el estado de derecho y las sociedades inclusivas. Los Estados Miembros deberían también poder evaluar los efectos socioeconómicos de los sistemas de IA en la pobreza y velar por que la brecha entre los ricos y los pobres, así como la brecha digital entre los países y dentro de ellos, no aumenten con la adopción masiva de tecnologías de la IA en la actualidad y en el futuro. Para ello, en particular, deberían aplicarse protocolos de transparencia ejecutables, que correspondan al acceso a la información, incluida la información de interés público en poder de entidades privadas. Los Estados Miembros, las empresas del sector privado y la sociedad civil deberían investigar los efectos sociológicos y psicológicos de las recomendaciones basadas en la IA sobre los seres humanos en lo que respecta a su autonomía de decisión. Los sistemas de IA considerados riesgos potenciales para los derechos humanos deberían ser ampliamente probados por los actores de la IA, incluso en condiciones reales si es necesario, en el marco de la evaluación del impacto ético, antes de sacarlos al mercado.

52. Los Estados Miembros y las empresas deberían aplicar medidas adecuadas para vigilar todas las etapas del ciclo de vida de los sistemas de IA en el marco de la evaluación del impacto ético, incluidos el funcionamiento de los algoritmos utilizados para la adopción de decisiones, los datos y los actores de la IA que participan en el proceso, especialmente en los servicios públicos y en los casos en que se necesita una interacción directa con el usuario final. Las obligaciones de los Estados Miembros en materia de derechos humanos deberían formar parte de los aspectos éticos de las evaluaciones de los sistemas de IA.

53. Los gobiernos deberían adoptar un marco regulador que establezca un procedimiento para que las autoridades públicas, en particular, lleven a cabo evaluaciones del impacto ético de los sistemas de IA a fin de anticipar las repercusiones, atenuar los riesgos, evitar las consecuencias perjudiciales, facilitar la participación de los ciudadanos y hacer frente a los desafíos sociales. La evaluación también debería establecer mecanismos de supervisión adecuados, como la auditabilidad, la trazabilidad y la explicabilidad, que permitan evaluar los algoritmos, los datos y los procesos de concepción, así como incluir un examen externo de los sistemas de IA. Las evaluaciones del impacto ético deberían ser transparentes y abiertas al público, cuando proceda. También deberían ser multidisciplinarias, multiculturales, pluralistas e inclusivas y contar con múltiples partes interesadas. Se debería exigir a las autoridades públicas que supervisen los sistemas de IA que hayan implantado o desplegado, mediante la introducción de mecanismos e instrumentos adecuados.

ÁMBITO DE ACTUACIÓN 2: GOBERNANZA Y ADMINISTRACIÓN ÉTICAS

54. Los Estados Miembros deberían velar por que los mecanismos de gobernanza de la IA sean inclusivos, transparentes, multidisciplinarios y multilaterales (lo que incluye la posibilidad de atenuar y reparar daños más allá de las fronteras) y cuenten con múltiples partes interesadas. En particular, la gobernanza debería incluir aspectos de previsión y dispositivos eficaces de protección, seguimiento de los efectos, aplicación y reparación.

55. Los Estados Miembros deberían velar por que se investiguen y reparen los daños causados mediante sistemas de IA, estableciendo mecanismos de aplicación estrictos y medidas correctivas, a fin de asegurarse de que los derechos humanos, las libertades fundamentales y el estado de derecho son respetados en el mundo digital y en el mundo físico. Entre esos mecanismos y medidas deberían figurar mecanismos de reparación aportados por empresas de los sectores público y privado. Con ese fin, debería promoverse la auditabilidad y la trazabilidad de los sistemas de IA. Además, los Estados Miembros deberían reforzar sus capacidades institucionales para cumplir con este compromiso y deberían colaborar con investigadores y otras partes interesadas para investigar, prevenir y minimizar todo uso potencialmente malicioso de los sistemas de IA.

56. Se alienta a los Estados Miembros a que elaboren estrategias nacionales y regionales en materia de IA y consideren la posibilidad de adoptar formas de gobernanza “blanda”, por ejemplo, un mecanismo de certificación para los sistemas de IA y el reconocimiento mutuo de su certificación, con arreglo a la sensibilidad del ámbito de aplicación y al impacto previsto en los derechos humanos, el medio ambiente y los ecosistemas, así como otras consideraciones éticas establecidas en la presente Recomendación. Dicho mecanismo podría incluir diferentes niveles de auditoría de los sistemas, los datos y el cumplimiento de las directrices éticas y de los requisitos de procedimiento teniendo en cuenta los aspectos éticos. Al mismo tiempo, no debería obstaculizar la innovación ni poner en situación de desventaja a las pequeñas y medianas empresas o las empresas incipientes, la sociedad civil y las organizaciones científicas y de investigación como resultado de una carga administrativa excesiva. Ese mecanismo también debería incluir un componente de seguimiento periódico para garantizar la solidez del sistema de IA y el mantenimiento de su integridad y su cumplimiento de las directrices éticas durante todo su ciclo de vida, exigiendo una nueva certificación si fuera necesario.

57. Los Estados Miembros y las autoridades públicas deberían realizar una autoevaluación transparente de los sistemas de IA existentes y propuestos, en la cual se debería analizar, en particular, si la adopción de la IA es apropiada y, en caso afirmativo, realizar una nueva evaluación para establecer cuál es el método adecuado, así como una evaluación para determinar si dicha adopción daría lugar a violaciones o abusos de las obligaciones de los Estados Miembros en materia de derechos humanos y, si así fuera, prohibir su utilización.

58. Los Estados Miembros deberían alentar a las entidades públicas, las empresas del sector privado y las organizaciones de la sociedad civil a que incorporen a diferentes partes interesadas a su gobernanza en materia de IA y consideren la posibilidad de añadir una función de responsable independiente de la ética de la IA o algún otro mecanismo para supervisar las actividades relacionadas con la evaluación del impacto ético, las auditorías y el seguimiento continuo, así como para garantizar la orientación ética de los sistemas de IA. Se alienta a los Estados Miembros, las empresas del sector privado y las organizaciones de la sociedad civil a que, con el respaldo de la UNESCO, creen una red de responsables independientes de la ética de la IA para apoyar este proceso en los planos nacional, regional e internacional.

59. Los Estados Miembros deberían fomentar el desarrollo y la accesibilidad de un ecosistema digital para el desarrollo ético e inclusivo de los sistemas de IA en el plano nacional, en particular con miras a reducir las diferencias de acceso durante el ciclo de vida de los sistemas de IA, contribuyendo al mismo tiempo a la colaboración internacional. Ese ecosistema incluiría, en particular, tecnologías e infraestructuras digitales y mecanismos para compartir los conocimientos en materia de IA, según proceda.

60. Los Estados Miembros deberían establecer mecanismos, en colaboración con las organizaciones internacionales, las empresas transnacionales, las instituciones universitarias y la sociedad civil, para garantizar la participación activa de todos los Estados Miembros, especialmente los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, en los debates internacionales sobre la gobernanza de la IA. Esto puede hacerse mediante la provisión de fondos, garantizando la participación regional en condiciones de igualdad, o mediante cualquier otro mecanismo. Además, para velar por que los foros sobre la IA sean inclusivos, los Estados Miembros deberían facilitar los desplazamientos de los actores de la IA dentro y fuera de su territorio, especialmente los de los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, para que puedan participar en esos foros.

61. Las modificaciones de la legislación nacional existente o la elaboración de una nueva legislación nacional en materia de sistemas de IA deben ajustarse a las obligaciones de los Estados Miembros en materia de derechos humanos y promover los derechos humanos y las libertades fundamentales a lo largo del ciclo de vida de esos sistemas. La promoción de los derechos humanos y las libertades fundamentales también debería adoptar la forma de iniciativas de gobernanza, buenos ejemplos de prácticas de colaboración en relación con los sistemas de IA y directrices técnicas y metodológicas nacionales e internacionales a medida que avancen las tecnologías de la IA. En sus prácticas relativas a los sistemas de IA, diversos sectores, incluido el privado, deben respetar, proteger y promover los derechos humanos y las libertades fundamentales utilizando los instrumentos existentes y nuevos en combinación con la presente Recomendación.

62. Los Estados Miembros que adquieran sistemas de IA para casos de utilización sensible en materia de derechos humanos, como la aplicación de la ley, la asistencia social, el empleo, los medios de comunicación y los proveedores de información, la atención de la salud y el sistema judicial independiente, deberían prever mecanismos para vigilar el impacto social y económico de dichos sistemas mediante autoridades de supervisión adecuadas, como autoridades independientes de protección de datos, una supervisión sectorial y organismos públicos encargados de la supervisión.

63. Los Estados Miembros deberían reforzar la capacidad del poder judicial para adoptar decisiones relacionadas con los sistemas de IA en el marco del estado de derecho y de conformidad con el derecho y las normas internacionales, en particular en lo que respecta a la utilización de los sistemas de IA en sus deliberaciones, velando al mismo tiempo por que se respete el principio de la supervisión humana. En caso de que los sistemas de IA sean utilizados por el poder judicial, se necesitan suficientes salvaguardias para garantizar, entre otras cosas, la protección de los derechos humanos fundamentales, el estado de derecho, la independencia judicial y el principio de supervisión humana, así como para asegurar un desarrollo y una utilización de los sistemas de IA en el poder judicial que sean fiables, orientados al interés público y centrados en el ser humano.

64. Los Estados Miembros deberían velar por que los gobiernos y las organizaciones multilaterales desempeñen una función de liderazgo para garantizar la seguridad y la protección de los sistemas de IA, con la participación de múltiples partes interesadas. En concreto, los Estados Miembros, las organizaciones internacionales y otros órganos pertinentes deberían elaborar normas internacionales que describan niveles de seguridad y transparencia mensurables y comprobables, de modo que se puedan evaluar objetivamente los sistemas y determinar los niveles de cumplimiento. Además, los Estados Miembros y las empresas deberían apoyar continuamente la investigación estratégica sobre los posibles riesgos de seguridad y protección de las tecnologías de la IA y deberían alentar la investigación sobre la transparencia y la explicabilidad, la inclusión y los conocimientos de esas tecnologías asignando fondos adicionales a esas esferas para diferentes ámbitos y en diferentes niveles, como el lenguaje técnico y natural.

65. Los Estados Miembros deberían aplicar políticas destinadas a garantizar que las acciones de los actores de la IA se ajusten al derecho, las normas y los principios internacionales de derechos humanos durante todo el ciclo de vida de los sistemas de IA, tomando plenamente en consideración al mismo tiempo las diversidades culturales y sociales existentes, en particular las costumbres locales y las tradiciones religiosas, con el debido respeto a la primacía y la universalidad de los derechos humanos.

66. Los Estados Miembros deberían establecer mecanismos para exigir a los actores de la IA que revelen y combatan toda clase de estereotipos en los resultados de los sistemas y datos de IA, ya sean deliberados o por negligencia, y que velen por que los conjuntos de datos de entrenamiento para los sistemas de IA no fomenten las desigualdades culturales, económicas o sociales, los prejuicios, la propagación de desinformación y de información falsa y la vulneración de la libertad de expresión y del acceso a la información. Debería prestarse especial atención a las regiones donde los datos son escasos.

67. Los Estados Miembros deberían aplicar políticas para promover y aumentar la diversidad y la inclusión en los equipos de desarrollo de la IA y los conjuntos de datos de entrenamiento, de modo que estos sean un reflejo de su población, así como para velar por la igualdad de acceso a las tecnologías de la IA y sus beneficios, en particular para los grupos marginados, tanto de zonas rurales como urbanas.

68. Los Estados Miembros deberían elaborar, examinar y adaptar, según proceda, marcos reguladores para alcanzar la rendición de cuentas y la responsabilidad por el contenido y los resultados de los sistemas de IA en las diferentes etapas de su ciclo de vida. Cuando sea necesario, los Estados Miembros deberían introducir marcos de responsabilidad o aclarar la interpretación de los marcos existentes para garantizar la atribución de la responsabilidad por los resultados y el funcionamiento de los sistemas de IA. Además, al elaborar los marcos reguladores, los Estados Miembros deberían tener en cuenta, en particular, que la  

responsabilidad y la rendición de cuentas deben recaer siempre en última instancia en personas físicas o jurídicas y que no se debe otorgar personalidad jurídica a los propios sistemas de IA. Para lograrlo, esos marcos reguladores deberían ajustarse al principio de la supervisión humana y establecer un enfoque global centrado en los actores de la IA y los procesos tecnológicos que intervienen en las diferentes etapas del ciclo de vida de los sistemas de IA.

69. A fin de establecer normas cuando no las haya, o de adaptar los marcos jurídicos existentes, los Estados Miembros deberían contar con todos los actores de la IA (incluidos, entre otros, investigadores, representantes de la sociedad civil y de los organismos encargados de hacer cumplir la ley, aseguradores, inversores, fabricantes, ingenieros, abogados y usuarios). Las normas pueden evolucionar hasta convertirse en mejores prácticas, leyes y reglamentos. Se alienta además a los Estados Miembros a que utilicen mecanismos como los prototipos de políticas y los entornos de pruebas reguladores para acelerar la formulación de leyes, reglamentos y políticas, incluidas sus revisiones periódicas, acordes con el rápido desarrollo de las nuevas tecnologías y garantizar que las leyes y los reglamentos se puedan poner a prueba en un entorno seguro antes de su aprobación oficial. Los Estados Miembros deberían apoyar a los gobiernos locales en la formulación de políticas, reglamentos y leyes locales que estén en consonancia con los marcos jurídicos nacionales e internacionales.

70. Los Estados Miembros deberían establecer requisitos claros de transparencia y explicabilidad de los sistemas de IA para ayudar a garantizar la fiabilidad de dichos sistemas durante todo su ciclo de vida. Esos requisitos deberían abarcar la concepción y la aplicación de mecanismos de evaluación del impacto que tengan en cuenta la naturaleza del ámbito de aplicación, la utilización prevista, los destinatarios y la viabilidad de cada sistema de IA en particular.

ÁMBITO DE ACTUACIÓN 3: POLÍTICA DE DATOS

71. Los Estados Miembros deberían procurar elaborar estrategias de gobernanza de datos que garanticen la evaluación continua de la calidad de los datos de entrenamiento para los sistemas de IA, en particular la idoneidad de los procesos de recopilación y selección de datos, y que prevean medidas adecuadas de seguridad y protección de los datos, así como mecanismos de retroalimentación para aprender de los errores y compartir las mejores prácticas entre todos los actores de la IA.

72. Los Estados Miembros deberían establecer salvaguardias adecuadas para proteger el derecho a la privacidad, de conformidad con el derecho internacional, en particular respondiendo a preocupaciones como la vigilancia. Los Estados Miembros deberían, entre otras medidas, adoptar o aplicar marcos legislativos que proporcionen una protección adecuada, conforme al derecho internacional. Los Estados Miembros deberían alentar enérgicamente a todos los actores de la IA, incluidas las empresas, a que cumplan las normas internacionales vigentes y, en particular, a que realicen evaluaciones adecuadas del impacto en la privacidad, como parte de las evaluaciones del impacto ético, que tengan en cuenta las repercusiones socioeconómicas más amplias del tratamiento previsto de los datos, y a que apliquen el principio de protección de la privacidad desde la concepción de sus sistemas. La privacidad debería ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA.

73. Los Estados Miembros deberían velar por que las personas conserven sus derechos sobre sus datos personales y estén protegidas por un marco que prevea, en particular: la transparencia; salvaguardias adecuadas para el tratamiento de datos sensibles; un nivel adecuado de protección de los datos; planes y mecanismos de rendición de cuentas eficaces y significativos; el pleno disfrute de los derechos de los interesados y la posibilidad de acceder a los datos personales en los sistemas de IA y de borrarlos, excepto en determinadas circunstancias, de conformidad con el derecho internacional; un nivel adecuado de protección que cumpla plenamente la legislación en materia de protección de datos cuando estos se utilicen con fines comerciales —por ejemplo, para permitir la publicidad con fines específicos— o sean transferidos al extranjero; y una supervisión eficaz e independiente en el marco de un mecanismo de gobernanza de los datos que permita a las personas mantener el control de sus datos personales y promueva los beneficios de la libre circulación de información a nivel internacional, incluido el acceso a los datos.

74. Los Estados Miembros deberían establecer sus políticas de datos o marcos equivalentes, o reforzar las políticas y marcos existentes, para garantizar la seguridad total de los datos personales y los datos sensibles que, de ser divulgados, puedan causar daños, lesiones o dificultades excepcionales a las personas. Cabe citar como ejemplos los datos relativos a infracciones, procesos penales y condenas, así como a las medidas de seguridad conexas; los datos biométricos, genéticos y de salud; y los datos personales como los relativos a la raza, el color, la ascendencia, el género, la edad, el idioma, la religión, las opiniones políticas, el origen nacional, étnico o social, la condición económica o social de nacimiento, la discapacidad o cualquier otra característica.

75. Los Estados Miembros deberían promover los datos abiertos. A este respecto, los Estados Miembros deberían considerar la posibilidad de revisar sus políticas y marcos reguladores, particularmente en lo que respecta al acceso a la información y el gobierno abierto, para reflejar los requisitos específicos de la IA y promover mecanismos, como repositorios abiertos de datos y códigos fuente públicos o de financiación pública y fideicomisos de datos, a fin de apoyar el intercambio seguro, equitativo, legal y ético de datos, entre otros.

76. Los Estados Miembros deberían promover y facilitar el uso de conjuntos de datos sólidos y de calidad para el entrenamiento, el desarrollo y la utilización de los sistemas de IA y ejercer vigilancia al supervisar su recopilación y utilización. Esto podría suponer, si es posible y factible, invertir en la creación de conjuntos de datos de excelencia, incluidos conjuntos de datos abiertos y fiables, que sean diversos, establecidos sobre una base jurídica válida, en particular con el consentimiento de los interesados, cuando así lo exija la ley. Debería alentarse la elaboración de normas para anotar los conjuntos de datos, incluido el desglose de datos por género y otros criterios, de manera que pueda determinarse fácilmente cómo se recopila un conjunto de datos y qué propiedades tiene.

77. Como también se sugiere en el informe del Panel de Alto Nivel sobre la Cooperación Digital del Secretario General de las Naciones Unidas, los Estados Miembros, con el apoyo de las Naciones Unidas y la UNESCO, deberían adoptar un enfoque de patrimonio digital común respecto a los datos, cuando proceda, aumentar la interoperabilidad de los instrumentos y conjuntos de datos, así como las interfaces de los sistemas que albergan datos, y alentar a las empresas del sector privado a que compartan con todas las partes interesadas los datos que recopilan, en beneficio de la investigación, la innovación o el interés público, según proceda. También deberían promover las iniciativas públicas y privadas para crear plataformas de colaboración destinadas a compartir datos de calidad en espacios de datos fiables y seguros.

ÁMBITO DE ACTUACIÓN 4: DESARROLLO Y COOPERACIÓN INTERNACIONAL

78. Los Estados Miembros y las empresas transnacionales deberían dar prioridad a la ética de la IA, incluyendo debates sobre cuestiones éticas relacionadas con la IA en los foros internacionales, intergubernamentales y de múltiples partes interesadas pertinentes.

79. Los Estados Miembros deberían velar por que la utilización de la IA en esferas relacionadas con el desarrollo, como la educación, la ciencia, la cultura, la comunicación y la información, la atención sanitaria, la agricultura y el suministro de alimentos, el medio ambiente, la gestión de recursos naturales y de infraestructuras y la planificación y el crecimiento económicos, entre otras, respete los valores y principios enunciados en la presente Recomendación.

80. Los Estados Miembros deberían procurar, por conducto de organizaciones internacionales, establecer plataformas de cooperación internacional en el ámbito de la IA para el desarrollo, en particular aportando competencias técnicas, financiación, datos, conocimientos del sector e infraestructura y facilitando la colaboración entre múltiples partes interesadas para hacer frente a los problemas complejos en materia de desarrollo, especialmente para los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID.

81. Los Estados Miembros deberían procurar promover la colaboración internacional en materia de investigación e innovación en IA, especialmente en centros y redes de investigación e innovación que promuevan una mayor participación y liderazgo de los investigadores procedentes de países de ingreso mediano bajo y otros países, en particular de PMA, PDSL y PEID.

82. Los Estados Miembros deberían promover las investigaciones sobre la ética de la IA recurriendo a organizaciones internacionales e instituciones de investigación, así como a empresas transnacionales, que puedan servir de base para la utilización ética de los sistemas de IA por entidades públicas y privadas, incluidas las investigaciones sobre la aplicabilidad de marcos éticos específicos en culturas y contextos concretos y sobre las posibilidades de elaborar soluciones tecnológicamente viables de conformidad con esos marcos.

83. Los Estados Miembros deberían alentar la cooperación y la colaboración internacionales en el ámbito de la IA para salvar las divisiones geotecnológicas. Deberían realizarse intercambios y consultas de carácter tecnológico entre los Estados Miembros y su población, entre los sectores público y privado y entre los países más y menos avanzados tecnológicamente, respetando plenamente el derecho internacional.

ÁMBITO DE ACTUACIÓN 5: MEDIO AMBIENTE Y ECOSISTEMAS

84. Los Estados Miembros y las empresas deberían evaluar el impacto ambiental directo e indirecto de los sistemas de IA a lo largo de su ciclo de vida, en particular, aunque no exclusivamente, su huella de carbono, su consumo de energía y el impacto ambiental de la extracción de las materias primas necesarias para la fabricación de tecnologías de la IA, y reducir el impacto ambiental de los sistemas de IA y las infraestructuras de datos. Los Estados Miembros deberían asegurar el cumplimiento de las leyes, políticas y prácticas ambientales por parte de todos los actores de la IA.

85. Los Estados Miembros deberían establecer incentivos, cuando sea necesario y apropiado, para garantizar la elaboración y adopción de soluciones basadas en los derechos y en la ética de la IA en favor de la resiliencia ante el riesgo de desastres; la vigilancia, protección y regeneración del medio ambiente y los ecosistemas; y la preservación del planeta. Esos sistemas de IA deberían contar, durante todo su ciclo de vida, con la participación de las comunidades locales e indígenas y apoyar enfoques del tipo de economía circular y modalidades de consumo y producción sostenibles. Por ejemplo, los sistemas de IA podrían utilizarse, cuando sea necesario y apropiado, para:

a) apoyar la protección, el seguimiento y la gestión de los recursos naturales;

b) apoyar la predicción, la prevención, el control y la atenuación de los problemas relacionados con el clima;

c) favorecer un ecosistema alimentario más eficiente y sostenible;

d) contribuir a acelerar el acceso a la energía sostenible y su adopción a gran escala;

e) facilitar y promover la incorporación de infraestructuras sostenibles, modelos empresariales sostenibles y financiación sostenible al servicio del desarrollo sostenible;  

f) detectar los contaminantes o prever los niveles de contaminación y, de ese modo, ayudar a las partes interesadas pertinentes a definir, planificar y poner en marcha intervenciones específicas para prevenir y reducir la contaminación y la exposición.

86. Al elegir un método de IA, dada la gran necesidad potencial de datos o recursos de algunos de ellos y su consiguiente impacto en el medio ambiente, los Estados Miembros deberían velar por que los actores de la IA, de conformidad con el principio de proporcionalidad, favorezcan los métodos de IA eficientes en cuanto a datos, energía y recursos. Deberían establecerse requisitos destinados a garantizar que se disponga de pruebas adecuadas para demostrar que una aplicación de IA tendrá el efecto deseado, o que dicha aplicación cuenta con garantías que permitan justificar su utilización. Si esto no es posible, deberá privilegiarse el principio de precaución y, en los casos en que haya impactos negativos desproporcionados en el medio ambiente, no debería utilizarse la IA.

ÁMBITO DE ACTUACIÓN 6: GÉNERO

87. Los Estados Miembros deberían velar por que se optimice plenamente el potencial de las tecnologías digitales y la inteligencia artificial para contribuir a lograr la igualdad de género, y han de asegurarse de que no se conculquen los derechos humanos y las libertades fundamentales de las niñas y las mujeres, ni su seguridad e integridad, en ninguna etapa del ciclo de vida de los sistemas de IA. Además, la evaluación del impacto ético debería incluir una perspectiva transversal de género.

88. Los Estados Miembros deberían asignar fondos específicos de sus presupuestos públicos a la financiación de planes con perspectiva de género, velar por que las políticas digitales nacionales incluyan un plan de acción en materia de género y elaborar políticas pertinentes, por ejemplo, sobre la educación laboral, destinadas a apoyar a las niñas y las mujeres para que no queden excluidas de la economía digital impulsada por la IA. Deberían considerarse y realizarse inversiones especiales para ofrecer programas específicos y un lenguaje que respete la igualdad de género, a fin de ampliar las oportunidades de participación de las niñas y las mujeres en la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), incluidas las disciplinas relacionadas con las tecnologías de la información y la comunicación (TIC), y mejorar la preparación, la empleabilidad, el desarrollo de las perspectivas de carrera en condiciones de igualdad y el crecimiento profesional de las niñas y las mujeres.

89. Los Estados Miembros deberían velar por que se aproveche el potencial de los sistemas de IA para impulsar el logro de la igualdad de género. Deberían asegurarse de que estas tecnologías no exacerben las ya amplias brechas que existen entre los géneros en varios ámbitos del mundo analógico, sino que, al contrario, las eliminen. Entre estas brechas cabe citar la disparidad salarial entre hombres y mujeres; su representación desigual en ciertas profesiones y actividades; la falta de representación en los puestos directivos superiores, las juntas directivas o los equipos de investigación en el campo de la IA; la brecha educativa; las desigualdades en el acceso, la adopción, la utilización y la asequibilidad de la tecnología digital y de la IA; y la distribución desigual del trabajo no remunerado y de las responsabilidades de cuidado en nuestras sociedades.

90. Los Estados Miembros deberían velar por que los estereotipos de género y los sesgos discriminatorios no se trasladen a los sistemas de IA, sino que se detecten y corrijan de manera proactiva. Es preciso esforzarse por evitar el efecto negativo combinado de las brechas tecnológicas para lograr la igualdad de género y prevenir la violencia contra las niñas y las mujeres, así como contra los grupos insuficientemente representados, que puede manifestarse en forma de hostigamiento, acoso o trata, incluso en línea.

91. Los Estados Miembros deberían alentar la iniciativa empresarial, la participación y el compromiso de las mujeres en todas las etapas del ciclo de vida de los sistemas de IA, ofreciendo y promoviendo incentivos económicos y reguladores, entre otros estímulos y planes de apoyo, así como políticas encaminadas a lograr una participación equilibrada de hombres y mujeres en la investigación en IA en las universidades y la representación de género en los puestos directivos superiores, las juntas directivas y los equipos de investigación de las empresas digitales y de IA. Los Estados Miembros deberían garantizar que los fondos públicos (para innovación, investigación y tecnologías) se destinen a programas y empresas inclusivos, con un claro equilibrio de género, y que se alienten igualmente los fondos privados mediante principios de acción afirmativa. Deberían elaborarse y aplicarse políticas que favorezcan los entornos libres de acoso, alentando al mismo tiempo la transferencia de las mejores prácticas sobre la forma de promover la diversidad durante el ciclo de vida de los sistemas de IA.

92. Los Estados Miembros deberían promover la diversidad de género en la investigación en IA en el mundo universitario y la industria, ofreciendo incentivos a las niñas y las mujeres para que se incorporen a este campo, estableciendo mecanismos para luchar contra los estereotipos de género y el acoso en la comunidad de investigadores en IA y alentando a las entidades universitarias y privadas a que compartan las mejores prácticas sobre la forma de potenciar la diversidad de género.

93. La UNESCO puede ayudar a compilar un repositorio de mejores prácticas para incentivar la participación de las niñas, las mujeres y los grupos insuficientemente representados en todas las etapas del ciclo de vida de los sistemas de IA.

ÁMBITO DE ACTUACIÓN 7: CULTURA

94. Se alienta a los Estados Miembros a que incorporen sistemas de IA, cuando proceda, a la preservación, el enriquecimiento, la comprensión, la promoción, la gestión y la accesibilidad del patrimonio cultural material, documental e inmaterial, incluidas las lenguas en peligro y las lenguas y conocimientos indígenas, por ejemplo, introduciendo o actualizando programas educativos relacionados con la aplicación de los sistemas de IA en esas esferas, cuando sea apropiado, y asegurando un enfoque participativo, dirigidos a las instituciones y al público.

95. Se alienta a los Estados Miembros a que examinen y aborden las repercusiones de los sistemas de IA en la cultura, especialmente de las aplicaciones de procesamiento del lenguaje natural (PLN), como la traducción automática y los asistentes de voz, en los matices del lenguaje y la expresión humanos. Esas evaluaciones deberían contribuir a la elaboración y aplicación de estrategias que maximicen los beneficios de esos sistemas reduciendo las desigualdades culturales y mejorando la comprensión humana, así como haciendo frente a las repercusiones negativas, como una menor utilización, que podría conducir a la desaparición de lenguas en peligro, dialectos locales y variaciones tonales y culturales asociadas con el lenguaje y la expresión humanos.

96. Los Estados Miembros deberían promover la educación en IA y la capacitación digital de los artistas y los profesionales creativos, a fin de que puedan evaluar la idoneidad de las tecnologías de la IA para utilizarlas en su profesión y contribuir a la concepción y aplicación de tecnologías de la IA adecuadas, ya que estas tecnologías se emplean actualmente para crear, producir, distribuir, difundir y consumir una variedad de bienes y servicios culturales, teniendo en cuenta la importancia de preservar el patrimonio cultural, la diversidad y la libertad artística.

97. Los Estados Miembros deberían promover el conocimiento y la evaluación de los instrumentos de IA entre las industrias culturales locales y las pequeñas y medianas empresas que trabajan en el ámbito de la cultura, a fin de evitar el riesgo de concentración en el mercado cultural.

98. Los Estados Miembros deberían contar con las empresas tecnológicas y otras partes interesadas para promover una oferta diversa de expresiones culturales y un acceso plural a ellas y, en particular, para garantizar que la recomendación algorítmica aumente la notoriedad de los contenidos locales y la posibilidad de descubrirlos.

99. Los Estados Miembros deberían promover nuevas investigaciones en la intersección entre la IA y la propiedad intelectual, por ejemplo, para determinar si hay que proteger con derechos de propiedad intelectual las obras creadas mediante tecnologías de la IA y la manera de hacerlo. Los Estados Miembros también deberían evaluar cómo afectan las tecnologías de la IA a los derechos o los intereses de los titulares de derechos de propiedad intelectual cuyas obras se utilizan para investigar, desarrollar, entrenar o implantar aplicaciones de IA.

100. Los Estados Miembros deberían alentar a los museos, las galerías, las bibliotecas y los archivos de ámbito nacional a que utilicen sistemas de IA para realzar sus colecciones y enriquecer sus bibliotecas, bases de datos y bases de conocimientos, ofreciendo al mismo tiempo acceso a sus usuarios.

ÁMBITO DE ACTUACIÓN 8: EDUCACIÓN E INVESTIGACIÓN

101. Los Estados Miembros deberían colaborar con organizaciones internacionales, instituciones educativas y entidades privadas y no gubernamentales para impartir al público de todos los países, a todos los niveles, conocimientos adecuados en materia de IA, a fin de empoderar a la población y reducir las brechas digitales y las desigualdades en el acceso a la tecnología digital resultantes de la adopción a gran escala de sistemas de IA.

102. Los Estados Miembros deberían promover la adquisición de “competencias previas” para la educación en materia de IA, como la alfabetización básica, la aritmética elemental, las competencias digitales y de codificación y la alfabetización mediática e informacional, así como el pensamiento crítico y creativo, el trabajo en equipo, la comunicación, las aptitudes socioemocionales y las competencias en materia de ética de la IA, especialmente en los países y en las regiones o zonas dentro de los países en que existen lagunas notables en la enseñanza de esas competencias.

103. Los Estados Miembros deberían promover programas generales de sensibilización sobre los avances de la IA, en particular sobre los datos y las oportunidades que ofrecen y los retos que plantean las tecnologías de la IA, el impacto de los sistemas de IA en los derechos humanos, incluidos los derechos de los niños, y sus repercusiones. Estos programas deberían ser accesibles tanto a los grupos técnicos como a los no técnicos.

104. Los Estados Miembros deberían alentar las iniciativas de investigación sobre la utilización responsable y ética de las tecnologías de la IA en la enseñanza, la formación de docentes y el aprendizaje electrónico, entre otras cuestiones, a fin de aumentar las oportunidades y atenuar los problemas y los riesgos existentes en este ámbito. Esas iniciativas deberían ir acompañadas de una evaluación adecuada de la calidad de la educación y de las repercusiones que la utilización de las tecnologías de la IA tiene para los educandos y los docentes. Los Estados Miembros deberían también velar por que las tecnologías de la IA empoderen a los educandos y los docentes y mejoren su experiencia, teniendo presente que los aspectos relacionales y sociales y el valor de las formas tradicionales de educación son fundamentales en las relaciones entre docentes y educandos y entre los propios educandos y deberían tenerse en cuenta al examinar la adopción de las tecnologías de la IA en la educación. Los sistemas de IA utilizados en el aprendizaje deberían estar sujetos a requisitos estrictos en materia de supervisión, evaluación de las capacidades o predicción de los comportamientos de los educandos. La IA debería apoyar el proceso de aprendizaje sin reducir las capacidades cognitivas y sin recabar información sensible, respetando las normas pertinentes en materia de protección de los datos personales. Los datos facilitados para adquirir conocimientos, recopilados durante las interacciones del educando con el sistema de IA, no deben ser objeto de uso indebido, apropiación indebida o explotación delictiva, incluidos los fines comerciales.

105. Los Estados Miembros deberían promover la participación y el liderazgo de las niñas y las mujeres, las personas de diversos orígenes étnicos y culturas, las personas con discapacidad, las personas marginadas y vulnerables o en situación de vulnerabilidad y las minorías, así como de todas aquellas personas que no gocen plenamente de los beneficios de la inclusión digital, en los programas de educación en materia de IA en todos los niveles, así como el seguimiento y el intercambio con otros Estados Miembros de las mejores prácticas en este ámbito.

106. Los Estados Miembros deberían elaborar, de conformidad con sus tradiciones y programas de educación nacionales, planes de estudios sobre la ética de la IA para todos los niveles y promover la colaboración cruzada entre la enseñanza de competencias técnicas de IA y los aspectos humanísticos, éticos y sociales de la educación en IA. Deberían elaborarse cursos en línea y recursos digitales de enseñanza de la ética de la IA en las lenguas locales, incluidas las lenguas indígenas, y tenerse en cuenta la diversidad de los entornos, velando especialmente por la accesibilidad de los formatos para las personas con discapacidad.

107. Los Estados Miembros deberían promover y apoyar las investigaciones sobre la IA, en particular las investigaciones sobre la ética de la IA, por ejemplo mediante inversiones en este tipo de investigaciones o creando incentivos para que los sectores público y privado inviertan en este ámbito, reconociendo que las investigaciones contribuyen de manera significativa al desarrollo y la mejora ulteriores de las tecnologías de la IA con miras a promover el derecho internacional y los valores y principios enunciados en la presente Recomendación. Los Estados Miembros también deberían promover públicamente las mejores prácticas de los investigadores y las empresas que desarrollan la IA de forma ética y cooperar con ellos.

108. Los Estados Miembros deberían velar por que los investigadores en IA reciban formación en ética de la investigación y exigirles que tengan en cuenta consideraciones éticas en sus concepciones, productos y publicaciones, especialmente en los análisis de los conjuntos de datos que utilizan, la forma en que estos se anotan y la calidad y el alcance de los resultados, así como las posibles aplicaciones.

109. Los Estados Miembros deberían alentar a las empresas del sector privado a que faciliten el acceso de la comunidad científica a sus datos para la investigación, especialmente en los países de ingreso mediano bajo, en particular en los PMA, los PDSL y los PEID. Este acceso debería ser conforme a las normas pertinentes en materia de respeto de la privacidad y protección de datos.

110. Para asegurar una evaluación crítica de las investigaciones en IA y un seguimiento adecuado de los posibles usos indebidos o efectos adversos, los Estados Miembros deberían velar por que cualquier evolución futura relacionada con las tecnologías de la IA se base en investigaciones científicas rigurosas e independientes y promover la investigación interdisciplinaria en IA mediante la inclusión de disciplinas distintas de la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), como los estudios culturales, la educación, la ética, las relaciones internacionales, el derecho, la lingüística, la filosofía, las ciencias políticas, la sociología y la psicología.

111. Reconociendo que las tecnologías de la IA ofrecen grandes oportunidades para contribuir al avance de los conocimientos y las prácticas científicos, especialmente en las disciplinas tradicionalmente basadas en modelos, los Estados Miembros deberían alentar a las comunidades científicas a ser conscientes de los beneficios, los límites y los riesgos de su utilización, por ejemplo, intentando garantizar que las conclusiones extraídas de los enfoques, modelos y tratamientos basados en los datos sean sólidas y consistentes. Además, los Estados Miembros deberían celebrar y apoyar la función de la comunidad científica en la contribución a las políticas y en la concienciación respecto de los puntos fuertes y débiles de las tecnologías de la IA.  

AMBITO DE ACTUACIÓN 9: COMUNICACIÓN E INFORMACIÓN

112. Los Estados Miembros deberían utilizar los sistemas de IA para mejorar el acceso a la información y el conocimiento. Para ello, pueden, por ejemplo, apoyar a los investigadores, las universidades, los periodistas, el público en general y los desarrolladores, a fin de mejorar la libertad de expresión, las libertades académicas y científicas y el acceso a la información, así como aumentar la divulgación proactiva de los datos y la información oficiales.

113. Los Estados Miembros deberían garantizar que los actores de la IA respeten y promuevan la libertad de expresión y el acceso a la información en lo que respecta a la generación, moderación y conservación automáticas de contenidos. Marcos adecuados, incluso reglamentarios, deberían propiciar la transparencia de los operadores de comunicación e información en línea, velar por que los usuarios tengan acceso a puntos de vista diversos y prever procesos de notificación rápida a los usuarios sobre los motivos de la eliminación u otro tratamiento de los contenidos, así como mecanismos de recurso que permitan a los usuarios solicitar reparación.

114. Los Estados Miembros deberían invertir en competencias digitales y de alfabetización mediática e informacional y promoverlas, a fin de reforzar el pensamiento crítico y las competencias necesarias para comprender el uso y las implicaciones de los sistemas de IA, con miras a atenuar y contrarrestar la desinformación, la información errónea y el discurso de odio. Una mejor comprensión y evaluación de los efectos tanto positivos como potencialmente perjudiciales de los sistemas de recomendación debería formar parte de esos esfuerzos.

115. Los Estados Miembros deberían crear entornos propicios para que los medios de comunicación tengan los derechos y recursos necesarios para informar eficazmente sobre las ventajas y los inconvenientes de los sistemas de IA, y también alentar a los medios de comunicación a que hagan un uso ético de estos sistemas en su trabajo.

ÁMBITO DE ACTUACIÓN 10: ECONOMÍA Y TRABAJO

116. Los Estados Miembros deberían evaluar y abordar el impacto de los sistemas de IA en los mercados de trabajo y sus consecuencias en las necesidades educativas en todos los países y, más concretamente, en los países cuya economía requiere mucha mano de obra. Para ello puede ser preciso introducir una gama más amplia de competencias “básicas” e interdisciplinarias en todos los niveles educativos, a fin de dar a los trabajadores actuales y a las nuevas generaciones una oportunidad equitativa de encontrar empleo en un mercado en rápida evolución y para asegurar que sean conscientes de los aspectos éticos de los sistemas de IA. Junto a las competencias técnicas especializadas, así como a las tareas poco especializadas, deberían enseñarse competencias como “aprender a aprender”, comunicación, pensamiento crítico, trabajo en equipo, empatía y la capacidad de transferir los conocimientos propios a diversos ámbitos. Es fundamental actuar con transparencia con respecto a las competencias de las que existe demanda y actualizar los planes de estudios en torno a ellas.

117. Los Estados Miembros deberían apoyar los acuerdos de colaboración entre los gobiernos, las instituciones universitarias, las instituciones de enseñanza y formación profesional, la industria, las organizaciones de trabajadores y la sociedad civil a fin de reducir la brecha en cuanto a las competencias exigidas para adecuar los programas y estrategias de capacitación a las futuras implicaciones del trabajo y a las necesidades de la industria, incluidas las pequeñas y medianas empresas. Deberían promoverse enfoques de enseñanza y aprendizaje de la IA basados en proyectos, facilitando las asociaciones de colaboración entre las instituciones públicas, las empresas del sector privado, las universidades y los centros de investigación.

118. Los Estados Miembros deberían colaborar con empresas del sector privado, organizaciones de la sociedad civil y otras partes interesadas, incluidos trabajadores y sindicatos, para garantizar una transición equitativa a los empleados en situación de riesgo. Esto supone poner en marcha programas de perfeccionamiento y reconversión profesional, encontrar mecanismos eficaces para retener a los empleados durante esos periodos de transición y explorar programas de protección social para aquellos que no puedan reconvertirse. Los Estados Miembros deberían elaborar y aplicar programas para analizar los problemas detectados y darles respuesta, entre los que podrían figurar el perfeccionamiento y la reconversión profesional, el fortalecimiento de la protección social, la aplicación de políticas e intervenciones sectoriales proactivas y la introducción de ventajas fiscales y nuevas formas de tributación. Los Estados Miembros deberían garantizar que haya suficiente financiación pública para apoyar estos programas. Las reglamentaciones pertinentes, como los regímenes fiscales, deberían examinarse cuidadosamente y modificarse, si es necesario, para contrarrestar las consecuencias del desempleo causado por la automatización basada en la IA.

119. Los Estados Miembros deberían alentar y apoyar a los investigadores para que analicen el impacto de los sistemas de IA en el entorno laboral local con miras a anticipar las tendencias y los desafíos futuros. Estos estudios deberían tener un enfoque interdisciplinario y examinar el impacto de los sistemas de IA en los sectores económico, social y geográfico, así como en las interacciones entre seres humanos y robots y entre los propios seres humanos, a fin de asesorar sobre las mejores prácticas de reconversión y reasignación profesionales.

120. Los Estados Miembros deberían adoptar las medidas adecuadas para garantizar la competitividad de los mercados y la protección de los consumidores, considerando posibles medidas y mecanismos en los planos nacional, regional e internacional, a fin de impedir los abusos de posición dominante en el mercado, incluidos los monopolios, en relación con los sistemas de IA durante su ciclo de vida, ya se trate de datos, investigación, tecnología o mercados. Los Estados Miembros deberían prevenir las desigualdades resultantes, evaluar los mercados correspondientes y promover mercados competitivos. Se debería prestar la debida atención a los países de ingreso mediano bajo, en particular a los PMA, los PDSL y los PEID, que están más expuestos y son más vulnerables a la posibilidad de que se produzcan abusos de posición dominante en el mercado, como consecuencia de la falta de infraestructuras, capacidad humana y reglamentación, entre otros factores. Los actores de la IA que desarrollen sistemas de IA en países que hayan establecido o adoptado normas éticas en materia de IA deberían respetar estas normas cuando exporten estos productos, desarrollen sus sistemas de IA o los apliquen en países donde no existan dichas normas, respetando al mismo tiempo el derecho internacional y las leyes, normas y prácticas nacionales aplicables de estos países.

ÁMBITO DE ACTUACIÓN 11: SALUD Y BIENESTAR SOCIAL

121. Los Estados Miembros deberían esforzarse por emplear sistemas eficaces de IA para mejorar la salud humana y proteger el derecho a la vida, en particular atenuando los brotes de enfermedades, al tiempo que desarrollan y mantienen la solidaridad internacional para hacer frente a los riesgos e incertidumbres relacionados con la salud en el plano mundial, y garantizar que su despliegue de sistemas de IA en el ámbito de la atención de la salud sea conforme al derecho internacional y a sus obligaciones en materia de derechos humanos. Los Estados Miembros deberían velar por que los actores que participan en los sistemas de IA relacionados con la atención de la salud tengan en cuenta la importancia de las relaciones del paciente con su familia y con el personal sanitario.

122. Los Estados Miembros deberían garantizar que el desarrollo y el despliegue de los sistemas de IA relacionados con la salud en general y con la salud mental en particular —prestando la debida atención a los niños y los jóvenes— estén regulados, de modo que esos sistemas sean seguros, eficaces, eficientes y probados desde el punto de vista científico y médico y faciliten la innovación y el progreso médico con base empírica. Además, en el ámbito conexo de las intervenciones de salud digital, se alienta encarecidamente a los Estados Miembros a que hagan participar activamente a los pacientes y sus representantes en todas las etapas pertinentes del desarrollo del sistema.

123. Los Estados Miembros deberían prestar particular atención a la regulación de las soluciones de predicción, detección y tratamiento médicos en las aplicaciones de la IA, mediante:

a) la supervisión para minimizar y atenuar los sesgos;

b) la inclusión del profesional, el paciente, el cuidador o el usuario del servicio en el equipo en calidad de “experto en la materia” en todas las etapas pertinentes al elaborar los algoritmos;

c) una debida atención a la privacidad, dado que quizá sea necesaria una vigilancia médica, y el cumplimiento de todos los requisitos nacionales e internacionales pertinentes en materia de protección de datos;

d) mecanismos eficaces para que las personas cuyos datos personales se están analizando sepan de la utilización y el análisis de sus datos y den su consentimiento informado al respecto, sin impedir el acceso a la atención de la salud;

e) la garantía de que el cuidado humano y la decisión final sobre el diagnóstico y el tratamiento correspondan siempre a seres humanos, reconociendo al mismo tiempo que los sistemas de IA también pueden ayudarlos en su trabajo;

f) el examen, cuando sea necesario, de los sistemas de IA por un comité de investigación ética antes de su uso clínico.

124. Los Estados Miembros deberían realizar investigaciones sobre los efectos y la regulación de los posibles daños de los sistemas de IA para la salud mental, tales como un aumento de la depresión, la ansiedad, el aislamiento social, el desarrollo de adicciones, el tráfico, la radicalización y la información errónea, entre otros.

125. Los Estados Miembros deberían elaborar directrices sobre las interacciones entre seres humanos y robots y sus repercusiones en las relaciones entre seres humanos, basadas en la investigación y orientadas al desarrollo futuro de robots, y prestando especial atención a la salud mental y física de los seres humanos. Debería prestarse particular atención al uso de robots en la atención de la salud, en la atención a las personas de edad y las personas con discapacidad y en el ámbito de la educación, así como a los robots para uso infantil y para usos lúdicos, conversacionales y de compañía para niños y adultos. Además, deberían utilizarse las tecnologías de la IA para mejorar la seguridad y el uso ergonómico de los robots, en particular en entornos de trabajo en los que intervienen robots y seres humanos. Debería prestarse especial atención a la posibilidad de utilizar la IA para manipular los sesgos cognitivos humanos y hacer un mal uso de ellos.

126. Los Estados Miembros deberían velar por que las interacciones entre seres humanos y robots se ajusten a los mismos valores y principios que se aplican a cualquier otro sistema de IA, lo que incluye los derechos humanos y las libertades fundamentales, la promoción de la diversidad y la protección de las personas vulnerables o en situación de vulnerabilidad. Las cuestiones éticas relativas a los sistemas basados en la IA utilizados en las neurotecnologías y las interfaces cerebro-ordenador deberían tenerse en cuenta a fin de preservar la dignidad y la autonomía humanas.

127. Los Estados Miembros deberían velar por que los usuarios puedan determinar fácilmente si interactúan con un ser vivo o con un sistema de IA que imita las características humanas o animales y puedan rechazar eficazmente dicha interacción y solicitar la intervención humana.  

128. Los Estados Miembros deberían aplicar políticas de sensibilización sobre la antropomorfización de las tecnologías de la IA y las tecnologías que reconocen e imitan las emociones humanas, especialmente en el lenguaje utilizado para referirse a ellas, y evaluar las manifestaciones, las implicaciones éticas y las posibles limitaciones de esa antropomorfización, en particular en el contexto de la interacción entre robots y seres humanos y, especialmente, cuando se trate de niños.

129. Los Estados Miembros deberían alentar y promover la investigación colaborativa sobre los efectos de la interacción a largo plazo de las personas con los sistemas de IA, prestando especial atención a las consecuencias psicológicas y cognitivas que estos sistemas pueden tener en los niños y los jóvenes. Para ello deberían utilizarse múltiples normas, principios, protocolos, enfoques disciplinarios y un análisis de la modificación de las conductas y los hábitos, así como una cuidadosa evaluación de los impactos culturales y sociales posteriores. Además, los Estados Miembros deberían alentar la investigación sobre el efecto de las tecnologías de la IA en el desempeño del sistema sanitario y los resultados en materia de salud.

130. Los Estados Miembros, así como todas las partes interesadas, deberían establecer mecanismos para hacer participar de manera significativa a los niños y los jóvenes en las conversaciones, los debates y la adopción de decisiones sobre las repercusiones de los sistemas de IA en sus vidas y su futuro.

V. SEGUIMIENTO Y EVALUACIÓN

131. Los Estados Miembros, de acuerdo con sus circunstancias, estructuras de gobierno y disposiciones constitucionales específicas, deberían velar por el seguimiento y la evaluación de las políticas, los programas y los mecanismos relativos a la ética de la IA de forma creíble y transparente mediante una combinación de enfoques cuantitativos y cualitativos. La UNESCO puede contribuir a apoyar a los Estados Miembros mediante:

a) la elaboración de una metodología de la UNESCO de evaluación del impacto ético de las tecnologías de la IA basada en una investigación científica rigurosa y fundamentada en el derecho internacional de los derechos humanos, orientaciones para su aplicación en todas las etapas del ciclo de vida de los sistemas de IA y materiales de desarrollo de las capacidades para apoyar la labor de los Estados Miembros dirigida a capacitar a funcionarios públicos, responsables de formular políticas y otros actores pertinentes de la IA en la metodología de la evaluación del impacto ético;

b) la elaboración de una metodología de la UNESCO de evaluación del estadio de preparación para ayudar a los Estados Miembros a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones;

c) la elaboración de una metodología de la UNESCO para evaluar ex ante y ex post la eficacia y la eficiencia de las políticas y los incentivos relacionados con la ética de la IA con respecto a objetivos definidos;

d) el fortalecimiento del análisis, basado en investigaciones y pruebas, de las políticas relativas a la ética de la IA y la presentación de informes a este respecto;

e) la recopilación y difusión de información sobre los avances y las innovaciones, informes de investigación, publicaciones científicas, datos y estadísticas relativos a las políticas sobre la ética de la IA, en particular mediante las iniciativas existentes, a fin de apoyar el intercambio de mejores prácticas y el aprendizaje mutuo y de impulsar la aplicación de la presente Recomendación.  

132. Los procesos de seguimiento y evaluación deberían asegurar una amplia participación de todas las partes interesadas, entre ellas, aunque no exclusivamente, las personas vulnerables o en situación de vulnerabilidad. Se debería garantizar la diversidad social, cultural y de género, con miras a mejorar los procesos de aprendizaje y fortalecer los nexos entre las conclusiones, la adopción de decisiones, la transparencia y la rendición de cuentas sobre los resultados.

133. A fin de promover las mejores políticas y prácticas relacionadas con la ética de la IA, deberían elaborarse instrumentos e indicadores adecuados para evaluar su eficacia y eficiencia en función de normas, prioridades y objetivos acordados, incluidos objetivos específicos para las personas pertenecientes a poblaciones desfavorecidas y marginadas y personas vulnerables o en situación de vulnerabilidad, así como el impacto de los sistemas de IA en los planos individual y social. El seguimiento y la evaluación del impacto de los sistemas de IA y de las políticas y prácticas conexas relativas a la ética de la IA deberían realizarse de manera continua y sistemática proporcionalmente a los riesgos correspondientes. Este proceso debería basarse en marcos acordados internacionalmente e ir acompañado de evaluaciones de instituciones, proveedores y programas públicos y privados, incluidas autoevaluaciones, así como de estudios de seguimiento y la elaboración de conjuntos de indicadores. La recopilación y el procesamiento de datos deberían realizarse de conformidad con el derecho internacional, la legislación nacional en materia de protección y confidencialidad de datos y los valores y principios enunciados en la presente Recomendación.

134. En particular, los Estados Miembros podrían considerar posibles mecanismos de seguimiento y evaluación, como una comisión de ética, un observatorio de ética de la IA, un repositorio que abarque el desarrollo ético y conforme a los derechos humanos de los sistemas de IA, o contribuciones a las iniciativas existentes para reforzar la conformidad a los principios éticos en todas las esferas de competencia de la UNESCO, un mecanismo de intercambio de experiencias, entornos de pruebas reguladores de la IA y una guía de evaluación para que todos los actores de la IA determinen en qué medida cumplen las recomendaciones de actuación mencionadas en el presente documento.

VI. UTILIZACIÓN Y APLICACIÓN DE LA PRESENTE RECOMENDACIÓN

135. Los Estados Miembros y todas las demás partes interesadas que se indican en la presente Recomendación deberían respetar, promover y proteger los valores, principios y normas éticos relativos a la IA que se establecen en esta Recomendación y adoptar todas las medidas posibles para dar efecto a sus recomendaciones de actuación.

136. Los Estados Miembros deberían esforzarse por ampliar y complementar su propia acción en lo que respecta a la presente Recomendación, cooperando con todas las organizaciones gubernamentales y no gubernamentales nacionales e internacionales pertinentes, así como con las empresas transnacionales y las organizaciones científicas, cuyas actividades correspondan al ámbito de aplicación y a los objetivos de la presente Recomendación. La elaboración de una metodología de la UNESCO de evaluación del impacto ético y el establecimiento de comisiones nacionales de ética de la IA pueden ser instrumentos importantes a este respecto.

VII. PROMOCIÓN DE LA PRESENTE RECOMENDACIÓN

137. La UNESCO tiene la vocación de ser el principal organismo de las Naciones Unidas encargado de promover y difundir la presente Recomendación y, en consecuencia, trabajará en colaboración con otras entidades pertinentes de las Naciones Unidas, respetando al mismo tiempo su mandato y evitando la duplicación de esfuerzos.

138. La UNESCO, incluidos algunos de sus órganos, como la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST), el Comité Internacional de Bioética (CIB) y el Comité Intergubernamental de Bioética (CIGB), trabajará también en colaboración con otras organizaciones gubernamentales y no gubernamentales internacionales, regionales y subregionales.

139. Aunque en la UNESCO el mandato de promover y proteger es competencia de los gobiernos y los organismos intergubernamentales, la sociedad civil desempeñará una función importante en la defensa de los intereses del sector público y, por lo tanto, la UNESCO debe garantizar y promover su legitimidad.

VIII. DISPOSICIONES FINALES

140. La presente Recomendación debe entenderse como un todo, y los valores y principios fundamentales deben considerarse complementarios y relacionados entre sí.

141. Ninguna disposición de la presente Recomendación podrá interpretarse como si reemplazara, modificara o menoscabara de cualquier otra manera las obligaciones o los derechos de los Estados con arreglo al derecho internacional o como si autorizara a un Estado, otro agente político, económico o social, grupo o individuo a emprender actividades o realizar actos que sean contrarios a los derechos humanos, las libertades fundamentales, la dignidad humana y el respeto del medio ambiente y los ecosistemas, tanto vivos como no vivos.