Archivos de la etiqueta: inteligencia artificial

10Nov/24

Real Decreto 210/2024, de 27 de febrero,

Real Decreto 210/2024, de 27 de febrero, por el que se establece la estructura orgánica básica del Ministerio para la Transformación Digital y de la Función Pública.

 MINISTERIO PARA LA TRANSFORMACIÓN DIGITALY DE LA FUNCIÓN PÚBLICA

Real Decreto 210/2024, de 27 de febrero, por el que se establece la estructura orgánica básica del Ministerio para la Transformación Digital y de la Función Pública.

El Real Decreto 829/2023, de 20 de noviembre, por el que se reestructuran los departamentos ministeriales, modificado por el Real Decreto 1230/2023, de 29 de diciembre, ha creado el Ministerio para la Transformación Digital y de la Función Pública. El Ministerio cuenta con tres órganos superiores: la Secretaría de Estado de Digitalización e Inteligencia Artificial, la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales y la Secretaría de Estado de Función Pública.

Asimismo, el Real Decreto 1009/2023, de 5 de diciembre, por el que se establece la estructura orgánica básica de los departamentos ministeriales, configura los órganos superiores y directivos de cada departamento.

Procede ahora desarrollar la estructura orgánica básica del Ministerio para la Transformación Digital y de la Función Pública, determinando sus órganos superiores y directivos hasta el nivel orgánico de subdirección general y definiendo las competencias de cada uno de estos órganos.

En el articulado se desarrollan dichos órganos superiores y directivos, así como las competencias de cada uno.

En las disposiciones adicionales se regula el régimen de suplencia, la delegación y desconcentración de competencias y la supresión de órganos, así como la revisión de la clasificación de entidades del sector público empresarial y fundacional de carácter tecnológico o científico.

Las disposiciones transitorias regulan la situación de las unidades y puestos de trabajo con nivel orgánico inferior a subdirección general, la gestión temporal de medios y servicios y a los órganos de asistencia en la contratación, así como el régimen transitorio vinculado a la supresión de la Comisión Interministerial de Retribuciones.

La disposición derogatoria deroga las disposiciones de rango igual o inferior que se opongan a lo establecido en el real decreto, así como, en lo que se oponga a este Real Decreto, los reales decretos 403/2020, de 25 de febrero, por el que se desarrolla la estructura orgánica básica del Ministerio de Asuntos Económicos y Transformación Digital, y 682/2021, de 3 de agosto, por el que se desarrolla la estructura orgánica básica del Ministerio de Hacienda y Función Pública. Se deroga asimismo el Real Decreto 469/1987, de 3 de abril, por el que se articulan las competencias conjuntas atribuidas al Ministerio para las Administraciones Públicas y al Ministerio de Economía y Hacienda. Se pone con ello fin al régimen de competencias compartidas entre los Ministerios de Hacienda y para la Transformación Digital y de la Función Pública, de modo que se permita una mejor delimitación de los ámbitos de actuación de ambos ministerios, mediante una identificación del ámbito del sector público institucional en el que cada uno de los departamentos asume sus respectivas competencias, con el fin trabajar conjuntamente en la transformación del modelo de recursos humanos en un modelo basado en la gestión por competencias, tal y como se establece en las reformas comprometidas en el Plan de Recuperación, Transformación y Resiliencia.

La disposición final primera añade una nueva atribución a la Comisión Superior de Personal, con el fin de que puedan atribuirse a este órgano colegiado competencias para adoptar las medidas de coordinación necesarias con el fin de asegurar un enfoque coherente de la planificación de recursos humanos de ámbito general, específica y de reestructuración sobre la base de instrumentos comunes, en el marco de las reformas comprometidas por el Plan de Recuperación, Transformación y Resiliencia.

Mediante la disposición final segunda se modifica el Real Decreto del extinto Ministerio de Asuntos Económicos y Transformación Digital al objeto de asignarle el Instituto para la Evaluación de Políticas Públicas al actual Ministerio de Economía, Comercio y Empresa.

Mediante la disposición final tercera se modifica el Real Decreto 1009/2023, de 5 de diciembre, por el que se establece la estructura orgánica básica de los departamentos ministeriales, al objeto de adaptarlo a las modificaciones organizativas derivadas del Real Decreto 1230/2023, de 29 de diciembre, por el que se modifica el Real Decreto 829/2023, de 20 de noviembre, por el que se reestructuran los departamentos ministeriales, así como para incorporar la Dirección General del Dato como órgano directivo dependiente de la Secretaría de Estado de Digitalización e Inteligencia Artificial.

La disposición final cuarta se refiere al mandato para la modificación del Real Decreto 451/2012, de 5 de marzo, por el que se regula el régimen retributivo de los máximos responsables y directivos en el sector público empresarial y otras entidades.

Las disposiciones finales quinta y sexta son relativas a las facultades de desarrollo y ejecución y a la entrada en vigor.

Este real decreto es coherente con los principios de buena regulación a que se refiere el artículo 129 de la Ley 39/2015, de 1 de octubre, de Procedimiento Administrativo Común de las Administraciones Públicas. En concreto, cumple con los principios de necesidad y eficacia, pues se trata del instrumento más adecuado para garantizar el interés general y la efectiva ejecución de las políticas públicas del Gobierno en la materia. También se adecua al principio de proporcionalidad, pues no existe otra alternativa para crear un nuevo marco orgánico de este departamento. En cuanto a los principios de seguridad jurídica, transparencia y eficiencia, dicha norma se adecua a los mismos pues es coherente con el resto del ordenamiento jurídico, y se racionaliza, en su aplicación, la gestión de los recursos públicos.

En su virtud, a propuesta del Ministro para la Transformación Digital y de la Función Pública, previa deliberación del Consejo de Ministros en su reunión del día 27 de febrero de 2024,

DISPONGO:

Artículo 1. Organización general del departamento.

1. Corresponde al Ministerio para la Transformación Digital y de la Función Pública la propuesta y ejecución de la política del Gobierno en materia de telecomunicaciones, sociedad de la información, transformación digital y el desarrollo y fomento de la inteligencia artificial.

Asimismo corresponde al Ministerio para la Transformación Digital y de la Función Pública la propuesta y ejecución de la política del Gobierno en materia de administración pública, función pública, y gobernanza pública.

2. Las competencias atribuidas en este Real Decreto se entenderán en coordinación y sin perjuicio de aquellas que corresponden a otros departamentos ministeriales.

3. El Ministerio para la Transformación Digital y de la Función Pública, bajo la superior dirección de la persona titular del departamento, desarrolla las funciones que legalmente le corresponden a través de los órganos superiores y directivos siguientes:

a) La Secretaría de Estado de Digitalización e Inteligencia Artificial, de la que dependen la Dirección General de Digitalización e Inteligencia Artificial, la Dirección General del Dato y la Dirección General de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua.

b) La Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, de la que depende la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual.

c) La Secretaría de Estado de Función Pública, de la que dependen la Secretaría General de Administración Digital, la Dirección General de Función Pública, con rango de Subsecretaría, y la Dirección General de Gobernanza Pública. Asimismo depende de esta Secretaría de Estado la Oficina de Conflictos de Intereses, con rango de Dirección General.

4. Depende directamente de la persona titular del departamento la Subsecretaría para la Transformación Digital y de la Función Pública.

5. Como órgano de asistencia inmediata a la persona titular del Departamento existe un Gabinete, con rango de dirección general, con la estructura que se establece en el artículo 23.2 del Real Decreto 1009/2023, de 5 de diciembre, por el que se establece la estructura orgánica básica de los departamentos ministeriales.

6. De acuerdo con lo dispuesto en el artículo 23.4 del citado Real Decreto 1009/2023, de 5 de diciembre, existirá en el Gabinete una unidad de comunicación, responsable de la comunicación oficial del departamento, al que corresponderá dirigir y mantener las relaciones informativas con los medios de comunicación social y difundir la información de carácter general del departamento.

Artículo 2. Secretaría de Estado de Digitalización e Inteligencia Artificial.

1. La Secretaría de Estado de Digitalización e Inteligencia Artificial, bajo la superior dirección de la persona titular del Ministerio para la Transformación Digital y de la Función Pública, ejercerá las funciones previstas en el artículo 62 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público en el ámbito de sus competencias, relativas a la política de impulso a la digitalización de la sociedad y economía de forma respetuosa con los derechos individuales y colectivos, así como con los valores del ordenamiento jurídico español. A tal fin, le corresponden las funciones de fomento y regulación de los servicios digitales y de la economía y sociedad digitales, la interlocución con los sectores profesionales, industriales y académicos y la coordinación y cooperación interministerial y con otras administraciones públicas respecto a dichas materias, sin perjuicio de las competencias atribuidas a otros departamentos ministeriales.

Le corresponde específicamente el ejercicio de las siguientes funciones:

a) La propuesta, coordinación y seguimiento de las relaciones internacionales en materia de la sociedad digital, y la representación internacional del Reino de España en estas materias en colaboración con el Ministerio de Asuntos Exteriores, Unión Europea y Cooperación y sin perjuicio de sus competencias.

b) La gestión económico-presupuestaria de los gastos correspondientes a los créditos presupuestarios de la Secretaría de Estado de Digitalización e Inteligencia Artificial, elaboración del Presupuesto de la Secretaría de Estado y el seguimiento de su ejecución.

c) La preparación y tramitación de las modificaciones presupuestarias en el Presupuesto que correspondan al ámbito de la Secretaría de Estado de Digitalización e Inteligencia Artificial, así como de la gestión económica y administrativa de las subvenciones nominativas y transferencias establecidas en el Presupuesto que correspondan al ámbito de la Secretaría de Estado.

d) La gestión económico-presupuestaria de los programas de ayudas públicas que sean competencia de la Secretaría de Estado de Digitalización e Inteligencia Artificial y, en particular, el seguimiento de las obligaciones financieras contraídas por la Secretaría de Estado de Digitalización e Inteligencia Artificial con los beneficiarios de las citadas ayudas, la instrucción de los expedientes de amortización anticipada, y de asunción de deuda, los acuerdos de ejecución o cancelación de las garantías prestadas por los beneficiarios de todo tipo de ayudas y subvenciones públicas, en el ámbito de sus competencias materiales, la tramitación y gestión de obligaciones financieras de entidades beneficiarias en concurso y la ejecución económica de decisiones de órganos judiciales.

e) La coordinación de las actuaciones de la Secretaría de Estado Digitalización e Inteligencia Artificial en materia de contratación.

f) La gestión económico-presupuestaria en el ámbito de la Secretaría de Estado de Digitalización e Inteligencia Artificial y, la gestión económico-administrativa de la contratación, encargos a medios propios y convenios en el ámbito de la Secretaría de Estado, la comunicación e inscripción de los mismos, la elevación de los expedientes de contratación en el ámbito de la Secretaría de Estado que sean competencia de la Junta de Contratación o de la Mesa de contratación del Ministerio.

g) La colaboración con la Dirección General de Racionalización y Centralización de la Contratación del Ministerio de Hacienda en la gestión centralizada de la contratación en el ámbito competencial de la Secretaría de Estado de Digitalización e Inteligencia Artificial.

h) La concesión de subvenciones y ayudas con cargo a los créditos de gasto propios de la Secretaría de estado, incluyendo la elaboración de propuestas de financiación para la concesión de las ayudas, la elaboración de las resoluciones de desistimiento, denegación y concesión para las solicitudes que haya determinado en su caso la Comisión de Evaluación, así como sus posibles modificaciones, el seguimiento técnico-económico, comprobación de cuentas justificativas, control de las obligaciones de publicidad y certificación de cumplimientos, los procedimientos de reintegro y reconocimiento y devolución de ingresos indebidos, tramitación y firma de las liquidaciones y, la suspensión y levantamiento de liquidaciones, la elaboración de los requerimientos de carácter técnico y operativo necesarios para la funcionalidad adecuada de cada fase del procedimiento de instrucción que deban ser tenidos en cuenta por el resto de Subdirecciones Generales proponentes y la gestión de los procedimientos de instrucción de la concesión de las convocatorias; todo ello sin perjuicio de las atribuidas a la Subdirección General de Ciberseguridad y sin perjuicio de los informes técnicos competencia de las Subdirecciones Generales proponentes, a petición de la Subdirección General de Ayudas, que sirvan de apoyo a la Comisión de Evaluación.

2. De la Secretaría de Estado de Digitalización e Inteligencia Artificial dependen orgánicamente la Dirección General de Digitalización e Inteligencia Artificial, la Dirección General del Dato y la Dirección General de Planificación estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua.

3. Dependen directamente de la Secretaría de Estado de Digitalización e Inteligencia Artificial:

a) La Subdirección General de Ayudas a la que le corresponderán las funciones señaladas en el párrafo h) del apartado 1 de este artículo.

b) Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, la División de Planificación y Ejecución de Programas, que ejercerá las funciones señaladas en los párrafos b) a g) del apartado 1.

c) Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, la Unidad Temporal del Plan de Recuperación, Transformación y Resiliencia para el impulso y el seguimiento de la ejecución de las inversiones y medidas, así como la coordinación y el apoyo respecto al cumplimiento de los principios transversales descritos en el artículo 2.2. de la Orden HFP/1030/2021, de 29 de septiembre, por la que se configura el sistema de gestión del Plan de Recuperación, Transformación y Resiliencia, asociados a los proyectos de inversión y medidas del Plan de Recuperación, Transformación y Resiliencia gestionados por los Órganos Gestores y el resto de órganos directivos dependientes de la Secretaría de Estado de Digitalización e Inteligencia Artificial.

4. De la persona titular de la Secretaría de Estado de Digitalización e Inteligencia Artificial depende directamente un Gabinete, como órgano de asistencia inmediata a su titular, con nivel orgánico de subdirección general, y con la estructura que se establece en el artículo 23 del Real Decreto 1009/2023, de 5 de diciembre.

5. Para el asesoramiento jurídico de la Secretaría de Estado de Digitalización e Inteligencia Artificial existirá una Abogacía del Estado, integrada orgánicamente en la del departamento.

6. La Inspección General del Ministerio de Hacienda dependerá funcionalmente de la persona titular de la Secretaría de Estado de Digitalización e Inteligencia Artificial para el ejercicio de sus competencias respecto de órganos y materias del ámbito de atribuciones de dicha Secretaría de Estado.

7. Se adscribe al Ministerio para la Transformación Digital y de la Función Pública, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, la Entidad pública empresarial Red.es., M.P., cuya presidencia corresponderá a la persona titular de la Secretaría de Estado.

8. El Ministerio ejerce la tutela, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, de la sociedad mercantil estatal Instituto Nacional de Ciberseguridad de España, M.P., SA.

9. Se adscribe al Ministerio para la Transformación Digital y de la Función Pública, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, la Agencia Española de Supervisión de Inteligencia Artificial (AESIA).

Artículo 3. Dirección General de Digitalización e Inteligencia Artificial.

1. La Dirección General de Digitalización e Inteligencia Artificial ejercerá las funciones previstas en el artículo 66 de la Ley 40/2015, de 1 de octubre, en el ámbito de sus competencias, y sin perjuicio de las atribuidas por la legislación nacional y europea al Instituto Nacional de Estadística, correspondiéndole en particular las siguientes:

a) La elaboración, formulación, coordinación y evaluación de la Estrategia española de Inteligencia Artificial en colaboración con otros departamentos, órganos y organismos con competencias en esta materia.

b) El desarrollo normativo, aspectos éticos y regulación en materia de inteligencia artificial y demás tecnologías habilitadoras digitales (tecnologías del lenguaje e imágenes, Internet de las cosas, tecnologías de registro distribuido, ciberseguridad, entre otras) para la transformación de la economía y la sociedad.

c) La participación en comisiones, grupos de trabajo y otros foros de carácter internacional o nacional, tanto públicos como privados, en el ámbito de la inteligencia artificial y resto de tecnologías habilitadoras digitales, así como el seguimiento y participación en iniciativas y foros relacionados con estas materias.

d) La definición y gestión coordinada de los programas y actuaciones, impulso y fomento de la I+D+i en el ámbito de la inteligencia artificial, incluyendo la coordinación de la aplicación de los datos abiertos a la inteligencia artificial y resto de tecnologías habilitadoras digitales en los sectores productivos de la economía y de la sociedad.

e) El impulso, coordinación y ejecución de los planes y líneas de actuación de las administraciones públicas en inteligencia artificial y otras tecnologías habilitadoras digitales en colaboración con el conjunto de agentes del sector con los correspondientes programas e iniciativas de la Unión Europea y con otros programas internacionales.

f) La coordinación de las estrategias, planes, programas e iniciativas sectoriales de transformación digital de los departamentos ministeriales y el aseguramiento de la coherencia y eficacia de las actuaciones, mediante la evaluación en fase temprana de las iniciativas y el seguimiento de la ejecución.

g) El ejercicio de las funciones de secretaría que se le atribuyan en las comisiones interministeriales que se establezcan para la coordinación y el seguimiento de las políticas de digitalización.

h) El diseño, impulso y seguimiento de planes, programas, proyectos y actuaciones para el fomento de la transformación digital en todos los sectores productivos de la economía, en coordinación con otros departamentos ministeriales.

i) La coordinación e impulso de iniciativas que fomenten el despliegue de capacidades e infraestructuras comunes, normas técnicas y esquemas de gobernanza que contribuyan a acelerar los procesos de transformación digital, reforzar la cooperación y asegurar su eficiencia.

j) La interlocución y coordinación con los agentes representativos de la economía digital y la participación en comisiones, grupos de trabajo y otros foros en materia de transformación digital.

k) El control e impulso del libre flujo de datos no personales, su portabilidad, y la elaboración de códigos de conducta armonizados con la Unión Europea y otros foros de carácter internacional, así como la elaboración y propuesta de normativa en materia de gobernanza, acceso y compartición de datos, en coordinación con la Dirección General del Dato.

l) La elaboración y propuesta de normativa en materia de servicios digitales y sus prestadores, en particular sobre identificación electrónica y servicios electrónicos de confianza, comercio electrónico y nombres de dominio de Internet.

m) La elaboración de normativa, en colaboración con otros departamentos, referente a la regulación de las plataformas e intermediarios digitales, entre otras, la relativa a su responsabilidad y obligaciones, la privacidad y protección de la información, así como a la garantía de equidad y respeto a los derechos digitales de usuarios y empresas.

n) La supervisión, control, inspección y sanción en materia de la sociedad digital, de conformidad con la legislación aplicable, incluyendo la gestión de la lista de prestadores de servicios de confianza cualificados.

ñ) La participación en comisiones, grupos de trabajo y otros foros de carácter internacional o nacional, tanto públicos como privados, en materia de sociedad digital, así como el seguimiento y participación en iniciativas y foros relacionados con la Gobernanza de Internet.

o) El impulso, coordinación y apoyo a las iniciativas para la capacitación profesional en el ámbito de las tecnologías de la información y las comunicaciones (TIC), y de programas de atracción, desarrollo y retención del talento digital.

p) La elaboración, gestión y seguimiento de planes, proyectos y programas de actuaciones orientados al desarrollo de habilidades digitales en coordinación con otros departamentos ministeriales, así como la definición y gestión coordinada de esta política con los correspondientes programas europeos e internacionales en estas materias.

q) La elaboración y propuesta normativa, impulso, coordinación y apoyo a las iniciativas para promover la iniciativa emprendedora y el desarrollo de las empresas digitales en colaboración con otras unidades y departamentos.

r) El impulso, coordinación y apoyo a las iniciativas destinadas a la creación de contenidos digitales, y demás iniciativas que promuevan el desarrollo de empresas tecnológicas en sectores estratégicos para la transformación e inclusión digital en colaboración con otros departamentos, órganos u organismos.

s) La promoción y asistencia a la internacionalización de las empresas de tecnologías digitales, de la sociedad digital y de contenidos digitales, sin perjuicio de las competencias de la Secretaría de Estado de Comercio.

t) El diseño y desarrollo de planes y programas destinados a fomentar el acceso y uso de los servicios digitales por los ciudadanos y facilitar la disponibilidad y accesibilidad de las tecnologías digitales, contribuyendo a la corrección de las brechas digitales en coordinación con otros departamentos ministeriales con competencias en otras políticas con las que esas materias estén relacionadas.

u) La planificación, coordinación, desarrollo e impulso de políticas, planes, programas, proyectos y actuaciones para la incorporación de la ciberseguridad en la transformación digital del sector privado y la ciudadanía, en coordinación con la sociedad mercantil estatal (en adelante, S.M.E) Instituto Nacional de Ciberseguridad de España, M.P., SA y departamentos ministeriales con competencias en la materia así como la gestión coordinada de los correspondientes programas europeos e internacionales en esta materia, sin perjuicio de las competencias de otros órganos en la materia.

v) Fomento del ecosistema de empresas emergentes en materia de ciberseguridad y ciber-resiliencia, en coordinación con la Subdirección General de Talento y Emprendimiento Digital.

w) El impulso y la promoción de la definición de regulación y estrategias que fomenten desde la administración la mejora de las políticas de ciberseguridad en el entorno privado, en especial las relativas a sus Centros Operativos de Seguridad (SOC), en colaboración con la S.M.E Instituto Nacional de Ciberseguridad de España, M.P., SA.

x) La supervisión, control, e inspección como autoridad competente en materia de ciberseguridad y ciber-resiliencia de los servicios y productos digitales en coordinación con otros órganos y organismos con competencia en la materia. Así como el impulso y coordinación de iniciativas para la garantía del derecho a la confianza y seguridad digital, en especial a la protección de los menores y colectivos vulnerables, en el ámbito competencial de la Secretaría de Estado de Digitalización e Inteligencia Artificial y en coordinación con la S.M.E Instituto Nacional de Ciberseguridad de España, M.P., SA.

y) La elaboración y propuesta de normativa en materia de ciberseguridad y ciber-resiliencia para el sector privado, en colaboración con otros órganos u organismos con competencias en la materia y los sectores económicos y sociales públicos y privados afectados, para la transformación segura de la economía y la sociedad, en el ámbito competencial de la Secretaría de Estado de Digitalización e Inteligencia Artificial.

z) La participación en comisiones, grupos de trabajo y otros foros de carácter nacional, europeo e internacional, tanto públicos como privados, en el ámbito de la ciberseguridad, sin perjuicio de la participación de los órganos de la Secretaría General de Administración Digital.

aa) La gestión de ayudas y subvenciones públicas en el ámbito de la ciberseguridad y de la ciber-resiliencia y en particular del Centro Nacional de Coordinación de Ciberseguridad (CNC). El fomento de actuaciones y programas en materia de ciberseguridad, sin perjuicio de las competencias de otros órganos en la materia.

ab) La gestión de programas operativos cofinanciados por los fondos comunitarios y, en particular el Digital Europe, en el ámbito de la ciberseguridad, de la ciber-resiliencia y de la cibersolidaridad; y la representación nacional en dichos fondos.

2. De la Dirección General de Digitalización e Inteligencia Artificial dependen directamente las siguientes subdirecciones generales:

a) La Subdirección General de Inteligencia Artificial y Tecnologías Habilitadoras Digitales, a la que corresponden las funciones a las que se refieren los párrafos a), b), c), d) y e) del apartado 1.

b) La División de Economía Digital, a la que corresponden las funciones recogidas en los párrafos f), g), h), i) y j) del apartado 1.

c) La Subdirección General para la Sociedad Digital, a la que corresponden las funciones recogidas en los párrafos k), l), m), n) y ñ) del apartado 1.

d) La Subdirección General de Talento y Emprendimiento Digital, a la que corresponden las funciones recogidas en los párrafos o), p), q), r), s) y t) del apartado 1.

e) La Subdirección General de Ciberseguridad a la que le corresponderán las funciones de los párrafos u), v), w), x), y), z), aa) y ab) del apartado 1 de este artículo.

3. El ejercicio de las anteriores funciones se coordinará mediante los procedimientos de gestión de ayudas que se acuerden con la Subdirección General de Ayudas necesarios para la correcta instrucción, tramitación y seguimiento de las ayudas.

4. El ejercicio de las funciones anteriores se ejercerán, en lo que pudiesen afectar a las competencias de la Dirección General del Dato y la Dirección General de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua, en coordinación con éstas.

Artículo 4. Dirección General del Dato.

1. La Dirección General del Dato tendrá como misión el fomento del uso de datos por las Administraciones Públicas, empresas y ciudadanos, así como la compartición en espacios de datos interoperables, contribuyendo al desarrollo del mercado único digital para Europa, en coordinación con los departamentos ministeriales sectoriales competentes y en colaboración con las Comunidades Autónomas y Entidades Locales. En particular, llevará a cabo las siguientes funciones:

a) La interlocución y coordinación con los agentes representativos de la economía del dato y la participación en comisiones, grupos de trabajo y otros foros al dato de carácter internacional o nacional, tanto públicos como privados, e incluyendo la representación nacional en el Comité Europeo de Innovación de Datos.

b) La coordinación, seguimiento de las estrategias, planes, programas, y cualquiera otra iniciativa en materia de digitalización de los distintos departamentos ministeriales y entidades dependientes, fomentando el diseño orientado al dato, su eficacia, eficiencia e impacto, así como su alineamiento con el marco de las estrategias y programas de la Unión Europea y demás organismos internacionales.

c) El diseño, implementación, y seguimiento de estrategias, planes, programas, y cualquiera otra iniciativa para el fomento del empleo masivo y compartición de los datos entre empresas, ciudadanos y Sector Público, así como para el impulso del desarrollo y despliegue de los espacios de datos en los sectores productivos de la economía.

d) El diseño, desarrollo, impulso y seguimiento de políticas y esquemas de gobernanza, modelos de referencia, catálogos federados de conjuntos y recursos de datos, normas técnicas y tecnologías que fomenten la economía del dato en los sectores productivos de la economía.

e) La promoción y difusión de mejores prácticas e iniciativas de valor en materia de datos, así como el desarrollo de mecanismos de transferencia de conocimiento, en particular, en los departamentos ministeriales y las Administraciones Públicas.

f) La apertura y reutilización en las Administraciones Públicas, coordinando la gestión del punto de acceso y la puesta a disposición de los conjuntos de datos de alto valor públicos.

g) El fomento del uso de los datos para el apoyo a la toma de decisiones en la gestión pública, en especial el uso de los conjuntos de datos de alto valor públicos para la evaluación de políticas públicas en todas las fases de planificación, implementación, ejecución y evaluación de impacto, así como el diseño y desarrollo de los pilotos y sistemas técnicos de apoyo, en colaboración con los organismos competentes en materia de evaluación de las políticas públicas en el ámbito de la Administración General del Estado.

h) El diseño, impulso y seguimiento de programas, actuaciones e instrumentos para el despliegue de capacidades, infraestructuras y plataformas que contribuyan a acelerar el empleo de los datos, desarrollar políticas públicas más eficaces y fomenten su soberanía, en coordinación con el resto de unidades competentes en el departamento ministerial.

i) El diseño, impulso, coordinación y seguimiento de las estrategias, planes, programas e iniciativas que fomenten la investigación, el desarrollo y la innovación en tecnologías, servicios y productos para la economía del dato, contribuyendo al desarrollo de una industria nacional competitiva, en colaboración con el resto de entidades relevantes.

j) La definición y el diseño y la aplicación, esta última en coordinación con la Secretaría General de Administración Digital, de políticas para la gobernanza y la gestión  de datos en la Administración General del Estado y sus organismos públicos y entidades de Derecho Público vinculados o dependientes.

2. De la Dirección General del Dato dependen las siguientes unidades:

a) La Subdirección General de Programas, Gobernanza y Promoción a la que corresponden las funciones a las que se refieren los párrafos b, c), d), éste en colaboración con la División de Diseño, Innovación y Explotación, y e), del apartado 1.

b) La División de Diseño, Innovación y Explotación, a la que corresponden las funciones recogidas en los párrafos f), g), h), i), j) del apartado 1, con el rango que determine la Relación de Puestos de Trabajo.

3. El ejercicio de las anteriores funciones se coordinará mediante los procedimientos de gestión de ayudas que se acuerden con la Subdirección General de Ayudas necesarios para la correcta instrucción, tramitación y seguimiento de las ayudas.

4. El ejercicio de las funciones anteriores se ejercerán, en lo que pudiesen afectar a las competencias de la Dirección General de Digitalización e Inteligencia Artificial y de la Dirección General de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua, en coordinación con éstas.

Artículo 5. Dirección General de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua.

1. La Dirección General de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua, ejercerá las funciones de análisis, prospectiva y asesoría con las que identificar y determinar los desafíos y tendencias en el ámbito de las tecnologías digitales avanzadas en su dimensión más estratégica, en línea con la propuesta europea de impulso a tecnologías críticas y transformadoras, y las oportunidades y retos en el sector de la Nueva Economía de la Lengua. Se pretenden así garantizar los recursos informados necesarios que permitan la previsión y ayuden a preparar al país ante los retos a medio y largo plazo en estas materias. En particular, llevará a cabo las siguientes funciones:

a) Análisis de políticas, planes e instrumentos puestos en marcha en materia de tecnologías innovadoras, así como la comparación con las estrategias análogas en otros países y su seguimiento.

b) Elaboración de propuestas relativas a planificación estratégica en materia de tecnologías digitales avanzadas, así como la coordinación y análisis de estudios y estadísticas en este ámbito, en coordinación con la Dirección General de Digitalización e Inteligencia Artificial y la Dirección General del Dato, así como con otras unidades del Ministerio de Transformación Digital y de la Función Pública, y de otros ministerios.

c) Análisis y explotación de herramientas de vigilancia tecnológica, prospectiva y agregación de sistemas de información como soporte para la formulación de políticas basadas en datos y evidencia, en colaboración con la Dirección General del Dato.

d) Propuesta e impulso de nuevas capacidades de simulación, experimentación y desarrollo de servicios de tecnologías innovadoras para el análisis, evaluación, articulación y prototipado de políticas en el ámbito competencial de la Secretaría de Estado de Digitalización e Inteligencia Artificial.

e) Análisis y propuesta de actuaciones para desplegar Tecnologías Digitales Avanzadas en diferentes unidades de la Administración del Estado.

f) Incorporación de instrumentos de carácter metodológico para habilitar la participación democrática en la definición y el diseño de las políticas públicas en el ámbito competencial de la Secretaría de Estado de Digitalización e Inteligencia Artificial, facilitando que la consulta y la interlocución con la sociedad civil fomente la cooperación y el intercambio de mejores prácticas.

g) Generación de espacios de debate y foros de discusión con la ciudadanía en torno al impacto de las tecnologías innovadoras y emergentes, impulsando iniciativas orientadas a promover el debate crítico en torno a la realidad, a los riesgos y a las posibilidades de las tecnologías innovadoras en la administración y en la sociedad.

h) Promoción de estrategias, políticas y medidas que potencien la Nueva Economía de la Lengua en nuestro país, tanto en el ámbito de colaboración público-privada, como en la búsqueda de sinergias con iniciativas de otros departamentos ministeriales y organismos públicos, en los ámbitos de su competencia.

i) Seguimiento y supervisión de las actuaciones del Proyecto Estratégico para la Recuperación y Transformación de la Economía (PERTE) en Nueva Economía de la Lengua de las actuaciones del PERTE, así como la colaboración en el diseño de las actuaciones del PERTE asignadas al Ministerio de Transformación Digital y las Administraciones Públicas, en el marco del Plan de Recuperación, Transformación y Resiliencia, en colaboración con la Dirección General de Digitalización e Inteligencia Artificial.

j) Participación de representantes de esta Dirección General en comisiones, grupos de trabajo y otros foros de carácter internacional o nacional, en la materia de sus actuaciones.

2. De la Dirección General de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua depende la División de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua, con el rango que determine la Relación de Puestos de Trabajo, y a la que corresponden las funciones recogidas en el punto anterior.

3. El ejercicio de las anteriores funciones se coordinará, en el caso de que fuesen necesarios, mediante los procedimientos de gestión de ayudas que se acuerden con la Subdirección General de Ayudas.

4. El ejercicio de las funciones anteriores se ejercerán, en lo que pudiesen afectar a competencias de la Dirección General de Digitalización e Inteligencia Artificial y de la Dirección General del Dato, en acuerdo y coordinación con éstas.

Artículo 6. Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales.

1. La Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, bajo la superior dirección de la persona titular del Ministerio para la Transformación Digital y de la Función Pública, ejercerá las funciones previstas en el artículo 62 de la Ley 40/2015, de 1 de octubre, en el ámbito de sus competencias, relativas a la política de impulso al sector de las telecomunicaciones, de los servicios de comunicación audiovisual, el despliegue de infraestructuras y servicios para garantizar la conectividad de los ciudadanos y empresas e impulsar la productividad y el crecimiento económico. A tal fin, le corresponden las funciones de fomento y regulación del sector de las telecomunicaciones y de los servicios de comunicación audiovisual, la interlocución con los sectores profesionales, industriales y académicos y la coordinación o cooperación interministerial y con otras Administraciones Públicas respecto a dichas materias, sin perjuicio de las competencias atribuidas a otros departamentos ministeriales, en particular, al Ministerio de Cultura y a la Comisión Nacional de los Mercados y la Competencia. Específicamente le corresponderá el ejercicio de las siguientes funciones:

a) El estudio, propuesta y ejecución de la política general y la planificación estratégica y de acción sobre telecomunicaciones, las infraestructuras digitales y los servicios de comunicación audiovisual, así como la elaboración y propuesta de normativa a la ordenación y regulación en estas materias, en consonancia con las disposiciones nacionales, europeas e internacionales vigentes.

b) La promoción y desarrollo de las infraestructuras digitales y de las redes y servicios de telecomunicaciones y servicios de comunicación audiovisual.

c) La elaboración, gestión y seguimiento de planes, proyectos tecnológicos y programas de actuaciones orientados al desarrollo de las infraestructuras digitales y la conectividad para impulsar la vertebración territorial, el fomento de la oferta de nuevas tecnologías, servicios, aplicaciones y contenidos en el ámbito de las telecomunicaciones y servicios de comunicación audiovisual y gestión coordinada de esta política con los correspondientes programas europeos e internacionales en estas materias.

d) El impulso y la coordinación de los planes, proyectos y programas para el fomento de la actividad de normalización, estandarización y certificación en el sector de las telecomunicaciones e infraestructuras digitales.

e) La promoción y asistencia a la internacionalización de las empresas de servicios de comunicación audiovisual, sin perjuicio de las competencias de la Secretaría de Estado de Comercio.

f) La propuesta, coordinación y seguimiento de las relaciones internacionales en materia de telecomunicaciones e infraestructuras digitales y servicios de comunicación audiovisual, y la representación internacional del departamento en estas materias en colaboración con el Ministerio de Asuntos Exteriores, Unión Europea y Cooperación.

g) El análisis y evaluación del impacto de otras políticas públicas en el sector de las telecomunicaciones y las infraestructuras digitales y los servicios de comunicación audiovisual.

h) La elaboración, gestión y seguimiento de programas y actuaciones para fomentar el acceso y uso de las telecomunicaciones y los servicios de comunicación audiovisual y facilitar la disponibilidad y accesibilidad de las infraestructuras y las tecnologías digitales y los servicios de comunicación audiovisual, especialmente para aquellos ciudadanos con necesidades específicas, en su caso en coordinación con otros departamentos ministeriales con competencias en otras políticas con las que esas materias estén relacionadas.

i) La colaboración con la Secretaría de Estado de Economía y Apoyo a la Empresa en materia de precios y valoración de los costes de prestación de los servicios de comunicaciones electrónicas.

j) La planificación, gestión y control de los recursos públicos en el ámbito de las telecomunicaciones, en particular, del dominio público radioeléctrico, la numeración, direccionamiento, denominación y los recursos órbita espectro, y la tramitación y el otorgamiento de los títulos habilitantes para el uso de dichos recursos.

k) La tramitación y el otorgamiento de los títulos habilitantes de los servicios de comunicación audiovisual, en el ámbito de las competencias de la Administración General del Estado.

l) El mantenimiento de las relaciones de la Administración General del Estado con los prestadores de redes y servicios de comunicaciones electrónicas, así como el control del cumplimiento de las obligaciones de servicio público.

m) El control, la inspección y la imposición de sanciones en materia de telecomunicaciones y los servicios de comunicación audiovisual.

n) La resolución de controversias entre operadores y usuarios de telecomunicaciones y de los servicios digitales en los términos previstos en la normativa vigente.

ñ) La gestión, liquidación y recaudación en periodo voluntario de las tasas en materia de telecomunicaciones y el apoyo a su gestión en periodo ejecutivo, de acuerdo con lo previsto en la normativa vigente.

o) La gestión de Programas Operativos cofinanciados por los fondos comunitarios (Digital Europe, Horizon Europe, Connecting Europe Facility) y, en particular, el Fondo Europeo de Desarrollo Regional (FEDER) en el ámbito de las telecomunicaciones y las infraestructuras digitales.

p) Aquellas otras que atribuya la legislación vigente al departamento en los sectores de las telecomunicaciones, las infraestructuras digitales y los servicios de comunicación audiovisual.

q) La gestión económico-presupuestaria de los gastos correspondientes a los créditos presupuestarios de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, de la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual, elaboración del Presupuesto de la Secretaría de Estado y el seguimiento de su ejecución.

r) La preparación y tramitación de las modificaciones presupuestarias en el Presupuesto que correspondan al ámbito de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual, así como de la gestión económica y administrativa de las subvenciones nominativas y transferencias establecidas en el Presupuesto que correspondan al ámbito de la Secretaría de Estado.

s) La gestión económico-presupuestaria de los ingresos de la Secretaría de Estado, en particular el seguimiento de la recaudación en periodo voluntario de las tasas en materia de telecomunicaciones y el apoyo a su gestión en periodo ejecutivo, de acuerdo con lo previsto en la normativa vigente. También se incluyen las resoluciones sobre devolución de ingresos indebidos de tasas en materia de telecomunicaciones, incluida la firma de liquidaciones de devolución de ingresos y la propuesta de pago, así como las diligencias de cancelación de avales relacionados con la suspensión de liquidaciones de tasas en materia de telecomunicaciones reguladas en el anexo I de la Ley 11/2022, de 28 de junio, General de Telecomunicaciones, y las resoluciones sobre suspensión de la ejecución de liquidaciones de la tasa por reserva del dominio público radioeléctrico.

t) La gestión económico-presupuestaria de los programas de ayudas públicas que sean competencia de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales y, en particular, el seguimiento de las obligaciones financieras contraídas por los beneficiarios de las citadas ayudas, la devolución de ingresos indebidos, la tramitación y firma de las liquidaciones, las propuestas de pago y la suspensión/levantamiento de liquidaciones, la instrucción de los expedientes de amortización anticipada, y de asunción de deuda, los acuerdos de ejecución o cancelación de las garantías prestadas por los beneficiarios de todo tipo de ayudas y subvenciones públicas, en el ámbito de sus competencias materiales, la tramitación y gestión de obligaciones financieras de entidades beneficiarias en concurso y la ejecución económica de decisiones de órganos judiciales y las liquidaciones de intereses de demora en casos de suspensión de la liquidación por interposición de recurso de reposición o reclamación económico-administrativa con garantía, así como los acuerdos de inicio de los expedientes de pérdida de derecho de cobro y de la ayuda asociada y los de establecimientos de medidas cautelares directamente relacionados con los mismos dentro del ámbito de sus competencias materiales.

u) La coordinación de las actuaciones de la Secretaría de Estado en materia de contratación.

v) La gestión económico-presupuestaria en el ámbito de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, la gestión económico-administrativa de la contratación, encargos a medios propios y convenios en el ámbito de la Secretaría de Estado, incluida la firma de la memoria justificativa, cuestionario y la solicitud de autorizaciones que hayan de acompañar a los convenios, la comunicación e inscripción de los mismos, la elevación de los expedientes de contratación en el ámbito de la Secretaría de Estado que sean competencia de la Junta de Contratación o de la Mesa de contratación del Ministerio.

w) La colaboración con la Dirección General de Racionalización y Centralización de la Contratación del Ministerio de Hacienda en la gestión centralizada de la contratación en el ámbito competencial de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales.

x) La titularidad del Organismo Intermedio del Fondo Europeo de Desarrollo Regional (FEDER), cuando así se acuerde con la Autoridad de Gestión del FEDER, en atención a lo dispuesto en el Reglamento 2021/1060 (UE) 2021/1060 del Parlamento Europeo y del Consejo, de 24 de junio de 2021, por el que se establecen las disposiciones comunes relativas al Fondo Europeo de Desarrollo Regional, al Fondo Social Europeo Plus, al Fondo de Cohesión, al Fondo de Transición Justa y al Fondo Europeo Marítimo, de Pesca y de Acuicultura, así como las normas financieras para dichos Fondos y para el Fondo de Asilo, Migración e Integración, el Fondo de Seguridad Interior y el Instrumento de Apoyo Financiero a la Gestión de Fronteras y la Política de Visados.

y) La supervisión de las actuaciones relacionadas con la gestión de los Programas Operativos de FEDER en la Secretaría de Estado, en la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual, realizando la selección de operaciones, aprobación de las verificaciones y la presentación de las solicitudes de reembolso; así como la representación en los comités de seguimiento de los Programas Operativos.

2. La persona titular de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales presidirá por delegación de la persona titular del Ministerio para la Transformación Digital y de la Función Pública las correspondientes Conferencias Sectoriales en materia de telecomunicaciones, infraestructuras digitales y servicios de comunicación audiovisual.

3. De la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales depende la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual, con rango de Subsecretaría, que ejercerá las funciones que se enumeran en el artículo 7.

4. Dependen directamente de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales:

a) La Subdirección General de Coordinación y Ejecución de Programas, que ejercerá las funciones señaladas en los párrafos q) a y) del apartado 1.

Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, depende de la persona titular de la Subdirección General de Coordinación y Ejecución de Programas la División del Organismo Intermedio del Fondo Europeo de Desarrollo Regional. Esta División ejercerá de Organismo Intermedio del Fondo Europeo de Desarrollo Regional, a la que corresponde la gestión ordinaria de las actuaciones de los Programas Operativos de este Fondo y el apoyo tanto a la coordinación del Organismo Intermedio, como a la realización de las funciones encomendadas por la Autoridad de Gestión. Dicha gestión ordinaria hace referencia a la participación en la evaluación de las actuaciones, las declaraciones de fiabilidad, los informes anuales y final, la estrategia de comunicación y la aplicación de medidas antifraude.

b) Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, la División para la Ejecución de los Fondos Europeos, para el impulso y el seguimiento de la ejecución de las inversiones y medidas de reforma del Plan de Recuperación, Transformación y Resiliencia, así como el seguimiento y verificación de las medidas antifraude y demás principios transversales en el diseño y ejecución de las inversiones y medidas del citado Plan.

5. De la persona titular de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales depende directamente un Gabinete, como órgano de asistencia inmediata al titular de la Secretaría de Estado, con nivel orgánico de subdirección general, con la estructura que se establece en el artículo 23.3 del Real Decreto 1009/2023, de 5 de diciembre.

6. Para el asesoramiento jurídico de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales existirá una Abogacía del Estado, integrada orgánicamente en la del Departamento.

7. El Ministerio ejerce la tutela, a través de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, de la Sociedad Estatal de Microelectrónica y Semiconductores SA-SME (SEMYS SA-SME).

Artículo 7. Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual.

1. La Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual ejerce las funciones que le atribuye el artículo 64 de la Ley 40/2015, de 1 de octubre, y, específicamente, las siguientes:

a) La ordenación, promoción y desarrollo de las telecomunicaciones, las infraestructuras digitales y los servicios de comunicación audiovisual y la participación en los organismos y grupos de trabajo internacionales de telecomunicaciones y de los servicios de comunicación audiovisual.

b) La elaboración y propuesta de normativa referente a la ordenación y regulación del sector de las telecomunicaciones e infraestructuras digitales.

c) La elaboración y propuesta de normativa técnica referente a la regulación de los sistemas de radiodifusión y televisión, cualquiera que sea su soporte técnico.

d) La supervisión del cumplimiento de los requisitos y condiciones exigibles para la instalación y explotación de redes públicas y prestación de servicios de comunicaciones electrónicas.

e) La tramitación de los asuntos relacionados con los derechos de los operadores de redes y servicios de comunicaciones electrónicas a la ocupación del dominio público y de la propiedad privada y a su uso compartido, a ser beneficiarios en el procedimiento de expropiación forzosa y al establecimiento a su favor de servidumbres y limitaciones a la propiedad.

f) Las relativas al acceso a las redes y recursos asociados y a su interconexión, así como en lo referente a la interoperabilidad de los servicios de comunicaciones electrónicas que correspondan a la Secretaría de Estado.

g) Las que corresponden a la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales relacionadas con la regulación ex ante de los mercados de referencia y operadores con poder significativo en el mercado, y con la separación funcional.

h) Las relacionadas con la numeración, direccionamiento y denominación, en particular, la propuesta de planes nacionales de numeración, llevar a cabo la atribución de los derechos de uso de los recursos públicos regulados en dichos planes y ejercer las demás competencias que le atribuye el capítulo VII del título II de la Ley 11/2022, de 28 de junio, así como las actuaciones contra el tráfico no permitido y el tráfico irregular con fines fraudulentos en redes y servicios de comunicaciones electrónicas.

i) Las relacionadas con las obligaciones de servicio público y las restantes obligaciones de carácter público, en particular, el servicio universal de telecomunicaciones.

j) El estudio de los instrumentos de planificación territorial o urbanística que afecten a la instalación o explotación de las redes públicas de comunicaciones electrónicas y recursos asociados a efecto de emitir el informe contemplado en el artículo 50.2 de la Ley 11/2022, de 28 de junio.

k) Las relacionadas con la colaboración entre las administraciones públicas que afecten al despliegue de las redes públicas de comunicaciones electrónicas, previstas en la Ley 11/2022, de 28 de junio, y en su normativa de desarrollo.

l) Las relacionadas con las condiciones técnicas que deben cumplir las redes e infraestructuras de comunicaciones electrónicas tanto en exteriores como las infraestructuras comunes de telecomunicaciones y redes de comunicaciones en los edificios; con el acceso a las infraestructuras susceptibles de alojar redes públicas de comunicaciones electrónicas, así como las relacionadas con las condiciones que deben cumplir las instalaciones y los instaladores de telecomunicaciones, y su supervisión, incluyendo la gestión del Registro de empresas instaladoras de telecomunicación.

m) La definición, gestión y seguimiento de programas y actuaciones para promover la extensión, el desarrollo y la cobertura de las comunicaciones electrónicas para impulsar la vertebración territorial en particular los relativos a la Estrategia Nacional de Redes Ultrarrápidas, incluyendo la elaboración de estudios geográficos sobre el alcance y extensión de las redes de banda ancha, del informe de cobertura y los programas para promover la extensión y adopción de la banda ancha, así como la coordinación de diferentes programas de extensión de redes de banda ancha, y con las iniciativas de la Unión Europea y otros programas internacionales en estas materias.

n) La propuesta de planificación del uso del dominio público radioeléctrico, incluyendo la elaboración de propuestas del Cuadro nacional de atribución de frecuencias y de los planes técnicos nacionales de radiodifusión y televisión, y su desarrollo.

ñ) La gestión del dominio público radioeléctrico y el establecimiento de las condiciones de uso de las bandas de frecuencias para los diferentes servicios de radiocomunicaciones, las actuaciones para el otorgamiento, modificación, extinción y revocación de los títulos habilitantes para el uso del dominio público radioeléctrico y la asignación de los recursos órbita espectro.

o) La gestión del registro público de concesiones de dominio público radioeléctrico.

p) La tramitación de los procedimientos para la aprobación de proyectos técnicos de radiocomunicaciones, así como las actuaciones relativas al mercado secundario del dominio público radioeléctrico y la gestión y liquidación en periodo voluntario de la tasa por reserva del dominio público radioeléctrico.

q) El ejercicio de las funciones inspectoras en materia de telecomunicaciones, la inspección y el control de las redes y de los servicios de telecomunicaciones y de las condiciones para su prestación y explotación, de las obligaciones de los operadores, en particular, de las establecidas para la protección de los derechos de los usuarios finales de comunicaciones electrónicas, de los equipos y aparatos de telecomunicaciones y de las instalaciones.

r) El control y protección del dominio público radioeléctrico, incluyendo la inspección o reconocimiento de las instalaciones radioeléctricas y la autorización para su puesta en servicio, la comprobación técnica de emisiones radioeléctricas, en particular, para la localización, identificación y eliminación de interferencias perjudiciales y de emisiones no autorizadas, así como el control de los niveles únicos de exposición a las emisiones radioeléctricas a que se refiere el artículo 86.b) de la Ley 11/2022, de 28 de junio, y de las relacionadas con la protección activa del espectro.

s) La evaluación de la conformidad de equipos y aparatos de telecomunicaciones, incluidas las potestades como autoridad de vigilancia del mercado y como autoridad notificante, a la normalización técnica, así como la inspección y control de los equipos y aparatos de telecomunicación puestos en el mercado y comprobación del cumplimiento de la evaluación de la conformidad.

t) Las funciones relacionadas con el secreto de las comunicaciones y la interceptación legal de las telecomunicaciones que correspondan a la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales.

u) Las funciones relacionadas con la calidad de las redes y servicios de comunicaciones electrónicas que correspondan a la Secretaría de Estado.

v) La coordinación de las Jefaturas Provinciales de Inspección de Telecomunicaciones, así como la gestión de los medios y recursos necesarios para realizar sus funciones.

w) La tramitación y supervisión de los asuntos relacionados con los derechos de los consumidores y usuarios finales de los servicios de comunicaciones electrónicas, así como los relativos a los contratos y la transparencia y publicación de información, y a los servicios de tarificación adicional y sus condiciones de uso.

x) La resolución de controversias entre operadores y usuarios finales de los servicios de comunicaciones electrónicas, así como la información y atención al usuario de servicios de telecomunicaciones y digitales.

y) La supervisión del cumplimiento de los requisitos, acuerdos y las condiciones establecidas en el artículo 76 de la Ley 11/2022, de 28 de junio, para garantizar el derecho de los usuarios finales de acceso abierto a internet y publicar el informe anual al que se refiere dicho artículo.

z) La verificación del cumplimiento de los requisitos y las condiciones establecidas en el Reglamento (UE) 2022/612 del Parlamento Europeo y del Consejo, de 6 de abril de 2022, relativo a la itinerancia en las redes públicas de comunicaciones móviles en la Unión, en materia de acceso de los usuarios finales a los servicios de comunicaciones electrónicas de voz, SMS y datos en itinerancia en la Unión Europea, incluida su venta por separado, la correcta prestación de servicios regulados de itinerancia al por menor, la correcta aplicación de las tarifas al por menor de servicios regulados de itinerancia, la no inclusión de recargos y de sus condiciones y mecanismos de transparencia, así como la correcta aplicación por los operadores de itinerancia de su política de utilización razonable al consumo de servicios regulados de itinerancia al por menor, la resolución de controversias entre usuarios finales y operadores por la prestación de servicios de itinerancia y el control y supervisión de la itinerancia involuntaria en zonas fronterizas.

aa) La verificación de la correcta aplicación de las tarifas al por menor de las comunicaciones intracomunitarias reguladas en los términos establecidos en el Reglamento (UE) 2015/2120 del Parlamento Europeo y del Consejo, de 25 de noviembre de 2015, a excepción de la materia relativa a la sostenibilidad del modelo de tarificación nacional de un operador.

ab) La incoación y tramitación de procedimientos correspondientes a la aplicación del régimen sancionador relacionado con las redes y servicios de comunicaciones electrónicas y los servicios de tarificación adicional.

ac) La elaboración y propuesta de normativa referente a los servicios de comunicación audiovisual, en particular, la normativa relativa a comunicaciones comerciales y protección de los usuarios, promoción de obra audiovisual europea y accesibilidad.

ad) La colaboración con el Ministerio de Cultura en la propuesta normativa en materia de protección de la propiedad intelectual.

ae) La gestión del Registro estatal de prestadores del servicio de comunicación audiovisual, de prestadores del servicio de intercambio de videos a través de plataformas y de prestadores del servicio de agregación de servicios de comunicación audiovisual.

af) La recepción de las comunicaciones de inicio de actividad de los prestadores del servicio de comunicación audiovisual, así como la tramitación de los títulos habilitantes de los servicios de comunicación audiovisual y su seguimiento y control, en el ámbito de competencias de la Administración General del Estado.

ag) La promoción y asistencia a la internacionalización de las empresas de servicios de comunicación audiovisual, sin perjuicio de las competencias de la Secretaría de Estado de Comercio, así como la interlocución con los sectores profesionales e industriales vinculados a dichas empresas.

ah) La propuesta de autorización de negocios jurídicos cuyo objeto sea una licencia de comunicación audiovisual, en el ámbito de competencias de la Administración General del Estado.

ai) Coordinación e impulso de las políticas públicas de apoyo al sector audiovisual, incluido el videojuego.

aj) La incoación y tramitación de procedimientos correspondientes a la aplicación del régimen sancionador relacionado con los servicios de comunicación audiovisual.

ak) La asistencia a comités, grupos de trabajo y otros foros en el ámbito de la Unión Europea y demás organismos internacionales competentes en materia de servicios de comunicación audiovisual. En particular, la asistencia a la persona titular del Ministerio para la Transformación Digital y de la Función Pública en la preparación de las reuniones del Consejo de Ministros de Cultura y Audiovisual de la Unión Europea, en todo lo relacionado con los servicios de comunicación audiovisual.

al) Cualesquiera otras relativas al sector de las telecomunicaciones, infraestructuras digitales y los servicios de comunicación audiovisual que el ordenamiento jurídico atribuya al departamento, y que no estén específicamente asignadas a otros órganos.

am) La definición, gestión e instrucción de procedimientos de concesión de ayudas de los programas de impulso y actuaciones para la promoción de inversiones dentro de las materias de su competencia.

an) El asesoramiento técnico al seguimiento, supervisión y verificación administrativa y material de las ayudas concedidas en los programas de impulso y actuaciones de promoción.

añ) Aquellas que se atribuyen al Ministerio para la Transformación Digital y de la Función Pública en el Real Decreto-ley 7/2022, de 29 de marzo, sobre requisitos para garantizar la seguridad de las redes y servicios de comunicaciones electrónicas de quinta generación.

ao) Formular propuestas para desarrollar, concretar y detallar el contenido del Esquema Nacional de Seguridad de redes y servicios 5G.

ap) Formular requerimientos de información a los sujetos obligados por la normativa reguladora de los requisitos de seguridad para la instalación, el despliegue y la explotación de redes de comunicaciones electrónicas y la prestación de servicios de comunicaciones electrónicas e inalámbricas basados en la tecnología de quinta generación (5G).

aq) Verificar y controlar el cumplimiento de las obligaciones impuestas a los sujetos obligados por la normativa reguladora de los requisitos de seguridad para la instalación, el despliegue y la explotación de redes de comunicaciones electrónicas y la prestación de servicios de comunicaciones electrónicas e inalámbricas basados en la tecnología 5G.

ar) Realizar auditorías u ordenar su realización para verificar y controlar el cumplimiento de las obligaciones mencionadas en la letra anterior.

as) La realización de actuaciones de impulso y de ejecución de la planificación estratégica y de acción en materia de infraestructuras digitales, en coordinación con la Dirección General del Dato en lo relativo a infraestructuras de datos soberanas.

at) La ejecución de las actuaciones de promoción y desarrollo de las infraestructuras digitales.

au) La elaboración, gestión y seguimiento de planes, proyectos tecnológicos y programas de actuaciones orientados al desarrollo de las infraestructuras digitales.

av) El impulso y la coordinación de los planes, proyectos y programas para el fomento de la actividad de normalización, estandarización y certificación en el ámbito de las infraestructuras digitales.

aw) La promoción y desarrollo de las infraestructuras de microelectrónica y semiconductores y la coordinación de las actuaciones del Departamento en este ámbito.

2. La Secretaría General de Telecomunicaciones, Ordenación de los Servicios de Comunicación Audiovisual se estructura en las siguientes subdirecciones generales:

a) La Subdirección General de Ordenación de las Telecomunicaciones, que ejercerá las funciones atribuidas a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual en los párrafos b), c) del apartado 1, así como en los am) y an) de dicho apartado en el ámbito de sus competencias.

b) La Subdirección General de Operadores de Telecomunicaciones e Infraestructuras Digitales, que ejercerá que ejercerá las funciones atribuidas a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual en los párrafos d), e), f), g), h), i), j), k), l), m), as), at), au), av) y aw) del apartado 1, así como en los am) y an) de dicho apartado en el ámbito de sus competencias.

c) La Subdirección General de Planificación y Gestión del Espectro Radioeléctrico, que ejercerá las funciones atribuidas a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual en los párrafos n), ñ), o), p) del apartado 1, así como en los am) y an) de dicho apartado en el ámbito de sus competencias.

d) La Subdirección General de Inspección de las Telecomunicaciones e Infraestructuras Digitales, que ejercerá las funciones atribuidas a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual en los párrafos q), r), s), t), u), v) del apartado 1, así como en los am) y an) de dicho apartado en el ámbito de sus competencias.

e) La Subdirección General de Atención al Usuario de Telecomunicaciones y Servicios Digitales, que ejercerá las funciones atribuidas a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual en los párrafos w), x) y), z), aa), ab) del apartado 1, así como en los am) y an) de dicho apartado en el ámbito de sus competencias.

f) La Subdirección General de Ordenación de los Servicios de Comunicación Audiovisual, que ejercerá las funciones atribuidas a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual en los párrafos ac), ad), ae), af), ag), ah), ai), aj), ak) del apartado 1, así como en los am) y an) de dicho apartado en el ámbito de sus competencias.

g) La Subdirección General de Integridad de las Telecomunicaciones, que ejercerá las funciones atribuidas a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual en los párrafos am), an) del apartado 1 en el ámbito de sus competencias, así como en los párrafos añ), ao), ap), aq) y ar) de dicho apartado.

3. Dependen, asimismo, de la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual, las Jefaturas Provinciales de Inspección de Telecomunicaciones. Corresponde a las Jefaturas Provinciales de Inspección de Telecomunicaciones, entre otras funciones, realizar las actuaciones que faciliten el ejercicio material de las funciones de supervisión, inspección y control, así como las tareas de administración del espectro radioeléctrico que corresponden a la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual.

4. Como órgano de apoyo y asistencia inmediata al titular de la Secretaría General existe un Gabinete técnico, con nivel orgánico de Subdirección General, que dependerá directamente de la Secretaría General.

5. Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, depende de la persona titular de la Secretaría General la División de Seguimiento y Supervisión de Ayudas, que llevará a cabo el seguimiento y supervisión administrativa y material de la ejecución de las ayudas concedidas en los programas de impulso y actuaciones para la promoción gestionados por la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual o la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, el apoyo administrativo en la gestión de estos programas y actuaciones, así como la gestión del Plan de control de riesgos y fraude de los citados programas y actuaciones, salvo la gestión del Plan de control de riesgos y fraude de los programas relativos al Plan de Recuperación, Transformación y Resiliencia.

Artículo 8. Secretaría de Estado de Función Pública.

1. La Secretaría de Estado de Función Pública es el órgano al que corresponde, bajo la superior dirección de la persona titular del departamento, el impulso, la dirección y gestión de la política del Gobierno en materia de administración pública y administración digital; la función pública y el empleo público; la gobernanza pública, organización, procedimientos e inspección de servicios de la Administración General del Estado; el régimen de incompatibilidades y conflictos de intereses de los miembros del Gobierno y altos cargos; la selección y formación de las empleadas y empleados públicos y el régimen de mutualismo administrativo del personal funcionario civil del Estado. Le corresponde asimismo la coordinación de la política de personal entre las distintas administraciones públicas, las relaciones con las organizaciones sindicales en el ámbito de la función pública y la coordinación, impulso y gestión de los asuntos de carácter internacional que se produzcan en el ámbito de la Secretaría de Estado.

En particular, corresponden a la Secretaría de Estado de Función Pública las funciones que se enumeran a continuación:

a) El impulso, la programación y la supervisión de las actuaciones en ejecución de la política del Gobierno en materia de administración digital y del fomento de la administración electrónica, en especial en lo referente al proceso de transformación digital e innovación de la Administración a través de las tecnologías de la información y de las comunicaciones, y la adopción de soluciones digitales que permitan la prestación eficiente de los servicios públicos incluyendo los servicios públicos esenciales.

b) La creación de servicios públicos electrónicos universales y de calidad, y en su caso transfronterizos.

c) La promoción, en un marco de corresponsabilidad, de la cooperación con las administraciones públicas en materia de administración digital, potenciando la interoperabilidad y el uso de los servicios de información titularidad de la Secretaría de Estado para eliminar la brecha digital, así como el fomento de programas de atención a la ciudadanía y, en particular, promoviendo el uso de plataformas comunes para la integración de los servicios de las diferentes sedes electrónicas de las administraciones públicas.

d) Aquellas otras que atribuya la legislación vigente al departamento en el ámbito de la administración electrónica y servicios públicos digitales y la incorporación de las tecnologías de la información y comunicaciones en el conjunto de la Administración General del Estado y del sector público institucional estatal.

e) El régimen jurídico y retributivo de la función pública y del empleo público en la Administración General del Estado.

f) El régimen jurídico y retributivo de la función pública y del empleo público en los organismos públicos y entidades del sector público administrativo y del sector público empresarial y fundacional de carácter tecnológico y científico, así como la autorización de contratación indefinida o temporal del personal laboral en ese ámbito subjetivo.

g) La propuesta de clasificación de organismos públicos y entidades de Derecho Público del sector público administrativo y del sector público empresarial y fundacional de carácter tecnológico y científico.

h) La coordinación de la política de personal entre la Administración General del Estado, las administraciones de las comunidades autónomas y de las ciudades de Ceuta y Melilla, y las entidades locales.

i) La gestión de talento en la Administración General del Estado y la convocatoria de pruebas selectivas para el acceso o integración en los cuerpos y escalas de carácter interdepartamental adscritas a la Secretaría de Estado de Función Pública.

j) Las relaciones con las organizaciones sindicales en el ámbito de la Administración General del Estado; la coordinación de acuerdos y pactos en relación con la negociación colectiva de las empleadas y empleados públicos de la Administración General del Estado derivadas de las mesas de negociación de personal funcionario y laboral.

k) El impulso de propuestas de reforma de la Administración Pública, teniendo en cuenta, en particular, las iniciativas que propongan los órganos, entidades, organismos, organizaciones sectoriales y cualesquiera otras asociaciones o entidades públicas o privadas.

l) La racionalización y modernización de las estructuras organizativas de la Administración General del Estado y de sus procedimientos, así como la inspección de servicios de dicha administración y los organismos públicos vinculados o dependientes de ella.

m) La elaboración de proyectos de disposiciones de carácter general en materia de organización, procedimientos, así como de actuación y funcionamiento del sector público por medios electrónicos.

n) La política de reducción de cargas administrativas y la simplificación y mejora de los procedimientos administrativos y de la calidad de los servicios públicos, en el ámbito de la Administración General del Estado.

ñ) El fomento de los programas de atención a la ciudadanía y la gestión del Portal de Transparencia de la Administración General del Estado y el Punto de Acceso General.

o) El impulso, la coordinación y el seguimiento de los planes de gobierno abierto, en iniciativas orientadas al desarrollo de los principios de la transparencia, la participación ciudadana, la rendición de cuentas y la colaboración.

p) La coordinación de las unidades de información de la Administración General del Estado previstas en el artículo 21 de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno, así como dictar indicaciones para la dinamización e impulso del derecho de acceso.

q) La gestión del régimen de incompatibilidades y conflictos de intereses de los miembros del Gobierno, altos cargos y del personal al servicio de la Administración General del Estado y del sector público institucional estatal.

r) La formación de las empleadas y empleados públicos.

s) El régimen del mutualismo administrativo del personal funcionario civil del Estado.

t) La coordinación e impulso de los asuntos de carácter internacional que se produzcan en el ámbito de la Secretaría de Estado, sin perjuicio de las funciones que correspondan al Ministerio de Asuntos Exteriores, Unión Europea y Cooperación.

u) Las relaciones con la profesión titulada de gestor administrativo.

v) La tramitación de la aprobación previa a que se refiere el artículo 26.5 de la Ley 50/1997, de 27 de noviembre, del Gobierno.

2. La persona titular de la Secretaría de Estado de Función Pública presidirá la Comisión Coordinadora de Inspecciones Generales de Servicios de los departamentos ministeriales, el Foro de Gobierno Abierto y la Comisión Sectorial de Gobierno Abierto.

3. Asimismo, corresponde a la Secretaría de Estado de Función Pública la Presidencia de la Comisión Superior de Personal y la vicepresidencia de la Conferencia Sectorial de Administración Pública.

4. Depende directamente de la persona titular de la Secretaría de Estado de Función Pública, con nivel orgánico de Subdirección General, el Gabinete, como órgano de asistencia inmediata a aquel, con la estructura que se establece en el artículo 23.3 del Real Decreto 1009/2023, de 5 de diciembre, por el que se establece la estructura orgánica básica de los departamentos ministeriales.

5. Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, depende de la persona titular de la Secretaría de Estado la División de Planificación, Seguimiento y Ejecución, a la que corresponde el ejercicio de las siguientes funciones:

a) La gestión de los medios personales y materiales y el régimen interior de los servicios centrales de la Secretaría de Estado.

b) La planificación, coordinación, ejecución y seguimiento de proyectos y programas de la Secretaría de Estado, incluyendo los financiados por fondos europeos.

c) La planificación, coordinación, ejecución y seguimiento en materia presupuestaria y de contratación de la Secretaría de Estado.

6. Se adscriben al Ministerio para la Transformación Digital y de la Función Pública, a través de la Secretaría de Estado de Función Pública, los organismos autónomos Mutualidad General de Funcionarios Civiles del Estado e Instituto Nacional de Administración Pública.

7. La Autoridad Administrativa Independiente Consejo de Transparencia y Buen Gobierno estará vinculada al departamento en los términos que establecen los artículos 109 y 110 de la Ley 40/2015, de 1 de octubre.

8. De la Secretaría de Estado de Función Pública dependen los siguientes órganos directivos:

a) La Secretaría General de Administración Digital.

b) La Dirección General de la Función Pública, con rango de Subsecretaría.

c) La Dirección General de Gobernanza Pública.

d) La Oficina de Conflictos de Intereses, con rango de Dirección General.

9. Para el asesoramiento jurídico de la Secretaría de Estado de Función Pública, existirá una Abogacía del Estado, integrada orgánicamente en la del Departamento.

Artículo 9. Secretaría General de Administración Digital.

1. La Secretaría General de Administración Digital es el órgano directivo al que corresponde la dirección, coordinación y ejecución de las competencias atribuidas al departamento en materia de transformación digital de la administración, incluyendo el desarrollo técnico y aplicación de las Leyes 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas, y 40/2015, de 1 de octubre, el Real Decreto 203/2021, de 30 de marzo, por el que se aprueba el Reglamento de actuación y funcionamiento del sector público por medios electrónicos y resto de su normativa reglamentaria, en lo que concierne a la actuación y funcionamiento del sector público por medios electrónicos.

Asimismo, le corresponde la preparación de la estrategia en materia de administración digital y servicios públicos digitales de la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes, así como del proceso de innovación, y el establecimiento de las decisiones y directrices necesarias para su ejecución, con arreglo al modelo de gobernanza establecido en el Real Decreto 806/2014, de 19 de septiembre, sobre organización e instrumentos operativos de las tecnologías de la información y las comunicaciones en la Administración General del Estado y sus organismos públicos.

Por otra parte, le corresponden las competencias sobre los Esquemas Nacionales de Seguridad e Interoperabilidad, la racionalización de las tecnologías de la información y las comunicaciones en el ámbito de la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes, la dirección del Centro de Operaciones de Ciberseguridad y la definición de los medios y servicios comunes digitales, incluidos los declarados compartidos y, en su caso, su provisión, explotación y gestión para el conjunto de las administraciones públicas.

Por último, le corresponde, en coordinación con los demás departamentos ministeriales, el ejercicio de cuantas acciones se deriven de los planes de acción para la implantación de las Estrategias nacionales e internacionales en el ámbito de la transformación digital.

2. Corresponden a la Secretaría General de Administración Digital las siguientes funciones:

a) El impulso, la programación y la supervisión de las actuaciones en ejecución de la política de Gobierno en materia de administración digital y del fomento de la administración electrónica, en especial lo referente al proceso de transformación digital e innovación de la Administración a través de las tecnologías de la información y de las comunicaciones, y la adopción de soluciones digitales que permitan la prestación eficiente de los servicios públicos incluyendo los servicios públicos esenciales.

b) La creación de servicios públicos electrónicos universales y de calidad, y en su caso transfronterizos.

c) La promoción, en un marco de corresponsabilidad, de la cooperación con las administraciones públicas en materia de administración digital, potenciando el uso de los servicios de información titularidad de la Secretaría de Estado para eliminar la brecha digital, así como el fomento de programas de atención al ciudadano y, en particular promoviendo el uso de plataformas comunes para la integración de los servicios de las diferentes sedes electrónicas de las administraciones públicas.

d) Aquellas otras que atribuya la legislación vigente al departamento en el ámbito de la administración electrónica y servicios públicos digitales, y la incorporación de las tecnologías de la información y las comunicaciones en el conjunto de la Administración General del Estado y del sector público institucional estatal.

e) La actuación como órgano referente nacional e interlocutor ante organismos e instituciones europeas e internacionales en el ámbito de la administración digital.

f) La supervisión, con el apoyo de las Comisiones Ministeriales de Administración Digital, de la ejecución de las medidas específicas establecidas en los planes de acción departamentales en materia de transformación digital.

g) La elaboración, desarrollo, implantación y gestión del Catálogo de Medios y Servicios Comunes, incluidos los Compartidos.

h) La preparación de los asuntos que se sometan a la Comisión de Estrategia TIC (CE-TIC), el Comité Ejecutivo de la Comisión de Estrategia TIC (CE-CETIC), el Comité de Dirección de las Tecnologías de Información y las Comunicaciones (CD-TIC), así como a la Comisión Sectorial de Administración Electrónica (CSAE).

i) El ejercicio de las competencias que corresponden al Coordinador Nacional de la pasarela digital única europea previstas en el Reglamento (UE) 2018/1724 del Parlamento Europeo y del Consejo de 2 de octubre de 2018, relativo a la creación de una pasarela digital única de acceso a información, procedimientos y servicios de asistencia y resolución de problemas y por el que se modifica el Reglamento (UE) n.º 1024/2012. Actuará de acuerdo con la Dirección General de Gobernanza Pública en las funciones que esta desempeñe como coordinador de información de la Pasarela Digital Única Europea previstas en dicho Reglamento.

j) El desempeño de las funciones de órgano de seguimiento y presentación de informes establecidas en el Real Decreto 1112/2018, de 7 de septiembre, sobre accesibilidad de los sitios web y aplicaciones móviles del sector público.

k) El diseño técnico, implantación y gestión de los medios y servicios digitales necesarios para evolucionar los servicios públicos actuales hacia servicios públicos universales de calidad orientados a los ciudadanos y empresas, promoviendo la incorporación de las tecnologías de la información y las comunicaciones y la digitalización a los procedimientos administrativos y la adaptación de la gestión pública al uso de medios digitales.

l) En coordinación con la Dirección General del Dato, la aplicación de políticas para la gobernanza y la gestión de datos en la Administración General del Estado y sus organismos públicos y entidades de Derecho Público vinculados o dependientes y el desarrollo de acciones para coordinar a los diferentes organismos y entidades con el objetivo de conseguir una efectiva implementación de las mismas para la prestación de los servicios públicos digitales y garantizar el cumplimiento de las previsiones de las Leyes 39/2015, de 1 de octubre, y 40/2015, de 1 de octubre.

m) La elaboración, desarrollo, implantación, coordinación y seguimiento del Catálogo de tipos de datos compartibles para facilitar la localización y acceso a información elaborada por la Administración General del Estado que sean necesarios a efectos de un procedimiento administrativo, mediante el uso de instrumentos como la Plataforma de Intermediación de Datos, y para implementar los mecanismos de conexión con la pasarela digital única de la Unión Europea.

n) La definición de estándares, de directrices técnicas y de gobierno TIC, de normas de calidad e interoperabilidad de aplicación a las Administraciones Públicas y el desarrollo y aplicación de lo dispuesto en el Real Decreto 4/2010, de 8 de enero, por el que se regula el Esquema Nacional de Interoperabilidad en el ámbito de la Administración Electrónica y sus Normas Técnicas de Interoperabilidad, sin perjuicio de las competencias de la Dirección General del Dato en lo relativo a las tecnologías y estándares de datos.

ñ) El análisis de requerimientos, diseño técnico y desarrollo del registro de funcionarios habilitados, del registro electrónico de apoderamientos, del registro electrónico general de la Administración General del Estado, del Sistema de Información Administrativa de los procedimientos en el ámbito de la Administración General del Estado y el sistema de notificaciones, de acuerdo con las instrucciones de la Dirección General de Gobernanza Pública y en coordinación con los departamentos ministeriales y sus organismos públicos y entidades de derecho público vinculadas o dependientes.

o) El análisis de requerimientos, diseño, implantación y la gestión compartida, mediante coordinación o prestación directa, en un marco de corresponsabilidad, de los servicios comunes, declarados o no como compartidos, de sistemas de información y comunicación para la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes, en los términos que se establezcan por resolución de la persona titular de la Secretaria General de Administración Digital.

p) El diseño técnico, implantación y gestión del Punto General de Entrada de Facturas Electrónicas (FACe) que corresponden al ámbito de la Administración General del Estado y a otras administraciones públicas adheridas al mismo, de acuerdo con lo previsto en la Ley 25/2013, de 27 de diciembre, de impulso de la factura electrónica y creación del registro contable de facturas en el Sector Público.

q) El análisis de requerimientos, diseño técnico y desarrollo del Punto de Acceso General Electrónico de la Administración General del Estado del Directorio Común de Unidades Orgánicas y Oficinas, en los términos que establezca la Dirección General de Gobernanza Pública y en coordinación con los departamentos ministeriales y sus organismos públicos y entidades de derecho público vinculadas o dependientes.

r) El análisis de requerimientos, diseño técnico y desarrollo del Portal de Transparencia de la Administración General del Estado previsto en la Ley 19/2013, de 9 de diciembre, en los términos que establezca la Dirección General de Gobernanza Pública y en coordinación con los departamentos ministeriales y sus organismos públicos y entidades de derecho público vinculadas o dependientes.

s) La elaboración y tramitación, junto con la Dirección General de Gobernanza Pública, de los proyectos normativos en materia de organización y procedimientos que afecten a la actuación y funcionamiento del sector público por medios electrónicos.

t) La colaboración con la Dirección General de Gobernanza Pública en la identificación, diseño, e impulso de programas y proyectos para facilitar el acceso de los ciudadanos y las empresas a los servicios públicos así como la elaboración y desarrollo de programas de atención, información y asistencia a los ciudadanos a través de los distintos canales disponibles, todo ello en los aspectos relativos a la administración electrónica, y en coordinación con los departamentos ministeriales y sus organismos públicos dependientes, así como con otras administraciones públicas.

u) El estudio y planificación de la evolución de las plataformas tecnológicas para la prestación de servicios comunes, incluidos los declarados compartidos.

v) El diseño, provisión, explotación y evolución de los centros de proceso de datos de referencia para la prestación de servicios comunes, en coordinación con la Dirección General del Dato.

w) El diseño, provisión y explotación de los servicios y las infraestructuras de comunicaciones unificadas de la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes, así como de la Red SARA, que interconecta con otras administraciones públicas y la Unión Europea.

x) El diseño, provisión y explotación de las infraestructuras tecnológicas y de los servicios de seguridad necesarios para la prestación de servicios comunes, incluidos los declarados compartidos, que correspondan a la Secretaría General de Administración Digital.

y) El diseño, provisión y explotación de las infraestructuras tecnológicas y de los servicios del teléfono 060, en los términos que establezca la Dirección General de Gobernanza Pública y en el marco de los convenios suscritos.

z) El análisis de requerimientos, diseño, desarrollo, pruebas y mantenimiento de las aplicaciones y herramientas necesarias para dar soporte a los servicios horizontales de la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes, entre otros los relativos a la gestión de recursos humanos, en los términos que establezca la Dirección General de Función Pública.

aa) En relación con la gestión del portal y sede electrónica del personal al servicio de la Administración General del Estado (FUNCIONA) y su autenticación, el diseño técnico y gestión de las plataformas tecnológicas que los soportan, en los términos que establezca la Dirección General de la Función Pública.

ab) La provisión de aplicaciones y servicios en materia de tecnologías de la información y comunicaciones prestados a las Delegaciones y Subdelegaciones del Gobierno y a las Direcciones Insulares en todos sus ámbitos de actuación, en los términos que establezca la Dirección General de la Administración General del Estado en el Territorio, en coordinación con los ministerios implicados por cuestión de la materia.

ac) La colaboración con la Dirección General de Racionalización y Centralización de la Contratación del Ministerio de Hacienda en la gestión centralizada de la contratación en el ámbito competencial de la Secretaría General de Administración Digital.

ad) La elaboración, en colaboración con la Dirección General de Racionalización y Centralización de la Contratación del Ministerio de Hacienda, cuando afecte al ámbito de competencias de la Secretaría General de Administración Digital, de propuestas relacionadas con las políticas de adquisiciones de bienes informáticos y con los pliegos de prescripciones técnicas en la contratación pública de estos bienes y servicios TIC en la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes.

ae) El soporte a la contratación y a la gestión económico-presupuestaria en el ámbito de la Secretaría General de Administración Digital y el estudio, planificación, impulso y seguimiento de los procesos de contratación en materia TIC y aquellos otros ámbitos relacionados. Asimismo, emitir el Informe técnico preceptivo de los convenios y encargos que tengan por objeto la adquisición de bienes y servicios informáticos y de las memorias y pliegos de prescripciones técnicas de las contrataciones de bienes y servicios informáticos en la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes en los términos establecidos en el Real Decreto 806/2014, de 19 de septiembre, sobre Organización e instrumentos operativos de las Tecnologías de la Información y las Comunicaciones en la Administración General del Estado y sus Organismos Públicos.

af) La definición y gestión de un sistema común de imputación de costes TIC para toda la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes.

ag) La dirección técnica y estratégica del Centro de Operaciones de Ciberseguridad de la Administración General del Estado y sus organismos públicos y entidades de derecho público vinculados o dependientes. De forma especial, asumirá la coordinación en la respuesta a incidentes.

ah) El desarrollo y aplicación de lo dispuesto en el Real Decreto 311/2022, de 3 de mayo, por el que se regula el Esquema Nacional de Seguridad y sus Instrucciones Técnicas de Seguridad. En especial, la definición de estándares, de directrices técnicas y de gobierno TIC, de normas de seguridad de aplicación a las Administraciones Públicas y la realización de propuestas e interlocución con el Centro Criptológico Nacional en el desarrollo de guías de seguridad.

ai) La provisión, gestión y administración de equipos informáticos y de comunicaciones y la implantación de medidas de seguridad informática del Departamento.

aj) El desarrollo y mantenimiento de los sistemas de información necesarios para el funcionamiento de los servicios, el impulso de la transformación digital y la innovación en el Departamento.

ak) La coordinación y la publicación de los contenidos digitales en intranet, en el Portal de internet y la gestión de la sede electrónica asociada del Departamento.

al) La elaboración de informes sobre las Tecnologías de la Información y las Comunicaciones en las Administraciones Públicas, así como colaborar con el Instituto Nacional de Estadística en la elaboración de las operaciones estadísticas relativas a las tecnologías de la información y las comunicaciones en las Administraciones Públicas.

3. De la Secretaría General de Administración Digital dependen las siguientes Subdirecciones Generales:

a) La Subdirección General de Planificación y Gobernanza de la Administración Digital, a la que corresponden las funciones a las que se refieren los párrafos f), g), h), i) y j) del apartado 2. Asimismo, en coordinación con la Subdirección General de Impulso de la Digitalización de la Administración, le corresponden las funciones a las que se refieren los párrafos k), l), m), n) y ñ).

b) La Subdirección General de Impulso de la Digitalización de la Administración, a la que corresponden, las funciones recogidas en los párrafos o), p), q) y r) del apartado 2. Asimismo, le corresponden las funciones a las que se refieren los párrafos k), l), m), n) y ñ), en coordinación con la Subdirección General de Planificación y Gobernanza de la Administración Digital.

c) La Subdirección General de Infraestructuras y Operaciones, a la que corresponden las funciones a las que se refieren los párrafos u), v), w), x) e y) del apartado 2 de este artículo. En el caso de las funciones a que se refiere el párrafo x), la función concerniente al diseño, provisión y explotación de los servicios de seguridad se llevará a cabo en coordinación con la División de Planificación y Coordinación de Ciberseguridad.

d) La Subdirección General de Servicios Digitales para la Gestión, a la que le corresponden las funciones recogidas en los párrafos z), aa) y ab) incluidas en el apartado 2.

e) La Subdirección General de Presupuestos y Contratación TIC, a la que corresponden las funciones recogidas en los párrafos ac), ad), ae) y af) del apartado 2.

4. Como órgano de apoyo y asistencia inmediata al titular de la Secretaría General existe un Gabinete técnico, con nivel orgánico de Subdirección General.

5. Para el ejercicio de las competencias asignadas, la Subdirección General de Planificación y Gobernanza de la Administración Digital podrá recabar la información necesaria para el ejercicio de las funciones atribuidas a la Secretaría General de Administración Digital, con excepción de la información relativa a los sistemas de mando y control, consulta política, situaciones de crisis y Seguridad del Estado.

6. Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, depende de la persona titular de la Secretaría General de Administración Digital la División de Planificación y Coordinación de Ciberseguridad, a la que corresponden las funciones recogidas en los párrafos ag) y ah) del apartado 2.

7. Con el nivel orgánico que se determine en la Relación de Puestos de Trabajo, depende de la persona titular de la Secretaría General de Administración Digital la División de Tecnologías de la Información y Comunicaciones del Ministerio para la Transformación Digital y de la Función Pública a la que, en cooperación con el resto de unidades de la Secretaría General, corresponden las funciones recogidas en los párrafos ai), aj) ak) y al) del apartado 2.

Artículo 10. Dirección General de la Función Pública.

1. Corresponde a la Dirección General de la Función Pública, con rango de Subsecretaría, el ejercicio de las siguientes funciones:

a) En relación con la Administración General del Estado, los organismos y entidades integrantes del sector público administrativo con arreglo a lo dispuesto por el artículo 3.1 de la Ley 47/2003, de 26 de noviembre, General Presupuestaria, así como de los organismos y entidades del sector público empresarial y fundacional adscritos a los Ministerios para la Transformación Digital y de la Función Pública y de Ciencia, Innovación y Universidades, en el marco de planificación estratégica de recursos humanos y de la envolvente aprobada de gasto de los regímenes retributivos del sector público, de acuerdo con los criterios comunes adoptados en el seno de la Comisión Superior de Personal, y sin perjuicio de la independencia y autonomía funcional legalmente atribuida a las autoridades administrativas independientes y otras entidades de derecho público:

1.º La planificación de los recursos humanos, a partir del análisis basado en datos de las necesidades de personal, perfiles profesionales y retribuciones para asegurar la calidad del empleo público y una asignación funcional y eficiente de los efectivos.

2.º La elaboración de normativa e informes en materia de empleo público.

3.º La aprobación y modificación de las relaciones, catálogos y dotaciones de puestos de trabajo, retribuciones e incentivos al rendimiento.

4.º La elaboración, propuesta y seguimiento de la Oferta de Empleo Público, la autorización de nombramientos de personal funcionario interino, de personal estatutario temporal y de contratos de personal laboral temporal; así como la elaboración de bases comunes y el informe de las convocatorias para el acceso a la condición de personal empleado público.

5.º La tramitación de los procesos de adquisición y pérdida de la condición de personal funcionario, el ejercicio de las competencias atribuidas a la Secretaría de Estado de Función Pública en materia de situaciones administrativas y la gestión de los procedimientos de personal derivados de la dependencia orgánica de los cuerpos y escalas adscritos al Ministerio a través de la Secretaría de Estado de Función Pública.

6.º La propuesta de medidas de estructuración del empleo público, tanto de personal funcionario como de personal laboral, así como la ordenación de la provisión y de la movilidad mediante la autorización y, en su caso, gestión de los procesos de movilidad interministerial y provisión de puestos de personal funcionario y laboral del ámbito del convenio único de la Administración General del Estado.

7.º La coordinación de la provisión y de la movilidad interadministrativa mediante la autorización y, en su caso, tramitación de las comisiones de servicio y otras formas para la provisión de puestos en la Administración General del Estado por personal procedente de otras administraciones públicas, con la excepción de los procedimientos de concurso y libre designación, y la autorización previa para la provisión de puestos en otras administraciones públicas, mediante libre designación, por personal funcionario de cuerpos y escalas adscritos a la Secretaría de Estado de Función Pública.

8.º La asesoría en materia de recursos humanos a los departamentos ministeriales, así como la información a las empleadas y empleados públicos de la política de los recursos humanos.

9.º La coordinación funcional de las subdirecciones generales de recursos humanos e inspección de servicios de los departamentos ministeriales a los efectos de la ejecución de proyectos y programas que resulten estratégicos para el conjunto de la Administración General del Estado y de sus organismos vinculados o dependientes, cuando sean acordados en el seno de la Comisión Superior de Personal.

10.º El diseño del Sistema de Datos sobre Empleo Público, en el que se integren el conjunto de datos relevantes para la adopción de las decisiones relativas a la planificación estratégica, oferta y estructuración de los recursos humanos, a partir del análisis de las necesidades de personal, evolución tecnológica, perfiles profesionales y retribuciones, entre otros elementos, con arreglo a las políticas y estándares en la gestión y análisis de datos que establezca la Dirección General del Dato.

11.º La elaboración y divulgación de estadísticas, indicadores y datos sobre empleo público, con la asistencia de la Secretaría General de Administración Digital.

12.º La gestión del Registro Central de Personal.

13.º La gestión del repertorio de puestos de personal directivo público profesional.

14.º Las relaciones con las organizaciones sindicales en el ámbito de la Administración General del Estado; la dirección y coordinación de la negociación colectiva del personal empleado público de este ámbito y la propuesta de acuerdos y pactos derivados de las mesas de negociación de personal funcionario y laboral, así como el asesoramiento en materia de negociación colectiva y la coordinación y apoyo en los procesos de elecciones sindicales en el ámbito de la Administración General del Estado.

15.º El impulso de la prevención de riesgos laborales, en el marco de lo dispuesto en la normativa aplicable, así como de criterios comunes, funciones de coordinación y promoción, planes de formación, en materia de acción social, responsabilidad social corporativa e igualdad y no discriminación del personal empleado de la Administración General del Estado.

16.º La elaboración de la propuesta de clasificación de entidades del sector público estatal contempladas en el apartado a), de acuerdo con su normativa específica, en colaboración con la Dirección General de Gobernanza Pública.

b) El estudio y análisis basado en datos en materia de empleo público y la preparación del Boletín estadístico del personal al servicio de las Administraciones Públicas.

c) La elaboración de normativa básica e informes en materia de empleo público sobre el conjunto de las administraciones públicas.

d) La asesoría en materia de recursos humanos a las administraciones públicas, así como la asistencia técnico-jurídica en la transposición y aplicación de directivas y otros instrumentos jurídicos de la Unión Europea o internacionales en esta materia.

e) La participación en foros europeos y otros organismos internacionales que afecten a las competencias de la Dirección General, así como la coordinación y cooperación con los órganos competentes en materia de función pública de las administraciones de las comunidades autónomas y administración local.

f) El informe de los actos y disposiciones en materia de función pública emanadas de las comunidades autónomas, el seguimiento de sus ofertas de empleo público, el estudio de la política de empleo público internacional, autonómico y local.

g) La emisión de informes y contestación de consultas formuladas por otras administraciones públicas relativas a la Función Pública Local respecto a la normativa básica estatal.

h) El ejercicio de las funciones que correspondan a la Administración General del Estado en relación con el personal funcionario de Administración Local con habilitación de carácter nacional, salvo las que correspondan al órgano competente en materia de Haciendas Locales, y la gestión del registro integrado de este personal.

i) La incoación de expedientes disciplinarios a personal funcionario de Administración Local con habilitación de carácter nacional, en el marco de lo dispuesto en la normativa aplicable.

j) El informe y autorización, en los términos previstos en la correspondiente ley de presupuestos generales del estado, de los acuerdos, convenios, pactos o cualesquiera otros instrumentos de negociación colectiva, así como de las medidas que se adopten en su cumplimiento o desarrollo, cuyo contenido se refiera a gastos imputables al capítulo de gastos de personal de los presupuestos y demás condiciones de trabajo de los organismos y entidades mencionados en el párrafo a).

k) La realización de proyectos de atracción, desarrollo y retención de talento.

2. Dependen de la Dirección General de la Función Pública los siguientes órganos:

a) La Subdirección General de Planificación de Recursos Humanos y Retribuciones, a la que corresponden las funciones enumeradas en los párrafos a) 1.º, 3.º y 4.º de este artículo en relación con los departamentos ministeriales de la Administración General del Estado, así como la función enumerada en el párrafo a) 13.º

b) La Subdirección General de Ordenación de Recursos Humanos, a la que corresponde el ejercicio de las funciones enumeradas en los párrafos a) 5.º, 6.º y 7.º de este artículo.

c) La Subdirección General de Régimen Jurídico, a la que corresponde el ejercicio de las funciones enumeradas en los párrafos a) 2.º, 8.º y 9.º, c) y d) de este artículo.

d) La Subdirección General de Datos para el Empleo Público, a la que corresponde el ejercicio de las funciones enumeradas en los párrafos a) 10.º, 11.º, 12 º y b) de este artículo, ejerciendo la persona titular de esta unidad la jefatura del Registro Central de Personal.

e) La Subdirección General de Relaciones Laborales, a la que corresponde el ejercicio de las funciones enumeradas en las letras a) 14.º y 15.ª del apartado 1 de este artículo.

f) La Subdirección General de Relaciones con otras Administraciones, a la que corresponde el ejercicio de las funciones enumeradas en las letras e), f) g) h) e i) del apartado 1 de este artículo.

g) La Subdirección General del Sector Público Institucional, a la que corresponde el ejercicio de las funciones enumeradas en los párrafos a) 1.º, 3.º 4.º y 16.º de este artículo, y j) en relación con las entidades del sector público de carácter administrativo y del sector público empresarial y fundacional adscritas a los Ministerios de Ciencia, Innovación y Universidades y para la Transformación Digital y de la Función Pública.

Artículo 11. Dirección General de Gobernanza Pública.

1. Corresponde a la Dirección General de Gobernanza Pública al ejercicio de las siguientes funciones:

a) El análisis y evaluación de las estructuras organizativas de la Administración General del Estado y sus organismos públicos y entidades de derecho público; la elaboración de las disposiciones de carácter organizativo cuya propuesta sea competencia del Ministerio y las disposiciones de carácter general en materia de procedimientos y la realización de propuestas organizativas para mejorar la racionalidad y eficiencia de las estructuras administrativas; así como el informe de los proyectos que se sometan a la aprobación previa a que se refiere el artículo 26.5 de la Ley 50/1997, de 27 de noviembre, del Gobierno, en aquellos aspectos de la competencia de esta Dirección General.

b) El asesoramiento y apoyo técnico en materia de organización y procedimientos a los departamentos ministeriales y organismos públicos, incluida la realización de estudios de consultoría organizativa.

c) La gobernanza y gestión en el ámbito de la Administración General del Estado del Sistema de Información Administrativa de los procedimientos.

d) El diseño, impulso y seguimiento en el ámbito de la Administración General del Estado de las actuaciones para reducir las cargas administrativas y regulatorias, y simplificar los procedimientos administrativos, asegurando la coordinación interdepartamental y promoviendo la cooperación entre todas las administraciones públicas.

e) Favorecer a la mejora continua de la gestión mediante el impulso, desarrollo y seguimiento de los programas de calidad en los servicios públicos, basados en la búsqueda de la excelencia y el fomento de la innovación. En particular la gestión e impulso de los programas de calidad previstos en el Real Decreto 951/2005, de 29 de julio, por el que se establece el marco general para la mejora de la calidad en la Administración General del Estado.

f) El ejercicio de las atribuciones en materia de inspección y mejora de los servicios de la Administración General del Estado y de los organismos públicos vinculados o dependientes de ella; la fijación de criterios que faciliten la atención a los ciudadanos, especialmente mediante el análisis integral de las quejas y sugerencias que puedan producirse; la coordinación funcional de las subdirecciones generales de recursos humanos y de las inspecciones de servicios para la ejecución de proyectos y programas que resulten estratégicos y que sean acordados en el seno de la Comisión Coordinadora de las Inspecciones de Servicios; la promoción, dirección y coordinación de planes de inspección específicos para evaluar la eficacia y eficiencia de los servicios; la consultoría operativa de los servicios; y la promoción de programas de formación especializada e intercambio de las metodologías y técnicas aplicadas, en particular la organización y desarrollo del curso selectivo sobre el desarrollo de la función inspectora en la Administración General del Estado regulado en la Orden TFP/1125/2020, de 25 de noviembre.

g) La identificación, diseño, e impulso de programas y proyectos para facilitar el acceso de la ciudadanía y las empresas a los servicios públicos así como la elaboración y desarrollo de programas de atención, información y asistencia a la ciudadanía a través de los distintos canales disponibles, en colaboración con la Secretaría General de Administración Digital en los aspectos relativos a la administración electrónica y en coordinación con los departamentos ministeriales y sus organismos dependientes así como con otras administraciones.

h) La gobernanza del teléfono 060, la gestión del Centro de Información Administrativa y la normalización de documentos e imagen institucional.

i) La gobernanza del Punto de Acceso General Electrónico de la Administración General del Estado y la gestión de la publicación de sus contenidos y del Directorio Común de Unidades Orgánicas y Oficinas en coordinación con los departamentos ministeriales y sus organismos.

La Dirección General de Gobernanza Pública actuará también como coordinador de información de la Pasarela Digital Única Europea de acuerdo con el Coordinador Nacional de la Pasarela Digital Única Europea designado por la Secretaría General de Administración Digital.

j) La creación y desarrollo del Sistema de Datos sobre Gobernanza Pública, en el que se integren el conjunto de datos relevantes para la adopción de las decisiones relativas a la organización, procedimientos, calidad y servicios a la ciudadanía, a partir del análisis de necesidades y evolución tecnológica con arreglo a las políticas y estándares en la gestión y análisis de datos que establezca la Dirección General del Dato.

k) La gobernanza y gestión del registro de funcionarios habilitados, del registro electrónico de apoderamientos y del registro electrónico general de la Administración General del Estado y la definición funcional y gobernanza del sistema de notificaciones.

l) El impulso, la coordinación y el seguimiento de los planes de Gobierno Abierto de los departamentos ministeriales, en iniciativas orientadas al desarrollo de los principios de la transparencia, la participación ciudadana, la rendición de cuentas y la colaboración, así como la programación y ejecución de proyectos sobre la materia, en el ámbito de las competencias de la Dirección General; la promoción de la cooperación entre todas las administraciones públicas en dicho ámbito y servir de punto de contacto de la Administración General del Estado con los organismos internacionales en materia de gobierno abierto, sin perjuicio de las competencias de otros centros directivos por razón de la materia.

m) El impulso de los planes y programas de transparencia, incluyendo la atención e información a los ciudadanos en esta materia y la gestión del Portal de Transparencia de la Administración General del Estado previsto en la Ley 19/2013, de 9 de diciembre, con el soporte técnico de la Secretaría General de Administración Digital. En relación con la coordinación de las unidades de información de la Administración General del Estado previstas en el artículo 21 de la Ley 19/2013, de 9 de diciembre, corresponde a la Dirección General de Gobernanza Pública prestar el apoyo y soporte necesario para el ejercicio de dicha competencia, como Unidad de Información de Transparencia Central.

2. Dependen de la Dirección General de Gobernanza Pública, los siguientes órganos:

a) La Subdirección General de Organización y Procedimientos, a la que corresponde el ejercicio de las funciones enumeradas en las letras a), b), c) y d) del apartado 1 de este artículo. La función de la letra b) se ejercerá en coordinación con la Subdirección General de Inspección y Consultoría.

b) La Subdirección General de Inspección y Consultoría, a la que corresponde el ejercicio de las funciones enumeradas en las letras b), e), f), y m) del apartado 1 de este artículo, siendo ejercida la de la letra b) en coordinación con la Subdirección General de Organización y Procedimientos y la de la letra m) en coordinación con la Subdirección General de Transparencia y Atención al Ciudadano.

La persona titular de esta Subdirección General ostenta la Secretaría de la Comisión Coordinadora de Inspecciones Generales de Servicios de los ministerios de la Administración General del Estado.

c) La Subdirección General de Transparencia y Atención al Ciudadano, a la que corresponde el ejercicio de las funciones enumeradas en las letras g), h), i) y l) del apartado 1 de este artículo; siendo ejercida la de la letra apartado g) en coordinación con la Subdirección General de Datos para la Gobernanza Pública y la de la letra m) en coordinación con la Subdirección General de Inspección y Consultoría.

d) La Subdirección General de Datos para la Gobernanza Pública, a la que corresponde el ejercicio de las funciones previstas en la letra j) y k) del apartado 1 de este artículo y la de la letra g) en coordinación con la Subdirección General de Transparencia y Atención al Ciudadano y en colaboración con la Dirección General del Dato.

e) La Subdirección General de Gobierno Abierto, a la que corresponde el ejercicio de las funciones previstas en la letra l) del apartado 1 de este artículo.

3. A la persona titular de la Dirección General de Gobernanza Pública corresponde la condición de titular de la Inspección General de Servicios de la Administración Pública, con las facultades inherentes a la misma. Igualmente le corresponde la Vicepresidencia de la Comisión Coordinadora de Inspecciones Generales de Servicios de los ministerios de la Administración General del Estado.

A tal efecto, se adscriben a la Dirección General de Gobernanza Pública dos Inspectores Generales de Servicios, con nivel orgánico de Subdirector General, para el desarrollo de las tareas que aquélla les encomiende. Asimismo podrán adscribirse inspectores generales de servicios a la Dirección General de acuerdo con lo que se determine en la relación de puestos de trabajo del departamento.

4. Igualmente, corresponde a la persona titular de la Dirección General de Gobernanza Pública la Vicepresidencia primera del Foro de Gobierno Abierto y de la Comisión Sectorial de Gobierno Abierto.

Artículo 12. Oficina de Conflictos de Intereses.

1. Corresponden a la Oficina de Conflictos de Intereses, con plena autonomía funcional, las siguientes funciones:

a) Las previstas en la Ley 3/2015, de 30 de marzo, reguladora del ejercicio del alto cargo de la Administración General del Estado.

b) Las previstas en la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno.

c) Las correspondientes al régimen de incompatibilidades del personal al servicio de la Administración General del Estado, de sus organismos públicos y del sector público estatal.

d) El fomento de los valores y principios de ética e integridad pública y la prevención de conflictos de intereses en colaboración con otros órganos, organismos y entidades en particular mediante el desarrollo de acciones de información y formación.

2. Dependen de la Oficina de Conflictos de Intereses, con rango de Subdirección General, los siguientes órganos:

a) La Subdirección General de Régimen de los Altos Cargos, a la que corresponde el ejercicio de las funciones enumeradas en las letras a) y b) del apartado 1 de este artículo.

b) La Subdirección General de Régimen de Incompatibilidades de los Empleados Públicos, a la que corresponde el ejercicio de la función enumerada en la letra c) del apartado 1 de este artículo.

Artículo 13. Subsecretaría para la Transformación Digital y de la Función Pública.

1. La Subsecretaría ostenta la representación ordinaria del Ministerio y la dirección de sus servicios comunes, así como el ejercicio de las atribuciones a que se refiere el artículo 63 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público y la dirección, impulso y supervisión de los órganos directivos y de las unidades directamente dependientes.

2. Como órgano directivo directamente dependiente de la persona titular del Ministerio corresponderá a la persona titular de la Subsecretaría para la Transformación Digital y de la Función Pública el ejercicio de las siguientes funciones:

a) La representación ordinaria del Ministerio.

b) La dirección, impulso y coordinación general de los servicios comunes del Departamento y el ejercicio de las competencias correspondientes a dichos servicios comunes.

c) El apoyo y asesoramiento técnico a la persona titular del Departamento en la elaboración y aprobación de los planes de actuación del Departamento, así como en el control de eficacia del Ministerio y sus organismos dependientes.

d) El estudio de los distintos elementos organizativos del Departamento y la dirección y realización de los proyectos organizativos de ámbito ministerial.

e) La dirección, impulso, coordinación y supervisión de la fundamentación técnico-jurídica relativa a la participación del Departamento en los órganos colegiados del Gobierno y en los de colaboración y apoyo al Gobierno.

f) La elaboración de los planes del Departamento en materia normativa, así como el impulso, coordinación, apoyo y supervisión de las actividades de elaboración de disposiciones generales del departamento y el informe de los proyectos de normas de otros Ministerios, coordinando las actuaciones dentro del Ministerio y con los demás departamentos que hayan de intervenir en el procedimiento.

3. En particular, la Subsecretaría ejercerá las siguientes funciones:

a) La elaboración de la propuesta de presupuesto anual del Departamento y la coordinación de los correspondientes a sus entidades adscritas, así como el seguimiento de la ejecución presupuestaria y la tramitación de sus modificaciones.

b) La gestión económica y financiera y de la tesorería del Departamento, así como la planificación, tramitación y seguimiento de la contratación administrativa y la coordinación de los órganos colegiados del Departamento en materia de contratación.

c) La evaluación de los distintos programas de gasto desarrollados en el ministerio, orientada a lograr políticas de gasto más eficientes.

d) La planificación, gestión y administración de los recursos humanos del Departamento, la elaboración de las propuestas de aprobación y modificación de las relaciones de puestos de trabajo y los planes de empleo, la tramitación de los procesos para la cobertura de los puestos de trabajo, y las relaciones con las organizaciones sindicales y las asociaciones profesionales de funcionarios, así como la gestión de los planes de formación, de la acción social y de los programas de prevención de riesgos laborales.

e) La ejecución de los planes y programas de inspección de los servicios y la evaluación del funcionamiento, la eficacia y rendimiento del personal y servicios de los órganos y unidades de los servicios centrales, entidades y organismos públicos adscritos así como la coordinación de las actividades vinculadas con las evaluaciones de las políticas públicas de competencia del Departamento.

f) El desarrollo de las funciones propias de la Unidad de Igualdad del Departamento, previstas en el artículo 77 de la Ley Orgánica 3/2007, de 22 de marzo, para la igualdad efectiva de mujeres y hombres.

g) El ejercicio de las competencias relativas al Delegado de Protección de Datos, previstas en el Reglamento (UE) 2016/679, del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) y en la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, para el ámbito del Ministerio.

h) Las actuaciones relacionadas con la publicación de disposiciones y actos administrativos del Departamento en el «Boletín Oficial del Estado».

i) El ejercicio de las funciones de la Unidad de Información de Transparencia del Ministerio para la Transformación Digital y de la Función Pública, según lo previsto en el artículo 21 de la Ley 19/2013, de 9 de diciembre, y el apoyo en la coordinación de las iniciativas en materia de Gobierno abierto en el ámbito del Ministerio.

j) El desarrollo y coordinación de las actividades de información administrativa y atención al ciudadano, así como la publicidad institucional.

k) La gestión de los medios materiales del Departamento, muebles e inmuebles; su inventario; la gestión de los arrendamientos; la adecuación y conservación de dichos inmuebles; el mantenimiento de sus instalaciones; y la planificación, coordinación, elaboración y dirección de los proyectos de obras correspondientes.

l) La gestión del registro general del Departamento, así como la dirección y gestión de los servicios técnicos, de seguridad, de reprografía y, en general, de los servicios generales y de régimen interior.

m) La dirección, organización y gestión de bibliotecas, archivos y servicios de documentación del Departamento.

n) La colaboración con las Secretarías de Estado en la programación económica y presupuestaria relativa a los proyectos de inversión y a las medidas del Plan de Recuperación, Transformación y Resiliencia, del ámbito del Ministerio para la Transformación Digital y de la Función Pública.

ñ) La coordinación y seguimiento de la ejecución de las inversiones y reformas del Plan de Recuperación, Transformación y Resiliencia que correspondan al Ministerio para la Transformación Digital y de la Función Pública, incluyendo el seguimiento y detección de desviaciones respecto al cumplimiento de hitos y objetivos y de los principios transversales definidos en el artículo 2 de la Orden HFP/1030/2021, de 29 de septiembre, por la que se configura el sistema de gestión del Plan de Recuperación, Transformación y Resiliencia.

o) La realización de informes de seguimiento de hitos y objetivos y cumplimiento de principios transversales, e informes en relación con la gestión económico-financiera de la aplicación de fondos europeos, asociados al Plan de Recuperación, Transformación y Resiliencia en los ámbitos propios del Ministerio.

p) El seguimiento de la aplicación de medidas correctoras por parte de los órganos responsables de las medidas, en caso de desviaciones respecto al cumplimiento de hitos y objetivos y el cumplimiento de principios transversales.

q) Punto de contacto con la Secretaría General de Fondos Europeos para el seguimiento de las medidas del Plan de Recuperación, Transformación y Resiliencia que correspondan al Ministerio para la Transformación Digital y de la Función Pública.

r) La interlocución con otros Departamentos y con las Secretarías de Estado del Ministerio en relación con el seguimiento del Plan de Recuperación, Transformación y Resiliencia.

s) La elaboración, firma y tramitación del Informe de gestión de los componentes de los cuales es responsable el Ministerio.

t) La revisión de los informes de previsiones firmados por los órganos responsables de las medidas, identificación de riesgos de incumplimiento, desviaciones respecto a la planificación y seguimiento de la ejecución de las acciones correctivas por parte de los órganos responsables de la medida.

u) La elaboración del Plan Estratégico de Subvenciones.

4. De la Subsecretaría para la Transformación Digital y de la Función Pública depende directamente, con rango de dirección general, la Secretaría General Técnica, que ejerce las funciones que se establecen en el artículo 14.

5. Asimismo, de la persona titular de la Subsecretaría dependen directamente las siguientes unidades con nivel orgánico de subdirección general:

a) La Subdirección General de Gestión Económica y Oficina Presupuestaria, que ejercerá las funciones señaladas en las letras a), b) y c) del apartado 3 y, en particular, las que se recogen en el Real Decreto 2855/1979, de 21 de diciembre, por el que se crean Oficinas Presupuestarias.

b) La Subdirección General de Recursos Humanos e Inspección de Servicios, que ejercerá las funciones señaladas en las letras d), e), f) y g) del apartado 3.

c) La Subdirección General de Servicios y Coordinación, que ejercerá las funciones previstas en las letras h), i), j), k), l, y m) del apartado 3.

d) La Subdirección General de Coordinación y Seguimiento de fondos europeos, que ejercerá las funciones previstas en el párrafo n), ñ), o), p), q), r), s) y t) del apartado 1.

6. Dependiendo directamente de la Subsecretaría, y como órgano de apoyo y asistencia inmediata de su titular, existe un Gabinete Técnico con nivel de subdirección general.

7. Asimismo, están adscritos a la Subsecretaría, con las funciones que les atribuyen sus normas específicas, y sin perjuicio de su dependencia de los Ministerios de Presidencia, Justicia y Relaciones con las Cortes y de Hacienda, los siguientes órganos con rango de subdirección general:

a) La Abogacía del Estado del Departamento, en la que se integran orgánicamente las que asumen el asesoramiento jurídico de la Secretaría de Estado de Digitalización e Inteligencia Artificial, la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales y la Secretaría de Estado de Función Pública.

b) La Intervención Delegada de la Intervención General de la Administración del Estado, dirigida por un Interventor Delegado Jefe, que se estructura en tres áreas: de Fiscalización, de Auditoría y de Contabilidad, las dos primeras con rango de subdirección general.

Artículo 14. Secretaría General Técnica.

1. La Secretaría General Técnica del Ministerio para la Transformación Digital y de la Función Pública, bajo la inmediata dependencia de la persona titular de la Subsecretaría del Departamento, ejerce las funciones que le atribuye el artículo 65 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, y específicamente, las siguientes:

a) La prestación de asistencia técnica, jurídica y administrativa a la persona titular del Ministerio y demás altos cargos del Departamento.

b) La preparación de documentación, y el examen e informe, así como la tramitación y coordinación, de las actuaciones relativas a los asuntos que se sometan al Consejo de Ministros, a las Comisiones Delegadas del Gobierno y a la Comisión General de Secretarios de Estado y Subsecretarios.

c) La coordinación de las propuestas del Departamento para su inclusión en el Plan Anual Normativo de la Administración General del Estado, y en el informe anual de evaluación normativa, así como del cumplimiento de dicho Plan.

d) La elaboración del programa editorial del Departamento y la gestión, en coordinación con los organismos adscritos al Ministerio, de la edición, distribución y venta, en su caso, de las publicaciones oficiales, así como las funciones que, en conexión con el proceso editorial, le atribuye la normativa específica sobre la materia.

e) La coordinación de toda la actividad de estudio e investigación del Departamento y, en particular, coordinar la elaboración del programa de estudios y la difusión de los estudios realizados.

f) La coordinación de la actividad normativa del Ministerio, la realización de los informes de los proyectos normativos que corresponda dictar o proponer al Departamento, así como de los proyectos de otros ministerios que afecten a las materias de competencia de este, y la tramitación y participación en la elaboración de los proyectos normativos a propuesta del Departamento.

g) El seguimiento e informe de los actos y disposiciones de las comunidades autónomas y la tramitación de los convenios suscritos con ellas.

h) La coordinación de la tramitación de proyectos de convenios entre el Departamento y cualesquiera otros sujetos de Derecho público o privado.

i) El seguimiento y coordinación de las cuestiones prejudiciales y procedimientos contenciosos con la Unión Europea y de la transposición de directivas, así como el ejercicio, en coordinación con el Ministerio de Asuntos Exteriores, Unión Europea y Cooperación, del resto de las competencias en relación con la Unión Europea y con los organismos internacionales en las materias propias del departamento no expresamente asignadas a otros órganos directivos.

j) La tramitación y propuesta de resolución de los recursos administrativos interpuestos contra los actos dictados por las autoridades del Departamento, la tramitación y propuesta de resolución de los procedimientos de responsabilidad patrimonial, de declaración de lesividad y de las revisiones de oficio.

k) Las relaciones del Departamento con la Administración de Justicia.

2. La Secretaría General Técnica se estructura en las siguientes Subdirecciones Generales:

a) La Vicesecretaría General Técnica, que ejercerá las funciones señaladas en las letras a), b), c), d) y e) del apartado 1.

b) La Subdirección General de Coordinación Jurídica, que ejerce las funciones señaladas en las letras f), g), h) e i) del apartado 1.

c) La Subdirección General de Recursos y Relaciones con la Administración de Justicia, que ejerce las funciones señaladas en las letras j) y k) del apartado 1.

Disposición adicional primera. Suplencia de las personas titulares de órganos directivos.

En los casos de vacante, ausencia o enfermedad de un órgano directivo y, en defecto de designación de suplente conforme a lo previsto en el artículo 13 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, la suplencia se realizará de la siguiente manera:

a) La persona titular de la Secretaría General de Administración Digital será suplida por la persona titular de la Subdirección General de Planificación y Gobernanza de la Administración Digital, salvo que la persona superior jerárquica establezca expresamente otro orden de sustitución.

c) La persona titular de la Subsecretaría para la Transformación Digital y de la Función Pública será sustituida por la persona titular de la Secretaría General Técnica, salvo que la persona superior jerárquica establezca expresamente otro orden de sustitución.

d) Las personas titulares de las Direcciones Generales y de la Secretaría General Técnica serán sustituidas por las personas titulares de las Subdirecciones Generales de su dependencia, siguiendo el orden en el que aparecen mencionadas por primera vez en este Real Decreto, salvo que la persona superior jerárquica común a todos ellos establezca expresamente otro orden de sustitución.

Disposición adicional segunda. Delegación de competencias.

Las delegaciones de competencias otorgadas en el ámbito de actuación material que corresponde al Ministerio para la Transformación Digital y de la Función Pública por los distintos órganos superiores y directivos afectados por este Real Decreto y por el Real Decreto 829/2023, de 20 de noviembre, por el que se reestructuran los departamentos ministeriales y el Real Decreto 1009/2023, de 5 de diciembre, por el que se establece la estructura orgánica básica de los departamentos ministeriales, continuarán siendo válidas y eficaces hasta que sean expresamente revocadas o nuevamente otorgadas, en los términos previstos en la Orden ETD/1218/2021, de 25 de octubre, sobre fijación de límites para la administración de determinados créditos para gastos y de delegación de competencias, así como en la Orden HAC/134/2021, de 17 de febrero, de delegación de competencias y por la que se fijan los límites de las competencias de gestión presupuestaria y concesión de subvenciones y ayudas de los titulares de las Secretarías de Estado, en el ámbito de competencias de la Secretaría de Estado de Función Pública.

Las referencias realizadas a la Comisión Interministerial de Retribuciones y a su Comisión Ejecutiva se entenderán realizadas a la Secretaría de Estado de Función Pública y a la Dirección General de la Función Pública, respectivamente, cuando afecten a los organismos y entidades enumeradas en el artículo 10.1.a).

Cuando las delegaciones de competencias que mantienen sus efectos en virtud del párrafo anterior se hubiesen efectuado en favor de órganos suprimidos por alguno de los reales decretos citados, las referidas delegaciones se entenderán otorgadas a favor de los órganos en cuyo ámbito de actuación se encuadre la correspondiente competencia, en los términos previstos en las citadas órdenes.

Disposición adicional tercera. Supresión de órganos.

1. Se suprimen los siguientes órganos:

a) La Subdirección General de Economía del Dato y Digitalización.

b) El Comisionado Especial para la Alianza por la Nueva Economía de la Lengua.

c) La Oficina del Comisionado especial para la Alianza por la Nueva Economía de la Lengua.

d) La Dirección General de Ciudadanía y Gobierno Abierto.

e) La Subdirección General de Gestión de Procedimientos de Personal.

f) La Subdirección General de Consultoría, Asesoramiento y Asistencia de Recursos Humanos.

g) La Subdirección General del Registro Central de Personal.

h) La Subdirección General de la Inspección General de Servicios de la Administración General del Estado.

i) La Subdirección General de Gobernanza en materia de Registros.

j) División de la Oficina del Dato.

k) División de Tecnologías de la Información.

l) Unidad de Instrucción de los expedientes disciplinarios de los funcionarios de la Administración Local con habilitación de carácter nacional.

2. Las referencias del ordenamiento jurídico a los órganos señalados en el apartado anterior se entenderán realizadas a los que, de acuerdo con este real decreto, asumen las correspondientes competencias.

3. Asimismo, las referencias contenidas en el ordenamiento jurídico a la Comisión Interministerial de Retribuciones y la Comisión Ejecutiva de la Comisión Interministerial de Retribuciones se entenderán realizadas, respectivamente, a la Secretaría de Estado de Función Pública y a la Dirección General de la Función Pública.

Disposición adicional cuarta. Desconcentración.

Corresponderá a la persona titular de la Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales el ejercicio de las competencias y funciones administrativas que, por la normativa vigente de rango reglamentario, se atribuyen a la persona titular del Ministerio para la Transformación Digital y de la Función Pública en materia de títulos habilitantes de telecomunicaciones y de servicios de comunicación audiovisual, interconexión y numeración, gestión del dominio público radioeléctrico, control del cumplimiento de las obligaciones de servicio público de telecomunicaciones y servicios de comunicación audiovisual, e imposición de sanciones en estas materias.

Disposición adicional quinta. Revisión de la clasificación de las entidades del sector público empresarial y fundacional de carácter tecnológico y científico.

En el plazo de seis meses desde la entrada en vigor del presente real decreto se procederá a la revisión de la clasificación de los entes del sector público fundacional y empresarial del ámbito científico y tecnológico, a propuesta motivada del Ministerio para la Transformación Digital y de la Función Pública y evaluada por los ministerios de Hacienda y de Economía, Comercio y Empresa.

Disposición adicional sexta. Modificaciones presupuestarias.

Por el Ministerio de Hacienda se efectuarán las modificaciones presupuestarias precisas para el cumplimiento de lo previsto en este Real Decreto.

Disposición transitoria primera. Unidades y puestos de trabajo con nivel orgánico inferior a subdirección general.

1. Las unidades y puestos de trabajo con nivel orgánico inferior al de subdirección general, encuadrados en los órganos afectados por las modificaciones orgánicas establecidas en este Real Decreto, continuarán subsistentes y serán retribuidos con cargo a los mismos créditos presupuestarios.

2. Hasta que se apruebe la nueva relación de puestos de trabajo, las unidades y puestos de trabajo encuadrados en los órganos suprimidos por este Real Decreto se adscribirán provisionalmente, a los órganos regulados en este Real Decreto en función de las atribuciones que tengan asignadas.

Disposición transitoria segunda. Gestión temporal de medios y servicios.

1. Por resolución conjunta de la Subsecretaría de Economía, Comercio y Empresa y de la Subsecretaría de Transformación Digital y de la Función Pública; y de esta última y de la Subsecretaría de Hacienda se realizará la integración efectiva de los créditos presupuestarios y de los medios materiales, y se definirán, en su caso los términos en los que se prestarán los servicios comunes de estos ministerios.

2. Por resolución conjunta de las Subsecretarías de Economía, Comercio y Empresa y de Transformación Digital y de la Función Pública se arbitrarán las medidas precisas para asignar a la Secretaría de Estado de Economía y Apoyo a la Empresa los créditos presupuestarios y medios materiales adscritos a la Secretaría de Estado de Función Pública para el ejercicio de las funciones relativas al Instituto para la Evaluación de Políticas Públicas.

Disposición transitoria tercera. Órganos de asistencia en la contratación.

Sin perjuicio de lo establecido en la disposición transitoria primera acerca de la subsistencia de unidades y puestos de trabajo, y hasta tanto se creen los órganos de contratación y asistencia de conformidad con lo dispuesto en los artículos 323 y 326 de la Ley 9/2017, de 8 de noviembre, de Contratos del Sector Público, adaptados a la estructura establecida en el presente Real Decreto, mantendrán su composición y continuarán desempeñando sus funciones aquellos que venían ejerciéndolas en relación con las materias propias de este Departamento.

Disposición transitoria cuarta. Comisión Interministerial de Retribuciones.

Los expedientes ya presentados ante la Comisión Interministerial de Retribuciones y a su Comisión Ejecutiva continuarán tramitándose por las reglas en vigor en el momento de su presentación.

Hasta tanto no se dicten nuevas reglas, a las que se refiere el párrafo tercero de esta disposición, por la Secretaría de Estado de Función Pública, los nuevos expedientes serán presentados ante la Dirección General de Función Pública, acompañados del documento de retención de crédito de capítulo 1 correspondiente al impacto de gasto presupuestario que suponga el mismo, se regirán por las reglas a que se refiere el párrafo anterior, y serán resueltos por la citada Dirección General.

Una vez que se adopten las órdenes ministeriales contempladas en el artículo 107.4 del Real Decreto-ley 6/2023, de 19 de diciembre, por el que se aprueban medidas urgentes para la ejecución del Plan de Recuperación, Transformación y Resiliencia en materia de servicio público de justicia, función pública, régimen local y mecenazgo, la Secretaría de Estado de Función Pública dictará nuevas reglas para la tramitación de los expedientes.

Disposición transitoria quinta. Prestación de servicios en materia de tecnologías de la información y comunicaciones a los servicios centrales del Departamento.

La Secretaría General de Administración Digital del Ministerio para la Transformación Digital y de la Función Pública, continuará colaborando con la Subsecretaría de Política Territorial y Memoria Democrática en la dirección, impulso y coordinación de la administración electrónica en el Departamento y en la provisión de servicios en materia de tecnologías de la información y comunicaciones, hasta tanto se firme la resolución conjunta entre la Subsecretaría del Ministerio para la Transformación Digital y de la Función Pública y la Subsecretaría del Ministerio de Política Territorial y Memoria Democrática por la que se efectúe la distribución de medios materiales y presupuestarios.

Disposición derogatoria única. Derogación normativa.

1. Quedan derogados, en lo que se oponga a este Real Decreto, el Real Decreto 403/2020, de 25 de febrero, por el que se desarrolla la estructura orgánica básica del Ministerio de Asuntos Económicos y Transformación Digital, así como el Real Decreto 682/2021, de 3 de agosto, por el que se desarrolla la estructura orgánica básica del Ministerio de Hacienda y Función Pública.

2. Queda derogado el Real Decreto 469/1987, de 3 de abril, por el que se articulan las competencias conjuntas atribuidas al Ministerio para las Administraciones Públicas y al Ministerio de Economía y Hacienda, en la Ley 21/1986, de 23 de diciembre, de Presupuestos Generales del Estado para 1987.

3. Asimismo, quedan derogadas cuantas disposiciones de igual o inferior rango se opongan a lo establecido en este Real Decreto.

Disposición final primera. Modificación del Real Decreto 349/2001, de 4 de abril, por el que se regula la composición y funciones de la Comisión Superior de Personal.

Se añade una letra j) al artículo 2, con la siguiente redacción:

«j) Adoptar las medidas de coordinación necesarias para asegurar un enfoque coherente de la planificación de recursos humanos de ámbito general, específica y de reestructuración sobre la base de instrumentos comunes.»

Disposición final segunda. Modificación del Real Decreto 403/2020, de 25 de febrero, por el que se desarrolla la estructura orgánica básica del Ministerio de Asuntos Económicos y Transformación Digital.

Se modifica el artículo 5, añadiendo un apartado 3 con la siguiente redacción:

«3. Se adscribe a la Dirección General de Política Económica, con nivel orgánico de Subdirección General, el Instituto para la Evaluación de Políticas Públicas, al que le corresponde en el ámbito de la Administración General del Estado y sus organismos públicos:

a) La evaluación de las políticas públicas y de los planes y programas cuya evaluación se le encomiende, en coordinación con los departamentos ministeriales.

b) El fomento de la cultura de evaluación de las políticas públicas.

c) La formulación y difusión de metodologías de evaluación.

d) El fomento de la formación de las empleadas y empleados públicos en esta materia, en coordinación con el organismo autónomo Instituto Nacional de Administración Pública.

e) El apoyo instrumental necesario para realizar los análisis que requieran los procesos de modernización o planificación que se impulsen desde la Secretaría de Estado de Función Pública.»

Disposición final tercera. Modificación del Real Decreto 1009/2023, de 5 de diciembre, por el que se establece la estructura orgánica básica de los departamentos ministeriales.

Uno. Se modifica el artículo 21, que queda redactado como sigue:

«El Ministerio para la Transformación Digital y de la Función Pública se estructura en los siguientes órganos superiores y directivos:

A) La Secretaría de Estado de Digitalización e Inteligencia Artificial, de la que depende la Dirección General de Digitalización e Inteligencia Artificial, la Dirección General del Dato y la Dirección General de Planificación Estratégica en Tecnologías Digitales Avanzadas y Nueva Economía de la Lengua.

B) La Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales, de la que depende la Secretaría General de Telecomunicaciones y Ordenación de los Servicios de Comunicación Audiovisual.

C) La Secretaría de Estado de Función Pública, de la que dependen la Secretaría General de Administración Digital, la Dirección General de Función Pública, con rango de subsecretaría, y la Dirección General de Gobernanza Pública. Asimismo, depende de esta Secretaría de Estado la Oficina de Conflictos de Intereses, con rango de Dirección General.

D) La Subsecretaría para la Transformación Digital y de la Función Pública, de la que depende la Secretaría General Técnica.»

Dos. Se modifica la disposición transitoria tercera, que pasa a tener la siguiente redacción:

«Los servicios comunes de los ministerios en los que se hayan producido transferencias de actividad a otros departamentos ministeriales seguirán prestando dichos servicios a los Ministerios a los que correspondan dichas áreas de actividad hasta tanto se desarrolle la estructura orgánica básica de los ministerios y se establezca la distribución de efectivos mediante acuerdo de los ministerios afectados por la reestructuración y, en su defecto, Resolución de la Secretaría de Estado de Función Pública con arreglo a lo previsto por el Real Decreto 364/1995, de 10 de marzo, por el que se aprueba el Reglamento General de Ingreso del Personal al servicio de la Administración General del Estado y de Provisión de Puestos de Trabajo y Promoción Profesional de los Funcionarios Civiles de la Administración General del Estado.»

Disposición final cuarta. Mandato para la modificación del Real Decreto 451/2012 por el que se regula el régimen retributivo de los máximos responsables y directivos en el sector público empresarial y otras entidades.

En el plazo de seis meses desde la entrada en vigor del presente real decreto se procederá a la modificación del Real Decreto 451/2012 por el que se regula el régimen retributivo de los máximos responsables y directivos en el sector público empresarial y otras entidades con el fin de promover la competitividad y la captación y retención del talento en sectores estratégicos.

Disposición final quinta. Facultades de desarrollo normativo.

Se autoriza a la persona titular del Ministerio para la Transformación Digital y de la Función Pública para que adopte las disposiciones necesarias para el desarrollo y ejecución de este Real Decreto.

Disposición final sexta. Entrada en vigor.

El presente Real Decreto entrará en vigor el mismo día de su publicación en el «Boletín Oficial del Estado».

Dado en Madrid, el 27 de febrero de 2024.

FELIPE R.

El Ministro para la Transformación Digitaly de la Función Pública, JOSÉ LUIS ESCRIVÁ BELMONTE

05Nov/24

Resolución 161/2023 RES-2023-161-APN-AAIP, de 30 de agosto de 2023

Resolución 161/2023 RES-2023-161-APN-AAIP, de 30 de agosto de 2023 de la Agencia de Acceso a la Información Pública. (Publicado el 4 de septiembre de 2023)

AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA

Resolución 161/2023, RESOL-2023-161-APN-AAIP

Ciudad de Buenos Aires, 30/08/2023

VISTO el expediente EX-2023-92311005- -APN-AAIP, los Principios de la Organización para la Cooperación y el Desarrollo Económicos sobre Inteligencia Artificial, la Recomendación sobre la Ética de la Inteligencia Artificial de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, las Leyes N° 25.326 y N° 27.275, la Decisión Administrativa N° 1094 del 1 de noviembre de 2022, y

CONSIDERANDO:

Que, según lo establecido en el artículo 19 de la Ley N° 27.275, la AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA (AAIP), ente autárquico con autonomía funcional en el ámbito de la JEFATURA DE GABINETE DE MINISTROS, debe velar por el cumplimiento de los principios y procedimientos establecidos en la citada norma, garantizar el efectivo ejercicio del derecho de acceso a la información pública, promover medidas de transparencia activa y actuar como Autoridad de Aplicación de la Ley de Protección de Datos Personales N° 25.326.

Que la ley N° 25.326 tiene por objeto la protección integral de los datos personales asentados en archivos, registros, bancos de datos, u otros medios técnicos de tratamiento de datos, sean éstos públicos, o privados destinados a dar informes, para garantizar el derecho al honor y a la intimidad de las personas, así como también el acceso a la información que sobre las mismas se registre, de conformidad a lo establecido en el artículo 43, párrafo tercero de la Constitución Nacional; mientras que la Ley Nº 27.275 tiene por objeto garantizar el efectivo ejercicio del derecho de acceso a la información pública, promover la participación ciudadana y la transparencia de la gestión pública (artículo 1°).

Que, en cumplimiento de su misión institucional, la AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA desarrolla diversas políticas de acceso a la información pública, protección de los datos personales, participación ciudadana y transparencia en la gestión pública, desde un enfoque de derechos humanos, con la finalidad de coadyuvar a la mejora de la calidad de vida de la población y de su acceso a derechos.

Que, conforme se dispuso mediante la Decisión Administrativa N° 1094/2022, la Dirección Nacional de Evaluación de Políticas de Transparencia tiene como responsabilidad primaria asistir a la titular de la Agencia en el diseño, ejecución y evaluación de sistemas de información, políticas de transparencia activa y campañas de difusión, así como en la instrumentación de proyectos y acciones que favorezcan la producción, sistematización, apertura y puesta a disposición de la ciudadanía la información pública tal como lo establece la Ley N° 27.275, en coordinación con las áreas de la Administración Pública Nacional con competencia en la materia.

Que la Decisión Administrativa antes mencionada también determina que la Dirección Nacional de Protección de Datos Personales tiene como responsabilidad primaria asistir a la titular de la Agencia en el diseño y ejecución de las políticas de privacidad de datos personales, gobernanza de datos e internet; así como en el ejercicio de sus funciones como como autoridad de aplicación y órgano de control de las Leyes N° 25.326 y N° 26.951.

Que la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y los países socios, entre los que se encuentra Argentina, adoptaron el 21 de mayo de 2019, a partir de una Recomendación del Consejo sobre Inteligencia Artificial, un conjunto de directrices de políticas intergubernamentales sobre Inteligencia Artificial (IA) plasmadas en los “Principios de la OCDE sobre Inteligencia Artificial”; y convinieron en someterse a normas internacionales que velen por que el diseño de sistemas de IA robustos, seguros, imparciales y fiables.

Que la Recomendación citada, elaborada a partir de las orientaciones de un grupo de expertos procedentes de organizaciones gubernamentales, académicas, empresariales, sindicales y de la sociedad civil, comprende cinco principios basados en valores para el despliegue responsable de una IA fiable y cinco recomendaciones en materia de políticas públicas y cooperación internacional; y su objetivo es guiar a los gobiernos, organizaciones e individuos para que, en el diseño y la gestión de los sistemas de IA, prioricen los intereses de las personas, y garantizar que quienes diseñen y gestionen sistemas de IA respondan por su correcto funcionamiento.

Que en noviembre de 2021, los Estados miembros de la Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), entre los cuales se encuentra Argentina, adoptaron la “Recomendación sobre la Ética de la Inteligencia Artificial”, donde se considera a la ética como una base dinámica para la evaluación y la orientación normativa de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños, y apoyándose en la ética de la ciencia y la tecnología.

Que la mencionada Recomendación trata sobre las cuestiones éticas relacionadas con la IA, abordándolas como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas, ofreciendo una base para aceptar o rechazar las tecnologías de la IA.

Que mediante la Disposición N° 2/2023 de la SUBSECRETARÍA DE TECNOLOGÍAS DE LA INFORMACIÓN, dependiente de la SECRETARÍA DE INNOVACIÓN PÚBLICA de la JEFATURA DE GABINETE DE MINISTROS DE LA NACIÓN, se aprobaron las “Recomendaciones para una Inteligencia Artificial Fiable”, que incorpora a los principios de transparencia y explicabilidad, seguridad y protección, equidad y no discriminación, derecho a la intimidad y protección de datos, supervisión y decisión humanas, sensibilización y educación, y responsabilidad y rendición de cuentas, entre otros, como dimensiones clave a considerar para la implementación de proyectos de IA.

Que los antecedentes mencionados incluyen entre sus principios y recomendaciones para una adopción beneficiosa de la Inteligencia Artificial, a la transparencia y la explicabilidad de sus sistemas, de modo que las personas puedan comprender cómo se toman y aplican las decisiones y cómo se llega a determinados resultados.

Que, asimismo, los instrumentos mencionados en los párrafos anteriores resaltan la importancia de la privacidad y la protección de los datos personales en el marco del uso de sistemas de inteligencia artificial, en lo que refiere a la recopilación, utilización, sesión, archivo y supresión de datos personales, respetando los marcos jurídicos nacionales, regionales e internacionales pertinentes.

Que, a efectos de dotar de mayor seguridad y legitimidad al uso de los sistemas de inteligencia artificial, resulta necesario fortalecer las capacidades institucionales que permitan incorporar la transparencia y la protección de datos personales como dimensiones sustantivas y transversales al diseño de proyectos de desarrollo tecnológico en materia de inteligencia artificial.

Que, por los motivos expuestos, resulta oportuno y conveniente la creación de un “Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial”, con el objetivo de impulsar procesos de análisis, regulación y fortalecimiento de capacidades estatales necesarias para acompañar el desarrollo y uso de la inteligencia artificial, tanto en el sector público como en el ámbito privado, garantizando el efectivo ejercicio de los derechos de la ciudadanía en materia de transparencia y protección de datos personales.

Que el Servicio Jurídico permanente de la AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA tomó la intervención previa de su competencia.

Que la presente medida se dicta en uso de las facultades conferidas por el artículo 24, incisos e), g), k) y t), de la Ley N° 27.275; y 29, inciso a), de la Ley N° 25.326.

Por ello,

LA DIRECTORA DE LA AGENCIA DE ACCESO A LA INFORMACIÓN PÚBLICA

RESUELVE:

ARTÍCULO 1°

Créase el “Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial”, cuya formulación, como Anexo IF-2023-99735227-APN-AAIP, forma parte integrante de la presente medida.

ARTÍCULO 2°

Instruyese a las Direcciones Nacionales de Evaluación de Políticas de Transparencia y de Protección de Datos Personales para la realización conjunta de las acciones necesarias para la ejecución del programa creado por el artículo 1° y el establecimiento de los mecanismos adecuados para su monitoreo y evaluación.

ARTÍCULO 3°

Comuníquese, publíquese, dese a la Dirección Nacional del Registro Oficial y archívese.

Beatriz de Anchorena

05Nov/24

Actualización de 3 de mayo de 2024, de la Recomendación del Consejo de Inteligencia Artificial

Actualización de 3 de mayo de 2024, de la Recomendación del Consejo de Inteligencia Artificial de 22 de mayo de 2019 de la Organización por la Cooperación y Desarrollo Económicos sobre la Inteligencia Artificial

EL CONSEJO,

TENIENDO EN CUENTA el artículo 5(b) de la Convención de la Organización para la Cooperación y el Desarrollo Económicos de 14 de diciembre de 1960;

TENIENDO EN CUENTA las normas elaboradas por la OCDE en las áreas de privacidad, seguridad digital, protección del consumidor y conducta empresarial responsable;

TENIENDO EN CUENTA los Objetivos de Desarrollo Sostenible recogidos en la Agenda 2030 para el Desarrollo Sostenible, adoptada por la Asamblea General de las Naciones Unidas (A/RES/70/1), así como la Declaración Universal de Derechos Humanos de 1948;

TENIENDO EN CUENTA el importante trabajo que está efectuándose en materia de inteligencia artificial (en lo sucesivo, «IA») en otros foros internacionales de carácter gubernamental y no gubernamental;

RECONOCIENDO que la IA tiene repercusiones generalizadas, de amplio calado y de ámbito mundial que están transformando sociedades, sectores económicos y el mundo laboral, y probablemente lo hagan cada vez más en el futuro;

RECONOCIENDO que la IA tiene potencial para mejorar el bienestar general de las personas, para contribuir a una actividad económica mundial positiva y sostenible, para aumentar la innovación y la productividad y para ayudar a responder ante retos mundiales clave;

RECONOCIENDO que, al mismo tiempo, estas transformaciones pueden tener efectos dispares en y entre las sociedades y las economías y sobre todo en relación con los cambios económicos, la competencia, las transiciones en el mercado laboral, las desigualdades y las implicaciones para la democracia y los derechos humanos, la privacidad y la protección de datos y la seguridad digital;

RECONOCIENDO que la confianza es un vector clave de la transformación digital; que, si bien la naturaleza de las futuras aplicaciones de la IA y sus implicaciones pueden resultar difíciles de predecir, la fiabilidad de los sistemas de IA es un factor determinante para la difusión y adopción de esta tecnología; y que se necesita un debate público bien informado y de toda la sociedad con vistas a aprovechar el potencial beneficioso de la tecnología, limitando al mismo tiempo los riesgos que lleva aparejados;

SUBRAYANDO que determinados marcos jurídicos, reglamentarios y normativos nacionales e internacionales ya hacen alusión a la IA, incluidos los relativos a los derechos humanos, la protección de los consumidores y los datos de carácter personal, los derechos de propiedad intelectual, la conducta empresarial responsable y la competencia, señalando, no obstante, que podría ser necesario evaluar la idoneidad de algunos marcos y desarrollar nuevos enfoques;

RECONOCIENDO que, a la vista del rápido desarrollo e implantación de la IA, se necesita un marco de políticas estable que promueva un enfoque de la IA fiable centrado en las personas, aliente la investigación, preserve los incentivos económicos para innovar y se aplique a todas las partes interesadas en función de su papel y el contexto;

CONSIDERANDO que, con el fin de promover la adopción de una IA fiable en la sociedad y convertir la fiabilidad de la IA en un parámetro competitivo en el mercado internacional, resulta esencial aprovechar las oportunidades que ofrecen las aplicaciones de IA, abordando los retos que plantean, y capacitar a las partes interesadas para interactuar con ella.

En lo concerniente a la propuesta del Comité de Política Digital:

I. ACUERDA que, a los efectos de la presente Recomendación, se utilicen las siguientes definiciones:

Sistema de IA: Un sistema de IA es un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere, a partir de los datos de entrada que recibe, cómo generar información de salida como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos reales o virtuales. Una vez implementados, los distintos sistemas de IA presentan diversos niveles de autonomía y varían en su capacidad de adaptación.

Ciclo de vida del sistema de IA: El ciclo de vida de un sistema de IA comprende generalmente varias fases: planificación y diseño; recopilación y tratamiento de datos; creación de modelo(s) y/o adaptación de modelo(s) existente(s) a tareas específicas; prueba, evaluación, verificación y validación; entrada en servicio/despliegue; explotación y supervisión; y retirada/desmantelamiento. Estas fases a menudo se desarrollan de forma iterativa y no son necesariamente secuenciales. La decisión de dejar de explotar un sistema de IA puede producirse en cualquier momento durante la fase de explotación y supervisión.

Actores de la IA: Los actores de IA son aquellos que desempeñan un papel activo en el ciclo de vida del sistema de IA, como las entidades y personas que despliegan y explotan la IA.

Conocimientos sobre IA: Los conocimientos sobre IA se refieren a las competencias y recursos, como los datos, el código informático, los algoritmos, los modelos, la investigación, el knowhow, los programas de formación, la gobernanza, los procesos y las buenas prácticas que se requieren para comprender y participar en el ciclo de vida de la IA, incluida la gestión de los riesgos.

Partes interesadas: Por partes interesadas se entiende todas las entidades y personas que participan o se ven afectadas directa o indirectamente por los sistemas de IA. Los actores de la IA son un subconjunto de las partes interesadas.

Sección 1: Principios de administración responsable en aras de una IA fiable

II. RECOMIENDA que los Miembros y no Miembros que se adhieran a esta Recomendación (en lo sucesivo, los «Adherentes») promuevan y apliquen los siguientes principios de administración responsable en aras de una IA fiable, que son importantes para todas las partes interesadas.

III. INSTA a todos los actores de la IA a promover e implantar, de acuerdo con sus respectivas funciones, los siguientes principios de administración responsable en aras de una IA fiable.

IV. SUBRAYA que los siguientes principios son complementarios y deberían considerarse como un conjunto.

1.1. Crecimiento inclusivo, desarrollo sostenible y bienestar

Las partes interesadas deberían poner en marcha activamente la administración responsable en aras de una IA fiable en busca de resultados beneficiosos para las personas y el planeta, como aumentar las capacidades del ser humano y estimular la creatividad, avanzar en la inclusión de poblaciones infrarrepresentadas, reducir las desigualdades económicas, sociales, de género y de otra índole, y proteger los entornos naturales, reforzando de este modo el crecimiento inclusivo, el bienestar, el desarrollo sostenible y la sostenibilidad medioambiental.

1.2. Respetar el Estado de derecho, los derechos humanos y los valores democráticos, incluidas la equidad y la privacidad

a) Los actores de la IA deben respetar el Estado de derecho, los derechos humanos, los valores democráticos y los centrados en el ser humano a lo largo del ciclo de vida de los sistemas de IA. Por ejemplo, la no discriminación y la igualdad, la libertad, la dignidad, la autonomía de las personas, la privacidad y la protección de datos, la diversidad, la equidad, la justicia social y los derechos laborales reconocidos internacionalmente. Esto también comprende abordar la información engañosa y la desinformación amplificadas por la IA, respetando al mismo tiempo la libertad de expresión y otros derechos y libertades protegidos por el Derecho internacional aplicable.

b) Para ello, los actores de la IA deben poner en marcha mecanismos y garantías, como la capacidad de intervención y supervisión humana, lo que incluye abordar riesgos derivados de usos distintos del fin perseguido, usos indebidos intencionados o usos indebidos no intencionados, de forma apropiada al contexto y coherente con el estado actual de la tecnología.

1.3. Transparencia y explicabilidad

Los actores de la IA deberían comprometerse con la transparencia y una divulgación responsable en relación con los sistemas de IA. Para ello, deben proporcionar información significativa que sea adecuada para la situación específica y se ajuste al estado actual de la tecnología:

i. para fomentar una comprensión general de los sistemas de IA, incluidas sus capacidades y limitaciones,

ii. para poner en conocimiento de las partes interesadas sus interacciones con los sistemas de IA, también en el lugar de trabajo,

iii. cuando resulte viable y útil, para suministrar información transparente y comprensible sobre las fuentes de datos/entradas, los factores, los procesos y/o el razonamiento que subyace a las predicciones, contenidos, recomendaciones y decisiones, para permitir a los afectados por un sistema de IA comprender los resultados, y

iv. para suministrar información que permita a los afectados negativamente por un sistema de IA cuestionar sus resultados.

1.4. Solidez, seguridad y protección

a) A lo largo de su vida útil, los sistemas de IA deben ser robustos, seguros y estar protegidos de tal modo que, en condiciones de uso normal, uso previsible o uso indebido, u otras condiciones adversas, funcionen adecuadamente y no planteen riesgos excesivos en materia de seguridad y/o protección.

b) Deben existir mecanismos para, cuando proceda, garantizar que, si los sistemas de IA amenazan con provocar daños indebidos o muestran un comportamiento indeseado, estos puedan ser invalidados, corregidos y/o desmantelados de forma segura, según sea necesario.

c) Cuando sea técnicamente viable, deben existir mecanismos para reforzar la integridad de la información y, al mismo tiempo, garantizar el respeto de la libertad de expresión.

1.5. Responsabilidad

a) Los actores de la IA deben ser responsables del correcto funcionamiento de los sistemas de IA y del respeto de los principios anteriores, de acuerdo con sus funciones, el contexto y el estado de la tecnología.

b) Para ello, los actores de la IA deben garantizar la trazabilidad, entre otros elementos, de los conjuntos de datos, los procesos y las decisiones tomadas durante el ciclo de vida del sistema de IA con el fin de permitir el análisis de los resultados del sistema de IA y garantizar que las respuestas sean adecuadas al contexto específico y coherentes con el estado de la tecnología.

c) Los actores de la IA, de acuerdo con sus funciones, el contexto y su capacidad de actuación, deben aplicar de forma permanente un enfoque sistemático de la gestión de riesgos a cada fase del ciclo de vida del sistema de IA y adoptar una conducta empresarial responsable a la hora de abordar los riesgos relacionados con los sistemas de IA, lo que comprende, cuando proceda, la cooperación entre diferentes actores de la IA, proveedores de conocimientos y recursos de IA, usuarios de sistemas de IA y otras partes interesadas. Los riesgos comprenden los relacionados con un sesgo dañino, con los derechos humanos, como la seguridad, la protección y la privacidad, así como con los derechos laborales y de propiedad intelectual.

Sección 2: Políticas nacionales y cooperación internacional en aras de una IA fiable

V. RECOMIENDA que los Adherentes pongan en marcha las siguientes recomendaciones, que son coherentes con los principios de la sección 1, en sus políticas nacionales y su cooperación internacional, prestando especial atención a las pequeñas y medianas empresas (pymes).

2.1. Invertir en investigación y desarrollo de la IA

a) Los gobiernos deben considerar la inversión pública a largo plazo y alentar también la inversión privada en investigación y desarrollo y ciencia abierta, incorporando los esfuerzos interdisciplinares, para estimular la innovación en IA fiable que se centre en cuestiones técnicas complejas y en las implicaciones sociales, jurídicas y éticas y las cuestiones normativas relacionadas con la IA.

b) Los gobiernos también deberían considerar la inversión pública y alentar la inversión privada en herramientas de código fuente abierto y conjuntos de datos abiertos que sean representativos y respeten la privacidad y la protección de datos con vistas a sostener un entorno de investigación y desarrollo de la IA que esté libre de sesgos perjudiciales y mejore la interoperabilidad y uso del estándares.

2.2. Fomentar un ecosistema inclusivo que propicie la IA

Los gobiernos también deberían fomentar el desarrollo y el acceso a un ecosistema digital inclusivo, dinámico, sostenible e interoperable en aras de una IA fiable. Un ecosistema de estas características comporta, inter alia, datos, tecnologías de IA, infraestructuras informáticas y de conexión y mecanismos para compartir los conocimientos sobre la IA, cuando proceda. A este respecto, los gobiernos deberían considerar la promoción de mecanismos para garantizar una difusión segura, justa, legal y ética de los datos, como los denominados data trusts o administradores de datos.

2.3. Dar forma a un entorno político y de gobernanza interoperable propicio para la IA

a) Los gobiernos deben promover un entorno de políticas ágil que sostenga la transición desde la fase de investigación y desarrollo hasta la fase de despliegue y explotación de sistemas de IA fiables. Para ello, deberían considerar usar la experimentación con el fin de crear un entorno controlado en el que los sistemas de IA puedan probarse y, en su caso, ampliarse. También deberían adoptar enfoques basados en los resultados que aporten flexibilidad a la hora de alcanzar los objetivos de gobernanza y cooperar tanto dentro de las jurisdicciones como entre ellas para promover entornos políticos y de gobernanza interoperables, cuando proceda.

b) Los gobiernos deberían revisar y adaptar, cuando proceda, sus marcos políticos y normativos , así como sus mecanismos de evaluación a la hora de aplicarlos a los sistemas de IA para fomentar la innovación y la competencia en aras de una IA fiable.

2.4. Reforzar las capacidades del ser humano y prepararse para la transformación del mercado laboral

a) Los gobiernos deberían trabajar en estrecha colaboración con las partes interesadas con el fin de prepararse para la transformación del mundo laboral y de la sociedad. Deberían capacitar a las personas para usar e interactuar eficazmente con los sistemas de IA en todo el espectro de aplicaciones, dotándolas también de las competencias necesarias.

b) Los gobiernos deberían tomar medidas, en particular a través del diálogo social, a fin de garantizar una transición justa para los trabajadores a medida que se despliegue la IA, por ejemplo mediante programas de formación a lo largo de la vida laboral, prestando apoyo a los afectados por el cambio, entre otras cosas, mediante la protección social, y brindando acceso a nuevas oportunidades laborales.

c) Los gobiernos también deberían fijarse como meta que los efectos beneficiosos de la IA se repartan de forma amplia y justa y, a tal fin, deberían colaborar estrechamente con las partes interesadas para fomentar el uso responsable de la IA en el trabajo, para mejorar la seguridad de los trabajadores y la calidad del empleo y de los servicios públicos, y para alentar el emprendimiento y la productividad.

2.5. Cooperación internacional en aras de una IA fiable

a) Los gobiernos, incluidos los países en desarrollo y en colaboración con las partes interesadas, deberían cooperar activamente para promover estos principios y progresar en la administración responsable en aras de una IA fiable.

b) Los gobiernos deberían trabajar juntos en el seno de la OCDE y otros foros internacionales y regionales para alentar la difusión de los conocimientos sobre la IA, cuando proceda. Deberían fomentar iniciativas internaciones, intersectoriales y abiertas entre las diferentes partes interesadas para recabar conocimientos especializados a largo plazo sobre la IA.

c) Los gobiernos deberían promover el desarrollo de normas técnicas internacionales consensuadas por diferentes partes interesadas en aras de una IA interoperable y fiable.

d) Los gobiernos también deberían impulsar el desarrollo de —y utilizar ellos mismos— indicadores comparables a escala internacional para medir la investigación, el desarrollo y el despliegue de la IA y reunir pruebas para evaluar los progresos en la implantación de estos principios.

VI. INVITA al secretario general y a los Adherentes a difundir esta Recomendación.

VII. INVITA a los no Adherentes a que tengan debidamente en cuenta la presente Recomendación y se adhieran a ella.

VIII. ENCARGA al Comité de Política Digital, a través de su Grupo de Trabajo sobre Gobernanza de la IA:

a) continúe su importante labor sobre la inteligencia artificial tomando como base la presente Recomendación y teniendo en cuenta el trabajo realizado en otros foros internacionales, siga desarrollando el marco de medición para las políticas de IA basadas en datos empíricos;

b) desarrolle y perfeccione nuevas orientaciones prácticas sobre la implantación de esta Recomendación para responder a la evolución de los acontecimientos y a las nuevas prioridades políticas;

c) proporcione un foro para el intercambio de información sobre políticas y actividades de IA, incluida la experiencia acumulada con la implantación de esta Recomendación, y fomente el diálogo interdisciplinar y entre las múltiples partes interesadas para alentar la confianza en la adopción de la IA; y

d) informe al Consejo, consultando con los correspondientes Comités, sobre la aplicación, difusión y pertinencia a lo largo del tiempo de la presente Recomendación, a más tardar cinco años después de su revisión y, a partir de entonces, al menos cada diez años

31Oct/24
Proyecto de Ley

Proyecto de Ley. Expediente 2469-S-2023, de 14 de diciembre de 2023

Proyecto de Ley. Expediente 2469-S-2023, de 14 de diciembre de 2023. Modificación del artículo 128 del Código Penal, Ley 11179 respecto de sancionar delitos contra la integridad sexual.

PROYECTO DE LEY

El Senado y Cámara de Diputados,…

Artículo 1°:

 Modifícase el artículo 128 del Código Penal, el que quedará redactado de la siguiente manera:

“Será reprimido con prisión de tres (3) a seis (6) años el que produjere, financiare, ofreciere, comerciare, publicare, facilitare, divulgare o distribuyere, por cualquier medio, toda representación real o simulada de un menor de dieciocho (18) años dedicado a actividades sexuales explícitas o toda representación real o simulada de sus partes genitales con fines predominantemente sexuales, al igual que el que organizare espectáculos en vivo de representaciones sexuales explícitas reales o simuladas en que participaren dichos menores.

Será reprimido con prisión de cuatro (4) meses a un (1) año el que a sabiendas tuviere en su poder representaciones de las descriptas en el párrafo anterior.

Será reprimido con prisión de seis (6) meses a dos (2) años el que tuviere en su poder representaciones de las descriptas en el primer párrafo con fines inequívocos de distribución o comercialización.

Será reprimido con prisión de un (1) mes a tres (3) años el que facilitare el acceso a espectáculos pornográficos o suministrare material pornográfico a menores de catorce (14) años.

Todas las escalas penales previstas en este artículo se elevarán en un tercio en su mínimo y en su máximo cuando la víctima fuere menor de trece (13) años.”

Artículo 2°: Comuníquese al Poder Ejecutivo.

Juan C. Romero

FUNDAMENTOS

Señora Presidente:

Motiva el presente proyecto la necesidad de cubrir un vacío legal en nuestro Código Penal ante la exposición de las personas, especialmente de menores de edad, a nuevas tecnologías cuyo uso indebido socaban su integridad física, psíquica y moral.

La Deepfake -o ultrafalso-, o también conocida como Deep Synthesis, es una técnica que está revolucionando la creación y distribución de contenidos falsos a una velocidad exponencial en todo el mundo. El término resulta de una combinación de dos palabras “deep” (“profundo”, pero con origen en deep learning-aprendizaje profundo-) y “fake” (falso).

A través del uso de inteligencia artificial (IA), que utiliza algoritmos de síntesis generativa, representados por el aprendizaje profundo y la realidad virtual, se reemplaza la apariencia y la voz de una persona en imágenes o vídeos de manera realista, sin que los hechos hayan sucedido. De esta manera, el rostro, la voz o los movimientos que aparecen en pantalla o material gráfico no pertenecen a esa persona, sino a las de otra, o bien, a una construcción totalmente irreal, planteando desafíos nunca vistos en términos de ética, privacidad y seguridad.

Lo preocupante del caso, es que el uso de las Deepfakes no sólo está revolucionado la creación y distribución de contenido falso, sino también la distribución de material pornográfico y de abuso infantil.

Tal como lo señala un documento reciente del Instituto de Políticas Públicas de Prevención del Grooming de la Cámara de Diputados de la Prov. de Buenos Aires, “la suplantación de identidad de menores de edad en material pornográfico falso, con el consiguiente riesgo de daño psicológico, social y reputacional, plantea cuestiones legales que requieren una respuesta firme y coordinada”. Y agrega que “los riesgos que enfrentan los menores de edad al ser expuestos a Deepfakes pornográficos son inmensos, por lo que es esencial abordar este problema de manera urgente para proteger a los menores de edad y salvaguardar su bienestar emocional, en un mundo cada vez más permeado por tecnologías que pueden ser utilizadas en su contra”.

Un análisis reciente compartido por la revista estadounidense Wired, especializada en tecnología, señala que, en los últimos siete años, al menos 244.625 clips han sido cargados en los 35 principales sitios web dedicados total o parcialmente a alojar videos de pornografía Deepfake.

Solo en los primeros nueve meses de este año, se subieron 113.000 videos a estas plataformas, marcando un aumento del 54% en comparación con todo el 2022 (73.000 piezas de contenido). Según las proyecciones de la investigación, se anticipa que a finales de 2023 se habrán producido más videos que en todos los años anteriores combinados. A pesar de que muchas de estas páginas aclaran que los contenidos, con millones de visualizaciones, no son auténticos, raramente mencionan el consentimiento de quienes aparecen en ellos.

En los Estados Unidos varios estados han regulado las Deepfakes, planteando debates sobre cómo abordar jurídicamente los vídeos pornográficos generados por esta tecnología. Existen algunas corrientes que argumentan que estas restricciones deberían recibir el mismo tratamiento bajo la Primera Enmienda que las prohibiciones de pornografía no consensual, en lugar de estar sujetas a la ley de difamación.

En julio de 2019, se implementó en el Estado de Virginia una ampliación de las leyes dirigidas contra la “pornografía no consensuada”, comúnmente conocida como “pornovenganza”. Esta modificación busca abarcar en su definición las Deepfakes pornográficas, así como cualquier contenido visual manipulado mediante herramientas digitales.

La difusión de falsos desnudos en Virginia, con la intención de coaccionar, acosar o intimidar a otra persona, puede acarrear una pena de hasta un año de prisión y una multa de 2.500 dólares.

Por su parte, la Unión Europea aprobó recientemente el Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial y se modifican determinados actos legislativos de la Unión.

Si bien las Deepfakes no tienen una legislación específica, en el caso de España diversas opiniones de juristas de ese país señalan que podrían ser penalizadas por delitos que van desde la violación del derecho a la propia imagen hasta la injuria o delito de odio, dependiendo de sus objetivos y consecuencias.

La Unión Europea, preocupada por el impacto en el número de víctimas femeninas, abordó el fenómeno de la Deepfake como un problema de género. Esto condujo a un exhaustivo estudio realizado por un “Think Tank” europeo compuesto por participantes de Alemania, República Checa y Holanda. Dicho estudio analiza detalladamente el fenómeno desde perspectivas sociológicas y legales, centrándose en las técnicas de Inteligencia Artificial para la manipulación de imágenes, la creación de videos falsos y el clonado de voz.

El análisis abarca la normativa actual en países clave, destacando el desarrollo exponencial en EE. UU. y China, así como la problemática en países sensibles como Taiwán debido a la desinformación generada por estas tecnologías. El marco legal europeo, basado en el Convenio de Estambul del Consejo de Europa, aborda la posibilidad de tipificar el acoso cuando se presenta un comportamiento amenazador que genera temor por la seguridad de otra persona, y regula los actos de carácter sexual no consentidos.

El Protocolo Facultativo de la Convención sobre los Derechos del Niño relativo a la venta de niños, la prostitución infantil y la utilización de niños en la pornografía de las Naciones Unidas, ratificado en nuestro país por Ley N° 25.763, establece que la explotación sexual contra la infancia comprende “toda representación, por cualquier medio, de un niño dedicado a actividades sexuales explícitas, reales o simuladas”.

También incluye este concepto el Convenio de Budapest, primer tratado internacional creado con el objetivo de proteger a la sociedad frente a los delitos informáticos y los delitos en Internet, y que nuestro país ratificó en 2018 a partir de la Ley N° 27.411. Allí se entiende por pornografía infantil, entre otros conceptos, a “…imágenes realistas que representen a un menor adoptando un comportamiento sexualmente explícito”.

Ambos antecedentes, incorporados a nuestro ordenamiento legislativo, refuerzan el sentido del presente proyecto.

Resulta insoslayable entonces, avanzar en un proyecto de ley que incorpore en nuestro Código Penal la regulación de la explotación sexual infantil simulada o virtual, donde un niño, niña o adolescente ha sido incluido, a través de la alteración de imágenes, como partícipe de un acto sexual.

Es crucial señalar que este tipo de contenido no solo viola el derecho a la privacidad y la integridad personal de los menores involucrados, sino que también puede tener consecuencias a largo plazo en su bienestar psicológico y emocional. La divulgación de este material destaca la urgencia de implementar medidas legales para proteger a los niños y garantizar un entorno adecuado para un desarrollo saludable.

Un caso reciente expone el vacío legal de esta problemática. En la provincia de San Juan, Leandro Pérez González, fue eximido este año de toda responsabilidad penal por haber “desnudado” mediante una aplicación de inteligencia artificial a 15 compañeras de la universidad, para luego venderlas como material pornográfico en un sitio web. Las jóvenes pidieron una perimetral y expusieron un vacío legal penal que las dejaba desamparadas. Sin embargo, la investigación viró cuando en los dispositivos del sospechoso se detectaron archivos con contenido de abuso sexual infantil. Pérez González fue detenido este año y la Justicia le dictó tres años de prisión de ejecución condicional por tenencia y distribución de este tipo de material, delito que sí está contemplado en nuestro Código Penal.

En resumen, en nuestro país, cuando hay una producción de imágenes de explotación sexual infantil generadas por inteligencia artificial, o por cualquier mecanismo tecnológico, aún no es delito. La actividad criminal de la explotación sexual infantil es un fenómeno en expansión que exige no sólo la cooperación trasnacional, sino también, y fundamentalmente, una normativa actualizada de los países, que esté a la altura de dicho fenómeno criminal.

Por todo lo expuesto, solicito a mis Pares que acompañen el presente Proyecto de Ley.

Juan C. Romero

31Oct/24

Resolución nº 90/21, de 26 de noviembre de 2021, Créase el “Programa de Inteligencia Artificial”

Resolución nº 90/21, de 26 de noviembre de 2021, Créase el “Programa de Inteligencia Artificial” en la órbita de la DIRECCIÓN NACIONAL DE GESTIÓN DEL CONOCIMIENTO dependiente de la SUBSECRETARÍA DEL CONOCIMIENTO PARA EL DESARROLLO dependiente de esta SECRETARÍA DE ASUNTOS ESTRATÉGICOS de la PRESIDENCIA DE LA NACIÓN, con el objetivo de brindar apoyo al CONSEJO ECONÓMICO Y SOCIAL para el desarrollo de actividades vinculadas a la promoción de habilidades tecnológicas relativas a la inteligencia artificial. (Boletín Nacional del 30 de noviembre de 2021).

SECRETARÍA DE ASUNTOS ESTRATÉGICOS

Resolución 90/2021. RESOL-2021-90-APN-SAE

Ciudad de Buenos Aires, 26/11/2021

VISTO el EX-2021-111378527- -APN-DPYPEESA#SAE, la Ley de Ministerios N° 22.520 (Texto Ordenado por Decreto N° 438/92 y sus modificatorios), el Decreto N° 50 del 19 de diciembre de 2019 y sus modificatorios, el Decreto N° 802 del 14 de octubre de 2020, el Decreto N° 124 del 21 de febrero de 2021 y el Decreto N° 970 del 1° de diciembre de 2020, y

CONSIDERANDO:

Que por la Ley de Ministerios N° 22.520 (Texto Ordenado por el Decreto N° 438/92 y sus modificatorios) se determinaron las Secretarías de la Presidencia de la Nación y los Ministerios que asistirán al PODER EJECUTIVO NACIONAL para cumplir con las responsabilidades que le son propias, entre las que se encuentra la SECRETARÍA DE ASUNTOS ESTRATÉGICOS de la PRESIDENCIA DE LA NACIÓN.

Que el Decreto N° 50/2019 dispuso que es competencia de la SECRETARÏA DE ASUNTOS ESTRATÉGICOS de la PRESIDENCIA DE LA NACIÓN analizar, evaluar y proponer prioridades estratégicas para el desarrollo del CONSEJO ECONÓMICO Y SOCIAL creado por el Decreto N° 124/2021.

Que el citado Decreto N° 50/2019 en su Anexo II enumera los distintos Objetivos de la SECRETARÍA DE ASUNTOS ESTRATÉGICOS de la PRESIDENCIA DE LA NACIÓN, entre los cuales le compete “participar en las iniciativas críticas del sector público relativas al uso de las tecnologías para el desarrollo de la economía del conocimiento, tales como la inteligencia artificial”.

Que el Decreto N° 802/2020 estableció como objetivo de la DIRECCIÓN NACIONAL DE GESTIÓN DEL CONOCIMIENTO dependiente de la SUBSECRETARÍA DEL CONOCIMIENTO PARA EL DESARROLLO de la SECRETARÍA DE ASUNTOS ESTRATÉGICOS de la PRESIDENCIA DE LA NACIÓN el de “Desarrollar y monitorear en el Sector Público el uso de tecnologías que constituyen iniciativas prioritarias para el desarrollo de la economía del conocimiento tales como la inteligencia artificial, cadenas de bloques y otros proyectos que contribuyan a consolidar la soberanía tecnológica argentina en la revolución 4.0.”.

Que el Decreto N° 124/2021 creó el CONSEJO ECONÓMICO Y SOCIAL y estableció que la SECRETARÍA DE ASUNTOS ESTRATÉGICOS de la PRESIDENCIA DE LA NACIÓN colaborará con su personal y recursos presupuestarios con el fin de cumplir con su cometido.

Que el citado Decreto N° 124/2021 previó en su Anexo I la Agenda de Trabajo de las Misiones País encomendadas al CONSEJO ECONÓMICO Y SOCIAL, contemplando en la Misión País “Educación y Trabajos del Futuro” el abordaje de la “Formación en profesiones estratégicas como puente entre ciencia-producción y empresas-sindicatos. Vinculación entre oferta y demanda de empleos” y la “Promoción de habilidades tecnológicas en los sectores más vulnerados”.

Que en el contexto descripto resulta necesario implementar estrategias que estimulen una rápida y masiva adopción de la Inteligencia Artificial y otras tecnologías en los distintos sectores contemplados en las Misiones País del CONSEJO ECONÓMICO Y SOCIAL.

Que la Inteligencia Artificial es un factor crítico y constituye el principal reto que deberán abordar los países de América Latina en los próximos años, por lo que resulta esencial generar habilidades de automatización e instrumentación en Inteligencia Artificial para aplicar en organizaciones públicas y del sector productivo.

Que mediante el Decreto Nº 970/2020 se aprobó el Modelo de Contrato de Préstamo BID N° 5084/OC-AR a celebrarse entre la REPÚBLICA ARGENTINA y el BANCO INTERAMERICANO DE DESARROLLO (BID), destinado a financiar el “Programa de Innovación para Respuesta a Situaciones de Crisis y Gestión de Prioridades Estratégicas”, cuyo objetivo general es mejorar la efectividad en la coordinación y gestión de Programas Gubernamentales Estratégicos (PGE) en la REPÚBLICA ARGENTINA, priorizando aquellos necesarios para dar respuesta y recuperación a la crisis generada por la pandemia de COVID-19, mediante el fortalecimiento de funciones claves y el desarrollo de iniciativas innovadoras para el logro de los objetivos de Gobierno.

Que el Contrato de Préstamo BID N° 5084/OC-AR fue suscripto por la REPÚBLICA ARGENTINA el día 20 de enero de 2021.

Que los objetivos específicos del Programa de Innovación para Respuesta a Situaciones de Crisis y Gestión de Prioridades Estratégicas son:

(i) mejorar la calidad de la planificación, el monitoreo, la toma de decisiones y la evaluación para el cumplimiento de Programas Gubernamentales Estratégicos; y

(ii) fortalecer las capacidades de innovación y promover prácticas innovadoras en la gestión pública, sector privado y sociedad civil para dar respuesta a la crisis y sus consecuencias.

Que para alcanzar dichas metas, el Programa mencionado se estructura en dos componentes:

Componente 1. Fortalecimiento de capacidades de gestión de objetivos prioritarios de gobierno;

Componente 2. Fortalecimiento de capacidades de innovación permanentes en el sector público, sector privado y sociedad civil, para problemas de política pública.

Que a través del Subcomponente 2.2 “Innovaciones en el sector privado y sociedad civil” se financian cursos de capacitación y formación en habilidades para afrontar desafíos de la llamada “Revolución Industrial 4.0” que motiven y fortalezcan la capacidad de innovación de diversos actores sociales que apoyarán en la implementación de las Prioridades Gubernamentales y que tradicionalmente son marginados en estos procesos y actividades para el desarrollo colaborativo de soluciones basadas en la inteligencia artificial y otras tecnologías innovadoras para Prioridades Gubernamentales.

Que para llevar adelante estas iniciativas vinculadas con la promoción de habilidades tecnológicas en los sectores más vulnerados, contemplada en la agenda de la Misión País “Educación y Trabajos del Futuro” del CONSEJO ECONÓMICO Y SOCIAL resulta necesario crear un Programa específico en el ámbito de la DIRECCIÓN NACIONAL DE GESTIÓN DEL CONOCIMIENTO dependiente de la SUBSECRETARÍA DEL CONOCIMIENTO PARA EL DESARROLLO de la SECRETARÍA DE ASUNTOS ESTRATÉGICOS.

Que ha tomado intervención el servicio jurídico competente.

Que la presente medida se dicta en virtud de las facultades conferidas por los Decretos Nros. 50/19 y 124/21.

Por ello,

EL SECRETARIO DE ASUNTOS ESTRATÉGICOS DE LA PRESIDENCIA DE LA NACIÓN

RESUELVE:

ARTÍCULO 1°.-

Creación. Créase el “Programa de Inteligencia Artificial” en la órbita de la DIRECCIÓN NACIONAL DE GESTIÓN DEL CONOCIMIENTO dependiente de la SUBSECRETARÍA DEL CONOCIMIENTO PARA EL DESARROLLO dependiente de esta SECRETARÍA DE ASUNTOS ESTRATÉGICOS de la PRESIDENCIA DE LA NACIÓN, con el objetivo de brindar apoyo al CONSEJO ECONÓMICO Y SOCIAL para el desarrollo de actividades vinculadas a la promoción de habilidades tecnológicas relativas a la inteligencia artificial.

ARTÍCULO 2°.-

Funciones. Son funciones del Programa:

a) Propiciar la coordinación y colaboración con distintas áreas y organismos del Estado Nacional, así como con el sector académico y de representación gremial, para la ejecución de acciones relativas a la inteligencia artificial.

b) Difundir, facilitar y promover el desarrollo de acciones, foros, actividades de capacitación, becas, estudios y toda otra actividad que le sea encomendada para el cumplimiento de los objetivos.

c) Realizar convocatorias abiertas a los distintos sectores que integran el CONSEJO ECONÓMICO Y SOCIAL para el despliegue y difusión de la inteligencia artificial.

d) Propiciar convenios con organizaciones públicas y privadas, de la sociedad civil y organizaciones no gubernamentales tendientes a difundir las actividades de difusión, capacitación y formación requeridas para la ampliación del campo de la inteligencia artificial y su aplicación en los trabajos del futuro.

e) Formular, proponer y ejecutar proyectos relativos a la difusión de la inteligencia artificial vinculada con la preparación para los trabajos del futuro.

f) Fomentar y fortalecer la investigación, la innovación, el desarrollo y la producción tecnológica basada en la inteligencia artificial, en áreas prioritarias para el desarrollo nacional.

g) Promover y fortalecer el talento nacional en inteligencia artificial, a fin de alcanzar la autonomía tecnológica y ser un referente tecno-exportador en la región.

h) Facilitar la vinculación entre los diversos actores del ecosistema nacional y regional (academia, sistema científico y tecnológico, sector productivo, gobierno y de la sociedad civil) y apoyar mecanismos de transferencia de conocimientos y soluciones de inteligencia artificial para su uso, aplicación y generación de valor público.

ARTÍCULO 3°.-

Dirección del Programa. La DIRECCIÓN NACIONAL DE GESTIÓN DEL CONOCIMIENTO dirigirá el Programa creado en la presente Resolución, estando facultada para impulsar las acciones requeridas a los efectos de poner en funcionamiento el “Programa de Inteligencia Artificial”, controlar su ejecución y proponer la normativa complementaria que resulte necesaria para su implementación.

ARTÍCULO 4°.-

Vigencia. La presente Resolución entrará en vigencia el día siguiente al de su publicación en el Boletín Oficial.

ARTÍCULO 5°.-

Publicación. Comuníquese, publíquese, dése a la DIRECCIÓN NACIONAL DEL REGISTRO OFICIAL y archívese.

Gustavo Beliz

25Ago/24

Circular externa nº 002/2024 de 21 agosto de 2024

Circular externa nº 002/2024 de 21 agosto de 2024, de la Superintendencia de Industria y Comercio de Colombia, Lineamientos sobre el Tratamiento de Datos Personales en Sistemas de Inteligencia Artificial.

Superintendencia de industria y Comercio

CIRCULAR EXTERNA nº 002 de 2024

Para: Sujetos vigilados por la Superintendencia de Industria y Comercio en su rol de Autoridad de Protección de Datos personales.

Asuntos: Lineamientos sobre el Tratamiento de Datos personales en Sistemas de Inteligencia Artificial.

La Ley Estatutaria 1581 de 2012 estableció el régimen general de Protección de Datos personales en la Republica de Colombia, concretizando el derecho fundamental al Habeas Data (1), con el propósito de establecer los lineamientos de protección del Tratamiento de Datos personales. La norma, por su parte, reconoce el derecho de los Titulares para proteger su información y el deber de los Administradores de Datos personales (2) en la recolección, almacenamiento, uso, circulación de la información para finalidades constitucionales en el marco del Estado Social de Derecho.

La Inteligencia Artificial (en adelante “IA”) es una tecnología que tiene una dimensión tanto científica como social (3). Su importancia está determinada por los profundos cambios sociales que produce, y en particular que para su funcionamiento se necesitan de grandes volúmenes de datos, y la mayoría de las veces de Datos personales. Así, el impacto de la IA en el derecho fundamental al Habeas Data es evidente.

Esta circular tiene como propósito proveer a los Administradores de Datos personales certidumbre sobre el Tratamiento de Datos personales para desarrollar, desplegar o usar sistemas de Inteligencia artificial (“Sistemas de IA”), y brindar a los Titulares seguridad sobre el uso de sus Datos personales en los Sistemas de IA, ya que típicamente se utilizan para tomar decisiones autónomas o para asistir a un tomador de decisiones humano a través de recomendaciones y predicciones.

El CONPES 3975 (4) define la inteligencia artificial como “(…) un campo de la informática dedicado a resolver problemas cognitivos comúnmente asociados con la inteligencia humana o seres inteligentes, entendidos como aquellos que pueden adaptarse a situaciones cambiantes. Su base es el desarrollo de sistemas informáticos, la disponibilidad de datos y los algoritmos”.

Los Estados miembros de la Organización para la Cooperación y Desarrollo Económico (OCDE) definieron en el 2023 un Sistema de Inteligencia Artificial como “un sistema basado en máquinas que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, como generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los diferentes sistemas de IA varían en sus niveles de autonomía y adaptabilidad después de su implementación” (5).

Las leyes estatutarias 1266 de 2008 y 1581 de 2012 son normas neutrales temática y tecnológicamente que se aplican a todo Tratamiento de Datos personales por parte de

Administradores de Datos personales, incluyendo la recolección y/o Tratamiento de Datos personales para desarrollar, probar y monitorear Sistemas de Inteligencia Artificial o como parte de su proceso de implementación.

En ese orden de ideas, la normatividad sobre Tratamiento de Datos personales debe aplicarse al margen de los procedimientos, metodologías o tecnologías que se utilicen para tratar la información personal de los Titulares. Así las cosas, la ley colombiana permite el uso de tecnologías para tratar datos, pero, al mismo tiempo, exige que se haga de manera respetuosa de su ordenamiento jurídico.

En materia de Tratamiento de Datos personales impera como regla de responsabilidad el deber de responsabilidad demostrada o “accountability”, el cual exige a los Administradores de Datos personales adoptar medidas útiles, oportunas, eficientes y demostrables para acreditar el total y correcto cumplimiento de la regulación. Lo anterior, se ve materializado en el artículo 19A de la Ley Estatutaria 1266 de 2008, que establece: “Los operadores, fuentes y usuarios de información financiera, crediticia, comercial y de servicios deben ser capaces de demostrar que han implementado medidas apropiadas, efectivas y verificables para cumplir con las obligaciones establecidas en la Ley 1266 de 2008”. Y, a Su vez, en el artículo 2.2.2.25.6.1 del Decreto Único Reglamentario del Sector Comercio, Industria y Turismo, Decreto 1074 de 2015, al disponer que: “Los Responsables del Tratamiento de Datos personales deben ser capaces de demostrar, a petici6n de la Superintendencia de Industria y Comercio, que han implementado medidas apropiadas y efectivas para cumplir con las obligaciones establecidas en la Ley 1581 de 2012 y este decreto”.

La privacidad desde el diseño y por defecto (Privacy by Design and by Default), es considerada una medida proactiva para, entre otras, cumplir con el Principio de Responsabilidad Demostrada. Al introducir la privacidad desde el desafío, se garantiza el debido Tratamiento de los datos utilizados en los proyectos informáticos que involucren Tratamiento de Datos personales.

Esto implica que en el momento de hacer analítica de datos para entrenar una maquina con inteligencia artificial se deberán aplicar técnicas matemáticas que impidan identificar a la persona que proporciona la información. Con esto se busca prevenir niveles de riesgo no aceptables, por su impacto al vulnerar el consentimiento de los Titulares en su derecho fundamental a la privacidad. Así, el debido Tratamiento de la información debe ser un componente esencial del diseño y puesta en marcha de proyectos de inteligencia artificial; lo cual implica la materializaci6n del principio de seguridad previsto tanto en el literal f) del artículo 4 de la Ley Estatutaria 1266 de 2008, como en el literal g) del artículo 5 de la Ley Estatutaria 1581 de 2012, en tanto conlleva la adopción de medidas técnicas, humanas y administrativas necesarias para otorgar seguridad a los registros, evitando su adulteración, pérdida, consulta, uso o acceso no autorizado o fraudulento.

Esta Superintendencia a través de la Delegatura para la Protección de Datos personales tiene entre las funciones asignadas por la Ley Estatutaria 1581 de 2012, las de “velar por el cumplimiento de la legislaci6n en materia de Protección de Datos personales” e “impartir instrucciones sobre las medidas y procedimientos necesarios para la adecuación de las operaciones de los Responsables del Tratamiento y Encargados del Tratamiento a las disposiciones previstas en la presente ley” (6).

Además de lo anterior, en Sentencia C-1011 de 2008, la Corte Constitucional de Colombia revisando la constitucionalidad del proyecto correspondiente a la hoy Ley Estatutaria 1266 de 2008, se pronuncié respecto de las funciones de esta Superintendencia que:

“Para cumplir con esta obligación de Protección y garantía de los derechos del sujeto concernido, el legislador estatutario establecido en el artículo 17 que las Superintendencias de Industria y Comercio y Financiera ejercerán la función de vigilancia de los operadores, fuentes y usuarios de información financiera, crediticia, comercial, de servicios y la proveniente de terceros países, en cuanto refiere a la administración de Datos personales regulada por la normatividad objeto de estudio.

Estas funciones de vigilancia consisten, entre otros aspectos, en impartir instrucciones y 6rdenes sobre la manera como deben cumplirse las disposiciones previstas por la normatividad estatutaria, relacionadas con la administración de la mencionada información, para lo cual las Superintendencias fijaran los criterios que faciliten su cumplimiento y señalaran procedimientos para su cabal aplicación.”

A su vez, mediante Sentencia C -748 de 2011 (de constitucionalidad del proyecto correspondiente a la Ley Estatutaria 1582 de 2012) la Corporación se refirió a las facultades de esta autoridad establecidas en el artículo 21 del citado proyecto en los siguientes términos:

“Esta disposición enlista las funciones que ejercerá la nueva Delegatura de protección de Datos personales. Al estudiar las funciones a ella asignadas, encuentra esta Sala que todas corresponden y despliegan los estándares internacionales establecidos sobre la autoridad de vigilancia. En efecto, desarrollan las funciones de vigilancia del cumplimiento de la normativa, de investigación y sanción por su incumplimiento, de vigilancia de la transferencia internacional de datos y de promoción de la Protección de datos.

Además, debe afirmarse que, tal como lo estableci6é la Corte en la Sentencia C-1011 de 2008, la naturaleza de las facultades atribuidas a la Superintendencia —a través de la Delegatura-, “caen dentro del ámbito de las funciones de policía administrativa que corresponden a esos órganos técnicos adscritos al ejecutivo (Art. 115 C.P.), en tanto expresión de la potestad de dirección e intervención del Estado en la economía (Art.334), y de intervención reforzada del Gobierno en las actividades financiera, bursátiles y aseguradoras (Art. 335 C.P.).”

Igualmente, el numeral 55 del artículo 1 del Decreto 4886 de 2011 (modificado por el Decreto 092 de 2022) señala que esta Superintendencia des competente para “impartir instrucciones en materia de administración de Datos personales, fijar criterios que faciliten su cumplimiento y señalar los procedimientos para su cabal aplicación”. Todo ello independientemente, de los sistemas informáticos en los cuales se estén tratando los Datos personales; tecnologías de la información y las comunicaciones.

A su vez, la Corte Constitucional en Sentencia T- 323 del 2024 reafirma la necesidad de cumplir lo establecido en la regulación sobre Protección de Datos personales en el Tratamiento que se haga sobre aquellos por cualquier sistema de IA, en los siguientes términos:

“Ahora bien, en cuanto a la regulación del Tratamiento de datos en Colombia es importante destacar que las leyes estatutarias 1266 de 2008 y 1581 de 2012 fueron redactadas neutralmente, en el sentido que sus disposiciones aplican al Tratamiento de datos que se realice mediante cualquier herramienta manual o tecnológica. En este sentido, cualquier sistema de IA debe garantizar el cumplimiento de estas normatividades.”

En este sentido, esta Superintendencia, como Autoridad Nacional de Protección de Datos personales, instruye sobre el Tratamiento de Datos personales en Sistemas de Inteligencia Artificial en los siguientes términos:

I. El Tratamiento de Datos personales en la IA presupone la necesidad de realizar una ponderación atendiendo cuatro criterios, destinados a salvaguardar los principios establecidos en las Leyes Estatutarias 1266 de 2008 y 1581 de 2012:

a. Idoneidad: El Tratamiento es capaz de alcanzar el objetivo propuesto;

b. Necesidad: No exista otra medida más moderada en cuanto al impacto de las operaciones de Tratamiento en la protección de Datos personales e igual de eficaz para conseguir tal objetivo;

c. Razonabilidad: El Tratamiento debe estar orientado a cumplir finalidades constitucionales;

d. Proporcionalidad en sentido estricto: Las ventajas obtenidas como consecuencia de la restricción del derecho a la Protección de datos no deberán ser superadas por las desventajas de afectar el derecho al Habeas Data.

Il. En caso de presentarse falta de certeza frente a los potenciales daños que puede causar el Tratamiento de Datos personales, y con miras a evitar que se cause un daño grave e irreversible, los Administradores de Datos personales deberán abstenerse de realizar dicho Tratamiento o adoptar medidas precautorias o preventivas para proteger los derechos del Titular del dato, su dignidad y otros derechos humanos.

III. La identificación y clasificación de riesgos, Así como la adopción de medidas para mitigarlos, son elementos esenciales del principio de responsabilidad demostrada (7). Así, en el Tratamiento de Datos personales en la IA se requiere que los Administradores de Datos personales adecuen, entre otros, sistemas de administración de riesgos asociados al Tratamiento de aquella información. Lo anterior, con el objetivo de identificar, medir, controlar y monitorear todos aquellos hechos o situaciones que puedan incidir en la debida administración del riesgo que están expuestos en desarrollo del cumplimiento de las normas de protección de Datos personales.

IV. Previo al desafío y desarrollo de la IA, y en la medida en que sea probable que los productos realizados a través de dichas técnicas entrañen un alto riesgo de afectación a los Titulares de la información, será necesario efectuar y documentar un estudio de impacto de privacidad. Aquel, como mínimo, deberá contener lo siguiente:

a. Una descripción detallada de las operaciones de Tratamiento de Datos personales.

b. Una evaluación de los riesgos específicos para los derechos y libertades de los Titulares de los Datos personales. En la evaluación de riesgos se espera, por lo menos, la identificación y clasificación estos.

c. Las medidas previstas para evitar la materialización de los riesgos, medidas de seguridad, diseño de software, tecnologías y mecanismos que garanticen la protección de Datos personales, teniendo en cuenta los derechos e intereses legítimos de los Titulares de los datos y de otras personas que puedan eventualmente resultar afectadas.

V. Los Datos personales sujetos a Tratamiento en la IA deben ser veraces, completos, exactos, actualizados, comprobables y comprensibles. De esta manera, se prohíbe por el ordenamiento jurídico (8) el Tratamiento de Datos personales parciales, incompletos, fraccionados o que induzcan a error.

VI. Una manera para dar cumplimiento a la privacidad desde el diseño y por defecto por medio de técnicas matemáticas es la privacidad diferencial (9).

VII. En el Tratamiento de Datos personales en la IA debe garantizarse el derecho de los Titulares de la información a obtener de los Administradores de Datos personales, en cualquier momento y sin restricciones, información acerca del Tratamiento de sus Datos personales (10).

VIII. Para cumplir el principio de seguridad, en el desarrollo y despliegue de la IA, se requiere adoptar medidas tecnológicas (11), humanas, administrativas, físicas, contractuales y de cualquier otra índole para evitar:

a. El acceso indebido o no autorizado a los Datos personales.

b. La manipulación de la información.

c. La destrucción de la información.

d. El uso indebido o no autorizado de la información.

e. Circular o suministrar la información a personas no autorizadas.

Las medidas de seguridad implementadas deben ser auditables por las autoridades para su evaluación y mejoras permanentes.

IX. La información personal que es “accesible al publico” no es, per se, información “de naturaleza publica” (12). El hecho de que estén disponibles en internet no significa que cualquier persona puede tratarlos sin autorización previa, expresa e informada del Titular del Dato (13). De esta manera, los Administradores de Datos personales que recolecten Datos personales privados, semiprivados o sensibles en internet no están legitimados para apropiarse de dicha información y tratarla para cualquier finalidad que consideren apropiado sin la autorización previa, expresa e informada del Titular de la información.

X. El Tratamiento de Datos personales que se realice en sistemas de IA debe prever estrategias pertinentes, eficientes y demostrables para garantizar el cumplimiento de los derechos de los Titulares de la información establecidos en las leyes estatutarias 1266 de 2008 y 1581 de 2012 y sus decretos reglamentarios (14).

Así, en armonía con las normas citadas y la jurisprudencia constitucional, el Tratamiento de Datos personales en Sistemas de Inteligencia Artificial requiere la debida observancia de lo establecido en materia de Protección de Datos personales. La ley colombiana permite el uso de tecnologías para tratar datos, pero, al mismo tiempo, exige que se haga de manera respetuosa del ordenamiento jurídico. Quienes crean, desafían o usan “innovaciones tecnológicas” deben cumplir todas las normas sobre Tratamiento de Datos personales recolectados y/o tratados en Colombia.

De esa manera, estas instrucciones armonizan las anteriores normas para garantizar el fin constitucional de una efectiva Protección del derecho al Habeas Data y el debido Tratamiento de Datos personales.

Cordialmente,

CIELO ELAINNE RUSINQUE URREGO

SUPERINTENDENTE DE INDUSTRIA Y COMERCIO

————————————————————–

(1) Artículo 15 de la Constitución Política de Colombia de 1991.

(2) Se entiende por Administradores de Datos personales a: los Responsables del Tratamiento (literal e) artículo 3 de la Ley Estatutaria 1581 de 2012), los Encargados del Tratamiento (literal d) artículo 3 de la Ley Estatutaria 1581 de 2012), las Fuentes de información (literal b) artículo 3 de la Ley Estatutaria 1266 de 2008), los Operadores de información (literal c) artículo 3 de la Ley Estatutaria 1266 de 2008) y a los Usuarios (literal d) artículo 3 de la Ley Estatutaria 1266 de 2008).

(3) SIERRA CADENA, Grenfieth de Jesús. Implementación de la Inteligencia Artificial en las Altas Cortes de Colombia: los casos de la Corte Constitucional y el Consejo de Estado. Revista Eurolatinoamericana de Derecho Administrativo, Santa Fe, vol. 11, n. 1, e253, ene./jul. 2024.

DOI 10.14409/redoeda.v11i1.13824 “Un fenómeno científico y social que posee una doble naturaleza. Es considerada a la vez como un avance tecnológico-científico y un instrumento de transformaciones sociales. Tiene su origen en las ciencias de la computación, la informática y las matemáticas. Durante los últimos 30 años ha vivido cambios exponenciales, al punto de lograr que el desarrollo computacional se cada vez más potente, con mayor capacidad en procesamiento de datos, llegando a simular comportamientos humanos 1. Como fenómeno social hace referencia a la llegada de aplicaciones, de plataformas, de redes sociales, de componentes tecnológicos que están modificando estructuralmente las relaciones humanas; determinando nuevas formas de sociedad y de gobierno.”

(4) Consejo Nacional de Política Económica y Social Republica de Colombia Departamento Nacional De Planeación. Documento CONPES 3975 POLÍTICA NACIONAL PARA LA TRANSFORMACION DIGITAL E NTELIGENCIA ARTIFICIAL

(5) Organización para la Cooperación y Desarrollo Económico (OCDE). EXPLANATORY MEMORANDUM ON THE PDATED OECD DEFINITION OF AN Al SYSTEM. Marzo 2024. https://www.oecd-ilibrary.org/docserver/623da898-en.pdf?expires=1723212626&id=id&accname=quest&checksum=E9A3D570869087CCF8A0A929BBE2B2FF

(6) Literales a) y e) del artículo 21 de la Ley Estatutaria 1581 de 2012.

(7) Los riesgos asociados al Tratamiento de Datos personales en la IA deben estar sujetos a planificación y esfuerzos de mitigación proporcionales a la gravedad de los eventuales daños que se pueden generar. Entre las contingencias para tener en cuenta deben estar las inherentes a la operación de los algoritmos (sesgos humanos, fallas técnicas, vulnerabilidades de seguridad, fallas en la Implementación), y a su desafío.

(8) Literal d) del Artículo 4 de la Ley Estatutaria 1581 de 2012.

(9) En palabras de la profesora de la Facultad de Matemáticas de la Universidad de los Andes, Valérie Gauthier “La privacidad diferencial es un conjunto de técnicas matemáticas que permiten hacer analítica sobre datos sin revelar información de las personas que proporcionaron esos datos. En este caso se confía en una entidad central que tiene los datos, y responde preguntas sobre los datos de tal manera que no se pueda revelar información de los individuos en particular, aun cuando se combine con otro conjunto de datos.

La privacidad diferencial local, tiene un mismo propósito, pero no necesita una entidad central de confianza. Cada individuo va a añadir un ruido a sus datos de tal manera que nadie conozca el valor real de sus datos, pero que no afecte la analítica de los datos globalmente.

Para ambos métodos hay que tener un presupuesto de privacidad, de tal manera que permita tener analítica de datos muy aproximados a los reales sin perder la privacidad de las personas. Ese presupuesto puede depender de la sensibilidad y del valor de los datos en cuestión.

Para más información sobre la privacidad diferencial:

Dwork, C & Roth, A. (2014). The Algorithmic Foundations of Differential Privacy. Theoretical Computer Science. https://www.cis.upenn.edu/~aaroth/Papers/privacybook.pdf

Wang, T & Jha, S. (2017). Locally Differentially Private Protocols for Frequency Estimation. USENIX Security Symposium. https://www. usenix.org/system/files/conference/usenixsecurity1 7/sec17-wang-tianhao.pdf

(10) Literal e) del Artículo 4 de la Ley Estatutaria 1581 de 2012.

(11) Literal g) del Artículo 4 de la Ley Estatutaria 1581 de 2012.

(12) El numeral 2 del artículo 3 del Decreto 1377 de 2013 (incorporado en el Decreto Único Reglamentario 1074 de 2015) establece que un Dato Publico es “(…) el dato que no sea semiprivado, privado o sensible. Son considerados datos públicos, entre otros, los datos relativos al estado civil de las personas, a su profesión u Oficio y a su calidad de comerciante o de servidor público. Por su naturaleza, los datos públicos pueden estar contenidos, entre otros, en registros públicos, documentos públicos, gacetas y boletines oficiales y sentencias judiciales debidamente ejecutoriadas que no estén sometidas a reserva.

(13) Resolución nº 71406 del 15 de noviembre de 2023. Por la cual se imparten unas ordenes administrativas a LinkedIn.

(14) Téngase presente: Decreto 2952 de 2010 (incorporado en el Decreto Único Reglamentario

05Ago/24

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) (DO L, 2024/1689, 12.7.2024).

EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea, y en particular sus artículos 16 y 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo (1),

Visto el dictamen del Banco Central Europeo (2),

Visto el dictamen del Comité de las Regiones (3),

De conformidad con el procedimiento legislativo ordinario (4),

Considerando lo siguiente:

(1)

El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.

(2)

El presente Reglamento debe aplicarse de conformidad con los valores de la Unión consagrados en la Carta, lo que facilitará la protección de las personas físicas, las empresas, la democracia, el Estado de Derecho y la protección del medio ambiente y, al mismo tiempo, impulsará la innovación y el empleo y convertirá a la Unión en líder en la adopción de una IA fiable.

(3)

Los sistemas de IA pueden desplegarse con facilidad en sectores muy diversos de la economía y en muchas partes de la sociedad, también a escala transfronteriza, y circular fácilmente por toda la Unión. Algunos Estados miembros ya han estudiado adopción de normas nacionales destinadas a garantizar que la IA sea fiable y segura y se desarrolle y utilice de conformidad con las obligaciones relativas a los derechos fundamentales. La existencia de normas nacionales divergentes puede dar lugar a la fragmentación del mercado interior y reducir la seguridad jurídica de los operadores que desarrollan, importan o utilizan sistemas de IA. Por lo tanto, es preciso garantizar un nivel elevado y coherente de protección en toda la Unión para lograr una IA fiable, así como evitar las divergencias que obstaculizan la libre circulación, la innovación, el despliegue y la adopción en el mercado interior de los sistemas de IA y los productos y servicios conexos mediante el establecimiento de obligaciones uniformes para los operadores y la garantía de una protección uniforme de los fines imperiosos de interés general y de los derechos de las personas en todo el mercado interior, sobre la base del artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE). En la medida en que el presente Reglamento contiene normas específicas para la protección de las personas en relación con el tratamiento de datos personales que restringen el uso de sistemas de IA para la identificación biométrica remota con fines de garantía del cumplimiento del Derecho, el uso de sistemas de IA para la realización de evaluaciones de riesgos de personas físicas con fines de garantía del cumplimiento del Derecho y el uso de sistemas de IA de categorización biométrica con fines de garantía del cumplimiento del Derecho, resulta adecuado basar este Reglamento, en lo que atañe a dichas normas específicas, en el artículo 16 del TFUE. A la luz de dichas normas específicas y del recurso al artículo 16 del TFUE, conviene consultar al Comité Europeo de Protección de Datos.

(4)

La IA es un conjunto de tecnologías en rápida evolución que contribuye a generar beneficios económicos, medioambientales y sociales muy diversos en todos los sectores económicos y las actividades sociales. El uso de la IA puede proporcionar ventajas competitivas esenciales a las empresas y facilitar la obtención de resultados positivos desde el punto de vista social y medioambiental en los ámbitos de la asistencia sanitaria, la agricultura, la seguridad alimentaria, la educación y la formación, los medios de comunicación, el deporte, la cultura, la gestión de infraestructuras, la energía, el transporte y la logística, los servicios públicos, la seguridad, la justicia, la eficiencia de los recursos y la energía, el seguimiento ambiental, la conservación y restauración de la biodiversidad y los ecosistemas, y la mitigación del cambio climático y la adaptación a él, entre otros, al mejorar la predicción, optimizar las operaciones y la asignación de los recursos, y personalizar las soluciones digitales que se encuentran a disposición de la población y las organizaciones.

(5)

Al mismo tiempo, dependiendo de las circunstancias relativas a su aplicación, utilización y nivel de desarrollo tecnológico concretos, la IA puede generar riesgos y menoscabar los intereses públicos y los derechos fundamentales que protege el Derecho de la Unión. Dicho menoscabo puede ser tangible o intangible e incluye los perjuicios físicos, psíquicos, sociales o económicos.

(6)

Dadas las importantes repercusiones que la IA puede tener en la sociedad y la necesidad de generar confianza, es fundamental que la IA y su marco reglamentario se desarrollen de conformidad con los valores de la Unión consagrados en el artículo 2 del Tratado de la Unión Europea (TUE), los derechos y libertades fundamentales consagrados en los Tratados y, de conformidad con el artículo 6 del TUE, la Carta. Como requisito previo, la IA debe ser una tecnología centrada en el ser humano. Además, debe ser una herramienta para las personas y tener por objetivo último aumentar el bienestar humano.

(7)

Conviene establecer normas comunes para los sistemas de IA de alto riesgo al objeto de garantizar un nivel elevado y coherente de protección de los intereses públicos en lo que respecta a la salud, la seguridad y los derechos fundamentales. Estas normas deben ser coherentes con la Carta, no deben ser discriminatorias y deben estar en consonancia con los compromisos de la Unión en materia de comercio internacional. También deben tener en cuenta la Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital y las Directrices éticas para una IA fiable del Grupo independiente de expertos de alto nivel sobre inteligencia artificial.

(8)

En consecuencia, se necesita un marco jurídico de la Unión que establezca unas normas armonizadas en materia de IA para impulsar el desarrollo, la utilización y la adopción en el mercado interior de la IA y que, al mismo tiempo, ofrezca un nivel elevado de protección de los intereses públicos, como la salud y la seguridad y la protección de los derechos fundamentales, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, reconocidos y protegidos por el Derecho de la Unión. Para alcanzar dicho objetivo, conviene establecer normas que regulen la introducción en el mercado, la puesta en servicio y la utilización de determinados sistemas de IA, lo que garantizará el buen funcionamiento del mercado interior y permitirá que dichos sistemas se beneficien del principio de libre circulación de mercancías y servicios. Esas normas deben ser claras y firmes por lo que respecta a proteger los derechos fundamentales, apoyar nuevas soluciones innovadoras, posibilitar un ecosistema europeo de agentes públicos y privados que creen sistemas de IA en consonancia con los valores de la Unión y liberar el potencial de la transformación digital en todas las regiones de la Unión. Al establecer tales normas, así como medidas en apoyo de la innovación que prestan especial atención a las pequeñas y medianas empresas (pymes), incluidas las empresas emergentes, el presente Reglamento respalda el objetivo de promover el enfoque europeo de la IA centrado en el ser humano y de ser un líder mundial en el desarrollo de IA segura, digna de confianza y ética, como indicó el Consejo Europeo (5), y garantiza la protección de los principios éticos, como solicitó específicamente el Parlamento Europeo (6).

(9)

Deben establecerse normas armonizadas aplicables a la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA de alto riesgo en consonancia con el Reglamento (CE) nº 765/2008 del Parlamento Europeo y del Consejo (7), la Decisión nº 768/2008/CE del Parlamento Europeo y del Consejo (8) y el Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo (9) (en lo sucesivo, «nuevo marco legislativo»). Las normas armonizadas que se establecen en el presente Reglamento deben aplicarse en todos los sectores y, en consonancia con el nuevo marco legislativo, deben entenderse sin perjuicio del Derecho vigente de la Unión, en particular en materia de protección de datos, protección de los consumidores, derechos fundamentales, empleo, protección de los trabajadores y seguridad de los productos, al que complementa el presente Reglamento. En consecuencia, permanecen inalterados y siguen siendo plenamente aplicables todos los derechos y vías de recurso que el citado Derecho de la Unión otorga a los consumidores y demás personas que puedan verse afectados negativamente por los sistemas de IA, también en lo que respecta a la reparación de los posibles daños de conformidad con la Directiva 85/374/CEE del Consejo (10). Además, en el contexto del empleo y la protección de los trabajadores, el presente Reglamento no debe afectar, por tanto, al Derecho de la Unión en materia de política social ni al Derecho laboral nacional —de conformidad con el Derecho de la Unión— relativa a las condiciones de empleo y de trabajo, incluidas la salud y seguridad en el trabajo y la relación entre empleadores y trabajadores. El presente Reglamento tampoco debe afectar en modo alguno al ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a escala de la Unión, incluidos el derecho o la libertad de huelga o de emprender otras acciones contempladas en los sistemas de relaciones laborales específicos de los Estados miembros y el derecho a negociar, concluir y hacer cumplir convenios colectivos o a llevar a cabo acciones colectivas conforme al Derecho nacional. El presente Reglamento no debe afectar a las disposiciones destinadas a mejorar las condiciones laborales en el trabajo en plataformas digitales establecidas en una Directiva del Parlamento Europeo y del Consejo relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales. Además, el presente Reglamento tiene por objeto reforzar la eficacia de tales derechos y vías de recurso vigentes mediante el establecimiento de requisitos y obligaciones específicos, también en lo que respecta a la transparencia, la documentación técnica y la conservación de registros de los sistemas de IA. Asimismo, las obligaciones impuestas a los distintos operadores que participan en la cadena de valor de la IA en virtud del presente Reglamento deben aplicarse sin perjuicio del Derecho nacional que, de conformidad con el Derecho de la Unión, tenga por efecto limitar el uso de determinados sistemas de IA cuando dicho Derecho quede fuera del ámbito de aplicación del presente Reglamento o persiga objetivos legítimos de interés público distintos de los perseguidos por el presente Reglamento. Así, por ejemplo, el presente Reglamento no debe afectar al Derecho laboral nacional ni al Derecho en materia de protección de menores, a saber, de personas de menos de dieciocho años, que tienen en cuenta la Observación general nº 25 (2021) de la Convención sobre los Derechos del Niño de las Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital, en la medida en que no son específicas a los sistemas de IA y persiguen otros objetivos legítimos de interés público.

(10)

El derecho fundamental a la protección de los datos personales está garantizado, en particular, por los Reglamentos (UE) 2016/679 (11) y (UE) 2018/1725 (12) del Parlamento Europeo y del Consejo y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo (13). Además, la Directiva 2002/58/CE del Parlamento Europeo y del Consejo (14) protege la vida privada y la confidencialidad de las comunicaciones, también estableciendo condiciones para cualquier almacenamiento de datos personales y no personales en los equipos terminales, y el acceso desde estos. Dichos actos legislativos de la Unión constituyen la base para un tratamiento de datos sostenible y responsable, también cuando los conjuntos de datos contengan una combinación de datos personales y no personales. El presente Reglamento no pretende afectar a la aplicación del Derecho de la Unión vigente que regula el tratamiento de datos personales, incluidas las funciones y competencias de las autoridades de supervisión independientes competentes para vigilar el cumplimiento de dichos instrumentos. Tampoco afecta a las obligaciones de los proveedores y los responsables del despliegue de sistemas de IA en su papel de responsables o encargados del tratamiento de datos derivadas del Derecho de la Unión o nacional en materia de protección de datos personales en la medida en que el diseño, el desarrollo o el uso de sistemas de IA impliquen el tratamiento de datos personales. También conviene aclarar que los interesados siguen disfrutando de todos los derechos y garantías que les confiere dicho Derecho de la Unión, incluidos los derechos relacionados con las decisiones individuales totalmente automatizadas, como la elaboración de perfiles. Unas normas armonizadas para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA establecidas en virtud del presente Reglamento deben facilitar la aplicación efectiva y permitir el ejercicio de los derechos y otras vías de recurso de los interesados garantizados por el Derecho de la Unión en materia de protección de datos personales, así como de otros derechos fundamentales.

(11)

El presente Reglamento debe interpretarse sin perjuicio de las disposiciones del Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo (15) relativas a la responsabilidad de los prestadores de servicios intermediarios.

(12)

Debe definirse con claridad el concepto de «sistema de IA» en el presente Reglamento y armonizarlo estrechamente con los trabajos de las organizaciones internacionales que se ocupan de la IA, a fin de garantizar la seguridad jurídica y facilitar la convergencia a escala internacional y una amplia aceptación, al mismo tiempo que se prevé la flexibilidad necesaria para dar cabida a los rápidos avances tecnológicos en este ámbito. Además, la definición debe basarse en las principales características de los sistemas de IA que los distinguen de los sistemas de software o los planteamientos de programación tradicionales y más sencillos, y no debe incluir los sistemas basados en las normas definidas únicamente por personas físicas para ejecutar automáticamente operaciones. Una característica principal de los sistemas de IA es su capacidad de inferencia. Esta capacidad de inferencia se refiere al proceso de obtención de resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos y virtuales, y a la capacidad de los sistemas de IA para deducir modelos o algoritmos, o ambos, a partir de información de entrada o datos. Las técnicas que permiten la inferencia al construir un sistema de IA incluyen estrategias de aprendizaje automático que aprenden de los datos cómo alcanzar determinados objetivos y estrategias basadas en la lógica y el conocimiento que infieren a partir de conocimientos codificados o de una representación simbólica de la tarea que debe resolverse. La capacidad de inferencia de un sistema de IA trasciende el tratamiento básico de datos, al permitir el aprendizaje, el razonamiento o la modelización. El término «basado en una máquina» se refiere al hecho de que los sistemas de IA se ejecutan en máquinas.La referencia a objetivos explícitos o implícitos subraya que los sistemas de IA pueden funcionar con arreglo a objetivos definidos explícitos o a objetivos implícitos. Los objetivos del sistema de IA pueden ser diferentes de la finalidad prevista del sistema de IA en un contexto específico. A los efectos del presente Reglamento, debe entenderse por entornos los contextos en los que funcionan los sistemas de IA, mientras que los resultados de salida generados por el sistema de IA reflejan las distintas funciones desempeñadas por los sistemas de IA e incluyen predicciones, contenidos, recomendaciones o decisiones. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía, lo que significa que pueden actuar con cierto grado de independencia con respecto a la actuación humana y tienen ciertas capacidades para funcionar sin intervención humana. La capacidad de adaptación que un sistema de IA podría mostrar tras su despliegue se refiere a las capacidades de autoaprendizaje que permiten al sistema cambiar mientras está en uso. Los sistemas de IA pueden utilizarse de manera independiente o como componentes de un producto, con independencia de si el sistema forma parte físicamente del producto (integrado) o contribuye a la funcionalidad del producto sin formar parte de él (no integrado).

(13)

El concepto de «responsable del despliegue» a que hace referencia el presente Reglamento debe interpretarse como cualquier persona física o jurídica, incluida cualquier autoridad pública, órgano u organismo, que utilice un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional. Dependiendo del tipo de sistema de IA, el uso del sistema puede afectar a personas distintas del responsable del despliegue.

(14)

El concepto de «datos biométricos» empleado en el presente Reglamento debe interpretarse a la luz del concepto de «datos biométricos» tal como se define en el artículo 4, punto 14, del Reglamento (UE) 2016/679, en el artículo 3, punto 18, del Reglamento (UE) 2018/1725, y en el artículo 3, punto 13, de la Directiva (UE) 2016/680. Los datos biométricos pueden permitir la autenticación, la identificación o la categorización de las personas físicas y el reconocimiento de las emociones de las personas físicas.

(15)

El concepto de «identificación biométrica» a que hace referencia el presente Reglamento debe definirse como el reconocimiento automatizado de características humanas de tipo físico, fisiológico o conductual, como la cara, el movimiento ocular, la forma del cuerpo, la voz, la entonación, el modo de andar, la postura, la frecuencia cardíaca, la presión arterial, el olor o las características de las pulsaciones de tecla, a fin de determinar la identidad de una persona comparando sus datos biométricos con los datos biométricos de personas almacenados en una base de datos de referencia, independientemente de que la persona haya dado o no su consentimiento. Quedan excluidos los sistemas de IA destinados a la verificación biométrica, que comprende la autenticación, cuyo único propósito es confirmar que una persona física concreta es la persona que dice ser, así como la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga acceso de seguridad a un local.

(16)

El concepto de «categorización biométrica» a que hace referencia el presente Reglamento debe definirse como la inclusión de personas físicas en categorías específicas en función de sus datos biométricos. Estas categorías específicas pueden referirse a aspectos como el sexo, la edad, el color del pelo, el color de los ojos, los tatuajes, los rasgos conductuales o de la personalidad, la lengua, la religión, la pertenencia a una minoría nacional o la orientación sexual o política. No se incluyen los sistemas de categorización biométrica que sean una característica meramente accesoria intrínsecamente vinculada a otro servicio comercial, lo que significa que la característica no puede utilizarse, por razones técnicas objetivas, sin el servicio principal y que la integración de dicha característica o funcionalidad no es un medio para eludir la aplicabilidad de las normas del presente Reglamento. Por ejemplo, los filtros que clasifican las características faciales o corporales utilizados en los mercados en línea podrían constituir una característica accesoria de este tipo, ya que solo pueden utilizarse en relación con el servicio principal, que consiste en vender un producto permitiendo al consumidor previsualizar cómo le quedaría y ayudarlo a tomar una decisión de compra. Los filtros utilizados en los servicios de redes sociales que clasifican las características faciales o corporales a fin de que los usuarios puedan añadir o modificar imágenes o vídeos también podrían considerarse una característica accesoria, ya que dichos filtros no pueden utilizarse sin el servicio principal de las redes sociales, que consiste en compartir contenidos en línea.

(17)

El concepto de «sistema de identificación biométrica remota» a que hace referencia el presente Reglamento debe definirse de manera funcional como un sistema de IA destinado a identificar a personas físicas sin su participación activa, generalmente a distancia, comparando sus datos biométricos con los que figuren en una base de datos de referencia, con independencia de la tecnología, los procesos o los tipos de datos biométricos concretos que se usen. Estos sistemas de identificación biométrica remota suelen utilizarse para detectar a varias personas o su comportamiento de forma simultánea, a fin de simplificar considerablemente la identificación de personas sin su participación activa. Quedan excluidos los sistemas de IA destinados a la verificación biométrica, que comprende la autenticación, cuyo único propósito es confirmar que una persona física concreta es la persona que dice ser, así como la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga acceso de seguridad a un local. Esa exclusión se justifica por el hecho de que tales sistemas probablemente tengan una repercusión menor en los derechos fundamentales de las personas físicas que los sistemas de identificación biométrica remota que puedan utilizarse para el tratamiento de los datos biométricos de un gran número de personas sin su participación activa. En el caso de los sistemas «en tiempo real», la recogida de los datos biométricos, la comparación y la identificación se producen de manera instantánea, casi instantánea o, en cualquier caso, sin una importante demora. En este sentido, no debe existir la posibilidad de eludir las normas contempladas en el presente Reglamento en relación con el uso «en tiempo real» de los sistemas de IA de que se trate generando demoras mínimas. Los sistemas «en tiempo real» implican el uso de materiales «en directo» o «casi en directo», como grabaciones de vídeo, generados por una cámara u otro dispositivo con funciones similares. En cambio, en los sistemas «en diferido» ya se han recabado los datos biométricos y la comparación e identificación se producen con una importante demora. A tal fin se utilizan materiales, como imágenes o grabaciones de vídeo captadas por cámaras de televisión en circuito cerrado o dispositivos privados, generados con anterioridad a la utilización del sistema en relación con las personas físicas afectadas.

(18)

El concepto de «sistema de reconocimiento de emociones» a que hace referencia el presente Reglamento debe definirse como un sistema de IA destinado a distinguir o deducir las emociones o las intenciones de las personas físicas a partir de sus datos biométricos. El concepto se refiere a emociones o intenciones como la felicidad, la tristeza, la indignación, la sorpresa, el asco, el apuro, el entusiasmo, la vergüenza, el desprecio, la satisfacción y la diversión. No incluye los estados físicos, como el dolor o el cansancio, como, por ejemplo, los sistemas utilizados para detectar el cansancio de los pilotos o conductores profesionales con el fin de evitar accidentes. Tampoco incluye la mera detección de expresiones, gestos o movimientos que resulten obvios, salvo que se utilicen para distinguir o deducir emociones. Esas expresiones pueden ser expresiones faciales básicas, como un ceño fruncido o una sonrisa; gestos como el movimiento de las manos, los brazos o la cabeza, o características de la voz de una persona, como una voz alzada o un susurro.

(19)

A los efectos del presente Reglamento, debe entenderse que el concepto de «espacio de acceso público» se refiere a cualquier espacio físico al que pueda acceder un número indeterminado de personas físicas y con independencia de si es de propiedad privada o pública y de la actividad para la que pueda utilizarse el espacio, ya sean actividades comerciales, por ejemplo, tiendas, restaurantes, cafeterías; de prestación de servicios, por ejemplo, bancos, actividades profesionales, hostelería; deportivas, por ejemplo, piscinas, gimnasios, estadios; de transporte, por ejemplo, estaciones de autobús, metro y ferrocarril, aeropuertos, medios de transporte; de entretenimiento, por ejemplo, cines, teatros, museos, salas de conciertos, salas de conferencias; de ocio o de otro tipo, por ejemplo, vías y plazas públicas, parques, bosques, parques infantiles. Asimismo, debe considerarse que un espacio es de acceso público si, con independencia de posibles restricciones de capacidad o de seguridad, el acceso está sujeto a determinadas condiciones previamente definidas que puede satisfacer un número indeterminado de personas, como la adquisición de una entrada o un título de transporte, el registro previo o tener una determinada edad. Por el contrario, un espacio no debe considerarse de acceso público si únicamente pueden acceder a él determinadas personas físicas definidas, ya sea en virtud del Derecho de la Unión o del Derecho nacional directamente relacionado con la seguridad pública o en virtud de una clara manifestación de voluntad de la persona que ejerza la autoridad pertinente sobre dicho espacio. La posibilidad real de acceso, como una puerta no cerrada con llave o una verja abierta, no implica por sí sola que el espacio sea de acceso público si hay indicios o circunstancias que sugieran lo contrario, como señales que prohíban o restrinjan el acceso. Los locales de empresas y fábricas, así como las oficinas y lugares de trabajo a los que solo se pretende que accedan los empleados y proveedores de servicios pertinentes, no son espacios de acceso público. No deben incluirse en los espacios de acceso público las prisiones ni las zonas en que se realizan inspecciones fronterizas. Algunos espacios pueden incluir tanto zonas de acceso público como zonas que no son de acceso público, como los aeropuertos o el vestíbulo de un edificio residencial privado por el que se accede a una consulta médica. Los espacios en línea no son lugares de acceso público, ya que no son espacios físicos. No obstante, se debe determinar caso por caso si un espacio es de acceso público o no teniendo en cuenta las particularidades de la situación concreta.

(20)

Con el fin de obtener los mayores beneficios de los sistemas de IA, protegiendo al mismo tiempo los derechos fundamentales, la salud y la seguridad, y de posibilitar el control democrático, la alfabetización en materia de IA debe dotar a los proveedores, responsables del despliegue y personas afectadas de los conceptos necesarios para tomar decisiones con conocimiento de causa en relación con los sistemas de IA. Esos conceptos pueden variar en función del contexto pertinente e incluir el entendimiento de la correcta aplicación de los elementos técnicos durante la fase de desarrollo del sistema de IA, las medidas que deben aplicarse durante su uso, las formas adecuadas de interpretar los resultados de salida del sistema de IA y, en el caso de las personas afectadas, los conocimientos necesarios para comprender el modo en que las decisiones adoptadas con la ayuda de la IA tendrán repercusiones para ellas. En el contexto de la aplicación del presente Reglamento, la alfabetización en materia de IA debe proporcionar a todos los agentes pertinentes de la cadena de valor de la IA los conocimientos necesarios para garantizar el cumplimiento adecuado y la correcta ejecución. Además, la puesta en práctica general de medidas de alfabetización en materia de IA y la introducción de acciones de seguimiento adecuadas podrían contribuir a mejorar las condiciones de trabajo y, en última instancia, sostener la consolidación y la senda de innovación de una IA fiable en la Unión. El Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA») debe apoyar a la Comisión para promover las herramientas de alfabetización en materia de IA, la sensibilización pública y la comprensión de los beneficios, los riesgos, las salvaguardias, los derechos y las obligaciones en relación con el uso de sistemas de IA. En cooperación con las partes interesadas pertinentes, la Comisión y los Estados miembros deben facilitar la elaboración de códigos de conducta voluntarios para promover la alfabetización en materia de IA entre las personas que se ocupan del desarrollo, el manejo y el uso de la IA.

(21)

Con el objetivo de garantizar la igualdad de condiciones y la protección efectiva de los derechos y libertades de las personas en toda la Unión, las normas establecidas en el presente Reglamento deben aplicarse a los proveedores de sistemas de IA sin discriminación, con independencia de si están establecidos en la Unión o en un tercer país, y a los responsables del despliegue de sistemas de IA establecidos en la Unión.

(22)

Debido a su carácter digital, algunos sistemas de IA deben entrar en el ámbito de aplicación del presente Reglamento aunque no se introduzcan en el mercado, se pongan en servicio ni se utilicen en la Unión. Esto sucede, por ejemplo, cuando un operador establecido en la Unión firma con un operador establecido en un tercer país un contrato para la prestación de determinados servicios en relación con una actividad que llevará a cabo un sistema de IA que se consideraría de alto riesgo. En dichas circunstancias, el sistema de IA usado en un tercer país por el operador podría tratar datos recabados lícitamente en la Unión y transferidos desde su territorio, y proporcionar al operador contratante ubicado en la Unión los resultados de salida generados por dicho sistema de IA a raíz de este tratamiento sin que el sistema de IA de que se trate se introduzca en el mercado, se ponga en servicio o se utilice en la Unión. Para evitar la elusión de este Reglamento y garantizar la protección efectiva de las personas físicas ubicadas en la Unión, el presente Reglamento también debe aplicarse a los proveedores y responsables del despliegue de sistemas de IA establecidos en un tercer país, en la medida en que los resultados de salida generados por dichos sistemas estén destinados a utilizarse en la Unión. No obstante, con el objetivo de tener en cuenta los acuerdos existentes y las necesidades especiales de cooperación futura con socios extranjeros con los que se intercambian información y pruebas, el presente Reglamento no debe aplicarse a las autoridades públicas de un tercer país ni a organizaciones internacionales cuando actúen en el marco de acuerdos internacionales o de cooperación celebrados a escala nacional o de la Unión con fines de cooperación policial y judicial con la Unión o sus Estados miembros si el tercer país o la organización internacional correspondiente ofrece garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas. Cuando proceda, ello podrá incluir las actividades de entidades a las que los terceros países hayan encomendado tareas específicas en apoyo de dicha cooperación policial y judicial. Dichos marcos de cooperación o acuerdos se han establecido bilateralmente entre los Estados miembros y terceros países o entre la Unión Europea, Europol y otros órganos de la Unión y terceros países y organizaciones internacionales. Las autoridades competentes para la supervisión de las autoridades policiales y judiciales en virtud del presente Reglamento deben evaluar si dichos marcos de cooperación o acuerdos internacionales incluyen garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas. Las autoridades nacionales y las instituciones, órganos y organismos de la Unión que sean destinatarios de dichos resultados de salida y que la utilicen en la Unión siguen siendo responsables de garantizar que su utilización de la información está en consonancia con el Derecho de la Unión. Cuando, en el futuro, dichos acuerdos internacionales se revisen o se celebren otros nuevos, las partes contratantes deben hacer todo lo posible por que dichos acuerdos se ajusten a los requisitos del presente Reglamento.

(23)

El presente Reglamento también debe aplicarse a las instituciones, órganos y organismos de la Unión cuando actúen como proveedores o responsables del despliegue de un sistema de IA.

(24)

En caso de que, y en la medida en que, los sistemas de IA se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificación, con fines militares, de defensa o de seguridad nacional, deben excluirse del ámbito de aplicación del presente Reglamento, independientemente del tipo de entidad que lleve a cabo esas actividades, por ejemplo, con independencia de que se trate de una entidad pública o de una entidad privada. Por lo que respecta a los fines militares y de defensa, dicha exclusión está justificada tanto por el artículo 4, apartado 2, del TUE como por las especificidades de la política de defensa de los Estados miembros y de la política común de defensa de la Unión a que se refiere el título V, capítulo 2, del TUE, que están sujetas al Derecho internacional público que, por lo tanto, es el marco jurídico más adecuado para la regulación de los sistemas de IA en el contexto del uso de la fuerza letal y de otros sistemas de IA en el contexto de las actividades militares y de defensa. Por lo que respecta a los fines de seguridad nacional, la exclusión está justificada tanto por el hecho de que la seguridad nacional sigue siendo responsabilidad exclusiva de los Estados miembros de conformidad con el artículo 4, apartado 2, del TUE, como por la naturaleza específica y las necesidades operativas de las actividades de seguridad nacional y por las normas nacionales específicas aplicables a dichas actividades. No obstante, si un sistema de IA desarrollado, introducido en el mercado, puesto en servicio o utilizado con fines militares, de defensa o de seguridad nacional se utilizara temporal o permanentemente fuera de estos ámbitos con otros fines (por ejemplo, con fines civiles o humanitarios, de garantía del cumplimiento del Derecho o de seguridad pública), dicho sistema entraría en el ámbito de aplicación del presente Reglamento. En tal caso, la entidad que utilice el sistema de IA con fines que no sean militares, de defensa o de seguridad nacional debe garantizar que el sistema de IA cumple lo dispuesto en el presente Reglamento, a menos que el sistema ya lo haga. Los sistemas de IA introducidos en el mercado o puestos en servicio para un fin excluido, a saber, militar, de defensa o de seguridad nacional, y uno o varios fines no excluidos, como fines civiles o de garantía del cumplimiento del Derecho, entran en el ámbito de aplicación del presente Reglamento y los proveedores de dichos sistemas deben garantizar el cumplimiento del presente Reglamento. En esos casos, el hecho de que un sistema de IA pueda entrar en el ámbito de aplicación del presente Reglamento no debe afectar a la posibilidad de que las entidades que llevan a cabo actividades militares, de defensa y de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades, utilicen sistemas de IA con fines de seguridad nacional, militares y de defensa, cuyo uso está excluido del ámbito de aplicación del presente Reglamento. Un sistema de IA introducido en el mercado con fines civiles o de garantía del cumplimiento del Derecho que se utilice, con o sin modificaciones, con fines militares, de defensa o de seguridad nacional no debe entrar en el ámbito de aplicación del presente Reglamento, independientemente del tipo de entidad que lleve a cabo esas actividades.

(25)

El presente Reglamento debe apoyar la innovación, respetar la libertad de ciencia y no socavar la actividad de investigación y desarrollo. Por consiguiente, es necesario excluir de su ámbito de aplicación los sistemas y modelos de IA desarrollados específicamente y puestos en servicio únicamente con fines de investigación y desarrollo científicos. Además, es necesario garantizar que el presente Reglamento no afecte de otro modo a la actividad de investigación y desarrollo científicos sobre sistemas o modelos de IA antes de su introducción en el mercado o su puesta en servicio. Por lo que se refiere a la actividad de investigación, prueba y desarrollo orientada a productos en relación con sistemas o modelos de IA, las disposiciones del presente Reglamento tampoco deben aplicarse antes de que dichos sistemas y modelos se pongan en servicio o se introduzcan en el mercado. Esa exclusión se entiende sin perjuicio de la obligación de cumplir el presente Reglamento cuando se introduzca en el mercado o se ponga en servicio como resultado de dicha actividad de investigación y desarrollo un sistema de IA que entre en el ámbito de aplicación del presente Reglamento, así como de la aplicación de disposiciones sobre espacios controlados de pruebas para la IA y pruebas en condiciones reales. Además, sin perjuicio de la exclusión de los sistemas de IA desarrollados específicamente y puestos en servicio únicamente con fines de investigación y desarrollo científicos, cualquier otro sistema de IA que pueda utilizarse para llevar a cabo cualquier actividad de investigación y desarrollo debe seguir estando sujeto a las disposiciones del presente Reglamento. En cualquier caso, toda actividad de investigación y desarrollo debe llevarse a cabo de conformidad con normas éticas y profesionales reconocidas para la investigación científica y con el Derecho aplicable de la Unión.

(26)

Con el fin de establecer un conjunto proporcionado y eficaz de normas vinculantes para los sistemas de IA, es preciso aplicar un enfoque basado en los riesgos claramente definido, que adapte el tipo y contenido de las normas a la intensidad y el alcance de los riesgos que puedan generar los sistemas de IA de que se trate. Por consiguiente, es necesario prohibir determinadas prácticas de IA que no son aceptables, definir los requisitos que deben cumplir los sistemas de IA de alto riesgo y las obligaciones aplicables a los operadores pertinentes, así como imponer obligaciones de transparencia a determinados sistemas de IA.

(27)

Si bien el enfoque basado en el riesgo es la base de un conjunto proporcionado y eficaz de normas vinculantes, es importante recordar las Directrices éticas para una IA fiable, de 2019, elaboradas por el Grupo independiente de expertos de alto nivel sobre IA creado por la Comisión. En dichas directrices, el Grupo independiente de expertos de alto nivel sobre IA desarrolló siete principios éticos no vinculantes para la IA que tienen por objeto contribuir a garantizar la fiabilidad y el fundamento ético de la IA. Los siete principios son: acción y supervisión humanas; solidez técnica y seguridad; gestión de la privacidad y de los datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental, y rendición de cuentas. Sin perjuicio de los requisitos jurídicamente vinculantes del presente Reglamento y de cualquier otro acto aplicable del Derecho de la Unión, esas directrices contribuyen al diseño de una IA coherente, fiable y centrada en el ser humano, en consonancia con la Carta y con los valores en los que se fundamenta la Unión. De acuerdo con las directrices del Grupo independiente de expertos de alto nivel sobre IA, por «acción y supervisión humanas» se entiende que los sistemas de IA se desarrollan y utilizan como herramienta al servicio de las personas, que respeta la dignidad humana y la autonomía personal, y que funciona de manera que pueda ser controlada y vigilada adecuadamente por seres humanos. Por «solidez técnica y seguridad» se entiende que los sistemas de IA se desarrollan y utilizan de manera que sean sólidos en caso de problemas y resilientes frente a los intentos de alterar el uso o el funcionamiento del sistema de IA para permitir su uso ilícito por terceros y reducir al mínimo los daños no deseados. Por «gestión de la privacidad y de los datos» se entiende que los sistemas de IA se desarrollan y utilizan de conformidad con normas en materia de protección de la intimidad y de los datos, al tiempo que tratan datos que cumplen normas estrictas en términos de calidad e integridad. Por «transparencia» se entiende que los sistemas de IA se desarrollan y utilizan de un modo que permita una trazabilidad y explicabilidad adecuadas, y que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos. Por «diversidad, no discriminación y equidad» se entiende que los sistemas de IA se desarrollan y utilizan de un modo que incluya a diversos agentes y promueve la igualdad de acceso, la igualdad de género y la diversidad cultural, al tiempo que se evitan los efectos discriminatorios y los sesgos injustos prohibidos por el Derecho nacional o de la Unión. Por «bienestar social y ambiental» se entiende que los sistemas de IA se desarrollan y utilizan de manera sostenible y respetuosa con el medio ambiente, así como en beneficio de todos los seres humanos, al tiempo que se supervisan y evalúan los efectos a largo plazo en las personas, la sociedad y la democracia. La aplicación de esos principios debe traducirse, cuando sea posible, en el diseño y el uso de modelos de IA. En cualquier caso, deben servir de base para la elaboración de códigos de conducta en virtud del presente Reglamento. Se anima a todas las partes interesadas, incluidos la industria, el mundo académico, la sociedad civil y las organizaciones de normalización, a que tengan en cuenta, según proceda, los principios éticos para el desarrollo de normas y mejores prácticas voluntarias.

(28)

Al margen de los múltiples usos beneficiosos de la IA, esta también puede utilizarse indebidamente y proporcionar nuevas y poderosas herramientas para llevar a cabo prácticas de manipulación, explotación y control social. Dichas prácticas son sumamente perjudiciales e incorrectas y deben estar prohibidas, pues van en contra de los valores de la Unión de respeto de la dignidad humana, la libertad, la igualdad, la democracia y el Estado de Derecho y de los derechos fundamentales consagrados en la Carta, como el derecho a la no discriminación, a la protección de datos y a la intimidad y los derechos del niño.

(29)

Las técnicas de manipulación que posibilita la IA pueden utilizarse para persuadir a las personas de que adopten comportamientos no deseados o para engañarlas empujándolas a tomar decisiones de una manera que socava y perjudica su autonomía, su toma de decisiones y su capacidad de elegir libremente. Son especialmente peligrosos y, por tanto, deben prohibirse la introducción en el mercado, la puesta en servicio o la utilización de determinados sistemas de IA con el objetivo o al efecto de alterar de manera sustancial el comportamiento humano, con la consiguiente probabilidad de que se produzcan perjuicios considerables, en particular perjuicios con efectos adversos suficientemente importantes en la salud física o mental o en los intereses financieros. Esos sistemas de IA utilizan componentes subliminales, como estímulos de audio, imagen o vídeo que las personas no pueden percibir —ya que dichos estímulos trascienden la percepción humana—, u otras técnicas manipulativas o engañosas que socavan o perjudican la autonomía, la toma de decisiones o la capacidad de elegir libremente de las personas de maneras de las que estas no son realmente conscientes de dichas técnicas o, cuando lo son, pueden seguir siendo engañadas o no pueden controlarlas u oponerles resistencia. Esto podría facilitarse, por ejemplo, mediante interfaces cerebro-máquina o realidad virtual, dado que permiten un mayor grado de control acerca de qué estímulos se presentan a las personas, en la medida en que pueden alterar sustancialmente su comportamiento de un modo que suponga un perjuicio considerable. Además, los sistemas de IA también pueden explotar de otras maneras las vulnerabilidades de una persona o un colectivo específico de personas derivadas de su edad, su discapacidad en el sentido de lo dispuesto en la Directiva (UE) 2019/882 del Parlamento Europeo y del Consejo (16) o de una situación social o económica concreta que probablemente aumente su vulnerabilidad a la explotación, como vivir en condiciones de pobreza extrema o pertenecer a minorías étnicas o religiosas. Estos sistemas de IA pueden introducirse en el mercado, ponerse en servicio o utilizarse con el objetivo de alterar de manera sustancial el comportamiento de una persona, o tener ese efecto, y de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra persona o colectivo de personas, incluidos perjuicios que pueden acumularse a lo largo del tiempo y que, por tanto, deben prohibirse. No puede presuponerse que existe la intención de alterar el comportamiento si la alteración es el resultado de factores externos al sistema de IA que escapan al control del proveedor o del responsable del despliegue, a saber, factores que no es lógico prever y que, por tanto, el proveedor o el responsable del despliegue del sistema de IA no pueden mitigar. En cualquier caso, no es necesario que el proveedor o el responsable del despliegue tengan la intención de causar un perjuicio considerable, siempre que dicho perjuicio se derive de las prácticas de manipulación o explotación que posibilita la IA. La prohibición de tales prácticas de IA complementa lo dispuesto en la Directiva 2005/29/CE del Parlamento Europeo y del Consejo (17), en particular la prohibición, en cualquier circunstancia, de las prácticas comerciales desleales que causan perjuicios económicos o financieros a los consumidores, hayan sido establecidas mediante de sistemas de IA o de otra manera. La prohibición de las prácticas de manipulación y explotación establecida en el presente Reglamento no debe afectar a prácticas lícitas en el contexto de un tratamiento médico, como el tratamiento psicológico de una enfermedad mental o la rehabilitación física, cuando dichas prácticas se lleven a cabo de conformidad con el Derecho y las normas médicas aplicables, por ejemplo, con el consentimiento expreso de las personas o de sus representantes legales. Asimismo, no debe considerarse que las prácticas comerciales comunes y legítimas (por ejemplo, en el campo de la publicidad) que cumplan el Derecho aplicable son, en sí mismas, prácticas de manipulación perjudiciales que posibilita la IA.

(30)

Deben prohibirse los sistemas de categorización biométrica basados en datos biométricos de las personas físicas, como la cara o las impresiones dactilares de una persona física, para deducir o inferir las opiniones políticas, la afiliación sindical, las convicciones religiosas o filosóficas, la raza, la vida sexual o la orientación sexual de una persona física. Dicha prohibición no debe aplicarse al etiquetado, al filtrado ni a la categorización lícitos de conjuntos de datos biométricos adquiridos de conformidad con el Derecho nacional o de la Unión en función de datos biométricos, como la clasificación de imágenes en función del color del pelo o del color de ojos, que pueden utilizarse, por ejemplo, en el ámbito de la garantía del cumplimiento del Derecho.

(31)

Los sistemas de IA que permiten a agentes públicos o privados llevar a cabo una puntuación ciudadana de las personas físicas pueden tener resultados discriminatorios y abocar a la exclusión a determinados colectivos. Pueden menoscabar el derecho a la dignidad y a la no discriminación y los valores de igualdad y justicia. Dichos sistemas de IA evalúan o clasifican a las personas físicas o a grupos de estas sobre la base de varios puntos de datos relacionados con su comportamiento social en múltiples contextos o de características personales o de su personalidad conocidas, inferidas o predichas durante determinados períodos de tiempo. La puntuación ciudadana resultante de dichos sistemas de IA puede dar lugar a un trato perjudicial o desfavorable de determinadas personas físicas o colectivos enteros en contextos sociales que no guardan relación con el contexto donde se generaron o recabaron los datos originalmente, o a un trato perjudicial desproporcionado o injustificado en relación con la gravedad de su comportamiento social. Por lo tanto, deben prohibirse los sistemas de IA que impliquen esas prácticas inaceptables de puntuación y den lugar a esos resultados perjudiciales o desfavorables. Esa prohibición no debe afectar a prácticas lícitas de evaluación de las personas físicas que se efectúen para un fin específico de conformidad con el Derecho de la Unión y nacional.

(32)

El uso de sistemas de IA para la identificación biométrica remota «en tiempo real» de personas físicas en espacios de acceso público con fines de garantía del cumplimiento del Derecho invade de forma especialmente grave los derechos y las libertades de las personas afectadas, en la medida en que puede afectar a la vida privada de una gran parte de la población, provocar la sensación de estar bajo una vigilancia constante y disuadir indirectamente a los ciudadanos de ejercer su libertad de reunión y otros derechos fundamentales. Las imprecisiones técnicas de los sistemas de IA destinados a la identificación biométrica remota de las personas físicas pueden dar lugar a resultados sesgados y tener efectos discriminatorios. Tales posibles resultados sesgados y efectos discriminatorios son especialmente pertinentes por lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad. Además, la inmediatez de las consecuencias y las escasas oportunidades para realizar comprobaciones o correcciones adicionales en relación con el uso de sistemas que operan «en tiempo real» acrecientan el riesgo que estos conllevan para los derechos y las libertades de las personas afectadas en el contexto de actividades de garantía del cumplimiento del Derecho, o afectadas por estas.

(33)

En consecuencia, debe prohibirse el uso de dichos sistemas con fines de garantía del cumplimiento del Derecho, salvo en situaciones enumeradas de manera limitativa y definidas con precisión en las que su utilización sea estrictamente necesaria para lograr un interés público esencial cuya importancia compense los riesgos. Esas situaciones son la búsqueda de determinadas víctimas de un delito, incluidas personas desaparecidas; determinadas amenazas para la vida o para la seguridad física de las personas físicas o amenazas de atentado terrorista; y la localización o identificación de los autores o sospechosos de los delitos enumerados en un anexo del presente Reglamento, cuando dichas infracciones se castiguen en el Estado miembro de que se trate con una pena o una medida de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro años, y como se definan en el Derecho de dicho Estado miembro. Fijar ese umbral para la pena o la medida de seguridad privativas de libertad con arreglo al Derecho nacional contribuye a garantizar que la infracción sea lo suficientemente grave como para llegar a justificar el uso de sistemas de identificación biométrica remota «en tiempo real». Por otro lado, la lista de delitos proporcionada en un anexo del presente Reglamento se basa en los treinta y dos delitos enumerados en la Decisión Marco 2002/584/JAI del Consejo (18), si bien es preciso tener en cuenta que, en la práctica, es probable que algunas sean más relevantes que otras en el sentido de que es previsible que recurrir a la identificación biométrica remota «en tiempo real» podría ser necesario y proporcionado en grados muy distintos para llevar a cabo la localización o la identificación de los autores o sospechosos de las distintas infracciones enumeradas, y que es probable que haya diferencias en la gravedad, la probabilidad y la magnitud de los perjuicios o las posibles consecuencias negativas. Una amenaza inminente para la vida o la seguridad física de las personas físicas también podría derivarse de una perturbación grave de infraestructuras críticas, tal como se definen en el artículo 2, punto 4, de la Directiva (UE) 2022/2557 del Parlamento Europeo y del Consejo (19), cuando la perturbación o destrucción de dichas infraestructuras críticas suponga una amenaza inminente para la vida o la seguridad física de una persona, también al perjudicar gravemente el suministro de productos básicos a la población o el ejercicio de la función esencial del Estado. Además, el presente Reglamento debe preservar la capacidad de las autoridades garantes del cumplimiento del Derecho, de control fronterizo, de la inmigración o del asilo para llevar a cabo controles de identidad en presencia de la persona afectada, de conformidad con las condiciones establecidas en el Derecho de la Unión y en el Derecho nacional para estos controles. En particular, las autoridades garantes del cumplimiento del Derecho, del control fronterizo, de la inmigración o del asilo deben poder utilizar sistemas de información, de conformidad con el Derecho de la Unión o el Derecho nacional, para identificar a las personas que, durante un control de identidad, se nieguen a ser identificadas o no puedan declarar o demostrar su identidad, sin que el presente Reglamento exija que se obtenga una autorización previa. Puede tratarse, por ejemplo, de una persona implicada en un delito que no quiera revelar su identidad a las autoridades garantes del cumplimiento del Derecho, o que no pueda hacerlo debido a un accidente o a una afección médica.

(34)

Para velar por que dichos sistemas se utilicen de manera responsable y proporcionada, también es importante establecer que, en esas situaciones enumeradas de manera limitativa y definidas con precisión, se tengan en cuenta determinados elementos, en particular en lo que se refiere a la naturaleza de la situación que dé lugar a la solicitud, a las consecuencias que su uso puede tener sobre los derechos y las libertades de todas las personas implicadas, y a las garantías y condiciones que acompañen a su uso. Además, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho debe llevarse a cabo únicamente para confirmar la identidad de la persona que constituya el objetivo específico y limitarse a lo estrictamente necesario en lo que se refiere al período de tiempo, así como al ámbito geográfico y personal, teniendo en cuenta, en particular, las pruebas o indicios relativos a las amenazas, las víctimas o los autores. El uso del sistema de identificación biométrica remota en tiempo real en espacios de acceso público solo debe autorizarse si la correspondiente autoridad garante del cumplimiento del Derecho ha llevado a cabo una evaluación de impacto relativa a los derechos fundamentales y, salvo que se disponga otra cosa en el presente Reglamento, si ha registrado el sistema en la base de datos establecida en el presente Reglamento. La base de datos de personas de referencia debe ser adecuada para cada supuesto de uso en cada una de las situaciones antes mencionadas.

(35)

Todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho debe haber sido autorizado de manera expresa y específica por una autoridad judicial o por una autoridad administrativa independiente de un Estado miembro y cuya decisión sea vinculante. En principio, dicha autorización debe obtenerse antes de utilizar el sistema de IA con el fin de identificar a una o varias personas. Deben permitirse excepciones a esa norma en situaciones debidamente justificadas por motivos de urgencia, a saber, en aquellas en las que la necesidad de utilizar los sistemas de que se trate sea tan imperiosa que resulte efectiva y objetivamente imposible obtener una autorización antes de iniciar el uso del sistema de IA. En tales situaciones de urgencia, el uso debe limitarse al mínimo imprescindible y satisfacer las garantías y condiciones oportunas, conforme a lo dispuesto en el Derecho nacional y según corresponda en cada supuesto concreto de uso urgente por parte de la propia autoridad garante del cumplimiento del Derecho. Además, en esas situaciones las autoridades garantes del cumplimiento del Derecho deben solicitar dicha autorización e indicar los motivos por los que no han podido hacerlo antes, sin demora indebida y, como máximo, en un plazo de veinticuatro horas. Si se rechaza dicha autorización, el uso de sistemas de identificación biométrica en tiempo real vinculados a la autorización debe interrumpirse con efecto inmediato y todos los datos relacionados con dicho uso deben desecharse y suprimirse. Entre esos datos se incluyen los datos de entrada directamente adquiridos por un sistema de IA durante el uso de dicho sistema, así como los resultados y la información de salida del uso vinculados a dicha autorización. No debe incluir la información de entrada adquirida legalmente de conformidad con otro acto del Derecho nacional o de la Unión. En cualquier caso, no debe adoptarse ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida del sistema de identificación biométrica remota.

(36)

A fin de desempeñar sus funciones de conformidad con los requisitos establecidos en el presente Reglamento, así como en las normas nacionales, debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos cada uso del sistema de identificación biométrica en tiempo real. Las autoridades de vigilancia del mercado y las autoridades nacionales de protección de datos que hayan recibido una notificación deben presentar a la Comisión un informe anual sobre el uso de sistemas de identificación biométrica en tiempo real.

(37)

Por otro lado, conviene disponer, en el marco exhaustivo que establece este Reglamento, que dicho uso en el territorio de un Estado miembro conforme a lo dispuesto en el presente Reglamento solo debe ser posible cuando el Estado miembro de que se trate haya decidido contemplar expresamente la posibilidad de autorizarlo en las normas detalladas de su Derecho nacional, y en la medida en que lo haya contemplado. En consecuencia, con arreglo al presente Reglamento los Estados miembros siguen teniendo la libertad de no ofrecer esta posibilidad en absoluto o de ofrecerla únicamente en relación con algunos de los objetivos que pueden justificar un uso autorizado conforme al presente Reglamento. Dichas normas nacionales deben notificarse a la Comisión en un plazo de treinta días a partir de su adopción.

(38)

La utilización de sistemas de IA para la identificación biométrica remota en tiempo real de personas físicas en espacios de acceso público con fines de garantía del cumplimiento del Derecho implica, necesariamente, el tratamiento de datos biométricos. Las normas del presente Reglamento que prohíben, con algunas excepciones, ese uso, basadas en el artículo 16 del TFUE, deben aplicarse como lex specialis con respecto a las normas sobre el tratamiento de datos biométricos que figuran en el artículo 10 de la Directiva (UE) 2016/680, con lo que se regula de manera exhaustiva dicho uso y el tratamiento de los correspondientes datos biométricos. Por lo tanto, ese uso y tratamiento deben ser posibles únicamente en la medida en que sean compatibles con el marco establecido por el presente Reglamento, sin que haya margen, fuera de dicho marco, para que las autoridades competentes, cuando actúen con fines de garantía del cumplimiento del Derecho, utilicen tales sistemas y traten dichos datos en los supuestos previstos en el artículo 10 de la Directiva (UE) 2016/680. En ese sentido, el presente Reglamento no tiene por objeto proporcionar la base jurídica para el tratamiento de datos personales en virtud del artículo 8 de la Directiva (UE) 2016/680. Sin embargo, el uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines distintos de la garantía del cumplimiento del Derecho, también por parte de las autoridades competentes, no debe estar sujeto al marco específico establecido por el presente Reglamento en lo que respecta al uso de dichos sistemas con fines de garantía del cumplimiento del Derecho. Por consiguiente, su uso con fines distintos de la garantía del cumplimiento del Derecho no debe estar sujeto al requisito de obtener una autorización previsto en el presente Reglamento ni a las normas de desarrollo aplicables del Derecho nacional que puedan hacer efectiva dicha autorización.

(39)

Todo tratamiento de datos biométricos y de datos personales de otra índole asociado al uso de sistemas de IA para la identificación biométrica, salvo el asociado al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de garantía del cumplimiento del Derecho regulado por el presente Reglamento, debe seguir cumpliendo todos los requisitos derivados del artículo 10 de la Directiva (UE) 2016/680. El artículo 9, apartado 1, del Reglamento (UE) 2016/679 y el artículo 10, apartado 1, del Reglamento (UE) 2018/1725 prohíben el tratamiento de datos biométricos con fines distintos de la garantía del cumplimiento del Derecho, con las excepciones limitadas previstas en dichos artículos. En la aplicación del artículo 9, apartado 1, del Reglamento (UE) 2016/679, el uso de la identificación biométrica remota para fines distintos de la garantía del cumplimiento del Derecho ya ha sido objeto de decisiones de prohibición por parte de las autoridades nacionales de protección de datos.

(40)

De conformidad con el artículo 6 bis del Protocolo nº 21 sobre la Posición del Reino Unido y de Irlanda respecto del Espacio de Libertad, Seguridad y Justicia, anejo al TUE y al TFUE, las normas establecidas en el artículo 5, apartado 1, párrafo primero, letra g), en la medida en que se aplica al uso de sistemas de categorización biométrica para actividades en el ámbito de la cooperación policial y la cooperación judicial en materia penal, el artículo 5, apartado 1, párrafo primero, letra d), en la medida en que se aplica al uso de sistemas de IA comprendidos en el ámbito de aplicación de dicho artículo, el artículo 5, apartado 1, párrafo primero, letra h), y apartados 2 a 6, y el artículo 26, apartado 10, del presente Reglamento, adoptadas basándose en el artículo 16 del TFUE que se refieran al tratamiento de datos de carácter personal por los Estados miembros en el ejercicio de las actividades comprendidas en el ámbito de aplicación de la tercera parte, título V, capítulos 4 o 5, de dicho Tratado solo serán vinculantes para Irlanda en la medida en que sean vinculantes para este Estado normas de la Unión que regulen formas de cooperación judicial en materia penal y de cooperación policial en cuyo marco deban respetarse las disposiciones establecidas basándose en el artículo 16 del TFUE.

(41)

De conformidad con lo dispuesto en los artículos 2 y 2 bis del Protocolo nº 22 sobre la Posición de Dinamarca, anejo al TUE y al TFUE, las normas establecidas en el artículo 5, apartado 1, párrafo primero, letra g), en la medida en que se aplica al uso de sistemas de categorización biométrica para actividades en el ámbito de la cooperación policial y la cooperación judicial en materia penal, el artículo 5, apartado 1, párrafo primero, letra d), en la medida en que se aplican al uso de sistemas de IA comprendidos en el ámbito de aplicación de dicho artículo, el artículo 5, apartado 1, párrafo primero, letra h), y apartados 2 a 6, y el artículo 26, apartado 10, del presente Reglamento, adoptadas sobre la base del artículo 16 del TFUE que se refieran al tratamiento de datos de carácter personal por los Estados miembros en el ejercicio de las actividades comprendidas en el ámbito de aplicación de la tercera parte, título V, capítulos 4 o 5, de dicho Tratado, no vincularán a Dinamarca ni le serán aplicables.

(42)

En consonancia con la presunción de inocencia, las personas físicas de la Unión siempre deben ser juzgadas basándose en su comportamiento real. Las personas físicas nunca deben ser juzgadas a partir de comportamientos predichos por una IA basados únicamente en la elaboración de sus perfiles, en los rasgos o características de su personalidad, como la nacionalidad, el lugar de nacimiento, el lugar de residencia, el número de hijos, el nivel de endeudamiento o el tipo de vehículo, sin una valoración humana y sin que exista una sospecha razonable, basada en hechos objetivos comprobables, de que dicha persona está implicada en una actividad delictiva. Por lo tanto, deben prohibirse las evaluaciones de riesgos realizadas con respecto a personas físicas para evaluar la probabilidad de que cometan un delito o para predecir la comisión de un delito real o potencial basándose únicamente en la elaboración de perfiles de esas personas físicas o la evaluación de los rasgos y características de su personalidad. En cualquier caso, dicha prohibición no se refiere o atañe a los análisis de riesgos que no estén basados en la elaboración de perfiles de personas o en los rasgos y características de la personalidad de las personas, como los sistemas de IA que utilizan los análisis de riesgos para evaluar la probabilidad de fraude financiero por parte de empresas sobre la base de transacciones sospechosas o las herramientas de análisis de riesgo para predecir la probabilidad de localización de estupefacientes y mercancías ilícitas por parte de las autoridades aduaneras, por ejemplo basándose en las rutas de tráfico conocidas.

(43)

La introducción en el mercado, la puesta en servicio para ese fin concreto o la utilización de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales a partir de internet o de imágenes de circuito cerrado de televisión deben estar prohibidas, pues esas prácticas agravan el sentimiento de vigilancia masiva y pueden dar lugar a graves violaciones de los derechos fundamentales, incluido el derecho a la intimidad.

(44)

Existe una gran preocupación respecto a la base científica de los sistemas de IA que procuran detectar o deducir las emociones, especialmente porque la expresión de las emociones varía de forma considerable entre culturas y situaciones, e incluso en una misma persona. Algunas de las deficiencias principales de estos sistemas son la fiabilidad limitada, la falta de especificidad y la limitada posibilidad de generalizar. Por consiguiente, los sistemas de IA que detectan o deducen las emociones o las intenciones de las personas físicas a partir de sus datos biométricos pueden tener resultados discriminatorios y pueden invadir los derechos y las libertades de las personas afectadas. Teniendo en cuenta el desequilibrio de poder en el contexto laboral o educativo, unido al carácter intrusivo de estos sistemas, dichos sistemas podrían dar lugar a un trato perjudicial o desfavorable de determinadas personas físicas o colectivos enteros. Por tanto, debe prohibirse la introducción en el mercado, la puesta en servicio y el uso de sistemas de IA destinados a ser utilizados para detectar el estado emocional de las personas en situaciones relacionadas con el lugar de trabajo y el ámbito educativo. Dicha prohibición no debe aplicarse a los sistemas de IA introducidos en el mercado estrictamente con fines médicos o de seguridad, como los sistemas destinados a un uso terapéutico.

(45)

El presente Reglamento no debe afectar a las prácticas prohibidas por el Derecho de la Unión, incluido el Derecho de la Unión en materia de protección de datos, de no discriminación, de protección de los consumidores y sobre competencia.

(46)

La introducción en el mercado de la Unión, la puesta en servicio o la utilización de sistemas de IA de alto riesgo debe supeditarse al cumplimiento por su parte de determinados requisitos obligatorios, los cuales deben garantizar que los sistemas de IA de alto riesgo disponibles en la Unión o cuyos resultados de salida se utilicen en la Unión no planteen riesgos inaceptables para intereses públicos importantes de la Unión, reconocidos y protegidos por el Derecho de la Unión. Sobre la base del nuevo marco legislativo, tal como se aclara en la Comunicación de la Comisión titulada «“Guía azul” sobre la aplicación de la normativa europea relativa a los productos, de 2022» (20), la norma general es que más de un acto jurídico de la legislación de armonización de la Unión, como los Reglamentos (UE) 2017/745 (21) y (UE) 2017/746 (22) del Parlamento Europeo y del Consejo o la Directiva 2006/42/CE del Parlamento Europeo y del Consejo (23) puedan aplicarse a un producto, dado que la introducción en el mercado o la puesta en servicio solo pueden tener lugar cuando el producto cumple toda la legislación de armonización de la Unión aplicable. A fin de garantizar la coherencia y evitar cargas administrativas o costes innecesarios, los proveedores de un producto que contenga uno o varios sistemas de IA de alto riesgo, a los que se apliquen los requisitos del presente Reglamento y de la legislación de armonización de la Unión incluida en una lista de un anexo del presente Reglamento, deben ser flexibles en lo que respecta a las decisiones operativas relativas a la manera de garantizar la conformidad de un producto que contenga uno o varios sistemas de IA con todos los requisitos aplicables de la legislación de armonización de la Unión de manera óptima. La clasificación de un sistema de IA como «de alto riesgo» debe limitarse a aquellos sistemas de IA que tengan un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas de la Unión, y dicha limitación debe reducir al mínimo cualquier posible restricción del comercio internacional.

(47)

Los sistemas de IA pueden tener un efecto adverso para la salud y la seguridad de las personas, en particular cuando funcionan como componentes de seguridad de productos. En consonancia con los objetivos de la legislación de armonización de la Unión de facilitar la libre circulación de productos en el mercado interior y de velar por que solo lleguen al mercado aquellos productos que sean seguros y conformes, es importante prevenir y mitigar debidamente los riesgos de seguridad que pueda generar un producto en su conjunto debido a sus componentes digitales, entre los que pueden figurar los sistemas de IA. Por ejemplo, los robots cada vez más autónomos que se utilizan en las fábricas o con fines de asistencia y atención personal deben poder funcionar y desempeñar sus funciones de manera segura en entornos complejos. Del mismo modo, en el sector sanitario, donde puede haber repercusiones especialmente importantes en la vida y la salud, los sistemas de diagnóstico y de apoyo a las decisiones humanas, cuya sofisticación es cada vez mayor, deben ser fiables y precisos.

(48)

La magnitud de las consecuencias adversas de un sistema de IA para los derechos fundamentales protegidos por la Carta es especialmente importante a la hora de clasificar un sistema de IA como de alto riesgo. Entre dichos derechos se incluyen el derecho a la dignidad humana, el respeto de la vida privada y familiar, la protección de datos de carácter personal, la libertad de expresión y de información, la libertad de reunión y de asociación, el derecho a la no discriminación, el derecho a la educación, la protección de los consumidores, los derechos de los trabajadores, los derechos de las personas discapacitadas, la igualdad entre hombres y mujeres, los derechos de propiedad intelectual, el derecho a la tutela judicial efectiva y a un juez imparcial, los derechos de la defensa y la presunción de inocencia, y el derecho a una buena administración. Además de esos derechos, conviene poner de relieve el hecho de que los menores poseen unos derechos específicos consagrados en el artículo 24 de la Carta y en la Convención sobre los Derechos del Niño de las Naciones Unidas, que se desarrollan con más detalle en la observación general nº 25 de la Convención sobre los Derechos del Niño de Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital. Ambos instrumentos exigen que se tengan en consideración las vulnerabilidades de los menores y que se les brinde la protección y la asistencia necesarias para su bienestar. Cuando se evalúe la gravedad del perjuicio que puede ocasionar un sistema de IA, también en lo que respecta a la salud y la seguridad de las personas, también se debe tener en cuenta el derecho fundamental a un nivel elevado de protección del medio ambiente consagrado en la Carta y aplicado en las políticas de la Unión.

(49)

En relación con los sistemas de IA de alto riesgo que son componentes de seguridad de productos o sistemas, o que son en sí mismos productos o sistemas que entran en el ámbito de aplicación del Reglamento (CE) nº 300/2008 del Parlamento Europeo y del Consejo (24), el Reglamento (UE) nº 167/2013 del Parlamento Europeo y del Consejo (25), el Reglamento (UE) nº 168/2013 del Parlamento Europeo y del Consejo (26), la Directiva 2014/90/UE del Parlamento Europeo y del Consejo (27), la Directiva (UE) 2016/797 del Parlamento Europeo y del Consejo (28), el Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo (29), el Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo (30), y el Reglamento (UE) 2019/2144 del Parlamento Europeo y del Consejo (31), procede modificar dichos actos para garantizar que, cuando la Comisión adopte actos delegados o de ejecución pertinentes basados en ellos, tenga en cuenta los requisitos obligatorios para los sistemas de IA de alto riesgo previstos en el presente Reglamento, atendiendo a las particularidades técnicas y reglamentarias de los distintos sectores y sin interferir con los mecanismos y las autoridades de gobernanza, evaluación de la conformidad y control del cumplimiento vigentes establecidos en dichos actos.

(50)

En cuanto a los sistemas de IA que son componentes de seguridad de productos, o que son productos en sí mismos, y entran dentro del ámbito de aplicación de determinados actos legislativos de armonización de la Unión enumerados en un anexo del presente Reglamento, procede clasificarlos como de alto riesgo en virtud del presente Reglamento si el producto de que se trate es sometido a un procedimiento de evaluación de la conformidad con un organismo de evaluación de la conformidad de terceros de acuerdo con dichos actos legislativos de armonización de la Unión. Esos productos son, en concreto, máquinas, juguetes, ascensores, equipo y sistemas de protección para uso en atmósferas potencialmente explosivas, equipos radioeléctricos, equipos a presión, equipos de embarcaciones de recreo, instalaciones de transporte por cable, aparatos que queman combustibles gaseosos, productos sanitarios, productos sanitarios para diagnóstico in vitro, automoción y aviación.

(51)

Que un sistema de IA se clasifique como de alto riesgo en virtud del presente Reglamento no significa necesariamente que el producto del que sea componente de seguridad, o el propio sistema de IA como producto, se considere de «alto riesgo» conforme a los criterios establecidos en la correspondiente legislación de armonización de la Unión que se aplique al producto. Tal es el caso, en particular, de los Reglamentos (UE) 2017/745 y (UE) 2017/746, que prevén una evaluación de la conformidad de terceros de los productos de riesgo medio y alto.

(52)

En cuanto a los sistemas de IA independientes, a saber, aquellos sistemas de IA de alto riesgo que no son componentes de seguridad de productos, o que son productos en sí mismos, deben clasificarse como de alto riesgo si, a la luz de su finalidad prevista, presentan un alto riesgo de ser perjudiciales para la salud y la seguridad o los derechos fundamentales de las personas, teniendo en cuenta tanto la gravedad del posible perjuicio como la probabilidad de que se produzca, y se utilizan en varios ámbitos predefinidos especificados en el presente Reglamento. Para identificar dichos sistemas, se emplean la misma metodología y los mismos criterios previstos para la posible modificación futura de la lista de sistemas de IA de alto riesgo, que la Comisión debe estar facultada para adoptar, mediante actos delegados, a fin de tener en cuenta el rápido ritmo del desarrollo tecnológico, así como los posibles cambios en el uso de los sistemas de IA.

(53)

También es importante aclarar que pueden existir casos específicos en los que los sistemas de IA referidos en ámbitos predefinidos especificados en el presente Reglamento no entrañen un riesgo considerable de causar un perjuicio a los intereses jurídicos amparados por dichos ámbitos, dado que no influyen sustancialmente en la toma de decisiones o no perjudican dichos intereses sustancialmente. A efectos del presente Reglamento, por sistema de IA que no influye sustancialmente en el resultado de la toma de decisiones debe entenderse un sistema de IA que no afecta al fondo, ni por consiguiente al resultado, de la toma de decisiones, ya sea humana o automatizada. Un sistema de IA que no influye sustancialmente en el resultado de la toma de decisiones podría incluir situaciones en las que se cumplen una o varias de las siguientes condiciones. La primera de dichas condiciones debe ser que el sistema de IA esté destinado a realizar una tarea de procedimiento delimitada, como un sistema de IA que transforme datos no estructurados en datos estructurados, un sistema de IA que clasifique en categorías los documentos recibidos o un sistema de IA que se utilice para detectar duplicados entre un gran número de aplicaciones. La naturaleza de esas tareas es tan restringida y limitada que solo presentan riesgos limitados que no aumentan por la utilización de un sistema de IA en un contexto que un anexo al presente Reglamento recoja como uso de alto riesgo. La segunda condición debe ser que la tarea realizada por el sistema de IA esté destinada a mejorar el resultado de una actividad previa llevada a cabo por un ser humano, que pudiera ser pertinente a efectos de las utilizaciones de alto riesgo enumeradas en un anexo del presente Reglamento. Teniendo en cuenta esas características, el sistema de IA solo añade un nivel adicional a la actividad humana, entrañando por consiguiente un riesgo menor. Esa condición se aplicaría, por ejemplo, a los sistemas de IA destinados a mejorar el lenguaje utilizado en documentos ya redactados, por ejemplo, en lo referente al empleo de un tono profesional o de un registro lingüístico académico o a la adaptación del texto a una determinada comunicación de marca. La tercera condición debe ser que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones respecto de patrones de toma de decisiones anteriores. El riesgo sería menor debido a que el sistema de IA se utiliza tras una valoración humana previamente realizada y no pretende sustituirla o influir en ella sin una revisión adecuada por parte de un ser humano. Por ejemplo, entre los sistemas de IA de este tipo, se incluyen aquellos que pueden utilizarse para comprobar a posteriori si un profesor puede haberse desviado de su patrón de calificación determinado, a fin de llamar la atención sobre posibles incoherencias o anomalías. La cuarta condición debe ser que el sistema de IA esté destinado a realizar una tarea que solo sea preparatoria de cara a una evaluación pertinente a efectos de los sistemas de IA enumerados en el anexo del presente Reglamento, con lo que la posible repercusión de los resultados de salida del sistema sería muy escasa en términos de representar un riesgo para la subsiguiente evaluación. Esa condición comprende, entre otras cosas, soluciones inteligentes para la gestión de archivos, lo que incluye funciones diversas tales como la indexación, la búsqueda, el tratamiento de texto y del habla o la vinculación de datos a otras fuentes de datos, o bien los sistemas de IA utilizados para la traducción de los documentos iniciales. En cualquier caso, debe considerarse que los sistemas de IA utilizados en casos de alto riesgo enumerados en un anexo del presente Reglamento presentan un riesgo significativo de menoscabar la salud y la seguridad o los derechos fundamentales si el sistema de IA conlleva la elaboración de perfiles en el sentido del artículo 4, punto 4, del Reglamento (UE) 2016/679, del artículo 3, punto 4, de la Directiva (UE) 2016/680 o del artículo 3, punto 5, del Reglamento (UE) 2018/1725. Para garantizar la trazabilidad y la transparencia, los proveedores que, basándose en las condiciones antes citadas, consideren que un sistema de IA no es de alto riesgo, deben elaborar la documentación de la evaluación previamente a la introducción en el mercado o la entrada en servicio de dicho sistema de IA y facilitarla a las autoridades nacionales competentes cuando estas lo soliciten. Dichos proveedores deben tener la obligación de registrar el sistema en la base de datos de la UE creada en virtud del presente Reglamento. Con el fin de proporcionar orientaciones adicionales sobre la aplicación práctica de las condiciones con arreglo a las cuales los sistemas de IA enumerados en un anexo del presente Reglamento no se consideran, con carácter excepcional, de alto riesgo, la Comisión debe, previa consulta al Consejo de IA, proporcionar directrices que especifiquen dicha aplicación práctica, completadas por una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y de casos de uso que no lo sean.

(54)

Dado que los datos biométricos constituyen una categoría de datos personales sensibles, procede clasificar como de alto riesgo varios casos de uso críticos de sistemas biométricos, en la medida que su utilización esté permitida con arreglo al Derecho de la Unión y nacional pertinente. Las imprecisiones técnicas de los sistemas de IA destinados a la identificación biométrica remota de las personas físicas pueden dar lugar a resultados sesgados y tener efectos discriminatorios. El riesgo de dichos resultados sesgados y efectos discriminatorios es especialmente pertinente por lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad. Por lo tanto, los sistemas de identificación biométrica remota deben clasificarse como de alto riesgo debido a los riesgos que entrañan. Quedan excluidos de dicha clasificación los sistemas de IA destinados a la verificación biométrica, que incluye la autenticación, cuyo único propósito es confirmar que una persona física concreta es quien dicha persona dice ser, así como confirmar la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga un acceso seguro a un local. Además, deben clasificarse como de alto riesgo los sistemas de IA destinados a ser utilizados para la categorización biométrica conforme a atributos o características sensibles protegidos en virtud del artículo 9, apartado 1, del Reglamento (UE) 2016/679 sobre la base de datos biométricos, en la medida en que no estén prohibidos en virtud del presente Reglamento, así como los sistemas de reconocimiento de emociones que no estén prohibidos con arreglo al presente Reglamento. Los sistemas biométricos destinados a ser utilizados exclusivamente a efectos de posibilitar la ciberseguridad y las medidas de protección de los datos personales no deben considerarse sistemas de IA de alto riesgo.

(55)

Por lo que respecta a la gestión y el funcionamiento de infraestructuras críticas, procede clasificar como de alto riesgo los sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento de las infraestructuras digitales críticas que se enumeran en el anexo, punto 8, de la Directiva (UE) 2022/2557; del tráfico rodado y del suministro de agua, gas, calefacción y electricidad, pues un fallo o un defecto de funcionamiento de estos componentes puede poner en peligro la vida y la salud de las personas a gran escala y alterar de manera considerable el desarrollo habitual de las actividades sociales y económicas. Los componentes de seguridad de las infraestructuras críticas, como las infraestructuras digitales críticas, son sistemas utilizados para proteger directamente la integridad física de las infraestructuras críticas o la salud y la seguridad de las personas y los bienes, pero que no son necesarios para el funcionamiento del sistema. El fallo o el defecto de funcionamiento de estos componentes podría dar lugar directamente a riesgos para la integridad física de las infraestructuras críticas y, por tanto, a riesgos para la salud y la seguridad de las personas y los bienes. Los componentes destinados a ser utilizados exclusivamente con fines de ciberseguridad no deben considerarse componentes de seguridad. Entre los componentes de seguridad de esas infraestructuras críticas cabe citar los sistemas de control de la presión del agua o los sistemas de control de las alarmas contra incendios en los centros de computación en la nube.

(56)

El despliegue de sistemas de IA en el ámbito educativo es importante para fomentar una educación y formación digitales de alta calidad y para que todos los estudiantes y profesores puedan adquirir y compartir las capacidades y competencias digitales necesarias, incluidos la alfabetización mediática, y el pensamiento crítico, para participar activamente en la economía, la sociedad y los procesos democráticos. No obstante, deben clasificarse como de alto riesgo los sistemas de IA que se utilizan en la educación o la formación profesional, y en particular aquellos que determinan el acceso o la admisión, distribuyen a las personas entre distintas instituciones educativas y de formación profesional o programas de todos los niveles, evalúan los resultados del aprendizaje de las personas, evalúan el nivel apropiado de educación de una persona e influyen sustancialmente en el nivel de educación y formación que las personas recibirán o al que podrán acceder, o supervisan y detectan comportamientos prohibidos de los estudiantes durante las pruebas, ya que pueden decidir la trayectoria formativa y profesional de una persona y, en consecuencia, puede afectar a su capacidad para asegurar su subsistencia. Cuando no se diseñan y utilizan correctamente, estos sistemas pueden invadir especialmente y violar el derecho a la educación y la formación, y el derecho a no sufrir discriminación, además de perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de cierto origen racial o étnico o con una determinada orientación sexual.

(57)

También deben clasificarse como de alto riesgo los sistemas de IA que se utilizan en los ámbitos del empleo, la gestión de los trabajadores y el acceso al autoempleo, en particular para la contratación y la selección de personal, para la toma de decisiones que afecten a las condiciones de las relaciones de índole laboral, la promoción y la rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales y para la supervisión o evaluación de las personas en el marco de las relaciones contractuales de índole laboral, dado que pueden afectar de un modo considerable a las futuras perspectivas laborales, a los medios de subsistencia de dichas personas y a los derechos de los trabajadores. Las relaciones contractuales de índole laboral deben incluir, de manera significativa, a los empleados y las personas que prestan servicios a través de plataformas, como indica el programa de trabajo de la Comisión para 2021. Dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en las relaciones contractuales de índole laboral. Los sistemas de IA empleados para controlar el rendimiento y el comportamiento de estas personas también pueden socavar sus derechos fundamentales a la protección de los datos personales y a la intimidad.

(58)

El acceso a determinados servicios y prestaciones esenciales, de carácter público y privado, necesarios para que las personas puedan participar plenamente en la sociedad o mejorar su nivel de vida, y el disfrute de dichos servicios y prestaciones, es otro ámbito en el que conviene prestar especial atención a la utilización de sistemas de IA. En particular, las personas físicas que solicitan a las autoridades públicas o reciben de estas prestaciones y servicios esenciales de asistencia pública, a saber, servicios de asistencia sanitaria, prestaciones de seguridad social, servicios sociales que garantizan una protección en casos como la maternidad, la enfermedad, los accidentes laborales, la dependencia o la vejez y la pérdida de empleo, asistencia social y ayudas a la vivienda, suelen depender de dichas prestaciones y servicios y, por lo general, se encuentran en una posición de vulnerabilidad respecto de las autoridades responsables. La utilización de sistemas de IA para decidir si las autoridades deben conceder, denegar, reducir o revocar dichas prestaciones y servicios o reclamar su devolución, lo que incluye decidir, por ejemplo, si los beneficiarios tienen legítimamente derecho a dichas prestaciones y servicios, podría tener un efecto considerable en los medios de subsistencia de las personas y vulnerar sus derechos fundamentales, como el derecho a la protección social, a la no discriminación, a la dignidad humana o a la tutela judicial efectiva y, por lo tanto, deben clasificarse como de alto riesgo. No obstante, el presente Reglamento no debe obstaculizar el desarrollo y el uso de enfoques innovadores en la Administración, que podrían beneficiarse de una mayor utilización de sistemas de IA conformes y seguros, siempre y cuando dichos sistemas no supongan un alto riesgo para las personas jurídicas y físicas. Además, deben clasificarse como de alto riesgo los sistemas de IA usados para evaluar la calificación crediticia o solvencia de las personas físicas, ya que deciden si dichas personas pueden acceder a recursos financieros o servicios esenciales como la vivienda, la electricidad y los servicios de telecomunicaciones. Los sistemas de IA usados con esos fines pueden discriminar a determinadas personas o colectivos y perpetuar patrones históricos de discriminación, como por motivos de origen racial o étnico, género, discapacidad, edad u orientación sexual, o generar nuevas formas de discriminación. No obstante, los sistemas de IA previstos por el Derecho de la Unión con vistas a detectar fraudes en la oferta de servicios financieros y, a efectos prudenciales, para calcular los requisitos de capital de las entidades de crédito y las empresas de seguros no deben considerarse de alto riesgo en virtud del presente Reglamento. Además, los sistemas de IA destinados a ser utilizados para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de vida y de salud también pueden afectar de un modo considerable a los medios de subsistencia de las personas y, si no se diseñan, desarrollan y utilizan debidamente, pueden vulnerar sus derechos fundamentales y pueden tener graves consecuencias para la vida y la salud de las personas, como la exclusión financiera y la discriminación. Por último, los sistemas de IA empleados para evaluar y clasificar llamadas de emergencia de personas físicas o el envío o el establecimiento de prioridades en el envío de servicios de primera intervención en situaciones de emergencia, incluidos policía, bomberos y servicios de asistencia médica, así como sistemas de triaje de pacientes para la asistencia sanitaria de emergencia, también deben considerarse de alto riesgo, dado que adoptan decisiones en situaciones sumamente críticas para la vida y la salud de las personas y de sus bienes.

(59)

Dado su papel y su responsabilidad, las actuaciones de las autoridades garantes del cumplimiento del Derecho que implican determinados usos de los sistemas de IA se caracterizan por un importante desequilibrio de poder y pueden dar lugar a la vigilancia, la detención o la privación de libertad de una persona física, así como tener otros efectos negativos sobre los derechos fundamentales consagrados en la Carta. En particular, si el sistema de IA no está entrenado con datos de buena calidad, no cumple los requisitos adecuados en términos de rendimiento, de precisión o de solidez, o no se diseña y prueba debidamente antes de introducirlo en el mercado o ponerlo en servicio, es posible que señale a personas de manera discriminatoria, incorrecta o injusta. Además, podría impedir el ejercicio de importantes derechos procesales fundamentales, como el derecho a la tutela judicial efectiva y a un juez imparcial, así como el derecho a la defensa y a la presunción de inocencia, sobre todo cuando dichos sistemas de IA no sean lo suficientemente transparentes y explicables ni estén suficientemente bien documentados. Por consiguiente, en la medida en que su uso esté permitido conforme al Derecho de la Unión y nacional pertinente, procede clasificar como de alto riesgo varios sistemas de IA destinados a ser utilizados con fines de garantía del cumplimiento del Derecho cuando su precisión, fiabilidad y transparencia sean especialmente importantes para evitar consecuencias adversas, conservar la confianza de la población y garantizar la rendición de cuentas y unas vías de recurso efectivas. En vista de la naturaleza de las actividades y de los riesgos conexos, entre dichos sistemas de IA de alto riesgo deben incluirse, en particular, los sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en nombre de estas, o por las instituciones, órganos u organismos de la Unión en apoyo de las primeras, para evaluar el riesgo de que una persona física sea víctima de delitos, como los polígrafos y otras herramientas similares, para evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos y, en la medida en que no esté prohibido conforme al presente Reglamento, para evaluar el riesgo de que una persona física cometa un delito o reincida, no solo sobre la base de la elaboración de perfiles de personas físicas o la evaluación de rasgos y características de la personalidad o comportamientos delictivos pasados de personas físicas o grupos de personas, o para elaborar perfiles durante la detección, la investigación o el enjuiciamiento de delitos. Los sistemas de IA destinados específicamente a ser utilizados en procesos administrativos por las autoridades fiscales y aduaneras y las unidades de inteligencia financiera que desempeñan tareas administrativas de análisis de información de conformidad con el Derecho de la Unión en materia de lucha contra el blanqueo de capitales no deben clasificarse como sistemas de IA de alto riesgo usados por las autoridades garantes del cumplimiento del Derecho con el fin de prevenir, detectar, investigar y enjuiciar delitos. El uso de herramientas de IA por parte de las autoridades garantes del cumplimiento del Derecho y otras autoridades pertinentes no debe convertirse en un factor de desigualdad o exclusión. No debe ignorarse el impacto del uso de herramientas de IA en los derechos de defensa de los sospechosos, en particular la dificultad para obtener información significativa sobre el funcionamiento de dichos sistemas y la consiguiente dificultad para impugnar sus resultados ante los tribunales, en particular por parte de las personas físicas investigadas.

(60)

Los sistemas de IA empleados en la migración, el asilo y la gestión del control fronterizo afectan a personas que con frecuencia se encuentran en una situación especialmente vulnerable y que dependen del resultado de las actuaciones de las autoridades públicas competentes. Por este motivo, es sumamente importante que los sistemas de IA que se utilicen en estos contextos sean precisos, no discriminatorios y transparentes, a fin de garantizar que se respeten los derechos fundamentales de las personas afectadas y, en particular, su derecho a la libre circulación, a la no discriminación, a la intimidad personal y la protección de los datos personales, a la protección internacional y a una buena administración. Por lo tanto, procede clasificar como de alto riesgo, en la medida en que su utilización esté permitida en virtud del Derecho de la Unión y nacional, aquellos sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos u organismos de la Unión que realizan tareas en el ámbito de la migración, el asilo y la gestión del control fronterizo como polígrafos y herramientas similares, para evaluar determinados riesgos que presenten las personas físicas que entren en el territorio de un Estado miembro o que soliciten un visado o asilo, para ayudar a las autoridades públicas competentes a examinar, con inclusión de la evaluación conexa de la fiabilidad de las pruebas, las solicitudes de asilo, visado y permiso de residencia, así como las reclamaciones conexas en relación con el objetivo de determinar si las personas físicas solicitantes reúnen los requisitos necesarios para que se conceda su solicitud, a efectos de detectar, reconocer o identificar a las personas físicas en el contexto de la migración, el asilo y la gestión del control fronterizo, con excepción de la verificación de los documentos de viaje. Los sistemas de IA en el ámbito de la migración, el asilo y la gestión del control fronterizo sujetos al presente Reglamento deben cumplir los requisitos procedimentales pertinentes establecidos por el Reglamento (CE) nº 810/2009 del Parlamento Europeo y del Consejo (32), la Directiva 2013/32/UE del Parlamento Europeo y del Consejo (33) y otro Derecho de la Unión pertinente. El empleo de los sistemas de IA en la migración, el asilo y la gestión del control fronterizo no debe, en ningún caso, ser utilizado por los Estados miembros o las instituciones, órganos u organismos de la Unión como medio para eludir sus obligaciones internacionales en virtud de la Convención de las Naciones Unidas sobre el Estatuto de los Refugiados, hecha en Ginebra el 28 de julio de 1951, modificada por el Protocolo de 31 de enero de 1967. Tampoco debe ser utilizado para infringir en modo alguno el principio de no devolución, ni para negar unas vías jurídicas seguras y efectivas de acceso al territorio de la Unión, incluido el derecho a la protección internacional.

(61)

Deben clasificarse como de alto riesgo determinados sistemas de IA destinados a la administración de justicia y los procesos democráticos, dado que pueden tener efectos potencialmente importantes para la democracia, el Estado de Derecho, las libertades individuales y el derecho a la tutela judicial efectiva y a un juez imparcial. En particular, a fin de hacer frente al riesgo de posibles sesgos, errores y opacidades, procede clasificar como de alto riesgo aquellos sistemas de IA destinados a ser utilizados por una autoridad judicial o en su nombre para ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos. También deben considerarse de alto riesgo los sistemas de IA destinados a ser utilizados por los organismos de resolución alternativa de litigios con esos fines, cuando los resultados de los procedimientos de resolución alternativa de litigios surtan efectos jurídicos para las partes. La utilización de herramientas de IA puede apoyar el poder de decisión de los jueces o la independencia judicial, pero no debe substituirlas: la toma de decisiones finales debe seguir siendo una actividad humana. No obstante, la clasificación de los sistemas de IA como de alto riesgo no debe hacerse extensiva a los sistemas de IA destinados a actividades administrativas meramente accesorias que no afectan a la administración de justicia propiamente dicha en casos concretos, como la anonimización o seudonimización de resoluciones judiciales, documentos o datos, la comunicación entre los miembros del personal o las tareas administrativas.

(62)

Sin perjuicio de las normas previstas en el Reglamento (UE) 2024/900 del Parlamento Europeo y del Consejo (34), y a fin de hacer frente a los riesgos de injerencia externa indebida en el derecho de voto consagrado en el artículo 39 de la Carta, y de efectos adversos sobre la democracia y el Estado de Derecho, deben clasificarse como sistemas de IA de alto riesgo los sistemas de IA destinados a ser utilizados para influir en el resultado de una elección o un referéndum, o en el comportamiento electoral de las personas físicas en el ejercicio de su voto en elecciones o referendos, con excepción de los sistemas de IA a cuyos resultados de salida las personas físicas no están directamente expuestas, como las herramientas utilizadas para organizar, optimizar y estructurar campañas políticas desde un punto de vista administrativo y logístico.

(63)

El hecho de que un sistema de IA sea clasificado como un sistema de IA de alto riesgo en virtud del presente Reglamento no debe interpretarse como indicador de que su uso sea lícito con arreglo a otros actos del Derecho de la Unión o del Derecho nacional compatible con el Derecho de la Unión, por ejemplo, en materia de protección de los datos personales o la utilización de polígrafos y herramientas similares u otros sistemas para detectar el estado emocional de las personas físicas. Todo uso de ese tipo debe seguir realizándose exclusivamente en consonancia con los requisitos oportunos derivados de la Carta y de los actos aplicables del Derecho derivado de la Unión y del Derecho nacional. No debe entenderse que el presente Reglamento constituye un fundamento jurídico para el tratamiento de datos personales, incluidas las categorías especiales de datos personales, en su caso, salvo que el presente Reglamento disponga específicamente otra cosa.

(64)

Con el objetivo de mitigar los riesgos que presentan los sistemas de IA de alto riesgo que se introducen en el mercado o se ponen en servicio, y para garantizar un alto nivel de fiabilidad, deben aplicarse a los sistemas de IA de alto riesgo ciertos requisitos obligatorios que tengan en cuenta la finalidad prevista y el contexto del uso del sistema de IA y estén en consonancia con el sistema de gestión de riesgos que debe establecer el proveedor. Las medidas adoptadas por los proveedores para cumplir los requisitos obligatorios del presente Reglamento deben tener en cuenta el estado actual de la técnica generalmente reconocido en materia de IA, ser proporcionadas y eficaces para alcanzar los objetivos del presente Reglamento. Sobre la base del nuevo marco legislativo, como se aclara en la Comunicación de la Comisión titulada «“Guía azul” sobre la aplicación de la normativa europea relativa a los productos, de 2022», la norma general es que más de un acto jurídico de la legislación de armonización de la Unión puede ser aplicable a un producto, ya que la comercialización o la puesta en servicio solamente puede producirse cuando el producto cumple toda la legislación de armonización de la Unión aplicable. Los peligros de los sistemas de IA cubiertos por los requisitos del presente Reglamento se refieren a aspectos diferentes de los contemplados en la legislación de armonización de la Unión existente y, por consiguiente, los requisitos del presente Reglamento completarían el conjunto existente de legislación de armonización de la Unión. Por ejemplo, las máquinas o los productos sanitarios que incorporan un sistema de IA pueden presentar riesgos de los que no se ocupan los requisitos esenciales de salud y seguridad establecidos en la legislación armonizada de la Unión pertinente, ya que esa legislación sectorial no aborda los riesgos específicos de los sistemas de IA. Esto exige una aplicación simultánea y complementaria de diversos actos legislativos. A fin de garantizar la coherencia y evitar una carga administrativa innecesaria y costes innecesarios, los proveedores de un producto que contenga uno o varios sistemas de IA de alto riesgo, a los que se apliquen los requisitos del presente Reglamento y de los actos legislativos de armonización de la Unión basados en el nuevo marco legislativo y enumerados en un anexo del presente Reglamento, deben ser flexibles en lo que respecta a las decisiones operativas relativas a la manera de garantizar la conformidad de un producto que contenga uno o varios sistemas de IA con todos los requisitos aplicables de la legislación armonizada de la Unión de manera óptima. Esa flexibilidad podría significar, por ejemplo, la decisión del proveedor de integrar una parte de los procesos de prueba y notificación necesarios, así como la información y la documentación exigidas en virtud del presente Reglamento, en la documentación y los procedimientos ya existentes exigidos en virtud de los actos legislativos de armonización de la Unión vigentes basados en el nuevo marco legislativo y enumerados en un anexo del presente Reglamento. Esto no debe socavar en modo alguno la obligación del proveedor de cumplir todos los requisitos aplicables.

(65)

El sistema de gestión de riesgos debe consistir en un proceso iterativo continuo que sea planificado y ejecutado durante todo el ciclo de vida del sistema de IA de alto riesgo. Dicho proceso debe tener por objeto detectar y mitigar los riesgos pertinentes de los sistemas de IA para la salud, la seguridad y los derechos fundamentales. El sistema de gestión de riesgos debe revisarse y actualizarse periódicamente para garantizar su eficacia continua, así como la justificación y documentación de cualesquiera decisiones y acciones significativas adoptadas con arreglo al presente Reglamento. Este proceso debe garantizar que el proveedor determine los riesgos o efectos negativos y aplique medidas de mitigación de los riesgos conocidos y razonablemente previsibles de los sistemas de IA para la salud, la seguridad y los derechos fundamentales, habida cuenta de su finalidad prevista y de su uso indebido razonablemente previsible, incluidos los posibles riesgos derivados de la interacción entre el sistema de IA y el entorno en el que opera. El sistema de gestión de riesgos debe adoptar las medidas de gestión de riesgos más adecuadas a la luz del estado actual de la técnica en materia de IA. Al determinar las medidas de gestión de riesgos más adecuadas, el proveedor debe documentar y explicar las elecciones realizadas y, cuando proceda, contar con la participación de expertos y partes interesadas externas. Al determinar el uso indebido razonablemente previsible de los sistemas de IA de alto riesgo, el proveedor debe tener en cuenta los usos de los sistemas de IA que, aunque no estén directamente cubiertos por la finalidad prevista ni establecidos en las instrucciones de uso, cabe esperar razonablemente que se deriven de un comportamiento humano fácilmente previsible en el contexto de las características específicas y del uso de un sistema de IA concreto. Debe incluirse en las instrucciones de uso que sean facilitadas por el proveedor cualquier circunstancia conocida o previsible, asociada a la utilización del sistema de IA de alto riesgo conforme a su finalidad prevista o a un uso indebido razonablemente previsible, que pueda dar lugar a riesgos para la salud y la seguridad o los derechos fundamentales. Con ello se pretende garantizar que el responsable del despliegue sea consciente de estos riesgos y los tenga en cuenta al utilizar el sistema de IA de alto riesgo. La identificación y la aplicación de medidas de reducción del riesgo en caso de uso indebido previsible con arreglo al presente Reglamento no deben suponer la exigencia, para su acometida, de entrenamiento adicional específico para el sistema de IA de alto riesgo por parte del proveedor para hacer frente a usos indebidos previsibles. No obstante, se anima a los proveedores a considerar dichas medidas de entrenamiento adicionales para mitigar los usos indebidos razonablemente previsibles, cuando resulte necesario y oportuno.

(66)

Deben aplicarse a los sistemas de IA de alto riesgo requisitos referentes a la gestión de riesgos, la calidad y la pertinencia de los conjuntos de datos utilizados, la documentación técnica y la conservación de registros, la transparencia y la comunicación de información a los responsables del despliegue, la supervisión humana, la solidez, la precisión y la ciberseguridad. Dichos requisitos son necesarios para mitigar de forma efectiva los riesgos para la salud, la seguridad y los derechos fundamentales. Al no disponerse razonablemente de otras medidas menos restrictivas del comercio, dichos requisitos no son restricciones injustificadas al comercio.

(67)

Los datos de alta calidad y el acceso a datos de alta calidad desempeñan un papel esencial a la hora de proporcionar una estructura y garantizar el funcionamiento de muchos sistemas de IA, en especial cuando se emplean técnicas que implican el entrenamiento de modelos, con vistas a garantizar que el sistema de IA de alto riesgo funcione del modo previsto y en condiciones de seguridad y no se convierta en una fuente de algún tipo de discriminación prohibida por el Derecho de la Unión. Es preciso instaurar prácticas adecuadas de gestión y gobernanza de datos para lograr que los conjuntos de datos para el entrenamiento, la validación y la prueba sean de alta calidad. Los conjuntos de datos para el entrenamiento, la validación y la prueba, incluidas las etiquetas, deben ser pertinentes, lo suficientemente representativos y, en la mayor medida posible, estar libres de errores y ser completos en vista de la finalidad prevista del sistema. A fin de facilitar el cumplimiento del Derecho de la Unión en materia de protección de datos, como el Reglamento (UE) 2016/679, las prácticas de gestión y gobernanza de datos deben incluir, en el caso de los datos personales, la transparencia sobre el fin original de la recopilación de datos. Los conjuntos de datos deben tener las propiedades estadísticas adecuadas, también en lo que respecta a las personas o los colectivos de personas en relación con los que esté previsto utilizar el sistema de IA de alto riesgo, prestando una atención especial a la mitigación de los posibles sesgos en los conjuntos de datos que puedan afectar a la salud y la seguridad de las personas físicas, tener repercusiones negativas en los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión, especialmente cuando los datos de salida influyan en la información de entrada de futuras operaciones (bucles de retroalimentación). Los sesgos, por ejemplo, pueden ser inherentes a los conjuntos de datos subyacentes, especialmente cuando se utilizan datos históricos, o generados cuando los sistemas se despliegan en entornos del mundo real. Los resultados de los sistemas de IA dependen de dichos sesgos inherentes, que tienden a aumentar gradualmente y, por tanto, perpetúan y amplifican la discriminación existente, en particular con respecto a las personas pertenecientes a determinados colectivos vulnerables, incluidos colectivos raciales o étnicos. El requisito de que los conjuntos de datos, en la mayor medida posible, sean completos y estén libres de errores no debe afectar al uso de técnicas de protección de la intimidad en el contexto del desarrollo y la prueba de sistemas de IA. En particular, los conjuntos de datos deben tener en cuenta, en la medida en que lo exija su finalidad prevista, los rasgos, características o elementos particulares del entorno geográfico, contextual, conductual o funcional específico en el que esté previsto que se utilice el sistema de IA. Los requisitos relacionados con la gobernanza de datos pueden cumplirse recurriendo a terceros que ofrezcan servicios certificados de cumplimiento, incluida la verificación de la gobernanza de datos, la integridad del conjunto de datos y las prácticas de entrenamiento, validación y prueba de datos, en la medida en que se garantice el cumplimiento de los requisitos en materia de datos del presente Reglamento.

(68)

Para poder desarrollar y evaluar sistemas de IA de alto riesgo, determinados agentes, tales como proveedores, organismos notificados y otras entidades pertinentes, como centros europeos de innovación digital, instalaciones de ensayo y experimentación e investigadores, deben tener acceso a conjuntos de datos de alta calidad en sus campos de actividad relacionados con el presente Reglamento y deben poder utilizarlos. Los espacios comunes europeos de datos establecidos por la Comisión y la facilitación del intercambio de datos entre empresas y con los Gobiernos en favor del interés público serán esenciales para brindar un acceso fiable, responsable y no discriminatorio a datos de alta calidad con los que entrenar, validar y probar los sistemas de IA. Por ejemplo, en el ámbito de la salud, el espacio europeo de datos sanitarios facilitará el acceso no discriminatorio a datos sanitarios y el entrenamiento, a partir de esos conjuntos de datos, de algoritmos de IA de una manera segura, oportuna, transparente, fiable y que respete la intimidad, y contando con la debida gobernanza institucional. Las autoridades competentes pertinentes, incluidas las sectoriales, que proporcionan acceso a datos o lo facilitan también pueden brindar apoyo al suministro de datos de alta calidad con los que entrenar, validar y probar los sistemas de IA.

(69)

El derecho a la intimidad y a la protección de datos personales debe garantizarse a lo largo de todo el ciclo de vida del sistema de IA. A este respecto, los principios de minimización de datos y de protección de datos desde el diseño y por defecto, establecidos en el Derecho de la Unión en materia de protección de datos, son aplicables cuando se tratan datos personales. Las medidas adoptadas por los proveedores para garantizar el cumplimiento de estos principios podrán incluir no solo la anonimización y el cifrado, sino también el uso de una tecnología que permita llevar los algoritmos a los datos y el entrenamiento de los sistemas de IA sin que sea necesaria la transmisión entre las partes ni la copia de los datos brutos o estructurados, sin perjuicio de los requisitos en materia de gobernanza de datos establecidos en el presente Reglamento.

(70)

A fin de proteger los derechos de terceros frente a la discriminación que podría provocar el sesgo de los sistemas de IA, los proveedores deben —con carácter excepcional, en la medida en que sea estrictamente necesario para garantizar la detección y corrección de los sesgos asociados a los sistemas de IA de alto riesgo, con sujeción a las garantías adecuadas para los derechos y libertades fundamentales de las personas físicas y tras la aplicación de todas las condiciones aplicables establecidas en el presente Reglamento, además de las condiciones establecidas en los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680— ser capaces de tratar también categorías especiales de datos personales, como cuestión de interés público esencial en el sentido del artículo 9, apartado 2, letra g), del Reglamento (UE) 2016/679 y del artículo 10, apartado 2, letra g), del Reglamento (UE) 2018/1725.

(71)

Para permitir la trazabilidad de los sistemas de IA de alto riesgo, verificar si cumplen los requisitos previstos en el presente Reglamento, así como vigilar su funcionamiento y llevar a cabo la vigilancia poscomercialización, resulta esencial disponer de información comprensible sobre el modo en que se han desarrollado y sobre su funcionamiento durante toda su vida útil. A tal fin, es preciso llevar registros y disponer de documentación técnica que contenga la información necesaria para evaluar si el sistema de IA de que se trate cumple los requisitos pertinentes y facilitar la vigilancia poscomercialización. Dicha información debe incluir las características generales, las capacidades y las limitaciones del sistema y los algoritmos, datos y procesos de entrenamiento, prueba y validación empleados, así como documentación sobre el sistema de gestión de riesgos pertinente, elaborada de manera clara y completa. La documentación técnica debe mantenerse adecuadamente actualizada durante toda la vida útil del sistema de IA. Además, los sistemas de IA de alto riesgo deben permitir técnicamente el registro automático de acontecimientos, mediante archivos de registro, durante toda la vida útil del sistema.

(72)

A fin de abordar las preocupaciones relacionadas con la opacidad y complejidad de determinados sistemas de IA y ayudar a los responsables del despliegue a cumplir sus obligaciones en virtud del presente Reglamento, debe exigirse transparencia respecto de los sistemas de IA de alto riesgo antes de su introducción en el mercado o su puesta en servicio. Los sistemas de IA de alto riesgo deben diseñarse de modo que permitan a los responsables del despliegue comprender la manera en que el sistema de IA funciona, evaluar su funcionalidad y comprender sus fortalezas y limitaciones. Los sistemas de IA de alto riesgo deben ir acompañados de la información adecuada en forma de instrucciones de uso. Dicha información debe incluir las características, las capacidades y las limitaciones del funcionamiento del sistema de IA. Estas comprenderían la información sobre las posibles circunstancias conocidas y previsibles relacionadas con el uso del sistema de IA de alto riesgo, incluida la actuación del responsable del despliegue capaz de influir en el comportamiento y el funcionamiento del sistema, en cuyo marco el sistema de IA puede dar lugar a riesgos para la salud, la seguridad y los derechos fundamentales, sobre los cambios que el proveedor haya predeterminado y evaluado para comprobar su conformidad y sobre las medidas pertinentes de supervisión humana, incluidas las medidas para facilitar la interpretación de los resultados de salida del sistema de IA por parte de los responsables del despliegue. La transparencia, incluidas las instrucciones de uso que acompañan a los sistemas de IA, debe ayudar a los responsables del despliegue a utilizar el sistema y tomar decisiones con conocimiento de causa. Los responsables del despliegue deben, entre otras cosas, estar en mejores condiciones para elegir correctamente el sistema que pretenden utilizar a la luz de las obligaciones que les son aplicables, estar informados sobre los usos previstos y excluidos y utilizar el sistema de IA correctamente y según proceda. A fin de mejorar la legibilidad y la accesibilidad de la información incluida en las instrucciones de uso, cuando proceda, deben incluirse ejemplos ilustrativos, por ejemplo sobre las limitaciones y sobre los usos previstos y excluidos del sistema de IA. Los proveedores deben garantizar que toda la documentación, incluidas las instrucciones de uso, contenga información significativa, exhaustiva, accesible y comprensible, que tenga en cuenta las necesidades y los conocimientos previsibles de los responsables del despliegue destinatarios. Las instrucciones de uso deben estar disponibles en una lengua fácilmente comprensible para los responsables del despliegue destinatarios, según lo que decida el Estado miembro de que se trate.

(73)

Los sistemas de IA de alto riesgo deben diseñarse y desarrollarse de tal modo que las personas físicas puedan supervisar su funcionamiento, así como asegurarse de que se usan según lo previsto y de que sus repercusiones se abordan a lo largo del ciclo de vida del sistema. A tal fin, el proveedor del sistema debe definir las medidas adecuadas de supervisión humana antes de su introducción en el mercado o puesta en servicio. Cuando proceda, dichas medidas deben garantizar, en concreto, que el sistema esté sujeto a limitaciones operativas incorporadas en el propio sistema que este no pueda desactivar, que responda al operador humano y que las personas físicas a quienes se haya encomendado la supervisión humana posean las competencias, la formación y la autoridad necesarias para desempeñar esa función. También es esencial, según proceda, garantizar que los sistemas de IA de alto riesgo incluyan mecanismos destinados a orientar e informar a las personas físicas a las que se haya asignado la supervisión humana para que tomen decisiones con conocimiento de causa acerca de si intervenir, cuándo hacerlo y de qué manera, a fin de evitar consecuencias negativas o riesgos, o de detener el sistema si no funciona según lo previsto. Teniendo en cuenta las enormes consecuencias para las personas en caso de una correspondencia incorrecta efectuada por determinados sistemas de identificación biométrica, conviene establecer un requisito de supervisión humana reforzada para dichos sistemas, de modo que el responsable del despliegue no pueda actuar ni tomar ninguna decisión basándose en la identificación generada por el sistema, salvo si al menos dos personas físicas la han verificado y confirmado por separado. Dichas personas podrían proceder de una o varias entidades e incluir a la persona que maneja o utiliza el sistema. Este requisito no debe suponer una carga ni retrasos innecesarios y podría bastar con que las verificaciones que las distintas personas efectúen por separado se registren automáticamente en los registros generados por el sistema. Dadas las especificidades de los ámbitos de la garantía del cumplimiento del Derecho, la migración, el control fronterizo y el asilo, ese requisito no debe aplicarse cuando el Derecho nacional o de la Unión considere que su aplicación es desproporcionada.

(74)

Los sistemas de IA de alto riesgo deben funcionar de manera uniforme durante todo su ciclo de vida y presentar un nivel adecuado de precisión, solidez y ciberseguridad, a la luz de su finalidad prevista y con arreglo al estado actual de la técnica generalmente reconocido. Se anima a la Comisión y las organizaciones y partes interesadas pertinentes a que tengan debidamente en cuenta la mitigación de los riesgos y las repercusiones negativas del sistema de IA. El nivel previsto de los parámetros de funcionamiento debe declararse en las instrucciones de uso que acompañen a los sistemas de IA. Se insta a los proveedores a que comuniquen dicha información a los responsables del despliegue de manera clara y fácilmente comprensible, sin malentendidos ni afirmaciones engañosas. El Derecho de la Unión en materia de metrología legal, incluidas las Directivas 2014/31/UE (35) y 2014/32/UE (36) del Parlamento Europeo y del Consejo, tiene por objeto garantizar la precisión de las mediciones y contribuir a la transparencia y la equidad de las transacciones comerciales. En ese contexto, en cooperación con las partes interesadas y las organizaciones pertinentes, como las autoridades de metrología y de evaluación comparativa, la Comisión debe fomentar, según proceda, el desarrollo de parámetros de referencia y metodologías de medición para los sistemas de IA. Al hacerlo, la Comisión debe tomar nota de los socios internacionales que trabajan en la metrología y los indicadores de medición pertinentes relacionados con la IA y colaborar con ellos.

(75)

La solidez técnica es un requisito clave para los sistemas de IA de alto riesgo, que deben ser resilientes en relación con los comportamientos perjudiciales o indeseables por otros motivos que puedan derivarse de limitaciones en los sistemas o del entorno en el que estos funcionan (p. ej., errores, fallos, incoherencias o situaciones inesperadas). Por consiguiente, deben adoptarse medidas técnicas y organizativas para garantizar la solidez de los sistemas de IA de alto riesgo, por ejemplo mediante el diseño y desarrollo de soluciones técnicas adecuadas para prevenir o reducir al mínimo ese comportamiento perjudicial o indeseable. Estas soluciones técnicas pueden incluir, por ejemplo, mecanismos que permitan al sistema interrumpir de forma segura su funcionamiento (planes de prevención contra fallos) en presencia de determinadas anomalías o cuando el funcionamiento tenga lugar fuera de determinados límites predeterminados. El hecho de no adoptar medidas de protección frente a estos riesgos podría tener consecuencias para la seguridad o afectar de manera negativa a los derechos fundamentales, por ejemplo, debido a decisiones equivocadas o resultados de salida erróneos o sesgados generados por el sistema de IA.

(76)

La ciberseguridad es fundamental para garantizar que los sistemas de IA resistan a las actuaciones de terceros maliciosos que, aprovechando las vulnerabilidades del sistema, traten de alterar su uso, comportamiento o funcionamiento o de poner en peligro sus propiedades de seguridad. Los ciberataques contra sistemas de IA pueden dirigirse contra activos específicos de la IA, como los conjuntos de datos de entrenamiento (p. ej., envenenamiento de datos) o los modelos entrenados (p. ej., ataques adversarios o inferencia de pertenencia), o aprovechar las vulnerabilidades de los activos digitales del sistema de IA o la infraestructura de TIC subyacente. Por lo tanto, para garantizar un nivel de ciberseguridad adecuado a los riesgos, los proveedores de sistemas de IA de alto riesgo deben adoptar medidas adecuadas, como los controles de seguridad, teniendo también en cuenta, cuando proceda, la infraestructura de TIC subyacente.

(77)

Sin perjuicio de los requisitos relacionados con la solidez y la precisión establecidos en el presente Reglamento, los sistemas de IA de alto riesgo que entren en el ámbito de aplicación de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, de conformidad con dicho reglamento, pueden demostrar el cumplimiento con los requisitos de ciberseguridad del presente Reglamento mediante el cumplimiento de los requisitos esenciales de ciberseguridad establecidos en dicho reglamento. Cuando los sistemas de IA de alto riesgo cumplan los requisitos esenciales de ciberseguridad de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, debe presumirse que cumplen los requisitos de ciberseguridad del presente Reglamento en la medida en que la satisfacción de esos requisitos se demuestre en la declaración UE de conformidad de emitida con arreglo a dicho reglamento, o partes de esta. A tal fin, la evaluación de los riesgos de ciberseguridad asociados a un producto con elementos digitales clasificado como un sistema de IA de alto riesgo con arreglo al presente Reglamento, realizada en virtud de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, debe tener en cuenta los riesgos para la ciberresiliencia de un sistema de IA por lo que respecta a los intentos de terceros no autorizados de alterar su uso, comportamiento o funcionamiento, incluidas las vulnerabilidades específicas de la IA, como el envenenamiento de datos o los ataques adversarios, así como, en su caso, los riesgos para los derechos fundamentales, tal como exige el presente Reglamento.

(78)

El procedimiento de evaluación de la conformidad establecido en el presente Reglamento debe aplicarse en relación con los requisitos esenciales de ciberseguridad de un producto con elementos digitales regulado por un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales y clasificado como sistema de IA de alto riesgo con arreglo al presente Reglamento. Sin embargo, esta norma no debe dar lugar a una reducción del nivel de garantía necesario para los productos críticos con elementos digitales sujetos a un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales. Por consiguiente, no obstante lo dispuesto en esta norma, los sistemas de IA de alto riesgo que entran dentro del ámbito de aplicación del presente Reglamento y que también se consideran productos críticos importantes con elementos digitales en virtud de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, y a los que se aplica el procedimiento de evaluación de la conformidad fundamentado en un control interno que se establece en un anexo del presente Reglamento, están sujetos a lo dispuesto en un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales en materia de evaluación de la conformidad por lo que se refiere a los requisitos esenciales de ciberseguridad de dicho reglamento. En tal caso, en relación con todos los demás aspectos que entren en el ámbito de aplicación del presente Reglamento, debe aplicarse lo dispuesto en el anexo VI del presente Reglamento en materia de evaluación de la conformidad fundamentada en un control interno. Habida cuenta de los conocimientos y la experiencia de la Agencia de la Unión Europea para la Ciberseguridad (ENISA) en materia de política de ciberseguridad y de las tareas que se le encomiendan en virtud del Reglamento (UE) 2019/881 del Parlamento Europeo y del Consejo (37), la Comisión debe cooperar con ENISA en las cuestiones relacionadas con la ciberseguridad de los sistemas de IA.

(79)

Conviene que una persona física o jurídica concreta, definida como el proveedor, asuma la responsabilidad asociada a la introducción en el mercado o la puesta en servicio de un sistema de IA de alto riesgo, con independencia de si dicha persona física o jurídica es o no quien diseñó o desarrolló el sistema.

(80)

Como signatarios de la Convención sobre los Derechos de las Personas con Discapacidad, la Unión y todos los Estados miembros están legalmente obligados a proteger a las personas con discapacidad contra la discriminación y a promover su igualdad, a garantizar que las personas con discapacidad tengan acceso, en igualdad de condiciones con las demás, a las tecnologías y sistemas de la información y las comunicaciones, y a garantizar el respeto a la intimidad de las personas con discapacidad. Habida cuenta de la importancia y el uso crecientes de los sistemas de IA, la aplicación de los principios de diseño universal a todas las nuevas tecnologías y servicios debe garantizar el acceso pleno e igualitario de todas las personas a las que puedan afectar las tecnologías de IA o que puedan utilizar dichas tecnologías, incluidas las personas con discapacidad, de forma que se tenga plenamente en cuenta su dignidad y diversidad inherentes. Por ello es esencial que los proveedores garanticen el pleno cumplimiento de los requisitos de accesibilidad, incluidas la Directiva (UE) 2016/2102 del Parlamento Europeo y del Consejo (38) y la Directiva (UE) 2019/882. Los proveedores deben garantizar el cumplimiento de estos requisitos desde el diseño. Por consiguiente, las medidas necesarias deben integrarse en la medida de lo posible en el diseño de los sistemas de IA de alto riesgo.

(81)

El proveedor debe instaurar un sistema de gestión de la calidad sólido, velar por que se siga el procedimiento de evaluación de la conformidad necesario, elaborar la documentación pertinente y establecer un sistema de vigilancia poscomercialización sólido. Los proveedores de sistemas de IA de alto riesgo que estén sujetos a obligaciones relativas a los sistemas de gestión de la calidad con arreglo al Derecho sectorial pertinente de la Unión deben tener la posibilidad de integrar los elementos del sistema de gestión de la calidad establecido en el presente Reglamento en el sistema de gestión de la calidad establecido en dicho Derecho sectorial de la Unión. La complementariedad entre el presente Reglamento y el Derecho sectorial vigente de la Unión también debe tenerse en cuenta en las futuras actividades de normalización o en las orientaciones adoptadas por la Comisión al respecto. Las autoridades públicas que pongan en servicio sistemas de IA de alto riesgo para su propio uso pueden aprobar y aplicar las normas que regulen el sistema de gestión de la calidad en el marco del sistema de gestión de la calidad adoptado a escala nacional o regional, según proceda, teniendo en cuenta las particularidades del sector y las competencias y la organización de la autoridad pública de que se trate.

(82)

Para permitir la ejecución del presente Reglamento y ofrecer igualdad de condiciones a los operadores, es importante velar por que una persona establecida en la Unión pueda, en cualquier circunstancia, facilitar a las autoridades toda la información necesaria sobre la conformidad de un sistema de IA, teniendo en cuenta las distintas formas en que se pueden ofrecer productos digitales. Por lo tanto, antes de comercializar sus sistemas de IA en la Unión, los proveedores establecidos fuera de su territorio deben designar, mediante un mandato escrito, a un representante autorizado que se encuentre en la Unión. El representante autorizado desempeña un papel fundamental a la hora de velar por la conformidad de los sistemas de IA de alto riesgo introducidos en el mercado o puestos en servicio en la Unión por esos proveedores no establecidos en la Unión y servir de persona de contacto establecida en la Unión.

(83)

Teniendo en cuenta la naturaleza y la complejidad de la cadena de valor de los sistemas de IA y de conformidad con el nuevo marco legislativo, es esencial garantizar la seguridad jurídica y facilitar el cumplimiento del presente Reglamento. Por ello es necesario aclarar la función y las obligaciones específicas de los operadores pertinentes de toda dicha cadena de valor, como los importadores y los distribuidores, que pueden contribuir al desarrollo de sistemas de IA. En determinadas situaciones, esos operadores pueden desempeñar más de una función al mismo tiempo y, por lo tanto, deben cumplir de forma acumulativa todas las obligaciones pertinentes asociadas a dichas funciones. Por ejemplo, un operador puede actuar como distribuidor e importador al mismo tiempo.

(84)

Para garantizar la seguridad jurídica, es necesario aclarar que, en determinadas condiciones específicas, debe considerarse proveedor de un sistema de IA de alto riesgo a cualquier distribuidor, importador, responsable del despliegue u otro tercero que, por tanto, debe asumir todas las obligaciones pertinentes. Este sería el caso si, por ejemplo, esa persona pone su nombre o marca en un sistema de IA de alto riesgo ya introducido en el mercado o puesto en servicio, sin perjuicio de los acuerdos contractuales que estipulen otra distribución de las obligaciones. Este también sería el caso si dicha parte modifica sustancialmente un sistema de IA de alto riesgo que ya se haya introducido en el mercado o puesto en servicio de tal manera que el sistema modificado siga siendo un sistema de IA de alto riesgo de conformidad con el presente Reglamento, o si modifica la finalidad prevista de un sistema de IA, como un sistema de IA de uso general, que ya se haya introducido en el mercado o puesto en servicio y que no esté clasificado como sistema de alto riesgo, de tal manera que el sistema modificado pase a ser un sistema de IA de alto riesgo de conformidad con el presente Reglamento. Esas disposiciones deben aplicarse sin perjuicio de las disposiciones más específicas establecidas en determinados actos legislativos de armonización de la Unión basados en el nuevo marco legislativo que se deben aplicar en conjunción con el presente Reglamento. Por ejemplo, el artículo 16, apartado 2, del Reglamento (UE) 2017/745, que establece que determinados cambios no deben considerarse modificaciones de un producto que puedan afectar al cumplimiento de los requisitos aplicables, debe seguir aplicándose a los sistemas de IA de alto riesgo que sean productos sanitarios en el sentido de dicho Reglamento.

(85)

Los sistemas de IA de uso general pueden utilizarse como sistemas de IA de alto riesgo por sí solos o ser componentes de sistemas de IA de alto riesgo. Así pues, debido a su particular naturaleza y a fin de garantizar un reparto equitativo de responsabilidades a lo largo de toda la cadena de valor, los proveedores de tales sistemas, con independencia de que estos sistemas puedan ser utilizados como sistemas de IA de alto riesgo por sí solos por otros proveedores o como componentes de sistemas de IA de alto riesgo, y salvo que se disponga otra cosa en el presente Reglamento, deben cooperar estrechamente con los proveedores de los sistemas de IA de alto riesgo correspondientes para que estos puedan cumplir las obligaciones pertinentes en virtud del presente Reglamento, así como con las autoridades competentes establecidas en virtud del presente Reglamento.

(86)

Cuando, con arreglo a las condiciones establecidas en el presente Reglamento, el proveedor que introdujo inicialmente el sistema de IA en el mercado o lo puso en servicio ya no deba considerarse el proveedor a los efectos del presente Reglamento, y cuando dicho proveedor no haya excluido expresamente la transformación del sistema de IA en un sistema de IA de alto riesgo, el primer proveedor debe, no obstante, cooperar estrechamente, facilitar la información necesaria y proporcionar el acceso técnico u otra asistencia que quepa esperar razonablemente y que sean necesarios para el cumplimiento de las obligaciones establecidas en el presente Reglamento, en particular en lo que respecta al cumplimiento de la evaluación de la conformidad de los sistemas de IA de alto riesgo.

(87)

Además, cuando un sistema de IA de alto riesgo que sea un componente de seguridad de un producto que entre dentro del ámbito de aplicación de un acto legislativo de armonización de la Unión basado en el nuevo marco legislativo no se introduzca en el mercado ni se ponga en servicio de forma independiente del producto, el fabricante del producto, tal como se define en el acto legislativo pertinente, debe cumplir las obligaciones que el presente Reglamento impone al proveedor y, en particular, debe garantizar que el sistema de IA integrado en el producto final cumpla los requisitos del presente Reglamento.

(88)

A lo largo de la cadena de valor de la IA, numerosas partes suministran a menudo no solo sistemas, herramientas y servicios de IA, sino también componentes o procesos que el proveedor incorpora al sistema de IA con diversos objetivos, como el entrenamiento de modelos, el reentrenamiento de modelos, la prueba y evaluación de modelos, la integración en el software u otros aspectos del desarrollo de modelos. Dichas partes desempeñan un papel importante en la cadena de valor en relación con el proveedor del sistema de IA de alto riesgo en el que se integran sus sistemas, herramientas, servicios, componentes o procesos de IA, y deben proporcionar a dicho proveedor, mediante acuerdo escrito, la información, las capacidades, el acceso técnico y demás asistencia que sean necesarios habida cuenta del estado actual de la técnica generalmente reconocido, a fin de que el proveedor pueda cumplir íntegramente las obligaciones establecidas en el presente Reglamento, sin comprometer sus propios derechos de propiedad intelectual e industrial o secretos comerciales.

(89)

A los terceros que ponen a disposición del público herramientas, servicios, procesos o componentes de IA que no sean modelos de IA de uso general no se les debe imponer la obligación de cumplir los requisitos relativos a las responsabilidades a lo largo de la cadena de valor de la IA, en particular por lo que respecta al proveedor que haya utilizado o integrado dichas herramientas, servicios, procesos o componentes de IA, cuando el acceso a dichas herramientas, servicios, procesos o componentes de IA esté sujeto a una licencia libre y de código abierto. No obstante, se debe animar a los desarrolladores de herramientas, servicios, procesos o componentes de IA libres y de código abierto que no sean modelos de IA de uso general a que apliquen prácticas de documentación ampliamente adoptadas, como tarjetas de modelo y hojas de datos, como una forma de acelerar el intercambio de información a lo largo de la cadena de valor de la IA, permitiendo la promoción en la Unión de sistemas de IA fiables.

(90)

La Comisión podría elaborar y recomendar cláusulas contractuales tipo, de carácter voluntario, entre los proveedores de sistemas de IA de alto riesgo y los terceros que suministren herramientas, servicios, componentes o procesos que se utilicen o integren en los sistemas de IA de alto riesgo, a fin de facilitar la cooperación a lo largo de la cadena de valor. Cuando elabore estas cláusulas contractuales tipo de carácter voluntario, la Comisión también debe tener en cuenta los posibles requisitos contractuales aplicables en determinados sectores o modelos de negocio.

(91)

Habida cuenta de las características de los sistemas de IA y de los riesgos que su uso lleva aparejado para la seguridad y los derechos fundamentales, también en lo que respecta a la necesidad de garantizar la correcta vigilancia del funcionamiento de un sistema de IA en un entorno real, conviene establecer las responsabilidades específicas de los responsables del despliegue. En particular, los responsables del despliegue deben adoptar las medidas técnicas y organizativas adecuadas para garantizar que utilizan los sistemas de IA de alto riesgo conforme a las instrucciones de uso. Además, es preciso definir otras obligaciones en relación con la vigilancia del funcionamiento de los sistemas de IA y la conservación de registros, según proceda. Asimismo, los responsables del despliegue deben garantizar que las personas encargadas de poner en práctica las instrucciones de uso y la supervisión humana establecidas en el presente Reglamento tengan las competencias necesarias, en particular un nivel adecuado de alfabetización, formación y autoridad en materia de IA para desempeñar adecuadamente dichas tareas. Dichas obligaciones deben entenderse sin perjuicio de otras obligaciones que tenga el responsable del despliegue en relación con los sistemas de IA de alto riesgo con arreglo al Derecho nacional o de la Unión.

(92)

El presente Reglamento se entiende sin perjuicio de la obligación de los empleadores de informar o de informar y consultar a los trabajadores o a sus representantes, en virtud del Derecho o las prácticas nacionales o de la Unión, incluida la Directiva 2002/14/CE del Parlamento Europeo y del Consejo (39), sobre la decisión de poner en servicio o utilizar sistemas de IA. Se debe velar por que se informe a los trabajadores y a sus representantes sobre el despliegue previsto de sistemas de IA de alto riesgo en el lugar de trabajo incluso aunque no se cumplan las condiciones de las citadas obligaciones de información o de información y consulta previstas en otros instrumentos jurídicos. Además, este derecho de información es accesorio y necesario para el objetivo de protección de los derechos fundamentales que subyace al presente Reglamento. Por consiguiente, debe establecerse en el presente Reglamento un requisito de información a tal efecto, sin que dicho requisito afecte a ningún derecho vigente de los trabajadores.

(93)

Aunque los riesgos relacionados con los sistemas de IA pueden derivarse de su diseño, también pueden derivarse riesgos del uso que se hace de ellos. Por ello, los responsables del despliegue de un sistema de IA de alto riesgo desempeñan un papel fundamental a la hora de garantizar la protección de los derechos fundamentales, como complemento de las obligaciones del proveedor al desarrollar el sistema de IA. Los responsables del despliegue se encuentran en una posición óptima para comprender el uso concreto que se le dará al sistema de IA de alto riesgo y pueden, por lo tanto, detectar potenciales riesgos significativos que no se previeron en la fase de desarrollo, al tener un conocimiento más preciso del contexto de uso y de las personas o los colectivos de personas que probablemente se vean afectados, entre los que se incluyen colectivos vulnerables. Los responsables del despliegue de los sistemas de IA de alto riesgo que se enumeran en un anexo del presente Reglamento también desempeñan un papel fundamental a la hora de informar a las personas físicas y, cuando tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas, deben, en su caso, informar a las personas físicas de que son objeto de la utilización de un sistema de IA de alto riesgo. Esta información debe incluir la finalidad prevista y el tipo de decisiones que se toman. El responsable del despliegue también debe informar a las personas físicas de su derecho a una explicación con arreglo al presente Reglamento. Por lo que respecta a los sistemas de IA de alto riesgo que se utilizan a efectos de la garantía del cumplimiento del Derecho, esa obligación debe ejecutarse de conformidad con el artículo 13 de la Directiva (UE) 2016/680.

(94)

Todo tratamiento de datos biométricos que se produzca en el marco de la utilización de un sistema de IA para la identificación biométrica con fines de garantía del cumplimiento del Derecho debe cumplir lo dispuesto en el artículo 10 de la Directiva (UE) 2016/680, que permite dicho tratamiento solo cuando sea estrictamente necesario, con sujeción a las salvaguardias adecuadas para los derechos y libertades del interesado y cuando así lo autorice el Derecho de la Unión o de los Estados miembros. Dicho uso, cuando esté autorizado, también debe respetar los principios establecidos en el artículo 4, apartado 1, de la Directiva (UE) 2016/680, como, entre otros, que el tratamiento sea lícito y leal, la transparencia, la limitación de la finalidad, la exactitud y la limitación del plazo de conservación.

(95)

Sin perjuicio del Derecho de la Unión aplicable, en particular el Reglamento (UE) 2016/679 y la Directiva (UE) 2016/680, teniendo en cuenta el carácter intrusivo de los sistemas de identificación biométrica remota en diferido, el uso de este tipo de sistemas debe estar sujeto a garantías. Los sistemas de identificación biométrica remota en diferido deben utilizarse siempre de manera proporcionada y legítima, en la medida de lo estrictamente necesario y, por ende, de forma selectiva por lo que respecta a las personas que deben identificarse, la ubicación y el alcance temporal y a partir de un conjunto limitado de datos de grabaciones de vídeo obtenidas legalmente. En cualquier caso, los sistemas de identificación biométrica remota en diferido no deben utilizarse en el marco de la garantía del cumplimiento del Derecho de tal forma que se produzca una vigilancia indiscriminada. Las condiciones para la identificación biométrica remota en diferido en ningún caso deben servir para eludir las condiciones de la prohibición y las estrictas excepciones aplicables a la identificación biométrica remota en tiempo real.

(96)

A fin de garantizar eficazmente la protección de los derechos fundamentales, los responsables del despliegue de sistemas de IA de alto riesgo que sean organismos de Derecho público, o las entidades privadas que presten servicios públicos y los responsables del despliegue de determinados sistemas de IA de alto riesgo enumerados en un anexo del presente Reglamento, como las entidades bancarias o de seguros, deben llevar a cabo una evaluación de impacto relativa a los derechos fundamentales antes de su puesta en funcionamiento. Algunos servicios importantes para las personas que son de carácter público también pueden ser prestados por entidades privadas. Las entidades privadas que prestan estos servicios públicos se vinculan a funciones de interés público, por ejemplo, en el ámbito de la educación, la asistencia sanitaria, los servicios sociales, la vivienda y la administración de justicia. El objetivo de la evaluación de impacto relativa a los derechos fundamentales es que el responsable del despliegue determine los riesgos específicos para los derechos de las personas o colectivos de personas que probablemente se vean afectados y defina las medidas que deben adoptarse en caso de que se materialicen dichos riesgos. La evaluación de impacto debe llevarse a cabo antes del despliegue del sistema de IA de alto riesgo y debe actualizarse cuando el responsable del despliegue considere que alguno de los factores pertinentes ha cambiado. La evaluación de impacto debe determinar los procesos pertinentes del responsable del despliegue en los que se utilizará el sistema de IA de alto riesgo en consonancia con su finalidad prevista y debe incluir una descripción del plazo de tiempo y la frecuencia en que se pretende utilizar el sistema, así como de las categorías concretas de personas físicas y de colectivos de personas que probablemente se vean afectados por el uso del sistema de IA de alto riesgo en ese contexto de uso específico. La evaluación también debe determinar los riesgos de perjuicio específicos que probablemente afecten a los derechos fundamentales de dichas personas o colectivos. Al llevar a cabo esta evaluación, el responsable del despliegue debe tener en cuenta la información pertinente para una evaluación adecuada del impacto, lo que incluye, por ejemplo, la información facilitada por el proveedor del sistema de IA de alto riesgo en las instrucciones de uso. A la luz de los riesgos detectados, los responsables del despliegue deben determinar las medidas que han de adoptarse en caso de que se materialicen dichos riesgos, entre las que se incluyen, por ejemplo, sistemas de gobernanza para ese contexto de uso específico, como los mecanismos de supervisión humana con arreglo a las instrucciones de uso, los procedimientos de tramitación de reclamaciones y de recurso, ya que podrían ser fundamentales para mitigar los riesgos para los derechos fundamentales en casos de uso concretos. Tras llevar a cabo dicha evaluación de impacto, el responsable del despliegue debe notificarlo a la autoridad de vigilancia del mercado pertinente. Cuando proceda, para recopilar la información pertinente necesaria para llevar a cabo la evaluación de impacto, los responsables del despliegue de un sistema de IA de alto riesgo, en particular cuando el sistema de IA se utilice en el sector público, pueden contar con la participación de las partes interesadas pertinentes, como, por ejemplo, los representantes de colectivos de personas que probablemente se vean afectados por el sistema de IA, expertos independientes u organizaciones de la sociedad civil, en la realización de dichas evaluaciones de impacto y en el diseño de las medidas que deben adoptarse en caso de materialización de los riesgos. La Oficina Europea de Inteligencia Artificial (en lo sucesivo, «Oficina de IA») debe elaborar un modelo de cuestionario con el fin de facilitar el cumplimiento y reducir la carga administrativa para los responsables del despliegue.

(97)

El concepto de modelos de IA de uso general debe definirse claramente y diferenciarse del concepto de sistemas de IA con el fin de garantizar la seguridad jurídica. La definición debe basarse en las características funcionales esenciales de un modelo de IA de uso general, en particular la generalidad y la capacidad de realizar de manera competente una amplia variedad de tareas diferenciadas. Estos modelos suelen entrenarse usando grandes volúmenes de datos y a través de diversos métodos, como el aprendizaje autosupervisado, no supervisado o por refuerzo. Los modelos de IA de uso general pueden introducirse en el mercado de diversas maneras, por ejemplo, a través de bibliotecas, interfaces de programación de aplicaciones (API), como descarga directa o como copia física. Estos modelos pueden modificarse o perfeccionarse y transformarse en nuevos modelos. Aunque los modelos de IA son componentes esenciales de los sistemas de IA, no constituyen por sí mismos sistemas de IA. Los modelos de IA requieren que se les añadan otros componentes, como, por ejemplo, una interfaz de usuario, para convertirse en sistemas de IA. Los modelos de IA suelen estar integrados en los sistemas de IA y formar parte de dichos sistemas. El presente Reglamento establece normas específicas para los modelos de IA de uso general y para los modelos de IA de uso general que entrañan riesgos sistémicos, que deben aplicarse también cuando estos modelos estén integrados en un sistema de IA o formen parte de un sistema de IA. Debe entenderse que las obligaciones de los proveedores de modelos de IA de uso general deben aplicarse una vez que los modelos de IA de uso general se introduzcan en el mercado. Cuando el proveedor de un modelo de IA de uso general integre un modelo propio en un sistema de IA propio que se comercialice o ponga en servicio, se debe considerar que dicho modelo se ha introducido en el mercado y, por tanto, se deben seguir aplicando las obligaciones establecidas en el presente Reglamento en relación con los modelos, además de las establecidas en relación con los sistemas de IA. En cualquier caso, las obligaciones establecidas en relación con los modelos no deben aplicarse cuando un modelo propio se utilice en procesos puramente internos que no sean esenciales para suministrar un producto o un servicio a un tercero y los derechos de las personas físicas no se vean afectados. Teniendo en cuenta su potencial para causar efectos negativos importantes, los modelos de IA de uso general con riesgo sistémico deben estar siempre sujetos a las obligaciones pertinentes establecidas en el presente Reglamento. La definición no debe incluir los modelos de IA utilizados antes de su introducción en el mercado únicamente para actividades de investigación, desarrollo y creación de prototipos. Lo anterior se entiende sin perjuicio de la obligación de cumplir lo dispuesto en el presente Reglamento cuando, tras haber realizado dichas actividades, el modelo se introduzca en el mercado.

(98)

Aunque la generalidad de un modelo también podría determinarse, entre otras cosas, mediante una serie de parámetros, debe considerarse que los modelos que tengan al menos mil millones de parámetros y se hayan entrenado con un gran volumen de datos utilizando la autosupervisión a escala presentan un grado significativo de generalidad y realizan de manera competente una amplia variedad de tareas diferenciadas.

(99)

Los grandes modelos de IA generativa son un ejemplo típico de un modelo de IA de uso general, ya que permiten la generación flexible de contenidos, por ejemplo, en formato de texto, audio, imágenes o vídeo, que pueden adaptarse fácilmente a una amplia gama de tareas diferenciadas.

(100)

Cuando un modelo de IA de uso general esté integrado en un sistema de IA o forme parte de él, este sistema debe considerarse un sistema de IA de uso general cuando, debido a esta integración, el sistema tenga la capacidad de servir a diversos fines. Un sistema de IA de uso general puede utilizarse directamente e integrarse en otros sistemas de IA.

(101)

Los proveedores de modelos de IA de uso general tienen una función y una responsabilidad particulares a lo largo de la cadena de valor de la IA, ya que los modelos que suministran pueden constituir la base de diversos sistemas de etapas posteriores, que a menudo son suministrados por proveedores posteriores que necesitan entender bien los modelos y sus capacidades, tanto para permitir la integración de dichos modelos en sus productos como para cumplir sus obligaciones en virtud del presente Reglamento o de otros reglamentos. Por consiguiente, deben establecerse medidas de transparencia proporcionadas, lo que incluye elaborar documentación y mantenerla actualizada y facilitar información sobre el modelo de IA de uso general para su uso por parte de los proveedores posteriores. El proveedor del modelo de IA de uso general debe elaborar y mantener actualizada la documentación técnica con el fin de ponerla a disposición, previa solicitud, de la Oficina de IA y de las autoridades nacionales competentes. Los elementos mínimos que debe contener dicha documentación deben establecerse en anexos específicos del presente Reglamento. La Comisión debe estar facultada para modificar dichos anexos mediante actos delegados en función de los avances tecnológicos.

(102)

El software y los datos, incluidos los modelos, divulgados con arreglo a una licencia libre y de código abierto que permita compartirlos abiertamente y que los usuarios puedan acceder a ellos, o a versiones modificadas de dicho software y dichos datos, o utilizarlos, modificarlos y redistribuirlos libremente, pueden contribuir a la investigación y la innovación en el mercado y pueden ofrecer importantes oportunidades de crecimiento para la economía de la Unión. Debe considerarse que los modelos de IA de uso general divulgados con arreglo a una licencia libre y de código abierto garantizan altos niveles de transparencia y apertura si sus parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se ponen a disposición del público. La licencia debe considerarse libre y de código abierto cuando permita a los usuarios ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software y los datos, incluidos los modelos a condición de que se cite al proveedor original del modelo, si se respetan unas condiciones de distribución idénticas o comparables.

(103)

Los componentes de IA libres y de código abierto comprenden el software y los datos, incluidos los modelos y los modelos de IA de uso general, las herramientas, los servicios y los procesos de un sistema de IA. Los componentes de IA libres y de código abierto pueden suministrarse a través de diferentes canales, lo que incluye la posibilidad de desarrollarlos en repositorios abiertos. A los efectos del presente Reglamento, los componentes de IA que se suministren a cambio de una contraprestación o que se moneticen de cualquier otro modo, como, por ejemplo, mediante la prestación de apoyo técnico u otros servicios en relación con el componente de IA, ya sea a través de una plataforma de software o por otros medios, o mediante el uso de datos personales con fines que no se refieran exclusivamente a la mejora de la seguridad, la compatibilidad o la interoperabilidad del software, salvo si se trata de operaciones entre microempresas, no deben poder acogerse a las excepciones previstas para los componentes de IA libres y de código abierto. La disponibilidad de un componente de IA a través de repositorios abiertos no debe constituir, de por sí, una monetización.

(104)

Los proveedores de modelos de IA de uso general divulgados con arreglo a una licencia libre y de código abierto cuyos parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se ponen a disposición del público deben estar sujetos a excepciones por lo que respecta a los requisitos de transparencia que se imponen a los modelos de IA de uso general, a menos que pueda considerarse que presentan un riesgo sistémico, en cuyo caso la circunstancia de que el modelo sea transparente y vaya acompañado de una licencia de código abierto no debe considerarse una razón suficiente para que quede exento del cumplimiento de las obligaciones establecidas en el presente Reglamento. En cualquier caso, dado que la divulgación de modelos de IA de uso general con arreglo a una licencia libre y de código abierto no necesariamente revela información sustancial sobre el conjunto de datos utilizado para entrenar el modelo o realizar ajustes en relación con este ni sobre la manera en que se garantizó el cumplimiento del Derecho en materia de derechos de autor, la excepción prevista para los modelos de IA de uso general en relación con el cumplimiento de los requisitos de transparencia no debe eximir de la obligación de presentar un resumen del contenido utilizado para el entrenamiento del modelo ni de la obligación de adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor, en particular para identificar y respetar la reserva de derechos prevista en el artículo 4, apartado 3, de la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo (40).

(105)

Los modelos de IA de uso general, en particular los grandes modelos de IA generativos, capaces de generar texto, imágenes y otros contenidos, presentan unas oportunidades de innovación únicas, pero también representan un desafío para los artistas, autores y demás creadores y para la manera en que se crea, distribuye, utiliza y consume su contenido creativo. El desarrollo y el entrenamiento de estos modelos requiere acceder a grandes cantidades de texto, imágenes, vídeos y otros datos. Las técnicas de prospección de textos y datos pueden utilizarse ampliamente en este contexto para la recuperación y el análisis de tales contenidos, que pueden estar protegidos por derechos de autor y derechos afines. Todo uso de contenidos protegidos por derechos de autor requiere la autorización del titular de los derechos de que se trate, salvo que se apliquen las excepciones y limitaciones pertinentes en materia de derechos de autor. La Directiva (UE) 2019/790 introdujo excepciones y limitaciones que permiten reproducciones y extracciones de obras y otras prestaciones con fines de prospección de textos y datos en determinadas circunstancias. Con arreglo a estas normas, los titulares de derechos pueden optar por reservarse sus derechos en relación con sus obras u otras prestaciones para evitar la prospección de textos y datos, salvo que su finalidad sea la investigación científica. Cuando el titular del derecho se haya reservado de manera adecuada el derecho de exclusión, los proveedores de modelos de IA de uso general deben obtener su autorización para llevar a cabo una prospección de textos y datos con dichas obras.

(106)

Los proveedores que introduzcan modelos de IA de uso general en el mercado de la Unión deben garantizar el cumplimiento de las obligaciones pertinentes establecidas en el presente Reglamento. A tal fin, los proveedores de modelos de IA de uso general deben adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor y derechos afines, en particular para detectar y cumplir la reserva de derechos expresada por los titulares de derechos con arreglo al artículo 4, apartado 3, de la Directiva (UE) 2019/790. Todo proveedor que introduzca un modelo de IA de uso general en el mercado de la Unión debe cumplir esta obligación, independientemente de la jurisdicción en la que tengan lugar los actos pertinentes en materia de derechos de autor que sustentan el entrenamiento de dichos modelos de IA de uso general. Esta medida es necesaria para garantizar unas condiciones de competencia equitativas entre los proveedores de modelos de IA de uso general que impidan que un proveedor obtenga una ventaja competitiva en el mercado de la Unión aplicando normas en materia de derechos de autor menos estrictas que las establecidas en la Unión.

(107)

Con el fin de aumentar la transparencia en relación con los datos utilizados en el entrenamiento previo y el entrenamiento de los modelos de IA de uso general, incluidos los textos y los datos protegidos por el Derecho en materia de derechos de autor, procede que los proveedores de dichos modelos elaboren y pongan a disposición del público un resumen suficientemente detallado de los contenidos utilizados para el entrenamiento del modelo de IA de uso general. Este resumen debe tener debidamente en cuenta la necesidad de proteger los secretos comerciales y la información empresarial confidencial y, al mismo tiempo, debe ser exhaustivo en general en su alcance en vez de técnicamente detallado, a fin de facilitar que las partes con intereses legítimos, incluidos los titulares de derechos de autor, ejerzan y hagan cumplir sus derechos en virtud del Derecho de la Unión, por ejemplo, enumerando los principales conjuntos o recopilaciones de datos que hayan servido para entrenar al modelo, como los grandes archivos de datos o bases de datos privados o públicos, y proporcionando una explicación descriptiva sobre otras fuentes de datos utilizadas. Conviene que la Oficina de IA proporcione un modelo para el resumen, que debe ser sencillo y eficaz y permitir que el proveedor proporcione el resumen requerido en forma descriptiva.

(108)

Por lo que se refiere a las obligaciones impuestas a los proveedores de modelos de IA de uso general de adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor y de poner a disposición del público un resumen de los contenidos utilizados para el entrenamiento, la Oficina de IA debe supervisar si el proveedor ha cumplido dichas obligaciones sin verificar ni proceder a una evaluación obra por obra de los datos de entrenamiento en cuanto al respeto de los derechos de autor. El presente Reglamento no afecta al cumplimiento de las normas en materia de derechos de autor previstas en el Derecho de la Unión.

(109)

El cumplimiento de las obligaciones aplicables a los proveedores de modelos de IA de uso general debe ser proporcionado y adecuado al tipo de proveedor de modelos. Debe eximirse de la obligación de cumplimiento a las personas que desarrollan o utilizan modelos con fines no profesionales o de investigación científica. No obstante, debe animarse a estas personas a cumplir voluntariamente estos requisitos. Sin perjuicio del Derecho de la Unión en materia de derechos de autor, el cumplimiento de esas obligaciones debe tener debidamente en cuenta el tamaño del proveedor y permitir formas simplificadas de cumplimiento para las pymes, incluidas las empresas emergentes, que no deben suponer un coste excesivo ni desincentivar el uso de dichos modelos. En caso de que se modifique o ajuste un modelo, las obligaciones de los proveedores de modelos de IA de uso general deben limitarse a esa modificación o esos ajustes, por ejemplo, complementando la documentación técnica ya existente con información sobre las modificaciones, incluidas las nuevas fuentes de datos de entrenamiento, para cumplir las obligaciones relacionadas con la cadena de valor establecidas en el presente Reglamento.

(110)

Los modelos de IA de uso general pueden plantear riesgos sistémicos, por ejemplo, cualquier efecto negativo real o razonablemente previsible en relación con accidentes graves, perturbaciones de sectores críticos y consecuencias graves para la salud y la seguridad públicas, cualquier efecto negativo real o razonablemente previsible sobre los procesos democráticos y la seguridad pública y económica o la difusión de contenidos ilícitos, falsos o discriminatorios. Debe entenderse que los riesgos sistémicos aumentan con las capacidades y el alcance de los modelos, pueden surgir durante todo el ciclo de vida del modelo y se ven influidos por las condiciones de uso indebido, la fiabilidad del modelo, la equidad y la seguridad del modelo, el nivel de autonomía del modelo, su acceso a herramientas, modalidades novedosas o combinadas, las estrategias de divulgación y distribución, la posibilidad de eliminar las salvaguardias y otros factores. En particular, los enfoques internacionales han establecido hasta la fecha la necesidad de prestar atención a los riesgos derivados de posibles usos indebidos intencionados o de problemas en materia de control relacionados con la armonización con la intención humana no deseados, a los riesgos químicos, biológicos, radiológicos y nucleares, como las maneras en que las barreras a la entrada pueden reducirse, también para el desarrollo, el diseño, la adquisición o el uso de armas, a las cibercapacidades ofensivas, como las maneras en que pueden propiciarse el descubrimiento, la explotación o el uso operativo de vulnerabilidades, a los efectos de la interacción y el uso de herramientas, incluida, por ejemplo, la capacidad de controlar sistemas físicos e interferir en el funcionamiento de infraestructuras críticas, a los riesgos derivados del hecho que los modelos hagan copias de sí mismos o se «autorrepliquen» o entrenen a otros modelos, a las maneras en que los modelos pueden dar lugar a sesgos dañinos y discriminación que entrañan riesgos para las personas, las comunidades o las sociedades, a la facilitación de la desinformación o el menoscabo de la intimidad, que suponen una amenaza para los valores democráticos y los derechos humanos, al riesgo de que un acontecimiento concreto dé lugar a una reacción en cadena con efectos negativos considerables que podrían afectar incluso a una ciudad entera, un ámbito de actividad entero o una comunidad entera.

(111)

Conviene establecer una metodología para la clasificación de los modelos de IA de uso general como modelos de IA de uso general con riesgos sistémicos. Dado que los riesgos sistémicos se derivan de capacidades especialmente elevadas, debe considerarse que un modelo de IA de uso general presenta riesgos sistémicos si tiene capacidades de gran impacto —evaluadas mediante herramientas y metodologías técnicas adecuadas— o unas repercusiones considerables en el mercado interior debido a su alcance. Las capacidades de gran impacto en modelos de IA de uso general son capacidades que igualan o superan las capacidades mostradas por los modelos de IA de uso general más avanzados. La introducción en el mercado de un modelo o las interacciones de los responsables del despliegue con él permiten comprender mejor el conjunto de sus capacidades. Según el estado de la técnica en el momento de la entrada en vigor del presente Reglamento, la cantidad acumulada de cálculo utilizado para el entrenamiento del modelo de IA de uso general, medida en operaciones de coma flotante, es una de las aproximaciones pertinentes para las capacidades del modelo. La cantidad acumulada de cálculo utilizado para el entrenamiento incluye los cálculos utilizados en las distintas actividades y métodos destinados a mejorar las capacidades del modelo antes del despliegue, como el entrenamiento previo, la generación de datos sintéticos y la realización de ajustes. Por lo tanto, debe establecerse un umbral inicial de operaciones de coma flotante que, de ser alcanzado por un modelo de IA de uso general, dé lugar a la presunción de que el modelo es un modelo de IA de uso general con riesgos sistémicos. Este umbral deberá irse ajustando para reflejar los cambios tecnológicos e industriales, como las mejoras algorítmicas o el aumento de la eficiencia del hardware, y debe complementarse con parámetros de referencia e indicadores de la capacidad de los modelos. Para fundamentar esto, la Oficina de IA debe colaborar con la comunidad científica, la industria, la sociedad civil y otros expertos. Los umbrales, así como las herramientas y los parámetros de referencia para la evaluación de las capacidades de gran impacto, deben servir para predecir con fiabilidad la generalidad, las capacidades y el riesgo sistémico asociado de los modelos de IA de uso general, y podrían tener en cuenta la manera en que el modelo se introducirá en el mercado o el número de usuarios a los que podría afectar. Para complementar este sistema, la Comisión debe poder adoptar decisiones individuales por las que se designe un modelo de IA de uso general como modelo de IA de uso general con riesgo sistémico si se determina que dicho modelo tiene capacidades o repercusiones equivalentes a las reflejadas por el umbral establecido. Dicha decisión debe adoptarse atendiendo a una evaluación global de los criterios para la designación de modelos de IA de uso general con riesgo sistémico establecidos en un anexo del presente Reglamento, como la calidad o el tamaño del conjunto de datos de entrenamiento, el número de usuarios profesionales y finales, sus modalidades de entrada y de salida, su nivel de autonomía y escalabilidad o las herramientas a las que tiene acceso. Previa solicitud motivada de un proveedor cuyo modelo haya sido designado como modelo de IA de uso general con riesgo sistémico, la Comisión debe tener en cuenta la solicitud y podrá decidir reevaluar si puede seguir considerándose que el modelo de IA de uso general presenta riesgos sistémicos.

(112)

También es necesario aclarar un procedimiento para la clasificación de un modelo de IA de uso general con riesgos sistémicos. Debe presumirse que un modelo de IA de uso general que alcanza el umbral aplicable para las capacidades de gran impacto es un modelo de IA de uso general con riesgo sistémico. El proveedor debe enviar una notificación a la Oficina de IA a más tardar dos semanas después de que se cumplan los requisitos o de que se sepa que un modelo de IA de uso general cumplirá los requisitos que conducen a la presunción. Esto es especialmente pertinente en relación con el umbral de operaciones de coma flotante, ya que el entrenamiento de los modelos de IA de uso general requiere una planificación considerable que incluye la asignación previa de recursos computacionales y, por tanto, los proveedores de modelos de IA de uso general pueden saber si su modelo alcanzará el umbral antes del fin del entrenamiento. En el contexto de dicha notificación, el proveedor debe poder demostrar que, debido a sus características específicas, un modelo de IA de uso general no presenta excepcionalmente riesgos sistémicos y que, por tanto, no debe clasificarse como modelo de IA de uso general con riesgos sistémicos. Esa información es valiosa para que la Oficina de IA anticipe la introducción en el mercado de modelos de IA de uso general con riesgos sistémicos y para que los proveedores pueden empezar a colaborar con la Oficina de IA en una fase temprana. Dicha información es especialmente importante cuando esté previsto divulgar un modelo de IA de uso general como modelo de código abierto, dado que, tras la divulgación de modelos de código abierto, puede resultar más difícil aplicar las medidas necesarias para garantizar el cumplimiento de las obligaciones establecidas en el presente Reglamento.

(113)

Si la Comisión descubre que un modelo de IA de uso general del que no tenía conocimiento o que el proveedor pertinente no le había notificado cumple los requisitos para ser clasificado como modelo de IA de uso general con riesgo sistémico, la Comisión debe estar facultada para designarlo. Además de las actividades de supervisión de la Oficina de IA, un sistema de alertas cualificadas debe garantizar que la Oficina de IA sea informada por el grupo de expertos científicos de la existencia de modelos de IA de uso general que podrían ser clasificados como modelos de IA de uso general con riesgo sistémico.

(114)

Los proveedores de modelos de IA de uso general que presenten riesgos sistémicos deben estar sujetos, además de a las obligaciones impuestas a los proveedores de modelos de IA de uso general, a obligaciones encaminadas a detectar y atenuar dichos riesgos y a garantizar un nivel adecuado de protección en materia de ciberseguridad, independientemente de si dichos modelos se ofrecen como modelos independientes o están integrados en sistemas de IA o en productos. Para alcanzar esos objetivos, el presente Reglamento debe exigir a los proveedores que lleven a cabo las evaluaciones de los modelos necesarias, en particular antes de la primera introducción en el mercado, y que, por ejemplo, lleven a cabo y documenten pruebas de simulación de adversarios, también, según proceda, mediante pruebas externas independientes o pruebas internas. Además, los proveedores de modelos de IA de uso general con riesgos sistémicos deben evaluar y mitigar continuamente los riesgos sistémicos, por ejemplo, mediante el establecimiento de políticas de gestión de riesgos, como procesos de rendición de cuentas y gobernanza, la puesta en práctica de la vigilancia poscomercialización, la adopción de medidas adecuadas durante todo el ciclo de vida del modelo y la cooperación con los agentes pertinentes a lo largo de la cadena de valor de la IA.

(115)

Los proveedores de modelos de IA de uso general con riesgos sistémicos deben evaluar y mitigar los posibles riesgos sistémicos. Si, a pesar de los esfuerzos por detectar y prevenir los riesgos relacionados con un modelo de IA de uso general que pueda presentar riesgos sistémicos, el desarrollo o el uso del modelo provoca un incidente grave, el proveedor del modelo de IA de uso general debe, sin demora indebida, hacer un seguimiento del incidente y comunicar toda la información pertinente y las posibles medidas correctoras a la Comisión y a las autoridades nacionales competentes. Además, los proveedores deben garantizar que el modelo y su infraestructura física, si procede, tengan un nivel adecuado de protección en materia de ciberseguridad durante todo el ciclo de vida del modelo. La protección en materia de ciberseguridad relacionada con los riesgos sistémicos asociados al uso malintencionado o a los ataques debe tener debidamente en cuenta las fugas accidentales de modelos, las divulgaciones no autorizadas, la elusión de las medidas de seguridad y la defensa contra los ciberataques, el acceso no autorizado o el robo de modelos. Esa protección podría facilitarse asegurando los pesos, los algoritmos, los servidores y los conjuntos de datos del modelo, por ejemplo, mediante medidas de seguridad operativa para la seguridad de la información, medidas específicas en materia de ciberseguridad, soluciones técnicas adecuadas y establecidas y controles de acceso cibernéticos y físicos, en función de las circunstancias pertinentes y los riesgos existentes.

(116)

La Oficina de IA debe fomentar y facilitar la elaboración, revisión y adaptación de códigos de buenas prácticas, teniendo en cuenta los enfoques internacionales. Podría invitarse a participar a todos los proveedores de modelos de IA de uso general. Para garantizar que los códigos de buenas prácticas reflejen el estado actual de la técnica y tengan debidamente en cuenta perspectivas distintas, la Oficina de IA debe colaborar con las autoridades nacionales competentes pertinentes y, cuando proceda, podrá consultar a organizaciones de la sociedad civil y a otras partes interesadas y expertos pertinentes, incluido el Grupo de Expertos Científicos, por lo que respecta a la elaboración de dichos códigos. Los códigos de buenas prácticas deben comprender las obligaciones de los proveedores de modelos de IA de uso general y de modelos de IA de uso general que presenten riesgos sistémicos. Además, en lo que respecta a los riesgos sistémicos, los códigos de buenas prácticas deben ayudar a establecer una taxonomía de riesgos en la que figuren el tipo y la naturaleza de los riesgos sistémicos a escala de la Unión, incluidas sus fuentes. Asimismo, los códigos de buenas prácticas deben centrarse en medidas específicas de evaluación y reducción de riesgos.

(117)

Los códigos de buenas prácticas deben constituir una herramienta fundamental para el cumplimiento adecuado de las obligaciones previstas en el presente Reglamento para los proveedores de modelos de IA de uso general. Los proveedores deben poder basarse en códigos de buenas prácticas para demostrar el cumplimiento de las obligaciones. Mediante actos de ejecución, la Comisión podrá decidir aprobar un código de buenas prácticas y conferirle una validez general dentro de la Unión o, alternativamente, establecer normas comunes para la puesta en práctica de las obligaciones pertinentes si, para el momento en que el presente Reglamento sea aplicable, no ha podido finalizarse un código de buenas prácticas o la Oficina de IA no lo considera adecuado. Una vez que se haya publicado una norma armonizada y que la Oficina de IA la considere adecuada para cubrir las obligaciones pertinentes, el cumplimiento de una norma armonizada europea debe dar a los proveedores la presunción de conformidad. Además, los proveedores de modelos de IA de uso general deben poder demostrar el cumplimiento utilizando medios alternativos adecuados si no se dispone de códigos de buenas prácticas o de normas armonizadas, o si deciden no basarse en ellos.

(118)

El presente Reglamento regula los sistemas de IA y modelos de IA imponiendo determinados requisitos y obligaciones a los agentes pertinentes del mercado que los introduzcan en el mercado, los pongan en servicio o los utilicen en la Unión, complementando así las obligaciones de los prestadores de servicios intermediarios que integren dichos sistemas o modelos en sus servicios, regulados por el Reglamento (UE) 2022/2065. En la medida en que dichos sistemas o modelos estén integrados en plataformas en línea de muy gran tamaño o en motores de búsqueda en línea de muy gran tamaño que hayan sido designados, están sujetos al marco de gestión de riesgos establecido en el Reglamento (UE) 2022/2065. Por consiguiente, debe presumirse que se han cumplido las obligaciones correspondientes del presente Reglamento a menos que surjan riesgos sistémicos significativos no cubiertos por el Reglamento (UE) 2022/2065 y se detecten en dichos modelos. En este marco, los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño están obligados a evaluar los posibles riesgos sistémicos derivados del diseño, el funcionamiento y el uso de sus servicios, incluido el modo en que el diseño de los sistemas algorítmicos utilizados en el servicio puede contribuir a dichos riesgos, así como los riesgos sistémicos derivados de posibles usos indebidos. Dichos prestadores también están obligados a adoptar las medidas de reducción de riesgos adecuadas respetando los derechos fundamentales.

(119)

Tomando en consideración el rápido ritmo de innovación y la evolución tecnológica de los servicios digitales incluidos en el ámbito de aplicación de diferentes instrumentos del Derecho de la Unión, en particular teniendo en cuenta el uso y la percepción de sus destinatarios, los sistemas de IA sujetos al presente Reglamento pueden prestarse como servicios intermediarios, o partes de estos, en el sentido del Reglamento (UE) 2022/2065, que debe interpretarse de manera tecnológicamente neutra. Por ejemplo, los sistemas de IA pueden utilizarse para ofrecer motores de búsqueda en línea, en particular en la medida en que un sistema de IA, como un chatbot en línea, efectúe búsquedas, en principio, en todos los sitios web, incorpore a continuación los resultados a sus conocimientos existentes y utilice los conocimientos actualizados para generar una única información de salida que combine diferentes fuentes de información.

(120)

Además, las obligaciones impuestas a los proveedores y a los responsables del despliegue de determinados sistemas de IA en el presente Reglamento destinadas a permitir que se detecte y divulgue que los resultados de salida de dichos sistemas han sido generados o manipulados de manera artificial resultan especialmente pertinentes para facilitar la aplicación efectiva del Reglamento (UE) 2022/2065. Esto se aplica en particular a las obligaciones de los prestadores de plataformas en línea de muy gran tamaño o de motores de búsqueda en línea de muy gran tamaño de detectar y mitigar los riesgos sistémicos que pueden surgir de la divulgación de contenidos que hayan sido generados o manipulados de manera artificial, en particular el riesgo de los efectos negativos reales o previsibles sobre los procesos democráticos, el discurso cívico y los procesos electorales, también a través de la desinformación.

(121)

La normalización debe desempeñar un papel fundamental para proporcionar soluciones técnicas a los proveedores para garantizar el cumplimiento del presente Reglamento, en consonancia con el estado actual de la técnica, para promover la innovación, así como la competitividad y el crecimiento en el mercado único. El cumplimiento de las normas armonizadas definidas en el artículo 2, punto 1, letra c), del Reglamento (UE) nº 1025/2012 del Parlamento Europeo y del Consejo (41), que generalmente se espera que reflejen el estado actual de la técnica, debe ser un medio para que los proveedores demuestren la conformidad con los requisitos previstos en el presente Reglamento. Por consiguiente, debe fomentarse una representación equilibrada de los intereses de todas las partes interesadas pertinentes —en particular las pymes, las organizaciones de consumidores y las partes interesadas de los ámbitos social y medioambiental— en la elaboración de normas, de conformidad con los artículos 5 y 6 del Reglamento (UE) nº 1025/2012. A fin de facilitar el cumplimiento, la Comisión debe emitir las peticiones de normalización sin demora indebida. Al preparar la petición de normalización, la Comisión debe consultar al foro consultivo y al Consejo de IA para recabar los conocimientos especializados pertinentes. No obstante, a falta de referencias pertinentes a las normas armonizadas, la Comisión debe poder establecer, mediante actos de ejecución y previa consulta al foro consultivo, especificaciones comunes para determinados requisitos previstos en el presente Reglamento. Las especificaciones comunes deben ser una solución alternativa excepcional para facilitar la obligación del proveedor de cumplir los requisitos del presente Reglamento cuando ninguna de las organizaciones europeas de normalización haya aceptado la petición de normalización, cuando las normas armonizadas pertinentes respondan de forma insuficiente a las preocupaciones en materia de derechos fundamentales, cuando las normas armonizadas no cumplan la petición o cuando se produzcan retrasos en la adopción de una norma armonizada adecuada. Cuando dichos retrasos en la adopción de una norma armonizada se deban a la complejidad técnica de dicha norma, la Comisión debe tenerlo en cuenta antes de considerar la posibilidad de establecer especificaciones comunes. Se anima a la Comisión a que, a la hora de elaborar especificaciones comunes, coopere con los socios internacionales y los organismos internacionales de normalización.

(122)

Conviene que, sin perjuicio del uso de normas armonizadas y especificaciones comunes, se presuma que los proveedores de un sistema de IA de alto riesgo que haya sido entrenado y probado con datos que reflejan el entorno geográfico, conductual, contextual o funcional específico en el que esté previsto que se utilice el sistema de IA cumplen la medida pertinente prevista en el requisito en materia de gobernanza de datos establecido en el presente Reglamento. Sin perjuicio de los requisitos relacionados con la solidez y la precisión establecidos en el presente Reglamento, de conformidad con el artículo 54, apartado 3, del Reglamento (UE) 2019/881, debe presumirse que los sistemas de IA de alto riesgo que cuenten con una certificación o una declaración de conformidad en virtud de un esquema de certificación de la ciberseguridad con arreglo a dicho Reglamento y cuyas referencias se hayan publicado en el Diario Oficial de la Unión Europea cumplen el requisito de ciberseguridad del presente Reglamento en la medida en que el certificado de ciberseguridad o la declaración de conformidad, o partes de estos, contemplen dicho requisito. Esto se entiende sin perjuicio del carácter voluntario de dicho esquema de ciberseguridad.

(123)

A fin de garantizar que los sistemas de IA de alto riesgo sean altamente fiables, debe someterse a dichos sistemas a una evaluación de la conformidad antes de su introducción en el mercado o puesta en servicio.

(124)

Para reducir al mínimo la carga que deben soportar los operadores y evitar posibles duplicidades, conviene, en el caso de los sistemas de IA de alto riesgo asociados a productos regulados por la legislación de armonización de la Unión vigente basada en el nuevo marco legislativo, que la conformidad de dichos sistemas de IA con los requisitos establecidos en el presente Reglamento se evalúe en el marco de la evaluación de la conformidad ya prevista en dicha legislación. Por lo tanto, la aplicabilidad de los requisitos del presente Reglamento no debe afectar a la lógica, la metodología o la estructura general específicas de la evaluación de la conformidad prevista en los actos legislativos de armonización pertinentes de la Unión.

(125)

Dada la complejidad de los sistemas de IA de alto riesgo y los riesgos asociados a ellos, es importante desarrollar un procedimiento adecuado de evaluación de la conformidad de los sistemas de IA de alto riesgo en el que participen organismos notificados, denominado «evaluación de la conformidad de terceros». No obstante, habida cuenta de la experiencia actual de los profesionales que realizan la certificación previa a la comercialización en el campo de la seguridad de los productos y de la distinta naturaleza de los riesgos implicados, procede limitar, al menos en la fase inicial de aplicación del presente Reglamento, el alcance de las evaluaciones externas de la conformidad a los sistemas de IA de alto riesgo que no están asociados a productos. En consecuencia, el proveedor es quien, por norma general, debe llevar a cabo la evaluación de la conformidad de dichos sistemas bajo su propia responsabilidad, con la única excepción de los sistemas de IA que están destinados a utilizarse para la biometría.

(126)

Para poder realizar las evaluaciones de la conformidad de terceros cuando así se les exija, las autoridades nacionales competentes deben notificar, en virtud del presente Reglamento, a los organismos notificados, siempre que cumplan una serie de requisitos, en particular en lo que respecta a su independencia, sus competencias y la ausencia de conflictos de intereses, así como requisitos adecuados de ciberseguridad. Las autoridades nacionales competentes deben enviar la notificación de dichos organismos a la Comisión y a los demás Estados miembros a través del sistema de notificación electrónica desarrollado y gestionado por la Comisión con arreglo a lo dispuesto en el artículo R23 del anexo I de la Decisión nº 768/2008/CE.

(127)

En consonancia con los compromisos contraídos por la Unión en virtud del Acuerdo sobre Obstáculos Técnicos al Comercio, de la Organización Mundial del Comercio, es adecuado facilitar el reconocimiento mutuo de los resultados de las evaluaciones de la conformidad realizadas por organismos de evaluación de la conformidad competentes, con independencia del territorio en el que estén establecidos, siempre que dichos organismos de evaluación de la conformidad establecidos con arreglo al Derecho de un tercer país cumplan los requisitos aplicables del presente Reglamento y la Unión haya celebrado un acuerdo en ese sentido. En este contexto, la Comisión debe estudiar activamente posibles instrumentos internacionales a tal efecto y, en particular, procurar celebrar acuerdos de reconocimiento mutuo con terceros países.

(128)

En consonancia con el concepto comúnmente establecido de «modificación sustancial» de los productos regulados por los actos legislativos de armonización de la Unión, conviene que, cada vez que se produzca un cambio que pueda afectar al cumplimiento del presente Reglamento por parte de un sistema de IA de alto riesgo (por ejemplo, un cambio de sistema operativo o de arquitectura de software) o cuando cambie la finalidad prevista del sistema, dicho sistema de IA se considere un sistema de IA nuevo que debe someterse a una nueva evaluación de la conformidad. Sin embargo, los cambios que se produzcan en el algoritmo y en el funcionamiento de los sistemas de IA que sigan «aprendiendo» después de su introducción en el mercado o su puesta en servicio, a saber, adaptando automáticamente el modo en que desempeñan sus funciones, no deben constituir una modificación sustancial, siempre que dichos cambios hayan sido predeterminados por el proveedor y se hayan evaluado en el momento de la evaluación de la conformidad.

(129)

Los sistemas de IA de alto riesgo deben llevar el marcado CE para acreditar su conformidad con el presente Reglamento y así poder circular libremente por el mercado interior. En el caso de los sistemas de IA de alto riesgo integrados en un producto, se debe colocar un marcado CE físico, que puede complementarse con un marcado CE digital. En el caso de los sistemas de IA de alto riesgo que solo se proporcionen digitalmente, debe utilizarse un marcado CE digital. Los Estados miembros no deben crear obstáculos injustificados a la introducción en el mercado o la puesta en servicio de sistemas de IA de alto riesgo que cumplan los requisitos establecidos en el presente Reglamento y lleven el marcado CE.

(130)

En determinadas condiciones, la rápida disponibilidad de tecnologías innovadoras puede ser crucial para la salud y la seguridad de las personas, la protección del medio ambiente y la mitigación del cambio climático, y para la sociedad en su conjunto. Por consiguiente, resulta oportuno que las autoridades de vigilancia del mercado puedan autorizar, por motivos excepcionales de seguridad pública o con vistas a proteger la vida y la salud de personas físicas, el medio ambiente y activos fundamentales de la industria y de las infraestructuras, la introducción en el mercado o la puesta en servicio de sistemas de IA que no hayan sido sometidos a una evaluación de la conformidad. En situaciones debidamente justificadas previstas en el presente Reglamento, las autoridades garantes del cumplimiento del Derecho o las autoridades de protección civil podrán poner en servicio un sistema de IA de alto riesgo específico sin la autorización de la autoridad de vigilancia del mercado, siempre que se solicite la autorización durante el uso o después de este sin demora indebida.

(131)

Con el objetivo de facilitar la labor de la Comisión y de los Estados miembros en el ámbito de la IA, así como de incrementar la transparencia de cara al público, debe exigirse a los proveedores de sistemas de IA de alto riesgo que no estén asociados a productos que entren dentro del ámbito de aplicación de los actos legislativos de armonización de la Unión que sean pertinentes y estén en vigor, y a los proveedores que consideren que alguno de los sistemas de IA enumerados en los casos de uso de alto riesgo en un anexo del presente Reglamento no es de alto riesgo sobre la base de una excepción que se registren y que registren información sobre sus sistemas de IA en una base de datos de la UE, de cuya creación y gestión se encargará la Comisión. Antes de utilizar tal sistema de IA enumerado en los casos de uso de alto riesgo en un anexo del presente Reglamento, los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades, órganos u organismos públicos deben registrarse en dicha base de datos y seleccionar el sistema que tengan previsto utilizar. Los demás responsables del despliegue deben poder efectuar dicho registro con carácter voluntario. Esta sección de la base de datos de la UE debe ser de acceso público y gratuito, debe ser fácil navegar por la información, y esta ha de ser comprensible y legible por máquina. La base de datos de la UE también debe ser fácil de utilizar, por ejemplo, proporcionando funcionalidades de búsqueda, también a través de palabras clave, que permitan al público en general encontrar la información que debe presentarse para el registro de los sistemas de IA de alto riesgo y relativa a los casos de uso de sistemas de IA de alto riesgo contemplados en un anexo del presente Reglamento, a la que corresponden los sistemas de IA de alto riesgo. También debe registrarse en la base de datos de la UE toda modificación sustancial de sistemas de IA de alto riesgo. En el caso de los sistemas de IA de alto riesgo en el ámbito de la garantía del cumplimiento del Derecho y de la gestión de la migración, el asilo y el control fronterizo, las obligaciones de registro deben cumplirse en una sección segura no pública de la base de datos de la UE. El acceso a esa sección debe limitarse estrictamente a la Comisión y a las autoridades de vigilancia del mercado en lo que respecta a su sección nacional de dicha base de datos. Los sistemas de IA de alto riesgo en el ámbito de las infraestructuras críticas solo deben registrarse a nivel nacional. La Comisión debe ser la responsable del tratamiento de la base de datos de la UE, de conformidad con el Reglamento (UE) 2018/1725. Con vistas a garantizar la funcionalidad plena de la base de datos de la UE una vez que esté en funcionamiento, el procedimiento para su creación debe comprender el desarrollo de especificaciones funcionales por parte de la Comisión y la redacción de un informe de auditoría independiente. Al ejercer sus funciones como responsable del tratamiento de la base de datos de la UE, la Comisión debe tener en cuenta los riesgos de ciberseguridad. Con el fin de maximizar la disponibilidad y el uso de la base de datos de la UE por parte del público, la base de datos de la UE y la información facilitada a través de ella deben cumplir los requisitos establecidos en la Directiva (UE) 2019/882.

(132)

Determinados sistemas de IA destinados a interactuar con personas físicas o a generar contenidos pueden plantear riesgos específicos de suplantación o engaño, con independencia de si cumplen las condiciones para ser considerados como de alto riesgo o no. Por consiguiente, el uso de estos sistemas debe estar sujeto, en determinadas circunstancias, a obligaciones de transparencia específicas, sin perjuicio de los requisitos y las obligaciones aplicables a los sistemas de IA de alto riesgo y a excepciones específicas a fin de tener en cuenta las necesidades especiales de la garantía del cumplimiento del Derecho. En particular, es preciso comunicar a las personas físicas que están interactuando con un sistema de IA, excepto cuando resulte evidente desde el punto de vista de una persona física normalmente informada y razonablemente atenta y perspicaz, teniendo en cuenta las circunstancias y el contexto de utilización. Al aplicar dicha obligación, deben tenerse en cuenta las características de las personas físicas pertenecientes a colectivos vulnerables debido a su edad o discapacidad en la medida en que el sistema de IA esté destinado a interactuar también con dichos colectivos. Además, es preciso notificar a las personas físicas cuando estén expuestas a sistemas de IA que, mediante el tratamiento de sus datos biométricos, puedan determinar o inferir sus emociones o intenciones o incluirlas en categorías específicas. Estas categorías específicas pueden referirse a aspectos como el sexo, la edad, el color del pelo, el color de ojos, los tatuajes, los rasgos personales, el origen étnico o las preferencias e intereses personales. Esta información y estas notificaciones deben facilitarse en formatos accesibles a las personas con discapacidad.

(133)

Una diversidad de sistemas de IA puede generar grandes cantidades de contenidos sintéticos que para las personas cada vez es más difícil distinguir del contenido auténtico generado por seres humanos. La amplia disponibilidad y las crecientes capacidades de dichos sistemas tienen importantes repercusiones en la integridad del ecosistema de la información y en la confianza en este, haciendo surgir nuevos riesgos de desinformación y manipulación a escala, fraude, suplantación de identidad y engaño a los consumidores. En vista de estos efectos, el rápido desarrollo tecnológico y la necesidad de nuevos métodos y técnicas para asegurar la trazabilidad del origen de la información, procede exigir a los proveedores de tales sistemas que integren soluciones técnicas que permitan marcar, en un formato legible por máquina, y detectar que el resultado de salida ha sido generado o manipulado por un sistema de IA y no por un ser humano. Dichas técnicas y métodos deben ser lo suficientemente fiables, interoperables, eficaces y sólidos, en la medida en que sea técnicamente viable, teniendo en cuenta las técnicas disponibles o una combinación de dichas técnicas, como marcas de agua, identificación de metadatos, métodos criptográficos para demostrar la procedencia y la autenticidad del contenido, métodos de registro, impresiones dactilares u otras técnicas, según proceda. A la hora de aplicar esta obligación, los proveedores también deben tener en cuenta las especificidades y las limitaciones de los diferentes tipos de contenidos y los avances tecnológicos y del mercado pertinentes en ese ámbito, tal como se refleja en el estado de la técnica generalmente reconocido. Dichas técnicas y métodos pueden implantarse a nivel de sistema de IA o a nivel de modelo de IA, incluidos modelos de IA de uso general que generan contenidos, facilitando así el cumplimiento de esta obligación por parte del proveedor posterior del sistema de IA. Para garantizar la proporcionalidad, conviene prever que esta obligación de marcado no se aplique a los sistemas de IA que desempeñen una función de apoyo a la edición estándar o no alteren sustancialmente los datos de entrada facilitados por el responsable del despliegue o su semántica.

(134)

Además de las soluciones técnicas utilizadas por los proveedores del sistema de IA, los responsables del despliegue que utilicen un sistema de IA para generar o manipular un contenido de imagen, audio o vídeo generado o manipulado por una IA que se asemeje notablemente a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos (ultrasuplantaciones) deben también hacer público, de manera clara y distinguible, que este contenido ha sido creado o manipulado de manera artificial etiquetando los resultados de salida generados por la IA en consecuencia e indicando su origen artificial. El cumplimiento de esta obligación de transparencia no debe interpretarse como un indicador de que la utilización del sistema de IA o de sus resultados de salida obstaculiza el derecho a la libertad de expresión y el derecho a la libertad de las artes y de las ciencias, garantizados por la Carta, en particular cuando el contenido forme parte de una obra o programa manifiestamente creativos, satíricos, artísticos, de ficción o análogos, con sujeción a unas garantías adecuadas para los derechos y libertades de terceros. En tales casos, la obligación de transparencia en relación con las ultrasuplantaciones establecida en el presente Reglamento se limita a revelar la existencia de tales contenidos generados o manipulados de una manera adecuada que no obstaculice la presentación y el disfrute de la obra, también su explotación y uso normales, al tiempo que se conservan la utilidad y la calidad de la obra. Además, también conviene prever una obligación de divulgación similar en relación con el texto generado o manipulado por una IA en la medida en que se publique con el fin de informar al público sobre asuntos de interés público, a menos que el contenido generado por la IA haya sido sometido a un proceso de revisión humana o de control editorial y que una persona física o jurídica ejerza la responsabilidad editorial de la publicación del contenido.

(135)

Sin perjuicio del carácter obligatorio y de la plena aplicabilidad de las obligaciones de transparencia, la Comisión podrá también fomentar y facilitar la elaboración de códigos de buenas prácticas a escala de la Unión, a fin de facilitar la aplicación eficaz de las obligaciones en materia de detección y etiquetado de contenidos generados o manipulados de manera artificial, también para apoyar disposiciones prácticas para que, según proceda, los mecanismos de detección sean accesibles y facilitar la cooperación con otros agentes de la cadena de valor, difundiendo los contenidos o comprobando su autenticidad y procedencia, a fin de que el público pueda distinguir efectivamente los contenidos generados por IA.

(136)

Las obligaciones impuestas a los proveedores y a los responsables del despliegue de determinados sistemas de IA en el presente Reglamento destinadas a permitir que se detecte y divulgue que los resultados de salida de dichos sistemas han sido generados o manipulados de manera artificial resultan especialmente pertinentes para facilitar la aplicación efectiva del Reglamento (UE) 2022/2065. Esto se aplica en particular en lo referente a las obligaciones de los prestadores de plataformas en línea de muy gran tamaño o de motores de búsqueda en línea de muy gran tamaño para detectar y mitigar los riesgos sistémicos que pueden surgir de la divulgación de contenidos que hayan sido generados o manipulados de manera artificial, en particular el riesgo de los efectos negativos reales o previsibles sobre los procesos democráticos, el discurso cívico y los procesos electorales, como a través de la desinformación. La exigencia de etiquetar los contenidos generados por sistemas de IA con arreglo al presente Reglamento se entiende sin perjuicio de la obligación prevista en el artículo 16, apartado 6, del Reglamento (UE) 2022/2065 para los prestadores de servicios de alojamiento de datos de tratar las notificaciones que reciban sobre contenidos ilícitos en virtud del artículo 16, apartado 1, de dicho Reglamento, y no debe influir en la evaluación y la decisión sobre el carácter ilícito del contenido de que se trate. Dicha evaluación debe realizarse únicamente con referencia a las normas que rigen la legalidad del contenido.

(137)

El cumplimiento de las obligaciones de transparencia aplicables a los sistemas de IA que entran en el ámbito de aplicación del presente Reglamento no debe interpretarse como un indicador de que la utilización del sistema de IA o de sus resultados de salida es lícito en virtud del presente Reglamento o de otras disposiciones del Derecho de la Unión y de los Estados miembros, y debe entenderse sin perjuicio de otras obligaciones de transparencia aplicables a los responsables del despliegue de sistemas de IA establecidas en el Derecho de la Unión o nacional.

(138)

La IA es una familia de tecnologías de rápida evolución que requiere vigilancia regulatoria y un espacio seguro y controlado para la experimentación, así como que se garantice la innovación responsable y la integración de salvaguardias éticas y medidas de reducción de riesgos adecuadas. Para conseguir un marco jurídico que promueva la innovación, resista el paso del tiempo y sea resiliente a las perturbaciones, los Estados miembros deben velar por que sus autoridades nacionales competentes establezcan al menos un espacio controlado de pruebas para la IA a escala nacional que facilite el desarrollo y la prueba de sistemas de IA innovadores bajo una estricta vigilancia regulatoria antes de su introducción en el mercado o puesta en servicio. Los Estados miembros también podrían cumplir esta obligación participando en los espacios controlados de pruebas ya existentes o estableciendo un espacio de pruebas conjuntamente con las autoridades competentes de uno o varios Estados miembros, en la medida en que dicha participación proporcione un nivel de cobertura nacional equivalente para los Estados miembros participantes. Los espacios controlados de pruebas para la IA podrían establecerse de forma física, digital o híbrida y podrán albergar productos tanto físicos como digitales. Las autoridades que los creen deben también garantizar que los espacios controlados de pruebas para la IA dispongan de recursos adecuados para su funcionamiento, incluidos recursos financieros y humanos.

(139)

Los espacios controlados de pruebas para la IA deben tener los objetivos de impulsar la innovación en el ámbito de la IA estableciendo un entorno de experimentación y prueba controlado en la fase de desarrollo y previa a la comercialización, con vistas a garantizar que los sistemas de IA innovadores cumplan lo dispuesto en el presente Reglamento y en otras disposiciones pertinentes del Derecho de la Unión y nacional. Además, los espacios controlados de pruebas para la IA deben tener por objeto mejorar la seguridad jurídica de que gozan los innovadores y favorecer la vigilancia de las autoridades competentes y su entendimiento de las oportunidades, los riesgos emergentes y las consecuencias del uso de la IA, de facilitar el aprendizaje normativo de las autoridades y empresas, también con vistas a futuras adaptaciones del marco jurídico, de apoyar la cooperación y el intercambio de mejores prácticas con las autoridades que intervienen en el espacio controlado de pruebas y de acelerar el acceso a los mercados, también eliminando los obstáculos para las pequeñas y medianas empresas, incluidas las empresas emergentes. Los espacios controlados de pruebas para la IA deben estar ampliamente disponibles en toda la Unión y debe prestarse especial atención a que sean accesibles para las pymes, incluidas las empresas emergentes. La participación en el espacio controlado de pruebas para la IA debe centrarse en cuestiones que generen inseguridad jurídica y que, por lo tanto, dificulten que los proveedores y los proveedores potenciales innoven y experimenten con la IA en la Unión y contribuir a un aprendizaje normativo basado en datos contrastados. Por consiguiente, la supervisión de los sistemas de IA en el espacio controlado de pruebas para la IA debe comprender su desarrollo, entrenamiento, prueba y validación antes de su introducción en el mercado o puesta en servicio, así como el concepto de «modificación sustancial» y su materialización, que puede hacer necesario un nuevo procedimiento de evaluación de la conformidad. Cualquier riesgo significativo detectado durante el proceso de desarrollo y prueba de estos sistemas de IA debe dar lugar a la adopción de medidas de reducción adecuadas y, en su defecto, a la suspensión del proceso de desarrollo y prueba. Cuando proceda, las autoridades nacionales competentes que establezcan espacios controlados de pruebas para la IA deben cooperar con otras autoridades pertinentes, incluidas las que supervisan la protección de los derechos fundamentales, y pueden dar cabida a otros agentes del ecosistema de la IA, como organizaciones de normalización nacionales o europeas, organismos notificados, instalaciones de ensayo y experimentación, laboratorios de investigación y experimentación, centros europeos de innovación digital y organizaciones de partes interesadas y de la sociedad civil pertinentes. Para garantizar una aplicación uniforme en toda la Unión y conseguir economías de escala, resulta oportuno establecer normas comunes para la creación de espacios controlados de pruebas para la IA, así como un marco para la cooperación entre las autoridades pertinentes implicadas en la supervisión de dichos espacios. Los espacios controlados de pruebas para la IA establecidos en virtud del presente Reglamento deben entenderse sin perjuicio de otros actos legislativos que permitan el establecimiento de otros espacios controlados de pruebas encaminados a garantizar el cumplimiento de actos legislativos distintos del presente Reglamento. Cuando proceda, las autoridades competentes pertinentes encargadas de esos otros espacios controlados de pruebas deben ponderar las ventajas de utilizarlos también con el fin de garantizar el cumplimiento del presente Reglamento por parte de los sistemas de IA. Previo acuerdo entre las autoridades nacionales competentes y los participantes en el espacio controlado de pruebas para la IA, las pruebas en condiciones reales también podrán gestionarse y supervisarse en el marco del espacio controlado de pruebas para la IA.

(140)

El presente Reglamento debe proporcionar la base jurídica para que los proveedores y los proveedores potenciales en el espacio controlado de pruebas para la IA utilicen datos personales recabados para otros fines para desarrollar determinados sistemas de IA en favor del interés público en el espacio controlado de pruebas para la IA, únicamente en determinadas condiciones, de conformidad con el artículo 6, apartado 4, y el artículo 9, apartado 2, letra g), del Reglamento (UE) 2016/679 y los artículos 5, 6 y 10 del Reglamento (UE) 2018/1725, y sin perjuicio de lo dispuesto en el artículo 4, apartado 2, y el artículo 10 de la Directiva (UE) 2016/680. Siguen siendo aplicables las demás obligaciones de los responsables del tratamiento y los derechos de los interesados en virtud del Reglamento (UE) 2016/679, el Reglamento (UE) 2018/1725 y la Directiva (UE) 2016/680. En particular, el presente Reglamento no debe ofrecer una base jurídica en el sentido del artículo 22, apartado 2, letra b), del Reglamento (UE) 2016/679 y del artículo 24, apartado 2, letra b), del Reglamento (UE) 2018/1725. Los proveedores y los proveedores potenciales en el espacio controlado de pruebas para la IA deben proporcionar las garantías adecuadas y cooperar con las autoridades competentes, también siguiendo sus indicaciones y actuando con rapidez y de buena fe para mitigar adecuadamente cualquier riesgo considerable para la seguridad, la salud y los derechos fundamentales que se detecte y pueda surgir durante el desarrollo, las pruebas y la experimentación en dicho espacio.

(141)

A fin de acelerar el proceso de desarrollo e introducción en el mercado de los sistemas de IA de alto riesgo enumerados en un anexo del presente Reglamento, es importante que los proveedores o proveedores potenciales de dichos sistemas también puedan beneficiarse de un régimen específico para probar dichos sistemas en condiciones reales, sin participar en un espacio controlado de pruebas para la IA. No obstante, en tales casos, teniendo en cuenta las posibles consecuencias de dichas pruebas para las personas físicas, debe garantizarse que el Reglamento establezca garantías y condiciones adecuadas y suficientes para los proveedores o proveedores potenciales. Estas garantías deben incluir, entre otras cosas, la solicitud del consentimiento informado de las personas físicas para participar en pruebas en condiciones reales, salvo en lo que respecta a la garantía del cumplimiento del Derecho cuando intentar obtener el consentimiento informado impediría que se probara el sistema de IA. El consentimiento de los sujetos para participar en tales pruebas en virtud del presente Reglamento es distinto del consentimiento de los interesados para el tratamiento de sus datos personales con arreglo al Derecho pertinente en materia de protección de datos y se entiende sin perjuicio de este. También es importante reducir al mínimo los riesgos y permitir la supervisión por parte de las autoridades competentes y, por tanto, exigir a los proveedores potenciales que presenten a la autoridad de vigilancia del mercado competente un plan de la prueba en condiciones reales, registren la prueba en las secciones específicas de la base de datos de la UE, sin perjuicio de algunas excepciones limitadas, establezcan limitaciones sobre el período durante el que puede llevarse a cabo la prueba y exijan garantías adicionales para las personas pertenecientes a determinados colectivos vulnerables, así como un acuerdo por escrito que defina las funciones y responsabilidades de los proveedores potenciales y de los responsables del despliegue y una supervisión eficaz por parte de personal competente que intervenga en la prueba en condiciones reales. Además, conviene prever garantías adicionales para asegurarse de que sea posible revertir efectivamente y descartar las predicciones, recomendaciones o decisiones del sistema de IA y de que los datos personales se protejan y se supriman cuando los sujetos retiren su consentimiento a participar en la prueba, sin perjuicio de sus derechos como interesados en virtud del Derecho de la Unión en materia de protección de datos. Por lo que respecta a la transferencia de datos, conviene también prever que los datos recopilados y tratados a efectos de las pruebas en condiciones reales solo deben transferirse a terceros países cuando existan garantías adecuadas y aplicables con arreglo al Derecho de la Unión, en particular, de conformidad con las bases para la transferencia de datos personales previstas en el Derecho de la Unión en materia de protección de datos y, en lo referente a los datos no personales, existan garantías adecuadas con arreglo al Derecho de la Unión, como los Reglamentos (UE) 2022/868 (42) y (UE) 2023/2854 (43) del Parlamento Europeo y del Consejo.

(142)

A fin de garantizar que la IA conduzca a resultados positivos desde el punto de vista social y medioambiental, se anima a los Estados miembros a que respalden y promuevan la investigación y el desarrollo de soluciones de IA en apoyo a tales resultados, como soluciones basadas en la IA para aumentar la accesibilidad para las personas con discapacidad, atajar desigualdades socioeconómicas o cumplir los objetivos en materia de medio ambiente, asignando recursos suficientes, incluidos fondos públicos y de la Unión, y, cuando proceda y siempre que se cumplan los criterios de admisibilidad y selección, teniendo en consideración especialmente proyectos que persigan tales objetivos. Dichos proyectos deben basarse en el principio de cooperación interdisciplinaria entre desarrolladores de IA, expertos en desigualdad y no discriminación, en accesibilidad y en derechos del consumidor, medioambientales y digitales, así como representantes del mundo académico.

(143)

Para promover y proteger la innovación, es importante tener en particular consideración los intereses de las pymes, incluidas las empresas emergentes, que sean proveedores o responsables del despliegue de sistemas de IA. A tal fin, los Estados miembros deben desarrollar iniciativas en materia de concienciación y comunicación de información, entre otros aspectos, dirigidas a dichos operadores. Los Estados miembros deben proporcionar a las pymes, incluidas las empresas emergentes, que tengan un domicilio social o una sucursal en la Unión, un acceso prioritario a los espacios controlados de pruebas para la IA, siempre que cumplan las condiciones de admisibilidad y los criterios de selección y sin impedir que otros proveedores y proveedores potenciales accedan a los espacios controlados de pruebas, siempre que se cumplan las mismas condiciones y criterios. Los Estados miembros deben utilizar los canales existentes y establecer, cuando proceda, nuevos canales de comunicación específicos con las pymes, incluidos las empresas emergentes, los responsables del despliegue, otros innovadores y, cuando proceda, las autoridades públicas locales, para apoyar a las pymes durante toda su trayectoria de desarrollo ofreciendo orientaciones y respondiendo a las preguntas sobre la aplicación del presente Reglamento. Cuando proceda, estos canales deben trabajar juntos para crear sinergias y garantizar la homogeneidad de sus orientaciones para las pymes, incluidas las empresas emergentes, y los responsables del despliegue. Además, los Estados miembros deben fomentar la participación de las pymes y otras partes interesadas pertinentes en los procesos de desarrollo de la normalización. Asimismo, los organismos notificados deben tener en cuenta las necesidades y los intereses específicos de los proveedores que sean pymes, incluidas las empresas emergentes, cuando establezcan las tasas aplicables a las evaluaciones de la conformidad. La Comisión debe evaluar periódicamente los costes de la certificación y el cumplimiento para las pymes, incluidas las empresas emergentes, a través de consultas transparentes, y debe trabajar con los Estados miembros para reducir dichos costes. Por ejemplo, los costes de traducción ligados a la documentación obligatoria y a la comunicación con las autoridades pueden ser considerables para los proveedores y otros operadores, en particular para los de menor tamaño. En la medida de lo posible, los Estados miembros deben velar por que una de las lenguas en las que acepten que los proveedores presenten la documentación pertinente y que pueda usarse para la comunicación con los operadores sea ampliamente conocida por el mayor número posible de responsables del despliegue transfronterizos. A fin de abordar las necesidades específicas de las pymes, incluidas las empresas emergentes, la Comisión debe proporcionar modelos normalizados para los ámbitos regulados por el presente Reglamento, previa solicitud del Consejo de IA. Además, la Comisión debe complementar los esfuerzos de los Estados miembros proporcionando una plataforma única de información con información fácil de utilizar sobre el presente Reglamento para todos los proveedores y responsables del despliegue, organizando campañas de comunicación adecuadas para sensibilizar sobre las obligaciones derivadas del presente Reglamento y evaluando y fomentando la convergencia de las mejores prácticas en los procedimientos de contratación pública en relación con los sistemas de IA. Las medianas empresas que hace poco se consideraban pequeñas empresas en el sentido del anexo de la Recomendación 2003/361/CE de la Comisión (44) deben tener acceso a esas medidas de apoyo, ya que dichas nuevas medianas empresas a veces pueden carecer de los recursos jurídicos y la formación necesarios para garantizar la comprensión y el cumplimiento adecuados del presente Reglamento.

(144)

Con el fin de promover y proteger la innovación, la plataforma de IA a la carta y todos los programas y proyectos de financiación de la Unión pertinentes, como el programa Europa Digital u Horizonte Europa, ejecutados por la Comisión y los Estados miembros a escala nacional o de la Unión deben, cuando proceda, contribuir a la consecución de los objetivos del presente Reglamento.

(145)

A fin de reducir al mínimo los riesgos para la aplicación derivados de la falta de conocimientos y experiencia en el mercado, y con el objetivo de facilitar que los proveedores, en particular las pymes, incluidas las empresas emergentes, y los organismos notificados cumplan las obligaciones que les impone el presente Reglamento, la plataforma de IA a la carta, los centros europeos de innovación digital y las instalaciones de ensayo y experimentación establecidos por la Comisión y los Estados miembros a escala nacional o de la Unión deben contribuir a la aplicación de este Reglamento. En concreto, la plataforma de IA a la carta, los centros europeos de innovación digital y las instalaciones de ensayo y experimentación son capaces de proporcionar a los proveedores y organismos notificados asistencia técnica y científica dentro de sus respectivas misiones y esferas de competencia.

(146)

Además, a la luz del tamaño muy pequeño de algunos operadores y con el fin de garantizar la proporcionalidad en relación con los costes de innovación, conviene permitir que las microempresas cumplan una de las obligaciones más costosas, a saber, la de establecer un sistema de gestión de la calidad, de manera simplificada, lo que reduciría la carga administrativa y los costes para dichas empresas sin afectar al nivel de protección ni a la necesidad de cumplir los requisitos aplicables a los sistemas de IA de alto riesgo. La Comisión debe elaborar directrices para especificar los elementos del sistema de gestión de la calidad que las microempresas deben cumplir de esta manera simplificada.

(147)

Resulta adecuado que la Comisión facilite, en la medida de lo posible, el acceso a las instalaciones de ensayo y experimentación a organismos, grupos o laboratorios establecidos o acreditados con arreglo a la legislación de armonización de la Unión pertinente y que realicen tareas en el marco de la evaluación de la conformidad de productos o dispositivos regulados por dicha legislación. Tal es el caso, en particular, en lo que respecta a los paneles de expertos, los laboratorios especializados y los laboratorios de referencia en el ámbito de los productos sanitarios, de conformidad con los Reglamentos (UE) 2017/745 y (UE) 2017/746.

(148)

El presente Reglamento debe establecer un marco de gobernanza que permita tanto coordinar y apoyar su aplicación a escala nacional, como desarrollar capacidades a escala de la Unión e integrar a las partes interesadas en el ámbito de la IA. La aplicación y el cumplimiento efectivos del presente Reglamento requieren un marco de gobernanza que permita coordinar y adquirir conocimientos especializados centrales a escala de la Unión. La Oficina de IA se creó mediante Decisión de la Comisión (45) y tiene como misión desarrollar conocimientos especializados y capacidades de la Unión en el ámbito de la IA y contribuir a la aplicación del Derecho de la Unión en materia de IA. Los Estados miembros deben facilitar las tareas de la Oficina de IA con vistas a apoyar el desarrollo de conocimientos especializados y capacidades a escala de la Unión y a fortalecer el funcionamiento del mercado único digital. Además, debe crearse un Consejo de IA compuesto por representantes de los Estados miembros, un grupo de expertos científicos para integrar a la comunidad científica y un foro consultivo para facilitar las aportaciones de las partes interesadas a la aplicación del presente Reglamento, a escala de la Unión y nacional. El desarrollo de conocimientos especializados y capacidades de la Unión también debe incluir la utilización de los recursos y conocimientos especializados existentes, en particular a través de sinergias con estructuras creadas en el contexto de la aplicación a escala de la Unión de otros actos legislativos y de sinergias con iniciativas conexas a escala de la Unión, como la Empresa Común EuroHPC y las instalaciones de ensayo y experimentación de IA en el marco del programa Europa Digital.

(149)

Debe establecerse un Consejo de IA que facilite la aplicación fluida, efectiva y armonizada del presente Reglamento. El Consejo de IA debe reflejar los diversos intereses del ecosistema de la IA y estar formado por representantes de los Estados miembros. El Consejo de IA debe encargarse de diversas tareas de asesoramiento. Entre otras cosas, debe emitir dictámenes, recomendaciones e informes de asesoramiento o contribuir a orientaciones sobre asuntos relacionados con la aplicación de este Reglamento, también en lo que respecta la ejecución, las especificaciones técnicas o las normas existentes en relación con los requisitos previstos en el presente Reglamento, y asesorar a la Comisión y a los Estados miembros, así como a sus autoridades nacionales competentes, en cuestiones específicas vinculadas a la IA. Con el fin de dar cierta flexibilidad a los Estados miembros en la designación de sus representantes en el Consejo de IA, cualquier persona perteneciente a una entidad pública que tenga las competencias y facultades pertinentes para facilitar la coordinación a escala nacional y contribuir al cumplimiento de las funciones del Consejo de IA podrá ser designada representante. El Consejo de IA debe establecer dos subgrupos permanentes a fin de proporcionar una plataforma de cooperación e intercambio entre las autoridades de vigilancia del mercado y las autoridades notificantes sobre cuestiones relacionadas, respectivamente, con la vigilancia del mercado y los organismos notificados. El subgrupo permanente de vigilancia del mercado debe actuar como grupo de cooperación administrativa (ADCO) para el presente Reglamento en el sentido del artículo 30 del Reglamento (UE) 2019/1020. De conformidad con el artículo 33 de dicho Reglamento, la Comisión debe apoyar las actividades del subgrupo permanente de vigilancia del mercado mediante la realización de evaluaciones o estudios de mercado, en particular con vistas a determinar los aspectos del presente Reglamento que requieran una coordinación específica y urgente entre las autoridades de vigilancia del mercado. El Consejo de IA puede establecer otros subgrupos de carácter permanente o temporal, según proceda, para examinar asuntos específicos. El Consejo de IA también debe cooperar, según proceda, con los organismos, grupos de expertos y redes pertinentes de la Unión activos en el contexto del Derecho de la Unión pertinente, incluidos, en particular, los activos en virtud del Derecho de la Unión pertinente en materia de datos y productos y servicios digitales.

(150)

Con vistas a garantizar la participación de las partes interesadas en la ejecución y aplicación del presente Reglamento, debe crearse un foro consultivo para asesorar al Consejo de IA y a la Comisión y proporcionarles conocimientos técnicos. A fin de garantizar una representación variada y equilibrada de las partes interesadas que tenga en cuenta los intereses comerciales y no comerciales y, dentro de la categoría de los intereses comerciales, por lo que se refiere a las pymes y otras empresas, el foro consultivo debe incluir, entre otros, a la industria, las empresas emergentes, las pymes, el mundo académico, la sociedad civil, en particular los interlocutores sociales, así como a la Agencia de los Derechos Fundamentales de la Unión Europea, ENISA, el Comité Europeo de Normalización (CEN), el Comité Europeo de Normalización Electrotécnica (Cenelec) y el Instituto Europeo de Normas de Telecomunicaciones (ETSI).

(151)

Para apoyar la aplicación y el cumplimiento del presente Reglamento, en particular las actividades de supervisión de la Oficina de IA en lo que respecta a los modelos de IA de uso general, debe crearse un grupo de expertos científicos formado por expertos independientes. Los expertos independientes que constituyan el grupo de expertos científicos deben seleccionarse sobre la base de conocimientos científicos o técnicos actualizados en el ámbito de la IA y deben desempeñar sus funciones con imparcialidad y objetividad y garantizar la confidencialidad de la información y los datos obtenidos en el ejercicio de sus funciones y actividades. A fin de permitir el refuerzo de las capacidades nacionales necesarias para el cumplimiento efectivo del presente Reglamento, los Estados miembros deben poder solicitar el apoyo de los expertos que constituyan el grupo científico para sus actividades de garantía del cumplimiento.

(152)

A fin de apoyar una ejecución adecuada en lo que respecta a los sistemas de IA y reforzar las capacidades de los Estados miembros, deben crearse y ponerse a disposición de los Estados miembros estructuras de apoyo a los ensayos de IA de la Unión.

(153)

Los Estados miembros desempeñan un papel clave en la aplicación y ejecución del presente Reglamento. En ese sentido, cada Estado miembro debe designar al menos una autoridad notificante y al menos una autoridad de vigilancia del mercado como autoridades nacionales competentes que se encarguen de supervisar su aplicación y ejecución. Los Estados miembros pueden decidir designar cualquier tipo de entidad pública para que desempeñe las tareas de las autoridades nacionales competentes en el sentido del presente Reglamento, de conformidad con sus características y necesidades organizativas nacionales específicas. Con el fin de incrementar la eficiencia organizativa en los Estados miembros y establecer un único punto de contacto oficial con el público y otros homólogos a escala de los Estados miembros y la Unión, cada Estado miembro debe designar una autoridad de vigilancia del mercado que actúe como punto de contacto único.

(154)

Las autoridades nacionales competentes deben ejercer sus poderes de manera independiente, imparcial y objetiva, a fin de preservar los principios de objetividad de sus actividades y funciones y garantizar la aplicación y ejecución del presente Reglamento. Los miembros de estas autoridades deben abstenerse de todo acto incompatible con el carácter de sus funciones y estar sujetos a las normas de confidencialidad establecidas en el presente Reglamento.

(155)

Todos los proveedores de sistemas de IA de alto riesgo deben contar con un sistema de vigilancia poscomercialización, con vistas a garantizar que puedan tener en cuenta la experiencia con el uso de esos sistemas de cara a mejorar los suyos y el proceso de diseño y desarrollo o que puedan adoptar cualquier medida correctora en el momento oportuno. Cuando proceda, la vigilancia poscomercialización debe incluir un análisis de la interacción con otros sistemas de IA, incluidos otros dispositivos y software. La vigilancia poscomercialización no debe comprender los datos operativos sensibles de los responsables del despliegue de sistemas de IA que sean autoridades garantes del cumplimiento del Derecho. Este sistema es también fundamental para garantizar que los posibles riesgos derivados de los sistemas de IA que siguen «aprendiendo» tras su introducción en el mercado o puesta en servicio se aborden de un modo más eficiente y oportuno. En este contexto, procede exigir a los proveedores que también cuenten con un sistema para comunicar a las autoridades pertinentes cualquier incidente grave asociado al uso de sus sistemas de IA, entendido como un incidente o defecto que tenga como consecuencia un fallecimiento o daños graves para la salud, una alteración grave e irreversible de la gestión o el funcionamiento de infraestructuras críticas, el incumplimiento de obligaciones derivadas del Derecho de la Unión destinadas a proteger los derechos fundamentales o daños graves a la propiedad o al medio ambiente.

(156)

Con el objetivo de garantizar el cumplimiento adecuado y efectivo de los requisitos y obligaciones previstos en el presente Reglamento, que constituye legislación de armonización de la Unión, debe aplicarse en su totalidad el sistema relativo a la vigilancia del mercado y la conformidad de los productos establecido por el Reglamento (UE) 2019/1020. Las autoridades de vigilancia del mercado designadas con arreglo al presente Reglamento deben disponer de todos los poderes de ejecución establecidos en el presente Reglamento y en el Reglamento (UE) 2019/1020, y deben ejercer sus poderes y desempeñar sus funciones de manera independiente, imparcial y objetiva. Aunque la mayoría de los sistemas de IA no están sujetos a requisitos ni obligaciones específicos en virtud del presente Reglamento, las autoridades de vigilancia del mercado pueden adoptar medidas en relación con todos los sistemas de IA cuando estos presenten un riesgo de conformidad con el presente Reglamento. Debido a la naturaleza específica de las instituciones, órganos y organismos de la Unión que entran en el ámbito de aplicación del presente Reglamento, procede designar al Supervisor Europeo de Protección de Datos como autoridad de vigilancia del mercado competente para ellos. Esto debe entenderse sin perjuicio de la designación de autoridades nacionales competentes por parte de los Estados miembros. Las actividades de vigilancia del mercado no deben afectar a la capacidad de las entidades supervisadas para llevar a cabo sus tareas de manera independiente, cuando el Derecho de la Unión exija dicha independencia.

(157)

El presente Reglamento se entiende sin perjuicio de las competencias, funciones, poderes e independencia de las autoridades u organismos públicos nacionales pertinentes que supervisan la aplicación del Derecho de la Unión que protege los derechos fundamentales, incluidos los organismos de igualdad y las autoridades de protección de datos. Cuando sea necesario para su mandato, dichas autoridades u organismos públicos nacionales también deben tener acceso a cualquier documentación creada en virtud del presente Reglamento. Debe establecerse un procedimiento de salvaguardia específico para garantizar una ejecución adecuada y oportuna frente a sistemas de IA que presenten un riesgo para la salud, la seguridad o los derechos fundamentales. El procedimiento relativo a dichos sistemas de IA que presentan un riesgo debe aplicarse a los sistemas de IA de alto riesgo que presenten un riesgo, a los sistemas prohibidos que hayan sido introducidos en el mercado, puestos en servicio o utilizados contraviniendo las prácticas prohibidas establecidas en el presente Reglamento y a los sistemas de IA que hayan sido comercializados infringiendo los requisitos de transparencia establecidos en el presente Reglamento y que presenten un riesgo.

(158)

El Derecho de la Unión en materia de servicios financieros contiene normas y requisitos en materia de gobernanza interna y gestión de riesgos que las entidades financieras reguladas deben cumplir durante la prestación de dichos servicios, y también cuando utilicen sistemas de IA. Para garantizar la aplicación y ejecución coherentes de las obligaciones previstas en el presente Reglamento, así como de las normas y los requisitos oportunos de los actos jurídicos de la Unión relativos a los servicios financieros, se ha de designar a las autoridades competentes de supervisar y ejecutar dichos actos jurídicos, en particular las autoridades competentes definidas en el Reglamento (UE) nº 575/2013 del Parlamento Europeo y del Consejo (46) y las Directivas 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) y (UE) 2016/97 (51) del Parlamento Europeo y del Consejo, dentro de sus respectivas competencias, como las autoridades competentes encargadas de supervisar la aplicación del presente Reglamento, también por lo que respecta a las actividades de vigilancia del mercado, en relación con los sistemas de IA proporcionados o utilizados por las entidades financieras reguladas y supervisadas, a menos que los Estados miembros decidan designar a otra autoridad para que desempeñe estas tareas de vigilancia del mercado. Dichas autoridades competentes deben disponer de todos los poderes previstos en el presente Reglamento y en el Reglamento (UE) 2019/1020 para hacer cumplir los requisitos y obligaciones del presente Reglamento, incluidos los poderes para llevar a cabo actividades de vigilancia del mercado ex post que pueden integrarse, en su caso, en sus mecanismos y procedimientos de supervisión existentes en virtud del Derecho pertinente de la Unión en materia de servicios financieros. Conviene prever que, cuando actúen como autoridades de vigilancia del mercado en virtud del presente Reglamento, las autoridades nacionales responsables de la supervisión de las entidades de crédito reguladas por la Directiva 2013/36/UE que participen en el Mecanismo Único de Supervisión establecido por el Reglamento (UE) nº 1024/2013 del Consejo (52) comuniquen sin demora al Banco Central Europeo toda información obtenida en el transcurso de sus actividades de vigilancia del mercado que pueda ser de interés para las funciones de supervisión prudencial del Banco Central Europeo especificadas en dicho Reglamento. Con vistas a aumentar la coherencia entre el presente Reglamento y las normas aplicables a las entidades de crédito reguladas por la Directiva 2013/36/UE, conviene igualmente integrar algunas de las obligaciones procedimentales de los proveedores relativas a la gestión de riesgos, la vigilancia poscomercialización y la documentación en las obligaciones y los procedimientos vigentes con arreglo a la Directiva 2013/36/UE. Para evitar solapamientos, también se deben contemplar excepciones limitadas en relación con el sistema de gestión de la calidad de los proveedores y la obligación de vigilancia impuesta a los responsables del despliegue de sistemas de IA de alto riesgo, en la medida en que estos se apliquen a las entidades de crédito reguladas por la Directiva 2013/36/UE. El mismo régimen debe aplicarse a las empresas de seguros y reaseguros y a las sociedades de cartera de seguros reguladas por la Directiva 2009/138/CE, a los intermediarios de seguros regulados por la Directiva (UE) 2016/97 y a otros tipos de entidades financieras sujetas a requisitos sobre gobernanza, sistemas o procesos internos establecidos con arreglo al Derecho pertinente de la Unión en materia de servicios financieros a fin de garantizar la coherencia y la igualdad de trato en el sector financiero.

(159)

Cada autoridad de vigilancia del mercado para los sistemas de IA de alto riesgo en el ámbito de la biometría enumerados en un anexo del presente Reglamento, en la medida en que dichos sistemas se utilicen con fines de garantía del cumplimiento del Derecho, de migración, asilo y gestión del control fronterizo, o de la administración de justicia y los procesos democráticos, debe disponer de facultades de investigación y correctoras efectivas, incluida al menos la facultad de obtener acceso a todos los datos personales que se estén tratando y a toda la información necesaria para el desempeño de sus funciones. Las autoridades de vigilancia del mercado deben poder ejercer sus poderes actuando con total independencia. Cualquier limitación de su acceso a datos operativos sensibles en virtud del presente Reglamento debe entenderse sin perjuicio de los poderes que les confiere la Directiva (UE) 2016/680. Ninguna exclusión de la divulgación de datos a las autoridades nacionales de protección de datos en virtud del presente Reglamento debe afectar a los poderes actuales o futuros de dichas autoridades que trasciendan el ámbito de aplicación del presente Reglamento.

(160)

Las autoridades de vigilancia del mercado y la Comisión deben poder proponer actividades conjuntas, incluidas investigaciones conjuntas, que deben llevar a cabo las autoridades de vigilancia del mercado o las autoridades de vigilancia del mercado junto con la Comisión, con el objetivo de fomentar el cumplimiento, detectar incumplimientos, sensibilizar y ofrecer orientaciones en relación con el presente Reglamento con respecto a las categorías específicas de sistemas de IA de alto riesgo que presentan un riesgo grave en dos o más Estados miembros. Tales actividades conjuntas para fomentar el cumplimiento deben llevarse a cabo de conformidad con el artículo 9 del Reglamento (UE) 2019/1020. La Oficina de IA debe prestar apoyo de coordinación a las investigaciones conjuntas.

(161)

Es necesario aclarar las responsabilidades y competencias a escala de la Unión y nacional en lo que respecta a los sistemas de IA que se basan en modelos de IA de uso general. Para evitar el solapamiento de competencias, cuando un sistema de IA se base en un modelo de IA de uso general y el modelo y el sistema sean suministrados por el mismo proveedor, la supervisión debe llevarse a cabo a escala de la Unión a través de la Oficina de IA, que debe tener a estos efectos las facultades de una autoridad de vigilancia del mercado en el sentido de lo dispuesto en el Reglamento (UE) 2019/1020. En todos los demás casos, serán responsables de la supervisión de los sistemas de IA las autoridades nacionales de vigilancia del mercado. No obstante, en el caso de los sistemas de IA de uso general que puedan ser utilizados directamente por los responsables del despliegue con al menos un fin clasificado como de alto riesgo, las autoridades de vigilancia del mercado deben cooperar con la Oficina de IA para llevar a cabo evaluaciones de la conformidad e informar de ello al Consejo de IA y a otras autoridades de vigilancia del mercado. Además, las autoridades de vigilancia del mercado deben poder solicitar la asistencia de la Oficina de IA cuando la autoridad de vigilancia del mercado no pueda concluir una investigación sobre un sistema de IA de alto riesgo debido a su incapacidad para acceder a determinada información relacionada con el modelo de IA de uso general en el que se basa el sistema de IA de alto riesgo. En tales casos, debe aplicarse mutatis mutandis el procedimiento de asistencia mutua transfronteriza previsto en el capítulo VI del Reglamento (UE) 2019/1020.

(162)

Para aprovechar al máximo la centralización de conocimientos especializados y las sinergias que se generan a escala de la Unión, deben atribuirse a la Comisión las competencias de supervisión y de control del cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general. La Oficina de IA debe poder llevar a cabo todas las acciones necesarias para supervisar la aplicación efectiva del presente Reglamento en lo que respecta a los modelos de IA de uso general. Debe poder investigar posibles infracciones de las normas relativas a los proveedores de modelos de IA de uso general, tanto por iniciativa propia, a raíz de los resultados de sus actividades de supervisión, como a petición de las autoridades de vigilancia del mercado, de conformidad con las condiciones establecidas en el presente Reglamento. Para promover la eficacia de la supervisión, la Oficina de IA debe prever la posibilidad de que los proveedores posteriores presenten reclamaciones sobre posibles infracciones de las normas relativas a los proveedores de sistemas y modelos de IA de uso general.

(163)

Con el fin de complementar los sistemas de gobernanza de los modelos de IA de uso general, el grupo de expertos científicos debe contribuir a las actividades de supervisión de la Oficina de IA y, en determinados casos, puede proporcionar alertas cualificadas a la Oficina de IA que activen actuaciones consecutivas, como investigaciones. Así debe ocurrir cuando el grupo de expertos científicos tenga motivos para sospechar que un modelo de IA de uso general presenta un riesgo concreto e identificable a escala de la Unión. También debe ser este el caso cuando el grupo de expertos científicos tenga motivos para sospechar que un modelo de IA de uso general cumple los criterios que llevarían a clasificarlo como modelo de IA de uso general con riesgo sistémico. A fin de facilitar al grupo de expertos científicos la información necesaria para el desempeño de esas funciones, debe existir un mecanismo que permita al grupo de expertos científicos pedir a la Comisión que solicite documentación o información a un proveedor.

(164)

La Oficina de IA debe poder adoptar las medidas necesarias para supervisar la aplicación efectiva y el cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general establecidas en el presente Reglamento. La Oficina de IA debe poder investigar posibles infracciones de conformidad con las competencias previstas en el presente Reglamento, por ejemplo, solicitando documentación e información, realizando evaluaciones y solicitando la adopción de medidas a los proveedores de modelos de IA de uso general. En la realización de las evaluaciones, para poder contar con conocimientos especializados independientes, la Oficina de IA debe poder recurrir a expertos independientes para que lleven a cabo las evaluaciones en su nombre. Se debe poder exigir el cumplimiento de las obligaciones mediante, entre otras cosas, solicitudes de adopción de medidas adecuadas, entre las que se incluyen medidas de reducción del riesgo en caso de que se detecten riesgos sistémicos, así como la restricción de la comercialización, la retirada o la recuperación del modelo. Como salvaguardia, cuando sea necesario, además de los derechos procedimentales previstos en el presente Reglamento, los proveedores de modelos de IA de uso general deben tener los derechos procedimentales previstos en el artículo 18 del Reglamento (UE) 2019/1020, que deben aplicarse mutatis mutandis, sin perjuicio de los derechos procesales más específicos previstos en el presente Reglamento.

(165)

El desarrollo de sistemas de IA que no sean sistemas de IA de alto riesgo conforme a los requisitos establecidos en el presente Reglamento puede dar lugar a la adopción más amplia de una IA ética y fiable en la Unión. Se debe alentar a los proveedores de sistemas de IA que no son de alto riesgo a crear códigos de conducta, entre los que se incluyen los correspondientes mecanismos de gobernanza, destinados a impulsar la aplicación voluntaria de la totalidad o parte de los requisitos aplicables a los sistemas de IA de alto riesgo, adaptados teniendo en cuenta la finalidad prevista de los sistemas y el menor riesgo planteado y teniendo en cuenta las soluciones técnicas disponibles y las mejores prácticas del sector, como las tarjetas de modelo y de datos Asimismo, se debe animar a los proveedores y, en su caso, a los responsables del despliegue de todos los sistemas de IA, ya sean o no de alto riesgo, y de los modelos de IA, a aplicar, con carácter voluntario, requisitos adicionales relativos, por ejemplo, a los elementos de las Directrices éticas de la Unión para una IA fiable, la sostenibilidad medioambiental, medidas de alfabetización en materia de IA, la inclusividad y la diversidad en el diseño y el desarrollo de los sistemas de IA, lo que incluye tener en cuenta a las personas vulnerables y la accesibilidad de las personas con discapacidad, la participación de las partes interesadas, con la participación, según proceda, de las partes interesadas pertinentes, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores, en el diseño y el desarrollo de los sistemas de IA, y la diversidad de los equipos de desarrollo, también por lo que respecta a la paridad de género. Para garantizar la efectividad de los códigos de conducta voluntarios, estos deben basarse en objetivos claros e indicadores clave del rendimiento que permitan medir la consecución de dichos objetivos. También deben desarrollarse de manera inclusiva, según proceda, con la participación de las partes interesadas pertinentes, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores. La Comisión podría formular iniciativas, también de carácter sectorial, encaminadas a facilitar la disminución de los obstáculos técnicos que dificultan el intercambio transfronterizo de datos para el desarrollo de la IA, también en relación con la infraestructura de acceso a los datos y la interoperabilidad semántica y técnica de distintos tipos de datos.

(166)

Es importante que los sistemas de IA asociados a productos que el presente Reglamento no considera de alto riesgo y que, por lo tanto, no están obligados a cumplir los requisitos establecidos para los sistemas de IA de alto riesgo sean, no obstante, seguros una vez introducidos en el mercado o puestos en servicio. Para contribuir a este objetivo, se aplicaría, como red de seguridad, el Reglamento (UE) 2023/988 del Parlamento Europeo y del Consejo (53).

(167)

Todas las partes implicadas en la aplicación del presente Reglamento deben respetar la confidencialidad de la información y los datos que obtengan en el ejercicio de sus funciones, de conformidad con el Derecho de la Unión o nacional, con vistas a garantizar una cooperación fiable y constructiva entre las autoridades competentes a escala de la Unión y nacional. Deben desempeñar sus funciones y actividades de manera que se protejan, en particular, los derechos de propiedad intelectual e industrial, la información empresarial confidencial y los secretos comerciales, la aplicación eficaz del presente Reglamento, los intereses de seguridad pública y nacional, la integridad de los procedimientos penales y administrativos y la integridad de la información clasificada.

(168)

Se debe poder exigir el cumplimiento del presente Reglamento mediante la imposición de sanciones y otras medidas de ejecución. Los Estados miembros deben tomar todas las medidas necesarias para garantizar que se apliquen las disposiciones del presente Reglamento, también estableciendo sanciones efectivas, proporcionadas y disuasorias para las infracciones, y para respetar el principio de non bis in idem. A fin de reforzar y armonizar las sanciones administrativas por infracción del presente Reglamento, deben establecerse los límites máximos para la imposición de las multas administrativas en el caso de ciertas infracciones concretas. A la hora de determinar la cuantía de las multas, los Estados miembros deben tener en cuenta, en cada caso concreto, todas las circunstancias pertinentes de la situación de que se trate, considerando especialmente la naturaleza, gravedad y duración de la infracción y de sus consecuencias, así como el tamaño del proveedor, en particular si este es una pyme o una empresa emergente. El Supervisor Europeo de Protección de Datos debe estar facultado para imponer multas a las instituciones, los órganos y los organismos de la Unión incluidos en el ámbito de aplicación del presente Reglamento.

(169)

Se debe poder exigir el cumplimiento de las obligaciones impuestas en virtud del presente Reglamento a los proveedores de modelos de IA de uso general mediante, entre otras cosas, la imposición de multas. A tal fin, también deben establecerse multas de una cuantía apropiada en caso de incumplimiento de dichas obligaciones, lo que incluye el incumplimiento de las medidas solicitadas por la Comisión de conformidad con el presente Reglamento, con sujeción a los plazos de prescripción pertinentes de conformidad con el principio de proporcionalidad. Todas las decisiones adoptadas por la Comisión en virtud del presente Reglamento están sujetas al control del Tribunal de Justicia de la Unión Europea, de conformidad con lo dispuesto en el TFUE, incluida la competencia jurisdiccional plena del Tribunal de Justicia en materia de sanciones con arreglo al artículo 261 del TFUE.

(170)

El Derecho de la Unión y nacional ya prevén vías de recurso efectivas para las personas físicas y jurídicas cuyos derechos y libertades se vean perjudicados por el uso de sistemas de IA. Sin perjuicio de dichas vías de recurso, toda persona física o jurídica que tenga motivos para considerar que se ha producido una infracción del presente Reglamento debe tener derecho a presentar una reclamación ante la autoridad de vigilancia del mercado pertinente.

(171)

Las personas afectadas deben tener derecho a obtener una explicación cuando la decisión de un responsable del despliegue se base principalmente en los resultados de salida de determinados sistemas de IA de alto riesgo que entran dentro del ámbito de aplicación del presente Reglamento y cuando dicha decisión produzca efectos jurídicos o afecte significativamente de modo similar a dichas personas, de manera que consideren que tiene un efecto negativo en su salud, su seguridad o sus derechos fundamentales. Dicha explicación debe ser clara y significativa y servir de base para que las personas afectadas puedan ejercer sus derechos. El derecho a obtener una explicación no debe aplicarse a la utilización de sistemas de IA para los que se deriven excepciones o restricciones con arreglo al Derecho nacional o de la Unión, y solo debe aplicarse en la medida en que este derecho no esté ya previsto en el Derecho de la Unión.

(172)

Las personas que informen sobre infracciones del presente Reglamento deben quedar protegidas por el Derecho de la Unión. Así pues, cuando se informe sobre infracciones del presente Reglamento y en lo que respecta a la protección de las personas que informen sobre dichas infracciones debe aplicarse la Directiva (UE) 2019/1937 del Parlamento Europeo y del Consejo (54).

(173)

A fin de garantizar que el marco reglamentario pueda adaptarse cuando sea necesario, deben delegarse en la Comisión los poderes para adoptar actos con arreglo al artículo 290 del TFUE de modo que pueda modificar las condiciones en las que un sistema de IA no debe considerarse un sistema de alto riesgo, la lista de sistemas de IA de alto riesgo, las disposiciones relativas a la documentación técnica, el contenido de la declaración UE de conformidad, las disposiciones relativas a los procedimientos de evaluación de la conformidad, las disposiciones que establecen a qué sistemas de IA de alto riesgo debe aplicarse el procedimiento de evaluación de la conformidad basado en la evaluación del sistema de gestión de la calidad y en la evaluación de la documentación técnica, el umbral, los parámetros de referencia y los indicadores, lo que incluye la posibilidad de complementar dichos parámetros de referencia e indicadores, de las normas de clasificación de los modelos de IA de uso general con riesgo sistémico, los criterios para clasificar un modelo como modelo de IA de uso general con riesgo sistémico, la documentación técnica para los proveedores de modelos de IA de uso general y la información sobre transparencia para los proveedores de modelos de IA de uso general. Reviste especial importancia que la Comisión lleve a cabo las consultas oportunas durante la fase preparatoria, en particular con expertos, y que esas consultas se realicen de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación (55). En particular, a fin de garantizar una participación equitativa en la preparación de los actos delegados, el Parlamento Europeo y el Consejo reciben toda la documentación al mismo tiempo que los expertos de los Estados miembros, y sus expertos tienen acceso sistemáticamente a las reuniones de los grupos de expertos de la Comisión que se ocupen de la preparación de actos delegados.

(174)

Habida cuenta de los rápidos avances tecnológicos y de los conocimientos técnicos necesarios para la aplicación efectiva del presente Reglamento, la Comisión debe evaluar y revisar el presente Reglamento a más tardar el 2 de agosto de 2029 y posteriormente cada cuatro años e informar al Parlamento Europeo y al Consejo. Además, teniendo en cuenta las implicaciones por lo que respecta al ámbito de aplicación del presente Reglamento, la Comisión debe llevar a cabo una evaluación de la necesidad de modificar la lista de sistemas de IA de alto riesgo y la lista de prácticas prohibidas una vez al año. Asimismo, a más tardar 2 de agosto de 2028 y posteriormente cada cuatro años, la Comisión debe evaluar y comunicar al Parlamento Europeo y al Consejo la necesidad de modificar la lista de ámbitos de alto riesgo que figura en el anexo del presente Reglamento, los sistemas de IA incluidos en el ámbito de aplicación de las obligaciones de transparencia, la eficacia del sistema de supervisión y gobernanza y los avances en el desarrollo de documentos de normalización sobre el desarrollo eficiente desde el punto de vista energético de modelos de IA de uso general, incluida la necesidad de medidas o acciones adicionales. Por último, a más tardar el 2 de agosto de 2028 y posteriormente cada tres años, la Comisión debe evaluar la repercusión y la eficacia de los códigos de conducta voluntarios para fomentar la aplicación de los requisitos establecidos para los sistemas de IA de alto riesgo a los sistemas de IA que no sean sistemas de IA de alto riesgo y, posiblemente, otros requisitos adicionales para dichos sistemas de IA.

(175)

A fin de garantizar condiciones uniformes de ejecución del presente Reglamento, deben conferirse a la Comisión competencias de ejecución. Dichas competencias deben ejercerse de conformidad con el Reglamento (UE) nº 182/2011 del Parlamento Europeo y del Consejo (56).

(176)

Dado que el objetivo del presente Reglamento, a saber, mejorar el funcionamiento del mercado interior y promover la adopción de una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación, no pueden ser alcanzados de manera suficiente por los Estados miembros, sino que, debido a sus dimensiones y efectos, pueden lograrse mejor a escala de la Unión, esta puede adoptar medidas, de acuerdo con el principio de subsidiariedad establecido en el artículo 5 del TUE. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, el presente Reglamento no excede de lo necesario para alcanzar dicho objetivo.

(177)

A fin de garantizar la seguridad jurídica, garantizar un período de adaptación adecuado para los operadores y evitar perturbaciones del mercado, también garantizando la continuidad del uso de los sistemas de IA, es conveniente que el presente Reglamento se aplique a los sistemas de IA de alto riesgo que se hayan introducido en el mercado o se hayan puesto en servicio antes de la fecha general de aplicación del Reglamento únicamente si, a partir de esa fecha, dichos sistemas se ven sometidos a cambios significativos en su diseño o su finalidad prevista. Conviene aclarar que, a este respecto, el concepto de «cambio significativo» debe entenderse como equivalente en sustancia al de «modificación sustancial», que se utiliza únicamente con respecto a los sistemas de IA de alto riesgo de conformidad con el presente Reglamento. Con carácter excepcional y a efectos de la rendición pública de cuentas, los operadores de sistemas de IA que sean componentes de sistemas informáticos de gran magnitud establecidos por los actos jurídicos enumerados en un anexo del presente Reglamento y los operadores de sistemas de IA de alto riesgo destinados a ser utilizados por las autoridades públicas deben adoptar, respectivamente, las medidas necesarias para cumplir los requisitos del presente Reglamento antes del final de 2030 y, a más tardar el 2 de agosto de 2030.

(178)

Se anima a los proveedores de sistemas de IA de alto riesgo a que empiecen a cumplir, de forma voluntaria, las obligaciones pertinentes del presente Reglamento ya durante el período transitorio.

(179)

El presente Reglamento debe aplicarse a partir del 2 de agosto de 2026. No obstante, teniendo en cuenta el riesgo inaceptable asociado a determinadas formas de uso de la IA, las prohibiciones, así como las disposiciones generales del presente Reglamento, deben aplicarse ya desde el 2 de febrero de 2025. Aunque dichas prohibiciones no surtan pleno efecto hasta después del establecimiento de la gobernanza y la aplicación del presente Reglamento, es importante anticipar la aplicación de las prohibiciones para tener en cuenta los riesgos inaceptables y adaptar otros procedimientos, por ejemplo, en el ámbito del Derecho civil. Además, la infraestructura relacionada con la gobernanza y el sistema de evaluación de la conformidad deben estar operativos antes de esa fecha, por lo que las disposiciones relativas a los organismos notificados y la estructura de gobernanza deben ser aplicables a partir del 2 de agosto de 2026. Dada la rápida evolución tecnológica y el elevado ritmo de adopción de modelos de IA de uso general, las obligaciones de los proveedores de modelos de IA de uso general deben aplicarse desde el 2 de agosto de 2025. Los códigos de buenas prácticas deben estar finalizados a más tardar el 2 de mayo de 2025 al objeto de permitir a los proveedores demostrar el cumplimiento de sus obligaciones dentro del plazo previsto. La Oficina de IA debe velar por que las normas y los procedimientos de clasificación estén actualizados con arreglo a los avances tecnológicos. Asimismo, los Estados miembros deben establecer y poner en conocimiento de la Comisión las normas referentes a las sanciones, incluidas las multas administrativas, y asegurarse de que para la fecha de aplicación del presente Reglamento se apliquen de manera adecuada y efectiva. Por lo tanto, las disposiciones relativas a las sanciones deben aplicarse a partir del 2 de agosto de 2025.

(180)

El Supervisor Europeo de Protección de Datos y el Comité Europeo de Protección de Datos, a los que se consultó de conformidad con el artículo 42, apartados 1 y 2, del Reglamento (UE) 2018/1725, emitieron su dictamen conjunto el 18 de junio de 2021.

HAN ADOPTADO EL PRESENTE REGLAMENTO:

CAPÍTULO I. DISPOSICIONES GENERALES

Artículo 1. Objeto

1.   El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA (en lo sucesivo, «sistemas de IA») en la Unión así como prestar apoyo a la innovación.

2.   El presente Reglamento establece:

a) normas armonizadas para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA en la Unión;

b) prohibiciones de determinadas prácticas de IA;

c) requisitos específicos para los sistemas de IA de alto riesgo y obligaciones para los operadores de dichos sistemas;

d) normas armonizadas de transparencia aplicables a determinados sistemas de IA;

e) normas armonizadas para la introducción en el mercado de modelos de IA de uso general;

f) normas sobre el seguimiento del mercado, la vigilancia del mercado, la gobernanza y la garantía del cumplimiento;

g) medidas en apoyo de la innovación, prestando especial atención a las pymes, incluidas las empresas emergentes.

Artículo 2. Ámbito de aplicación

1.   El presente Reglamento se aplicará a:

a) los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA o que introduzcan en el mercado modelos de IA de uso general en la Unión, con independencia de si dichos proveedores están establecidos o ubicados en la Unión o en un tercer país;

b) los responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la Unión;

c) los proveedores y responsables del despliegue de sistemas de IA que estén establecidos o ubicados en un tercer país, cuando los resultados de salida generados por el sistema de IA se utilicen en la Unión;

d) los importadores y distribuidores de sistemas de IA;

e) los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca;

f) los representantes autorizados de los proveedores que no estén establecidos en la Unión;

g) las personas afectadas que estén ubicadas en la Unión.

2.   A los sistemas de IA clasificados como sistemas de IA de alto riesgo de conformidad con el artículo 6, apartado 1, y relativos a productos regulados por los actos legislativos de armonización de la Unión enumerados en la sección B del anexo I, únicamente se les aplicará el artículo 6, apartado 1, y los artículos 102 a 109 y el artículo 112. El artículo 57 se aplicará únicamente en la medida en que los requisitos para los sistemas de IA de alto riesgo en virtud del presente Reglamento se hayan integrado en dichos actos legislativos de armonización de la Unión.

3.   El presente Reglamento no se aplicará a los ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión y, en cualquier caso, no afectará a las competencias de los Estados miembros en materia de seguridad nacional, independientemente del tipo de entidad a la que los Estados miembros hayan encomendado el desempeño de tareas en relación con dichas competencias.

El presente Reglamento no se aplicará a los sistemas de IA que, y en la medida en que, se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificaciones, exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.

El presente Reglamento no se aplicará a los sistemas de IA que no se introduzcan en el mercado o no se pongan en servicio en la Unión en los casos en que sus resultados de salida se utilicen en la Unión exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.

4.   El presente Reglamento no se aplicará a las autoridades públicas de terceros países ni a las organizaciones internacionales que entren dentro del ámbito de aplicación de este Reglamento conforme al apartado 1 cuando dichas autoridades u organizaciones utilicen sistemas de IA en el marco de acuerdos o de la cooperación internacionales con fines de garantía del cumplimiento del Derecho y cooperación judicial con la Unión o con uno o varios Estados miembros, siempre que tal tercer país u organización internacional ofrezca garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas.

5.   El presente Reglamento no afectará a la aplicación de las disposiciones relativas a la responsabilidad de los prestadores de servicios intermediarios que figuran en el capítulo II del Reglamento (UE) 2022/2065.

6.   El presente Reglamento no se aplicará a los sistemas o modelos de IA, incluidos sus resultados de salida, desarrollados y puestos en servicio específicamente con la investigación y el desarrollo científicos como única finalidad.

7.   El Derecho de la Unión en materia de protección de los datos personales, la intimidad y la confidencialidad de las comunicaciones se aplicará a los datos personales tratados en relación con los derechos y obligaciones establecidos en el presente Reglamento. El presente Reglamento no afectará a los Reglamentos (UE) 2016/679 o (UE) 2018/1725 ni a las Directivas 2002/58/CE o (UE) 2016/680, sin perjuicio del artículo 10, apartado 5, y el artículo 59 del presente Reglamento.

8.   El presente Reglamento no se aplicará a ninguna actividad de investigación, prueba o desarrollo relativa a sistemas de IA o modelos de IA antes de su introducción en el mercado o puesta en servicio. Estas actividades se llevarán a cabo de conformidad con el Derecho de la Unión aplicable. Las pruebas en condiciones reales no estarán cubiertas por esa exclusión.

9.   El presente Reglamento se entenderá sin perjuicio de las normas establecidas por otros actos jurídicos de la Unión relativos a la protección de los consumidores y a la seguridad de los productos.

10.   El presente Reglamento no se aplicará a las obligaciones de los responsables del despliegue que sean personas físicas que utilicen sistemas de IA en el ejercicio de una actividad puramente personal de carácter no profesional.

11.   El presente Reglamento no impedirá que la Unión o los Estados miembros mantengan o introduzcan disposiciones legales, reglamentarias o administrativas que sean más favorables a los trabajadores en lo que atañe a la protección de sus derechos respecto al uso de sistemas de IA por parte de los empleadores ni que fomenten o permitan la aplicación de convenios colectivos que sean más favorables a los trabajadores.

12.   El presente Reglamento no se aplicará a los sistemas de IA divulgados con arreglo a licencias libres y de código abierto, a menos que se introduzcan en el mercado o se pongan en servicio como sistemas de IA de alto riesgo o como sistemas de IA que entren en el ámbito de aplicación del artículo 5 o del artículo 50.

Artículo 3. Definiciones

A los efectos del presente Reglamento, se entenderá por:

1) «sistema de IA»: un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales;

2) «riesgo»: la combinación de la probabilidad de que se produzca un perjuicio y la gravedad de dicho perjuicio;

3) «proveedor»: una persona física o jurídica, autoridad pública, órgano u organismo que desarrolle un sistema de IA o un modelo de IA de uso general o para el que se desarrolle un sistema de IA o un modelo de IA de uso general y lo introduzca en el mercado o ponga en servicio el sistema de IA con su propio nombre o marca, previo pago o gratuitamente;

4) «responsable del despliegue»: una persona física o jurídica, o autoridad pública, órgano u organismo que utilice un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional;

5) «representante autorizado»: una persona física o jurídica ubicada o establecida en la Unión que haya recibido y aceptado el mandato por escrito de un proveedor de un sistema de IA o de un modelo de IA de uso general para cumplir las obligaciones y llevar a cabo los procedimientos establecidos en el presente Reglamento en representación de dicho proveedor;

6) «importador»: una persona física o jurídica ubicada o establecida en la Unión que introduzca en el mercado un sistema de IA que lleve el nombre o la marca de una persona física o jurídica establecida en un tercer país;

7) «distribuidor»: una persona física o jurídica que forme parte de la cadena de suministro, distinta del proveedor o el importador, que comercialice un sistema de IA en el mercado de la Unión;

8) «operador»: un proveedor, fabricante del producto, responsable del despliegue, representante autorizado, importador o distribuidor;

9) «introducción en el mercado»: la primera comercialización en el mercado de la Unión de un sistema de IA o de un modelo de IA de uso general;

10) «comercialización»: el suministro de un sistema de IA o de un modelo de IA de uso general para su distribución o utilización en el mercado de la Unión en el transcurso de una actividad comercial, previo pago o gratuitamente;

11) «puesta en servicio»: el suministro de un sistema de IA para su primer uso directamente al responsable del despliegue o para uso propio en la Unión para su finalidad prevista;

12) «finalidad prevista»: el uso para el que un proveedor concibe un sistema de IA, incluidos el contexto y las condiciones de uso concretos, según la información facilitada por el proveedor en las instrucciones de uso, los materiales y las declaraciones de promoción y venta, y la documentación técnica;

13) «uso indebido razonablemente previsible»: la utilización de un sistema de IA de un modo que no corresponde a su finalidad prevista, pero que puede derivarse de un comportamiento humano o una interacción con otros sistemas, incluidos otros sistemas de IA, razonablemente previsible;

14) «componente de seguridad»: un componente de un producto o un sistema de IA que cumple una función de seguridad para dicho producto o sistema de IA, o cuyo fallo o defecto de funcionamiento pone en peligro la salud y la seguridad de las personas o los bienes;

15) «instrucciones de uso»: la información facilitada por el proveedor para informar al responsable del despliegue, en particular, de la finalidad prevista y de la correcta utilización de un sistema de IA;

16) «recuperación de un sistema de IA»: toda medida encaminada a conseguir la devolución al proveedor de un sistema de IA puesto a disposición de los responsables del despliegue, a inutilizarlo o a desactivar su uso;

17) «retirada de un sistema de IA»: toda medida destinada a impedir la comercialización de un sistema de IA que se encuentra en la cadena de suministro;

18) «funcionamiento de un sistema de IA»: la capacidad de un sistema de IA para alcanzar su finalidad prevista;

19) «autoridad notificante»: la autoridad nacional responsable de establecer y llevar a cabo los procedimientos necesarios para la evaluación, designación y notificación de los organismos de evaluación de la conformidad, así como de su supervisión;

20) «evaluación de la conformidad»: el proceso por el que se demuestra si se han cumplido los requisitos establecidos en el capítulo III, sección 2, en relación con un sistema de IA de alto riesgo;

21) «organismo de evaluación de la conformidad»: un organismo que desempeña actividades de evaluación de la conformidad de terceros, como el ensayo, la certificación y la inspección;

22) «organismo notificado»: un organismo de evaluación de la conformidad notificado con arreglo al presente Reglamento y a otros actos pertinentes de la legislación de armonización de la Unión;

23) «modificación sustancial»: un cambio en un sistema de IA tras su introducción en el mercado o puesta en servicio que no haya sido previsto o proyectado en la evaluación de la conformidad inicial realizada por el proveedor y a consecuencia del cual se vea afectado el cumplimiento por parte del sistema de IA de los requisitos establecidos en el capítulo III, sección 2, o que dé lugar a una modificación de la finalidad prevista para la que se haya evaluado el sistema de IA de que se trate;

24) «marcado CE»: un marcado con el que un proveedor indica que un sistema de IA es conforme con los requisitos establecidos en el capítulo III, sección 2, y con otros actos aplicables de la legislación de armonización de la Unión que prevén su colocación;

25) «sistema de vigilancia poscomercialización»: todas las actividades realizadas por los proveedores de sistemas de IA destinadas a recoger y examinar la experiencia obtenida con el uso de sistemas de IA que introducen en el mercado o ponen en servicio, con objeto de detectar la posible necesidad de aplicar inmediatamente cualquier tipo de medida correctora o preventiva que resulte necesaria;

26) «autoridad de vigilancia del mercado»: la autoridad nacional que lleva a cabo las actividades y adopta las medidas previstas en el Reglamento (UE) 2019/1020;

27) «norma armonizada»: una norma armonizada tal como se define en el artículo 2, punto 1, letra c), del Reglamento (UE) nº 1025/2012;

28) «especificación común»: un conjunto de especificaciones técnicas tal como se definen en el artículo 2, punto 4, del Reglamento (UE) nº 1025/2012 que proporciona medios para cumplir determinados requisitos establecidos en virtud del presente Reglamento;

29) «datos de entrenamiento»: los datos usados para entrenar un sistema de IA mediante el ajuste de sus parámetros entrenables;

30) «datos de validación»: los datos usados para proporcionar una evaluación del sistema de IA entrenado y adaptar sus parámetros no entrenables y su proceso de aprendizaje para, entre otras cosas, evitar el subajuste o el sobreajuste;

31) «conjunto de datos de validación»: un conjunto de datos independiente o una parte del conjunto de datos de entrenamiento, obtenida mediante una división fija o variable;

32) «datos de prueba»: los datos usados para proporcionar una evaluación independiente del sistema de IA, con el fin de confirmar el funcionamiento previsto de dicho sistema antes de su introducción en el mercado o su puesta en servicio;

33) «datos de entrada»: los datos proporcionados a un sistema de IA u obtenidos directamente por él a partir de los cuales produce un resultado de salida;

34) «datos biométricos»: los datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física, como imágenes faciales o datos dactiloscópicos;

35) «identificación biométrica»: el reconocimiento automatizado de características humanas de tipo físico, fisiológico, conductual o psicológico para determinar la identidad de una persona física comparando sus datos biométricos con los datos biométricos de personas almacenados en una base de datos;

36) «verificación biométrica»: la verificación automatizada y uno-a-uno, incluida la autenticación, de la identidad de las personas físicas mediante la comparación de sus datos biométricos con los datos biométricos facilitados previamente;

37) «categorías especiales de datos personales»: las categorías de datos personales a que se refieren el artículo 9, apartado 1, del Reglamento (UE) 2016/679, el artículo 10 de la Directiva (UE) 2016/680 y el artículo 10, apartado 1, del Reglamento (UE) 2018/1725;

38) «datos operativos sensibles»: los datos operativos relacionados con actividades de prevención, detección, investigación o enjuiciamiento de delitos cuya divulgación podría poner en peligro la integridad de las causas penales;

39) «sistema de reconocimiento de emociones»: un sistema de IA destinado a distinguir o inferir las emociones o las intenciones de las personas físicas a partir de sus datos biométricos;

40) «sistema de categorización biométrica»: un sistema de IA destinado a incluir a las personas físicas en categorías específicas en función de sus datos biométricos, a menos que sea accesorio a otro servicio comercial y estrictamente necesario por razones técnicas objetivas;

41) «sistema de identificación biométrica remota»: un sistema de IA destinado a identificar a las personas físicas sin su participación activa y generalmente a distancia comparando sus datos biométricos con los que figuran en una base de datos de referencia;

42) «sistema de identificación biométrica remota en tiempo real»: un sistema de identificación biométrica remota, en el que la recogida de los datos biométricos, la comparación y la identificación se producen sin una demora significativa; engloba no solo la identificación instantánea, sino también, a fin de evitar la elusión, demoras mínimas limitadas;

43) «sistema de identificación biométrica remota en diferido»: cualquier sistema de identificación biométrica remota que no sea un sistema de identificación biométrica remota en tiempo real;

44) «espacio de acceso público»: cualquier lugar físico, de propiedad privada o pública, al que pueda acceder un número indeterminado de personas físicas, con independencia de que deban cumplirse determinadas condiciones de acceso y con independencia de las posibles restricciones de capacidad;

45) «autoridad garante del cumplimiento del Derecho»:

a) toda autoridad pública competente para la prevención, la investigación, la detección o el enjuiciamiento de delitos o la ejecución de sanciones penales, incluidas la protección frente a amenazas para la seguridad pública y la prevención de dichas amenazas, o

b) cualquier otro organismo o entidad a quien el Derecho del Estado miembro haya confiado el ejercicio de la autoridad pública y las competencias públicas a efectos de prevención, investigación, detección o enjuiciamiento de delitos o ejecución de sanciones penales, incluidas la protección frente a amenazas para la seguridad pública y la prevención de dichas amenazas;

46) «garantía del cumplimiento del Derecho»: las actividades realizadas por las autoridades garantes del cumplimiento del Derecho, o en su nombre, para la prevención, la investigación, la detección o el enjuiciamiento de delitos o la ejecución de sanciones penales, incluidas la protección frente a amenazas para la seguridad pública y la prevención de dichas amenazas;

47) «Oficina de IA»: la función de la Comisión consistente en contribuir a la implantación, el seguimiento y la supervisión de los sistemas de IA y modelos de IA de uso general, y a la gobernanza de la IA prevista por la Decisión de la Comisión de 24 de enero de 2024; las referencias hechas en el presente Reglamento a la Oficina de IA se entenderán hechas a la Comisión;

48) «autoridad nacional competente»: una autoridad notificante o una autoridad de vigilancia del mercado; en lo que respecta a sistemas de IA puestos en servicio o utilizados por instituciones, órganos y organismos de la Unión, las referencias hechas en el presente Reglamento a autoridades nacionales competentes o a autoridades de vigilancia del mercado se interpretarán como referencias al Supervisor Europeo de Protección de Datos;

49) «incidente grave»: un incidente o defecto de funcionamiento de un sistema de IA que, directa o indirectamente, tenga alguna de las siguientes consecuencias:

a) el fallecimiento de una persona o un perjuicio grave para su salud;

b) una alteración grave e irreversible de la gestión o el funcionamiento de infraestructuras críticas;

c) el incumplimiento de obligaciones en virtud del Derecho de la Unión destinadas a proteger los derechos fundamentales;

d) daños graves a la propiedad o al medio ambiente;

50) «datos personales»: los datos personales tal como se definen en el artículo 4, punto 1, del Reglamento (UE) 2016/679;

51) «datos no personales»: los datos que no sean datos personales tal como se definen en el artículo 4, punto 1, del Reglamento (UE) 2016/679;

52) «elaboración de perfiles»: la elaboración de perfiles tal como se define en el artículo 4, punto 4, del Reglamento (UE) 2016/679;

53) «plan de la prueba en condiciones reales»: un documento que describe los objetivos, la metodología, el ámbito geográfico, poblacional y temporal, el seguimiento, la organización y la realización de la prueba en condiciones reales;

54) «plan del espacio controlado de pruebas»: un documento acordado entre el proveedor participante y la autoridad competente en el que se describen los objetivos, las condiciones, el calendario, la metodología y los requisitos para las actividades realizadas en el espacio controlado de pruebas;

55) «espacio controlado de pruebas para la IA»: un marco controlado establecido por una autoridad competente que ofrece a los proveedores y proveedores potenciales de sistemas de IA la posibilidad de desarrollar, entrenar, validar y probar, en condiciones reales cuando proceda, un sistema de IA innovador, con arreglo a un plan del espacio controlado de pruebas y durante un tiempo limitado, bajo supervisión regulatoria;

56) «alfabetización en materia de IA»: las capacidades, los conocimientos y la comprensión que permiten a los proveedores, responsables del despliegue y demás personas afectadas, teniendo en cuenta sus respectivos derechos y obligaciones en el contexto del presente Reglamento, llevar a cabo un despliegue informado de los sistemas de IA y tomar conciencia de las oportunidades y los riesgos que plantea la IA, así como de los perjuicios que puede causar;

57) «prueba en condiciones reales»: la prueba temporal de un sistema de IA para su finalidad prevista en condiciones reales, fuera de un laboratorio u otro entorno de simulación, con el fin de recabar datos sólidos y fiables y evaluar y comprobar la conformidad del sistema de IA con los requisitos del presente Reglamento; si se cumplen todas las condiciones establecidas en el artículo 57 o 60, no se considerará una introducción en el mercado o una puesta en servicio del sistema de IA en el sentido de lo dispuesto en el presente Reglamento;

58) «sujeto»: a los efectos de la prueba en condiciones reales, una persona física que participa en la prueba en condiciones reales;

59) «consentimiento informado»: la expresión libre, específica, inequívoca y voluntaria por parte de un sujeto de su voluntad de participar en una determinada prueba en condiciones reales tras haber sido informado de todos los aspectos de la prueba que sean pertinentes para su decisión de participar;

60) «ultrasuplantación»: un contenido de imagen, audio o vídeo generado o manipulado por una IA que se asemeja a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos;

61) «infracción generalizada»: todo acto u omisión contrario al Derecho de la Unión por el que se protegen los intereses de las personas y que:

a) haya perjudicado o pueda perjudicar los intereses colectivos de personas que residen en al menos dos Estados miembros distintos de aquel en el que:

i) se originó o tuvo lugar el acto u omisión,

ii) esté ubicado o establecido el proveedor de que se trate o, en su caso, su representante autorizado, o

iii) esté establecido el responsable del despliegue en el momento de cometer la infracción;

b) haya perjudicado, perjudique o pueda perjudicar los intereses colectivos de las personas y tenga características comunes —incluidas la misma práctica ilícita o la vulneración del mismo interés— y sea cometido simultáneamente por el mismo operador en al menos tres Estados miembros;

62) «infraestructura crítica»: una infraestructura crítica tal como se define en el artículo 2, punto 4, de la Directiva (UE) 2022/2557;

63) «modelo de IA de uso general»: un modelo de IA, también uno entrenado con un gran volumen de datos utilizando autosupervisión a gran escala, que presenta un grado considerable de generalidad y es capaz de realizar de manera competente una gran variedad de tareas distintas, independientemente de la manera en que el modelo se introduzca en el mercado, y que puede integrarse en diversos sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o creación de prototipos antes de su introducción en el mercado;

64) «capacidades de gran impacto»: capacidades que igualan o superan las capacidades mostradas por los modelos de IA de uso general más avanzados;

65) «riesgo sistémico»: un riesgo específico de las capacidades de gran impacto de los modelos de IA de uso general, que tienen unas repercusiones considerables en el mercado de la Unión debido a su alcance o a los efectos negativos reales o razonablemente previsibles en la salud pública, la seguridad, la seguridad pública, los derechos fundamentales o la sociedad en su conjunto, que puede propagarse a gran escala a lo largo de toda la cadena de valor;

66) «sistema de IA de uso general»: un sistema de IA basado en un modelo de IA de uso general y que puede servir para diversos fines, tanto para su uso directo como para su integración en otros sistemas de IA;

67) «operación de coma flotante»: cualquier operación o tarea matemática que implique números de coma flotante, que son un subconjunto de los números reales normalmente representados en los ordenadores mediante un número entero de precisión fija elevado por el exponente entero de una base fija;

68) «proveedor posterior»: un proveedor de un sistema de IA, también de un sistema de IA de uso general, que integra un modelo de IA, con independencia de que el modelo de IA lo proporcione él mismo y esté integrado verticalmente o lo proporcione otra entidad en virtud de relaciones contractuales.

Artículo 4. Alfabetización en materia de IA

Los proveedores y responsables del despliegue de sistemas de IA adoptarán medidas para garantizar que, en la mayor medida posible, su personal y demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA tengan un nivel suficiente de alfabetización en materia de IA, teniendo en cuenta sus conocimientos técnicos, su experiencia, su educación y su formación, así como el contexto previsto de uso de los sistemas de IA y las personas o los colectivos de personas en que se van a utilizar dichos sistemas.

CAPÍTULO II. PRÁCTICAS DE IA PROHIBIDAS

Artículo 5. Prácticas de IA prohibidas

1.   Quedan prohibidas las siguientes prácticas de IA:

a) la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que tomen una decisión que de otro modo no habrían tomado, de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona, a otra persona o a un colectivo de personas;

b) la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que explote alguna de las vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con la finalidad o el efecto de alterar de manera sustancial el comportamiento de dicha persona o de una persona que pertenezca a dicho colectivo de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra;

c) la introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA para evaluar o clasificar a personas físicas o a colectivos de personas durante un período determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad conocidas, inferidas o predichas, de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes:

i) un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente,

ii) un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este;

d) la introducción en el mercado, la puesta en servicio para este fin específico o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad; esta prohibición no se aplicará a los sistemas de IA utilizados para apoyar la valoración humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva;

e) la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión;

f) la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad;

g) la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual; esta prohibición no incluye el etiquetado o filtrado de conjuntos de datos biométricos adquiridos lícitamente, como imágenes, basado en datos biométricos ni la categorización de datos biométricos en el ámbito de la garantía del cumplimiento del Derecho;

h) el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes:

i) la búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual de seres humanos, así como la búsqueda de personas desaparecidas,

ii) la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de una amenaza real y actual o real y previsible de un atentado terrorista,

iii) la localización o identificación de una persona sospechosa de haber cometido un delito a fin de llevar a cabo una investigación o un enjuiciamiento penales o de ejecutar una sanción penal por alguno de los delitos mencionados en el anexo II que en el Estado miembro de que se trate se castigue con una pena o una medida de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro años.

El párrafo primero, letra h), se entiende sin perjuicio de lo dispuesto en el artículo 9 del Reglamento (UE) 2016/679 en lo que respecta al tratamiento de datos biométricos con fines distintos de la garantía del cumplimiento del Derecho.

2.   El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho para cualquiera de los objetivos mencionados en el apartado 1, párrafo primero, letra h), debe desplegarse para los fines establecidos en dicha letra, únicamente para confirmar la identidad de la persona que constituya el objetivo específico y tendrá en cuenta los siguientes aspectos:

a) la naturaleza de la situación que dé lugar al posible uso, y en particular la gravedad, probabilidad y magnitud del perjuicio que se produciría de no utilizarse el sistema;

b) las consecuencias que tendría el uso del sistema en los derechos y las libertades de las personas implicadas, y en particular la gravedad, probabilidad y magnitud de dichas consecuencias.

Además, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho para cualquiera de los objetivos mencionados en el apartado 1, párrafo primero, letra h), del presente artículo deberá cumplir garantías y condiciones necesarias y proporcionadas en relación con el uso de conformidad con el Derecho nacional que autorice dicho uso, en particular en lo que respecta a las limitaciones temporales, geográficas y personales. El uso del sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público solo se autorizará si la autoridad garante del cumplimiento del Derecho ha completado una evaluación de impacto relativa a los derechos fundamentales según lo dispuesto en el artículo 27 y ha registrado el sistema en la base de datos de la UE de conformidad con el artículo 49. No obstante, en casos de urgencia debidamente justificados, se podrá empezar a utilizar tales sistemas sin el registro en la base de datos de la UE, siempre que dicho registro se complete sin demora indebida.

3.   A los efectos del apartado 1, párrafo primero, letra h), y el apartado 2, todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho estará supeditado a la concesión de una autorización previa por parte de una autoridad judicial o una autoridad administrativa independiente cuya decisión sea vinculante del Estado miembro en el que vaya a utilizarse dicho sistema, que se expedirá previa solicitud motivada y de conformidad con las normas detalladas del Derecho nacional mencionadas en el apartado 5. No obstante, en una situación de urgencia debidamente justificada, se podrá empezar a utilizar tal sistema sin autorización siempre que se solicite dicha autorización sin demora indebida, a más tardar en un plazo de veinticuatro horas. Si se rechaza dicha autorización, el uso se interrumpirá con efecto inmediato y todos los datos, así como los resultados y la información de salida generados por dicho uso, se desecharán y suprimirán inmediatamente.

La autoridad judicial competente o una autoridad administrativa independiente cuya decisión sea vinculante únicamente concederá la autorización cuando tenga constancia, sobre la base de pruebas objetivas o de indicios claros que se le aporten, de que el uso del sistema de identificación biométrica remota «en tiempo real» es necesario y proporcionado para alcanzar alguno de los objetivos especificados en el apartado 1, párrafo primero, letra h), el cual se indicará en la solicitud, y, en particular, se limita a lo estrictamente necesario en lo que se refiere al período de tiempo, así como al ámbito geográfico y personal. Al pronunciarse al respecto, esa autoridad tendrá en cuenta los aspectos mencionados en el apartado 2. Dicha autoridad no podrá adoptar ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida del sistema de identificación biométrica remota «en tiempo real».

4.   Sin perjuicio de lo dispuesto en el apartado 3, todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho se notificará a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos de conformidad con las normas nacionales a que se refiere el apartado 5. La notificación contendrá, como mínimo, la información especificada en el apartado 6 y no incluirá datos operativos sensibles.

5.   Los Estados miembros podrán decidir contemplar la posibilidad de autorizar, ya sea total o parcialmente, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho dentro de los límites y en las condiciones que se indican en el apartado 1, párrafo primero, letra h), y los apartados 2 y 3. Los Estados miembros de que se trate deberán establecer en sus respectivos Derechos nacionales las normas detalladas necesarias aplicables a la solicitud, la concesión y el ejercicio de las autorizaciones a que se refiere el apartado 3, así como a la supervisión y la presentación de informes relacionadas con estas. Dichas normas especificarán también para qué objetivos de los enumerados en el apartado 1, párrafo primero, letra h), y en su caso en relación con qué delitos de los indicados en la letra h), inciso iii), se podrá autorizar a las autoridades competentes para que utilicen esos sistemas con fines de garantía del cumplimiento del Derecho. Los Estados miembros notificarán dichas normas a la Comisión a más tardar treinta días después de su adopción. Los Estados miembros podrán adoptar, de conformidad con el Derecho de la Unión, leyes más restrictivas sobre el uso de sistemas de identificación biométrica remota.

6.   Las autoridades nacionales de vigilancia del mercado y las autoridades nacionales de protección de datos de los Estados miembros a las que se haya notificado el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho con arreglo al apartado 4 presentarán a la Comisión informes anuales sobre dicho uso. A tal fin, la Comisión facilitará a los Estados miembros y a las autoridades nacionales de vigilancia del mercado y de protección de datos un modelo que incluya información sobre el número de decisiones adoptadas por las autoridades judiciales competentes o una autoridad administrativa independiente cuya decisión sea vinculante en relación con las solicitudes de autorización de conformidad con el apartado 3, así como su resultado.

7.   La Comisión publicará informes anuales sobre el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho elaborados basados en datos agregados relativos a los Estados miembros sobre la base de los informes anuales a que se refiere el apartado 6. Dichos informes anuales no incluirán datos operativos sensibles de las actividades de garantía del cumplimiento del Derecho conexas.

8.   El presente artículo no afectará a las prohibiciones aplicables cuando una práctica de IA infrinja otras disposiciones de Derecho de la Unión.

CAPÍTULO III. SISTEMAS DE IA DE ALTO RIESGO

SECCIÓN 1. Clasificación de los sistemas de IA como sistemas de alto riesgo

Artículo 6. Reglas de clasificación de los sistemas de IA de alto riesgo

1.   Con independencia de si se ha introducido en el mercado o se ha puesto en servicio sin estar integrado en los productos que se mencionan en las letras a) y b), un sistema de IA se considerará de alto riesgo cuando reúna las dos condiciones que se indican a continuación:

a) que el sistema de IA esté destinado a ser utilizado como componente de seguridad de un producto que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión enumerados en el anexo I, o que el propio sistema de IA sea uno de dichos productos, y

b) que el producto del que el sistema de IA sea componente de seguridad con arreglo a la letra a), o el propio sistema de IA como producto, deba someterse a una evaluación de la conformidad de terceros para su introducción en el mercado o puesta en servicio con arreglo a los actos legislativos de armonización de la Unión enumerados en el anexo I.

2.   Además de los sistemas de IA de alto riesgo a que se refiere el apartado 1, también se considerarán de alto riesgo los sistemas de IA contemplados en el anexo III.

3.   No obstante lo dispuesto en el apartado 2, un sistema de IA a que se refiere el anexo III no se considerará de alto riesgo cuando no plantee un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas, también al no influir sustancialmente en el resultado de la toma de decisiones.

El párrafo primero se aplicará cuando se cumpla cualquiera de las condiciones siguientes:

a) que el sistema de IA esté destinado a realizar una tarea de procedimiento limitada;

b) que el sistema de IA esté destinado a mejorar el resultado de una actividad humana previamente realizada;

c) que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones con respecto a patrones de toma de decisiones anteriores y no esté destinado a sustituir la valoración humana previamente realizada sin una revisión humana adecuada, ni a influir en ella, o

d) que el sistema de IA esté destinado a realizar una tarea preparatoria para una evaluación que sea pertinente a efectos de los casos de uso enumerados en el anexo III.

No obstante lo dispuesto en el párrafo primero, los sistemas de IA a que se refiere el anexo III siempre se considerarán de alto riesgo cuando el sistema de IA efectúe la elaboración de perfiles de personas físicas.

4.   El proveedor que considere que un sistema de IA contemplado en el anexo III no es de alto riesgo documentará su evaluación antes de que dicho sistema sea introducido en el mercado o puesto en servicio. Dicho proveedor estará sujeto a la obligación de registro establecida en el artículo 49, apartado 2. A petición de las autoridades nacionales competentes, el proveedor facilitará la documentación de la evaluación.

5.   La Comisión, previa consulta al Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA»), y a más tardar el 2 de febrero de 2026, proporcionará directrices que especifiquen la aplicación práctica del presente artículo en consonancia con el artículo 96, junto con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y que no sean de alto riesgo.

6.   La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el apartado 3, párrafo segundo, del presente artículo, añadiendo nuevas condiciones a las establecidas en dicho apartado, o modificando estas, cuando existan pruebas concretas y fiables de la existencia de sistemas de IA que entren en el ámbito de aplicación del anexo III, pero que no planteen un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas.

7.   La Comisión adoptará actos delegados con arreglo al artículo 97 al objeto de modificar el apartado 3, párrafo segundo, del presente artículo, suprimiendo cualquiera de las condiciones establecidas en él, cuando existan pruebas concretas y fiables de que es necesario para mantener el nivel de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento.

8.   Ninguna modificación de las condiciones establecidas en el apartado 3, párrafo segundo, adoptada de conformidad con los apartados 6 y 7 del presente artículo, reducirá el nivel global de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento, y cualquier modificación garantizará la coherencia con los actos delegados adoptados con arreglo al artículo 7, apartado 1, y tendrá en cuenta la evolución tecnológica y del mercado.

Artículo 7. Modificaciones del anexo III

1.   La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el anexo III mediante la adición o modificación de casos de uso de sistemas de IA de alto riesgo cuando se reúnan las dos condiciones siguientes:

a) que los sistemas de IA estén destinados a ser utilizados en cualquiera de los ámbitos que figuran en el anexo III, y

b) que los sistemas de IA planteen un riesgo de perjudicar la salud y la seguridad o de tener repercusiones negativas en los derechos fundamentales, y que dicho riesgo sea equivalente a, o mayor que, el riesgo de perjuicio o de repercusiones negativas que plantean los sistemas de IA de alto riesgo que ya se mencionan en el anexo III.

2.   Cuando evalúe la condición prevista en el apartado 1, letra b), la Comisión tendrá en cuenta los criterios siguientes:

a) la finalidad prevista del sistema de IA;

b) la medida en que se haya utilizado o sea probable que se utilice un sistema de IA;

c) la naturaleza y la cantidad de los datos tratados y utilizados por el sistema de IA, en particular si se tratan categorías especiales de datos personales;

d) el grado de autonomía con el que actúa el sistema de IA y la posibilidad de que un ser humano anule una decisión o recomendaciones que puedan dar lugar a un perjuicio;

e) la medida en que la utilización de un sistema de IA ya haya causado un perjuicio a la salud y la seguridad, haya tenido repercusiones negativas en los derechos fundamentales o haya dado lugar a problemas importantes en relación con la probabilidad de dicho perjuicio o dichas repercusiones negativas, según demuestren, por ejemplo, los informes o las alegaciones documentadas que se presenten a las autoridades nacionales competentes o cualquier otro informe, según proceda;

f) el posible alcance de dicho perjuicio o dichas repercusiones negativas, en particular en lo que respecta a su intensidad y su capacidad para afectar a varias personas o afectar de manera desproporcionada a un determinado colectivo de personas;

g) la medida en que las personas que podrían sufrir dicho perjuicio o dichas repercusiones negativas dependan del resultado generado por un sistema de IA, en particular porque, por motivos prácticos o jurídicos, no sea razonablemente posible renunciar a dicho resultado;

h) la medida en que exista un desequilibrio de poder o las personas que podrían sufrir dicho perjuicio o dichas repercusiones negativas se encuentren en una posición de vulnerabilidad respecto del responsable del despliegue de un sistema de IA, en particular debido a su situación, autoridad, conocimientos, circunstancias económicas o sociales, o edad;

i) la medida en que sea fácil corregir o revertir el resultado generado utilizando un sistema de IA, teniendo en cuenta las soluciones técnicas disponibles para corregirlo o revertirlo y sin que deba considerarse que los resultados que afectan negativamente a la salud, la seguridad o los derechos fundamentales son fáciles de corregir o revertir;

j) la probabilidad de que el despliegue del sistema de IA resulte beneficioso para las personas, los colectivos o la sociedad en general, y la magnitud de este beneficio, incluidas posibles mejoras en la seguridad de los productos;

k) la medida en que el Derecho de la Unión vigente establezca:

i) vías de recurso efectivas en relación con los riesgos que plantea un sistema de IA, con exclusión de las acciones por daños y perjuicios,

ii) medidas efectivas para prevenir o reducir notablemente esos riesgos.

3.   La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar la lista del anexo III mediante la supresión de sistemas de IA de alto riesgo cuando se reúnan las dos condiciones siguientes:

a) que los sistemas de IA de alto riesgo de que se trate ya no planteen riesgos considerables para los derechos fundamentales, la salud o la seguridad, teniendo en cuenta los criterios enumerados en el apartado 2;

b) que la supresión no reduzca el nivel general de protección de la salud, la seguridad y los derechos fundamentales con arreglo al Derecho de la Unión.

SECCIÓN 2. Requisitos de los sistemas de IA de alto riesgo

Artículo 8. Cumplimiento de los requisitos

1.   Los sistemas de IA de alto riesgo cumplirán los requisitos establecidos en la presente sección, teniendo en cuenta sus finalidades previstas, así como el estado actual de la técnica generalmente reconocido en materia de IA y tecnologías relacionadas con la IA. A la hora de garantizar el cumplimiento de dichos requisitos se tendrá en cuenta el sistema de gestión de riesgos a que se refiere el artículo 9.

2.   Cuando un producto contenga un sistema de IA al que se apliquen los requisitos del presente Reglamento, así como los requisitos de los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, los proveedores serán responsables de garantizar que su producto cumpla plenamente todos los requisitos aplicables en virtud de los actos legislativos de armonización de la Unión que sean aplicables. Para garantizar el cumplimiento de los sistemas de IA de alto riesgo a que se refiere el apartado 1 de los requisitos establecidos en la presente sección, y con el fin de garantizar la coherencia, evitar duplicidades y reducir al mínimo las cargas adicionales, los proveedores podrán optar por integrar, según proceda, los procesos de prueba y presentación de información necesarios, y la información y la documentación que faciliten con respecto a su producto en documentación y procedimientos que ya existan y exijan los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A.

Artículo 9. Sistema de gestión de riesgos

1.   Se establecerá, implantará, documentará y mantendrá un sistema de gestión de riesgos en relación con los sistemas de IA de alto riesgo.

2.   El sistema de gestión de riesgos se entenderá como un proceso iterativo continuo planificado y ejecutado durante todo el ciclo de vida de un sistema de IA de alto riesgo, que requerirá revisiones y actualizaciones sistemáticas periódicas. Constará de las siguientes etapas:

a) la determinación y el análisis de los riesgos conocidos y previsibles que el sistema de IA de alto riesgo pueda plantear para la salud, la seguridad o los derechos fundamentales cuando el sistema de IA de alto riesgo se utilice de conformidad con su finalidad prevista;

b) la estimación y la evaluación de los riesgos que podrían surgir cuando el sistema de IA de alto riesgo se utilice de conformidad con su finalidad prevista y cuando se le dé un uso indebido razonablemente previsible;

c) la evaluación de otros riesgos que podrían surgir, a partir del análisis de los datos recogidos con el sistema de vigilancia poscomercialización a que se refiere el artículo 72;

d) la adopción de medidas adecuadas y específicas de gestión de riesgos diseñadas para hacer frente a los riesgos detectados con arreglo a la letra a).

3.   Los riesgos a que se refiere el presente artículo son únicamente aquellos que pueden mitigarse o eliminarse razonablemente mediante el desarrollo o el diseño del sistema de IA de alto riesgo o el suministro de información técnica adecuada.

4.   Las medidas de gestión de riesgos mencionadas en el apartado 2, letra d), tendrán debidamente en cuenta los efectos y la posible interacción derivados de la aplicación combinada de los requisitos establecidos en la presente sección, con vistas a reducir al mínimo los riesgos de manera más eficaz al tiempo que se logra un equilibrio adecuado en la aplicación de las medidas para cumplir dichos requisitos.

5.   Las medidas de gestión de riesgos mencionadas en el apartado 2, letra d), considerarán aceptables los riesgos residuales pertinentes asociados a cada peligro, así como el riesgo residual general de los sistemas de IA de alto riesgo.

A la hora de determinar las medidas de gestión de riesgos más adecuadas, se procurará:

a) eliminar o reducir los riesgos detectados y evaluados de conformidad con el apartado 2 en la medida en que sea técnicamente viable mediante un diseño y un desarrollo adecuados del sistema de IA de alto riesgo;

b) implantar, cuando proceda, unas medidas de mitigación y control apropiadas que hagan frente a los riesgos que no puedan eliminarse;

c) proporcionar la información requerida conforme al artículo 13 y, cuando proceda, impartir formación a los responsables del despliegue.

Con vistas a eliminar o reducir los riesgos asociados a la utilización del sistema de IA de alto riesgo, se tendrán debidamente en cuenta los conocimientos técnicos, la experiencia, la educación y la formación que se espera que posea el responsable del despliegue, así como el contexto en el que está previsto que se utilice el sistema.

6.   Los sistemas de IA de alto riesgo serán sometidos a pruebas destinadas a determinar cuáles son las medidas de gestión de riesgos más adecuadas y específicas. Dichas pruebas comprobarán que los sistemas de IA de alto riesgo funcionan de manera coherente con su finalidad prevista y cumplen los requisitos establecidos en la presente sección.

7.   Los procedimientos de prueba podrán incluir pruebas en condiciones reales de conformidad con el artículo 60.

8.   Las pruebas de los sistemas de IA de alto riesgo se realizarán, según proceda, en cualquier momento del proceso de desarrollo y, en todo caso, antes de su introducción en el mercado o puesta en servicio. Las pruebas se realizarán utilizando parámetros y umbrales de probabilidades previamente definidos que sean adecuados para la finalidad prevista del sistema de IA de alto riesgo.

9.   Cuando se implante el sistema de gestión de riesgos previsto en los apartados 1 a 7, los proveedores prestarán atención a si, en vista de su finalidad prevista, es probable que el sistema de IA de alto riesgo afecte negativamente a las personas menores de dieciocho años y, en su caso, a otros colectivos vulnerables.

10.   En el caso de los proveedores de sistemas de IA de alto riesgo que estén sujetos a requisitos relativos a procesos internos de gestión de riesgos con arreglo a otras disposiciones pertinentes del Derecho de la Unión, los aspectos previstos en los apartados 1 a 9 podrán formar parte de los procedimientos de gestión de riesgos establecidos con arreglo a dicho Derecho, o combinarse con ellos.

Artículo 10. Datos y gobernanza de datos

1.   Los sistemas de IA de alto riesgo que utilizan técnicas que implican el entrenamiento de modelos de IA con datos se desarrollarán a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplan los criterios de calidad a que se refieren los apartados 2 a 5 siempre que se utilicen dichos conjuntos de datos.

2.   Los conjuntos de datos de entrenamiento, validación y prueba se someterán a prácticas de gobernanza y gestión de datos adecuadas para la finalidad prevista del sistema de IA de alto riesgo. Dichas prácticas se centrarán, en particular, en lo siguiente:

a) las decisiones pertinentes relativas al diseño;

b) los procesos de recogida de datos y el origen de los datos y, en el caso de los datos personales, la finalidad original de la recogida de datos;

c) las operaciones de tratamiento oportunas para la preparación de los datos, como la anotación, el etiquetado, la depuración, la actualización, el enriquecimiento y la agregación;

d) la formulación de supuestos, en particular en lo que respecta a la información que se supone que miden y representan los datos;

e) una evaluación de la disponibilidad, la cantidad y la adecuación de los conjuntos de datos necesarios;

f) el examen atendiendo a posibles sesgos que puedan afectar a la salud y la seguridad de las personas, afectar negativamente a los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión, especialmente cuando las salidas de datos influyan en las informaciones de entrada de futuras operaciones;

g) medidas adecuadas para detectar, prevenir y mitigar posibles sesgos detectados con arreglo a la letra f);

h) la detección de lagunas o deficiencias pertinentes en los datos que impidan el cumplimiento del presente Reglamento, y la forma de subsanarlas.

3.   Los conjuntos de datos de entrenamiento, validación y prueba serán pertinentes, suficientemente representativos y, en la mayor medida posible, carecerán de errores y estarán completos en vista de su finalidad prevista. Asimismo, tendrán las propiedades estadísticas adecuadas, por ejemplo, cuando proceda, en lo que respecta a las personas o los colectivos de personas en relación con los cuales está previsto que se utilice el sistema de IA de alto riesgo. Los conjuntos de datos podrán reunir esas características para cada conjunto de datos individualmente o para una combinación de estos.

4.   Los conjuntos de datos tendrán en cuenta, en la medida necesaria para la finalidad prevista, las características o elementos particulares del entorno geográfico, contextual, conductual o funcional específico en el que está previsto que se utilice el sistema de IA de alto riesgo.

5.   En la medida en que sea estrictamente necesario para garantizar la detección y corrección de los sesgos asociados a los sistemas de IA de alto riesgo de conformidad con lo dispuesto en el apartado 2, letras f) y g), del presente artículo, los proveedores de dichos sistemas podrán tratar excepcionalmente las categorías especiales de datos personales siempre que ofrezcan las garantías adecuadas en relación con los derechos y las libertades fundamentales de las personas físicas. Además de las disposiciones establecidas en los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680, para que se produzca dicho tratamiento deben cumplirse todas las condiciones siguientes:

a) que el tratamiento de otros datos, como los sintéticos o los anonimizados, no permita efectuar de forma efectiva la detección y corrección de sesgos;

b) que las categorías especiales de datos personales estén sujetas a limitaciones técnicas relativas a la reutilización de los datos personales y a medidas punteras en materia de seguridad y protección de la intimidad, incluida la seudonimización;

c) que las categorías especiales de datos personales estén sujetas a medidas para garantizar que los datos personales tratados estén asegurados, protegidos y sujetos a garantías adecuadas, incluidos controles estrictos y documentación del acceso, a fin de evitar el uso indebido y garantizar que solo las personas autorizadas tengan acceso a dichos datos personales con obligaciones de confidencialidad adecuadas;

d) que las categorías especiales de datos personales no se transmitan ni transfieran a terceros y que estos no puedan acceder de ningún otro modo a ellos;

e) que las categorías especiales de datos personales se eliminen una vez que se haya corregido el sesgo o los datos personales hayan llegado al final de su período de conservación, si esta fecha es anterior;

f) que los registros de las actividades de tratamiento con arreglo a los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680 incluyan las razones por las que el tratamiento de categorías especiales de datos personales era estrictamente necesario para detectar y corregir sesgos, y por las que ese objetivo no podía alcanzarse mediante el tratamiento de otros datos.

6.   Para el desarrollo de sistemas de IA de alto riesgo que no empleen técnicas que impliquen el entrenamiento de modelos de IA, los apartados 2 a 5 se aplicarán únicamente a los conjuntos de datos de prueba.

Artículo 11. Documentación técnica

1.   La documentación técnica de un sistema de IA de alto riesgo se elaborará antes de su introducción en el mercado o puesta en servicio, y se mantendrá actualizada.

La documentación técnica se redactará de modo que demuestre que el sistema de IA de alto riesgo cumple los requisitos establecidos en la presente sección y que proporcione de manera clara y completa a las autoridades nacionales competentes y a los organismos notificados la información necesaria para evaluar la conformidad del sistema de IA con dichos requisitos. Contendrá, como mínimo, los elementos contemplados en el anexo IV. Las pymes, incluidas las empresas emergentes, podrán facilitar los elementos de la documentación técnica especificada en el anexo IV de manera simplificada. A tal fin, la Comisión establecerá un formulario simplificado de documentación técnica orientado a las necesidades de las pequeñas empresas y las microempresas. Cuando una pyme, incluidas las empresas emergentes, opte por facilitar la información exigida en el anexo IV de manera simplificada, utilizará el formulario a que se refiere el presente apartado. Los organismos notificados aceptarán dicho formulario a efectos de la evaluación de la conformidad.

2.   Cuando se introduzca en el mercado o se ponga en servicio un sistema de IA de alto riesgo asociado a un producto que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión mencionados en el anexo I, sección A, se elaborará un único conjunto de documentos técnicos que contenga toda la información mencionada en el apartado 1, así como la información que exijan dichos actos legislativos.

3.   La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el anexo IV, cuando sea necesario, para garantizar que, en vista de los avances técnicos, la documentación técnica proporcione toda la información necesaria para evaluar si el sistema cumple los requisitos establecidos en la presente sección.

Artículo 12. Conservación de registros

1.   Los sistemas de IA de alto riesgo permitirán técnicamente el registro automático de acontecimientos (en lo sucesivo, «archivos de registro») a lo largo de todo el ciclo de vida del sistema.

2.   Para garantizar un nivel de trazabilidad del funcionamiento del sistema de IA de alto riesgo que resulte adecuado para la finalidad prevista del sistema, las capacidades de registro permitirán que se registren acontecimientos pertinentes para:

a) la detección de situaciones que puedan dar lugar a que el sistema de IA de alto riesgo presente un riesgo en el sentido del artículo 79, apartado 1, o a una modificación sustancial;

b) la facilitación de la vigilancia poscomercialización a que se refiere el artículo 72, y

c) la vigilancia del funcionamiento de los sistemas de IA de alto riesgo a que se refiere el artículo 26, apartado 5.

3.   En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 1, letra a), las capacidades de registro incluirán, como mínimo:

a) un registro del período de cada uso del sistema (la fecha y la hora de inicio y la fecha y la hora de finalización de cada uso);

b) la base de datos de referencia con la que el sistema ha cotejado los datos de entrada;

c) los datos de entrada con los que la búsqueda ha arrojado una correspondencia;

d) la identificación de las personas físicas implicadas en la verificación de los resultados que se mencionan en el artículo 14, apartado 5.

Artículo 13. Transparencia y comunicación de información a los responsables del despliegue

1.   Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de un modo que se garantice que funcionan con un nivel de transparencia suficiente para que los responsables del despliegue interpreten y usen correctamente sus resultados de salida. Se garantizará un tipo y un nivel de transparencia adecuados para que el proveedor y el responsable del despliegue cumplan las obligaciones pertinentes previstas en la sección 3.

2.   Los sistemas de IA de alto riesgo irán acompañados de las instrucciones de uso correspondientes en un formato digital o de otro tipo adecuado, las cuales incluirán información concisa, completa, correcta y clara que sea pertinente, accesible y comprensible para los responsables del despliegue.

3.   Las instrucciones de uso contendrán al menos la siguiente información:

a)la identidad y los datos de contacto del proveedor y, en su caso, de su representante autorizado;

b) las características, capacidades y limitaciones del funcionamiento del sistema de IA de alto riesgo, con inclusión de:

i) su finalidad prevista,

ii) el nivel de precisión (incluidos los parámetros para medirla), solidez y ciberseguridad mencionado en el artículo 15 con respecto al cual se haya probado y validado el sistema de IA de alto riesgo y que puede esperarse, así como cualquier circunstancia conocida y previsible que pueda afectar al nivel de precisión, solidez y ciberseguridad esperado,

iii) cualquier circunstancia conocida o previsible, asociada a la utilización del sistema de IA de alto riesgo conforme a su finalidad prevista o a un uso indebido razonablemente previsible, que pueda dar lugar a riesgos para la salud y la seguridad o los derechos fundamentales a que se refiere el artículo 9, apartado 2,

iv) en su caso, las capacidades y características técnicas del sistema de IA de alto riesgo para proporcionar información pertinente para explicar sus resultados de salida,

v) cuando proceda, su funcionamiento con respecto a determinadas personas o determinados colectivos de personas en relación con los que esté previsto utilizar el sistema,

vi) cuando proceda, especificaciones relativas a los datos de entrada, o cualquier otra información pertinente en relación con los conjuntos de datos de entrenamiento, validación y prueba usados, teniendo en cuenta la finalidad prevista del sistema de IA de alto riesgo,

vii) en su caso, información que permita a los responsables del despliegue interpretar los resultados de salida del sistema de IA de alto riesgo y utilizarla adecuadamente;

c) los cambios en el sistema de IA de alto riesgo y su funcionamiento predeterminados por el proveedor en el momento de efectuar la evaluación de la conformidad inicial, en su caso;

d) las medidas de supervisión humana a que se hace referencia en el artículo 14, incluidas las medidas técnicas establecidas para facilitar la interpretación de los resultados de salida de los sistemas de IA de alto riesgo por parte de los responsables del despliegue;

e) los recursos informáticos y de hardware necesarios, la vida útil prevista del sistema de IA de alto riesgo y las medidas de mantenimiento y cuidado necesarias (incluida su frecuencia) para garantizar el correcto funcionamiento de dicho sistema, también en lo que respecta a las actualizaciones del software;

f) cuando proceda, una descripción de los mecanismos incluidos en el sistema de IA de alto riesgo que permita a los responsables del despliegue recabar, almacenar e interpretar correctamente los archivos de registro de conformidad con el artículo 12.

Artículo 14. Supervisión humana

1.   Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de herramientas de interfaz humano-máquina adecuadas.

2.   El objetivo de la supervisión humana será prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que pueden surgir cuando se utiliza un sistema de IA de alto riesgo conforme a su finalidad prevista o cuando se le da un uso indebido razonablemente previsible, en particular cuando dichos riesgos persistan a pesar de la aplicación de otros requisitos establecidos en la presente sección.

3.   Las medidas de supervisión serán proporcionales a los riesgos, al nivel de autonomía y al contexto de uso del sistema de IA de alto riesgo, y se garantizarán bien mediante uno de los siguientes tipos de medidas, bien mediante ambos:

a) las medidas que el proveedor defina y que integre, cuando sea técnicamente viable, en el sistema de IA de alto riesgo antes de su introducción en el mercado o su puesta en servicio;

b) las medidas que el proveedor defina antes de la introducción del sistema de IA de alto riesgo en el mercado o de su puesta en servicio y que sean adecuadas para que las ponga en práctica el responsable del despliegue.

4.   A efectos de la puesta en práctica de lo dispuesto en los apartados 1, 2 y 3, el sistema de IA de alto riesgo se ofrecerá al responsable del despliegue de tal modo que las personas físicas a quienes se encomiende la supervisión humana puedan, según proceda y de manera proporcionada a:

a) entender adecuadamente las capacidades y limitaciones pertinentes del sistema de IA de alto riesgo y poder vigilar debidamente su funcionamiento, por ejemplo, con vistas a detectar y resolver anomalías, problemas de funcionamiento y comportamientos inesperados;

b) ser conscientes de la posible tendencia a confiar automáticamente o en exceso en los resultados de salida generados por un sistema de IA de alto riesgo («sesgo de automatización»), en particular con aquellos sistemas que se utilizan para aportar información o recomendaciones con el fin de que personas físicas adopten una decisión;

c) interpretar correctamente los resultados de salida del sistema de IA de alto riesgo, teniendo en cuenta, por ejemplo, los métodos y herramientas de interpretación disponibles;

d) decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto riesgo o descartar, invalidar o revertir los resultados de salida que este genere;

e) intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema pulsando un botón de parada o mediante un procedimiento similar que permita que el sistema se detenga de forma segura.

5.   En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 1, letra a), las medidas a que se refiere el apartado 3 del presente artículo garantizarán, además, que el responsable del despliegue no actúe ni tome ninguna decisión basándose en la identificación generada por el sistema, salvo si al menos dos personas físicas con la competencia, formación y autoridad necesarias han verificado y confirmado por separado dicha identificación.

El requisito de la verificación por parte de al menos dos personas físicas por separado no se aplicará a los sistemas de IA de alto riesgo utilizados con fines de garantía del cumplimiento del Derecho, de migración, de control fronterizo o de asilo cuando el Derecho nacional o de la Unión considere que la aplicación de este requisito es desproporcionada.

Artículo 15. Precisión, solidez y ciberseguridad

1.   Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que alcancen un nivel adecuado de precisión, solidez y ciberseguridad y funcionen de manera uniforme en esos sentidos durante todo su ciclo de vida.

2.   Para abordar los aspectos técnicos sobre la forma de medir los niveles adecuados de precisión y solidez establecidos en el apartado 1 y cualquier otro parámetro de rendimiento pertinente, la Comisión, en cooperación con las partes interesadas y organizaciones pertinentes, como las autoridades de metrología y de evaluación comparativa, fomentará, según proceda, el desarrollo de parámetros de referencia y metodologías de medición.

3.   En las instrucciones de uso que acompañen a los sistemas de IA de alto riesgo se indicarán los niveles de precisión de dichos sistemas, así como los parámetros pertinentes para medirla.

4.   Los sistemas de IA de alto riesgo serán lo más resistentes posible en lo que respecta a los errores, fallos o incoherencias que pueden surgir en los propios sistemas o en el entorno en el que funcionan, en particular a causa de su interacción con personas físicas u otros sistemas. Se adoptarán medidas técnicas y organizativas a este respecto.

La solidez de los sistemas de IA de alto riesgo puede lograrse mediante soluciones de redundancia técnica, tales como copias de seguridad o planes de prevención contra fallos.

Los sistemas de IA de alto riesgo que continúan aprendiendo tras su introducción en el mercado o puesta en servicio se desarrollarán de tal modo que se elimine o reduzca lo máximo posible el riesgo de que los resultados de salida que pueden estar sesgados influyan en la información de entrada de futuras operaciones (bucles de retroalimentación) y se garantice que dichos bucles se subsanen debidamente con las medidas de reducción de riesgos adecuadas.

5.   Los sistemas de IA de alto riesgo serán resistentes a los intentos de terceros no autorizados de alterar su uso, sus resultados de salida o su funcionamiento aprovechando las vulnerabilidades del sistema.

Las soluciones técnicas encaminadas a garantizar la ciberseguridad de los sistemas de IA de alto riesgo serán adecuadas a las circunstancias y los riesgos pertinentes.

Entre las soluciones técnicas destinadas a subsanar vulnerabilidades específicas de la IA figurarán, según corresponda, medidas para prevenir, detectar, combatir, resolver y controlar los ataques que traten de manipular el conjunto de datos de entrenamiento («envenenamiento de datos»), o los componentes entrenados previamente utilizados en el entrenamiento («envenenamiento de modelos»), la información de entrada diseñada para hacer que el modelo de IA cometa un error («ejemplos adversarios» o «evasión de modelos»), los ataques a la confidencialidad o los defectos en el modelo.

SECCIÓN 3. Obligaciones de los proveedores y responsables del despliegue de sistemas de IA de alto riesgo y de otras partes

Artículo 16. Obligaciones de los proveedores de sistemas de IA de alto riesgo

Los proveedores de sistemas de IA de alto riesgo:

a) velarán por que sus sistemas de IA de alto riesgo cumplan los requisitos definidos en la sección 2;

b) indicarán en el sistema de IA de alto riesgo o, cuando no sea posible, en el embalaje del sistema o en la documentación que lo acompañe, según proceda, su nombre, su nombre comercial registrado o marca registrada y su dirección de contacto;

c) contarán con un sistema de gestión de la calidad que cumpla lo dispuesto en el artículo 17;

d) conservarán la documentación a que se refiere el artículo 18;

e) cuando estén bajo su control, conservarán los archivos de registro generados automáticamente por sus sistemas de IA de alto riesgo a que se refiere el artículo 19;

f) se asegurarán de que los sistemas de IA de alto riesgo sean sometidos al procedimiento pertinente de evaluación de la conformidad a que se refiere el artículo 43 antes de su introducción en el mercado o puesta en servicio;

g) elaborarán una declaración UE de conformidad en virtud de lo dispuesto en el artículo 47;

h) colocará el marcado CE en el sistema de IA de alto riesgo o, cuando no sea posible, en su embalaje o en la documentación que lo acompañe, para indicar la conformidad con el presente Reglamento, de acuerdo con lo dispuesto en el artículo 48;

i) cumplirán las obligaciones de registro a que se refiere el artículo 49, apartado 1;

j) adoptarán las medidas correctoras necesarias y facilitarán la información exigida en el artículo 20;

k) demostrarán, previa solicitud motivada de la autoridad nacional competente, la conformidad del sistema de IA de alto riesgo con los requisitos establecidos en la sección 2;

l) velarán por que el sistema de IA de alto riesgo cumpla requisitos de accesibilidad de conformidad con las Directivas (UE) 2016/2102 y (UE) 2019/882.

Artículo 17. Sistema de gestión de la calidad

1.   Los proveedores de sistemas de IA de alto riesgo establecerán un sistema de gestión de la calidad que garantice el cumplimiento del presente Reglamento. Dicho sistema deberá consignarse de manera sistemática y ordenada en documentación en la que se recojan las políticas, los procedimientos y las instrucciones e incluirá, al menos, los siguientes aspectos:

a) una estrategia para el cumplimiento de la normativa, incluido el cumplimiento de los procedimientos de evaluación de la conformidad y de los procedimientos de gestión de las modificaciones de los sistemas de IA de alto riesgo;

b) las técnicas, los procedimientos y las actuaciones sistemáticas que se utilizarán en el diseño y el control y la verificación del diseño del sistema de IA de alto riesgo;

c) las técnicas, los procedimientos y las actuaciones sistemáticas que se utilizarán en el desarrollo del sistema de IA de alto riesgo y en el control y el aseguramiento de la calidad de este;

d) los procedimientos de examen, prueba y validación que se llevarán a cabo antes, durante y después del desarrollo del sistema de IA de alto riesgo, así como la frecuencia con que se ejecutarán;

e) las especificaciones técnicas, incluidas las normas, que se aplicarán y, cuando las normas armonizadas pertinentes no se apliquen en su totalidad o no cubran todos los requisitos pertinentes establecidos en la sección 2, los medios que se utilizarán para velar por que el sistema de IA de alto riesgo cumpla dichos requisitos;

f) los sistemas y procedimientos de gestión de datos, lo que incluye su adquisición, recopilación, análisis, etiquetado, almacenamiento, filtrado, prospección, agregación, conservación y cualquier otra operación relacionada con los datos que se lleve a cabo antes de la introducción en el mercado o puesta en servicio de sistemas de IA de alto riesgo y con esa finalidad;

g) el sistema de gestión de riesgos que se menciona en el artículo 9;

h) el establecimiento, aplicación y mantenimiento de un sistema de vigilancia poscomercialización de conformidad con el artículo 72;

i) los procedimientos asociados a la notificación de un incidente grave con arreglo al artículo 73;

j) la gestión de la comunicación con las autoridades nacionales competentes, otras autoridades pertinentes, incluidas las que permiten acceder a datos o facilitan el acceso a ellos, los organismos notificados, otros operadores, los clientes u otras partes interesadas;

k) los sistemas y procedimientos para llevar un registro de toda la documentación e información pertinente;

l) la gestión de los recursos, incluidas medidas relacionadas con la seguridad del suministro;

m) un marco de rendición de cuentas que defina las responsabilidades del personal directivo y de otra índole en relación con todos los aspectos enumerados en este apartado.

2.   La aplicación de los aspectos mencionados en el apartado 1 será proporcional al tamaño de la organización del proveedor. Los proveedores respetarán, en todo caso, el grado de rigor y el nivel de protección requerido para garantizar la conformidad de sus sistemas de IA de alto riesgo con el presente Reglamento.

3.   Los proveedores de sistemas de IA de alto riesgo que estén sujetos a obligaciones relativas a los sistemas de gestión de la calidad o una función equivalente con arreglo al Derecho sectorial pertinente de la Unión podrán incluir los aspectos enumerados en el apartado 1 como parte de los sistemas de gestión de la calidad con arreglo a dicho Derecho.

4.   En el caso de los proveedores que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros, se considerará que se ha cumplido la obligación de establecer un sistema de gestión de la calidad, salvo en relación con lo dispuesto en el apartado 1, letras g), h) e i), del presente artículo cuando se respeten las normas sobre los sistemas o procesos de gobernanza interna de acuerdo con el Derecho pertinente de la Unión en materia de servicios financieros. A tal fin, se tendrán en cuenta todas las normas armonizadas que se mencionan en el artículo 40.

Artículo 18. Conservación de la documentación

1.   Durante un período de diez años a contar desde la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo, el proveedor mantendrá a disposición de las autoridades nacionales competentes:

a) la documentación técnica a que se refiere el artículo 11;

b) la documentación relativa al sistema de gestión de la calidad a que se refiere el artículo 17;

c) la documentación relativa a los cambios aprobados por los organismos notificados, si procede;

d) las decisiones y otros documentos expedidos por los organismos notificados, si procede;

e) la declaración UE de conformidad contemplada en el artículo 47.

2.   Cada Estado miembro determinará las condiciones en las que la documentación a que se refiere el apartado 1 permanecerá a disposición de las autoridades nacionales competentes durante el período indicado en dicho apartado en los casos en que un proveedor o su representante autorizado establecido en su territorio quiebre o cese en su actividad antes del final de dicho período.

3.   Los proveedores que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros mantendrán la documentación técnica como parte de la documentación conservada en virtud del Derecho pertinente de la Unión en materia de servicios financieros.

Artículo 19. Archivos de registro generados automáticamente

1.   Los proveedores de sistemas de IA de alto riesgo conservarán los archivos de registro a que se refiere el artículo 12, apartado 1, que los sistemas de IA de alto riesgo generen automáticamente en la medida en que dichos archivos estén bajo su control. Sin perjuicio del Derecho aplicable de la Unión o nacional, los archivos de registro se conservarán durante un período de tiempo adecuado para la finalidad prevista del sistema de IA de alto riesgo, de al menos seis meses, salvo que el Derecho de la Unión o nacional aplicable, en particular el Derecho de la Unión en materia de protección de datos personales, disponga otra cosa.

2.   Los proveedores que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros mantendrán los archivos de registro generados automáticamente por sus sistemas de IA de alto riesgo como parte de la documentación conservada en virtud del Derecho pertinente en materia de servicios financieros.

Artículo 20. Medidas correctoras y obligación de información

1.   Los proveedores de sistemas de IA de alto riesgo que consideren o tengan motivos para considerar que un sistema de IA de alto riesgo que han introducido en el mercado o puesto en servicio no es conforme con el presente Reglamento adoptarán inmediatamente las medidas correctoras necesarias para que sea conforme, para retirarlo del mercado, desactivarlo o recuperarlo, según proceda. Informarán de ello a los distribuidores del sistema de IA de alto riesgo de que se trate y, en su caso, a los responsables del despliegue, al representante autorizado y a los importadores.

2.   Cuando un sistema de IA de alto riesgo presente un riesgo en el sentido del artículo 79, apartado 1, y el proveedor tenga conocimiento de dicho riesgo, este investigará inmediatamente las causas, en colaboración con el responsable del despliegue que lo haya notificado, en su caso, e informará a las autoridades de vigilancia del mercado competentes respecto al sistema de IA de alto riesgo de que se trate y, cuando proceda, al organismo notificado que haya expedido un certificado para dicho sistema de conformidad con lo dispuesto en el artículo 44, en particular sobre la naturaleza del incumplimiento y sobre cualquier medida correctora adoptada.

Artículo 21. Cooperación con las autoridades competentes

1.   Los proveedores de sistemas de IA de alto riesgo, previa solicitud motivada de una autoridad competente, proporcionarán a dicha autoridad toda la información y la documentación necesarias para demostrar la conformidad del sistema de IA de alto riesgo con los requisitos establecidos en la sección 2, en una lengua que la autoridad pueda entender fácilmente y que sea una de las lenguas oficiales de las instituciones de la Unión, indicada por el Estado miembro de que se trate.

2.   Previa solicitud motivada de una autoridad competente, los proveedores darán también a dicha autoridad, cuando proceda, acceso a los archivos de registro generados automáticamente del sistema de IA de alto riesgo a que se refiere el artículo 12, apartado 1, en la medida en que dichos archivos estén bajo su control.

3.   Toda información obtenida por una autoridad competente con arreglo al presente artículo se tratará de conformidad con las obligaciones de confidencialidad establecidas en el artículo 78.

Artículo 22. Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

1.   Antes de comercializar sus sistemas de IA de alto riesgo en el mercado de la Unión, los proveedores establecidos en terceros países tendrán que nombrar, mediante un mandato escrito, a un representante autorizado que esté establecido en la Unión.

2.   Los proveedores permitirán que su representante autorizado pueda efectuar las tareas especificadas en el mandato recibido del proveedor.

3.   Los representantes autorizados efectuarán las tareas especificadas en el mandato recibido del proveedor. Facilitarán a las autoridades de vigilancia del mercado, cuando lo soliciten, una copia del mandato en una de las lenguas oficiales de las instituciones de la Unión según lo indicado por la autoridad de competente. A los efectos del presente Reglamento, el mandato habilitará al representante autorizado para realizar las tareas siguientes:

a) verificar que se han elaborado la declaración UE de conformidad a que se refiere el artículo 47 y la documentación técnica a que se refiere el artículo 11 y que el proveedor ha llevado a cabo un procedimiento de evaluación de la conformidad adecuado;

b) conservar a disposición de las autoridades competentes y de las autoridades u organismos nacionales a que se refiere el artículo 74, apartado 10, durante un período de diez años a contar desde la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo, los datos de contacto del proveedor que haya nombrado al representante autorizado, una copia de la declaración UE de conformidad a que se refiere el artículo 47, la documentación técnica y, en su caso, el certificado expedido por el organismo notificado;

c) proporcionar a una autoridad competente, previa solicitud motivada, toda la información y la documentación, incluida la mencionada en el presente párrafo, letra b), que sean necesarias para demostrar la conformidad de un sistema de IA de alto riesgo con los requisitos establecidos en la sección 2, incluido el acceso a los archivos de registro a que se refiere el artículo 12, apartado 1, generados automáticamente por ese sistema, en la medida en que dichos archivos estén bajo el control del proveedor;

d) cooperar con las autoridades competentes, previa solicitud motivada, en todas las acciones que estas emprendan en relación con el sistema de IA de alto riesgo, en particular para reducir y mitigar los riesgos que este presente;

e) cuando proceda, cumplir las obligaciones de registro a que se refiere el artículo 49, apartado 1, o si el registro lo lleva a cabo el propio proveedor, garantizar que la información a que se refiere el anexo VIII, sección A, punto 3, es correcta.

El mandato habilitará al representante autorizado para que las autoridades competentes se pongan en contacto con él, además de con el proveedor o en lugar de con el proveedor, con referencia a todas las cuestiones relacionadas con la garantía del cumplimiento del presente Reglamento.

4.   El representante autorizado pondrá fin al mandato si considera o tiene motivos para considerar que el proveedor contraviene las obligaciones que le atañen con arreglo al presente Reglamento. En tal caso, además, informará de inmediato de la terminación del mandato y de los motivos de esta medida a la autoridad de vigilancia del mercado pertinente, así como, cuando proceda, al organismo notificado pertinente.

Artículo 23. Obligaciones de los importadores

1.   Antes de introducir un sistema de IA de alto riesgo en el mercado, los importadores se asegurarán de que el sistema sea conforme con el presente Reglamento verificando que:

a) el proveedor del sistema de IA de alto riesgo haya llevado a cabo el procedimiento de evaluación de la conformidad pertinente a que se refiere el artículo 43;

b) el proveedor haya elaborado la documentación técnica de conformidad con el artículo 11 y el anexo IV;

c) el sistema lleve el marcado CE exigido y vaya acompañado de la declaración UE de conformidad a que se refiere el artículo 47 y de las instrucciones de uso;

d) el proveedor haya designado a un representante autorizado de conformidad con el artículo 22, apartado 1.

2.   Si el importador tiene motivos suficientes para considerar que un sistema de IA de alto riesgo no es conforme con el presente Reglamento, ha sido falsificado o va acompañado de documentación falsificada, no lo introducirá en el mercado hasta que se haya conseguido la conformidad de dicho sistema. Si el sistema de IA de alto riesgo presenta un riesgo en el sentido del artículo 79, apartado 1, el importador informará de ello al proveedor del sistema, a los representantes autorizados y a las autoridades de vigilancia del mercado.

3.   Los importadores indicarán, en el embalaje del sistema de IA de alto riesgo o en la documentación que lo acompañe, cuando proceda, su nombre, su nombre comercial registrado o marca registrada y su dirección de contacto.

4.   Mientras sean responsables de un sistema de IA de alto riesgo, los importadores se asegurarán de que las condiciones de almacenamiento o transporte, cuando proceda, no comprometan el cumplimiento de los requisitos establecidos en la sección 2 por parte de dicho sistema.

5.   Los importadores conservarán, durante un período de diez años a contar desde la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo, una copia del certificado expedido por el organismo notificado, en su caso, de las instrucciones de uso y de la declaración UE de conformidad a que se refiere el artículo 47.

6.   Los importadores proporcionarán a las autoridades competentes pertinentes, previa solicitud motivada, toda la información y la documentación, incluidas las referidas en el apartado 5, que sean necesarias para demostrar la conformidad de un sistema de IA de alto riesgo con los requisitos establecidos en la sección 2 en una lengua que estas puedan entender fácilmente. A tal efecto, velarán asimismo por que la documentación técnica pueda ponerse a disposición de esas autoridades.

7.   Los importadores cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con un sistema de IA de alto riesgo introducido en el mercado por los importadores, en particular para reducir y mitigar los riesgos que este presente.

Artículo 24. Obligaciones de los distribuidores

1.   Antes de comercializar un sistema de IA de alto riesgo, los distribuidores verificarán que este lleve el marcado CE exigido, que vaya acompañado de una copia de la declaración UE de conformidad a que se refiere el artículo 47 y de las instrucciones de uso, y que el proveedor y el importador de dicho sistema, según corresponda, hayan cumplido sus obligaciones establecidas en el artículo 16, letras b) y c), y el artículo 23, apartado 3, respectivamente.

2.   Si un distribuidor considera o tiene motivos para considerar, con arreglo a la información en su poder, que un sistema de IA de alto riesgo no es conforme con los requisitos establecidos en la sección 2, no lo comercializará hasta que se haya conseguido esa conformidad. Además, si el sistema de IA de alto riesgo presenta un riesgo en el sentido del artículo 79, apartado 1, el distribuidor informará de ello al proveedor o importador del sistema, según corresponda.

3.   Mientras sean responsables de un sistema de IA de alto riesgo, los distribuidores se asegurarán de que las condiciones de almacenamiento o transporte, cuando proceda, no comprometen el cumplimiento por parte del sistema de los requisitos establecidos en la sección 2.

4.   Los distribuidores que consideren o tengan motivos para considerar, con arreglo a la información en su poder, que un sistema de IA de alto riesgo que han comercializado no es conforme con los requisitos establecidos en la sección 2 adoptarán las medidas correctoras necesarias para que sea conforme, para retirarlo del mercado o recuperarlo, o velarán por que el proveedor, el importador u otro operador pertinente, según proceda, adopte dichas medidas correctoras. Cuando un sistema de IA de alto riesgo presente un riesgo en el sentido del artículo 79, apartado 1, su distribuidor informará inmediatamente de ello al proveedor o al importador del sistema y a las autoridades competentes respecto al sistema de IA de alto riesgo de que se trate y dará detalles, en particular, sobre la no conformidad y las medidas correctoras adoptadas.

5.   Previa solicitud motivada de una autoridad competente pertinente, los distribuidores de un sistema de IA de alto riesgo proporcionarán a esa autoridad toda la información y la documentación relativas a sus actuaciones con arreglo a los apartados 1 a 4 que sean necesarias para demostrar que dicho sistema cumple los requisitos establecidos en la sección 2.

6.   Los distribuidores cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con un sistema de IA de alto riesgo comercializado por los distribuidores, en particular para reducir o mitigar los riesgos que este presente.

Artículo 25. Responsabilidades a lo largo de la cadena de valor de la IA

1.   Cualquier distribuidor, importador, responsable del despliegue o tercero será considerado proveedor de un sistema de IA de alto riesgo a los efectos del presente Reglamento y estará sujeto a las obligaciones del proveedor previstas en el artículo 16 en cualquiera de las siguientes circunstancias:

a) cuando ponga su nombre o marca en un sistema de IA de alto riesgo previamente introducido en el mercado o puesto en servicio, sin perjuicio de los acuerdos contractuales que estipulen que las obligaciones se asignan de otro modo;

b) cuando modifique sustancialmente un sistema de IA de alto riesgo que ya haya sido introducido en el mercado o puesto en servicio de tal manera que siga siendo un sistema de IA de alto riesgo con arreglo al artículo 6;

c) cuando modifique la finalidad prevista de un sistema de IA, incluido un sistema de IA de uso general, que no haya sido considerado de alto riesgo y ya haya sido introducido en el mercado o puesto en servicio, de tal manera que el sistema de IA de que se trate se convierta en un sistema de IA de alto riesgo de conformidad con el artículo 6.

2.   Cuando se den las circunstancias mencionadas en el apartado 1, el proveedor que inicialmente haya introducido en el mercado el sistema de IA o lo haya puesto en servicio dejará de ser considerado proveedor de ese sistema de IA específico a efectos del presente Reglamento. Ese proveedor inicial cooperará estrechamente con los nuevos proveedores y facilitará la información necesaria, el acceso técnico u otra asistencia razonablemente previstos que sean necesarios para el cumplimiento de las obligaciones establecidas en el presente Reglamento, en particular en lo que respecta al cumplimiento de la evaluación de la conformidad de los sistemas de IA de alto riesgo. El presente apartado no se aplicará en los casos en que el proveedor inicial haya indicado claramente que su sistema de IA no debe ser transformado en un sistema de IA de alto riesgo y, por lo tanto, no está sujeto a la obligación de facilitar la documentación.

3.   En el caso de los sistemas de IA de alto riesgo que sean componentes de seguridad de productos contemplados en los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, el fabricante del producto será considerado proveedor del sistema de IA de alto riesgo y estará sujeto a las obligaciones previstas en el artículo 16 en alguna de las siguientes circunstancias:

a) que el sistema de IA de alto riesgo se introduzca en el mercado junto con el producto bajo el nombre o la marca del fabricante del producto;

b) que el sistema de IA de alto riesgo se ponga en servicio bajo el nombre o la marca del fabricante del producto después de que el producto haya sido introducido en el mercado.

4.   El proveedor de un sistema de IA de alto riesgo y el tercero que suministre un sistema de IA de alto riesgo, herramientas, servicios, componentes o procesos que se utilicen o integren en un sistema de IA de alto riesgo especificarán, mediante acuerdo escrito, la información, las capacidades, el acceso técnico y otra asistencia que sean necesarios, sobre la base del estado de la técnica generalmente reconocido, para que el proveedor del sistema de IA de alto riesgo pueda cumplir plenamente las obligaciones establecidas en el presente Reglamento. El presente apartado no se aplicará a terceros que pongan a disposición del público herramientas, servicios, procesos o componentes distintos de modelos de IA de uso general, en el marco de una licencia libre y de código abierto.

La Oficina de IA podrá elaborar y recomendar cláusulas contractuales tipo, de carácter voluntario, entre los proveedores de sistemas de IA de alto riesgo y terceros que suministren herramientas, servicios, componentes o procesos que se utilicen o integren en los sistemas de IA de alto riesgo. Cuando elabore esas cláusulas contractuales tipo de carácter voluntario, la Oficina de IA tendrá en cuenta los posibles requisitos contractuales aplicables en determinados sectores o modelos de negocio. Las cláusulas contractuales tipo de carácter voluntario se publicarán y estarán disponibles gratuitamente en un formato electrónico fácilmente utilizable.

5.   Los apartados 2 y 3 se entenderán sin perjuicio de la necesidad de observar y proteger los derechos de propiedad intelectual e industrial, la información empresarial confidencial y los secretos comerciales, de conformidad con el Derecho de la Unión y nacional.

Artículo 26. Obligaciones de los responsables del despliegue de sistemas de IA de alto riesgo

1.   Los responsables del despliegue de sistemas de IA de alto riesgo adoptarán medidas técnicas y organizativas adecuadas para garantizar que utilizan dichos sistemas con arreglo a las instrucciones de uso que los acompañen, de acuerdo con los apartados 3 y 6.

2.   Los responsables del despliegue encomendarán la supervisión humana a personas físicas que tengan la competencia, la formación y la autoridad necesarias.

3.   Las obligaciones previstas en los apartados 1 y 2 no afectan a otras obligaciones que el Derecho nacional o de la Unión imponga a los responsables del despliegue ni a su libertad para organizar sus propios recursos y actividades con el fin de poner en práctica las medidas de supervisión humana que indique el proveedor.

4.   Sin perjuicio de lo dispuesto en los apartados 1 y 2, el responsable del despliegue se asegurará de que los datos de entrada sean pertinentes y suficientemente representativos en vista de la finalidad prevista del sistema de IA de alto riesgo, en la medida en que ejerza el control sobre dichos datos.

5.   Los responsables del despliegue vigilarán el funcionamiento del sistema de IA de alto riesgo basándose en las instrucciones de uso y, cuando proceda, informarán a los proveedores con arreglo al artículo 72. Cuando los responsables del despliegue tengan motivos para considerar que utilizar el sistema de IA de alto riesgo conforme a sus instrucciones puede dar lugar a que ese sistema de AI presente un riesgo en el sentido del artículo 79, apartado 1, informarán, sin demora indebida, al proveedor o distribuidor y a la autoridad de vigilancia del mercado pertinente y suspenderán el uso de ese sistema. Cuando los responsables del despliegue detecten un incidente grave, informarán asimismo inmediatamente de dicho incidente, en primer lugar, al proveedor y, a continuación, al importador o distribuidor y a la autoridad de vigilancia del mercado pertinente. En el caso de que el responsable del despliegue no consiga contactar con el proveedor, el artículo 73 se aplicará mutatis mutandis. Esta obligación no comprenderá los datos operativos sensibles de los responsables del despliegue de sistemas de IA que sean autoridades garantes del cumplimiento del Derecho.

En el caso de los responsables del despliegue que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros, se considerará que se ha cumplido la obligación de vigilancia prevista en el párrafo primero cuando se respeten las normas sobre sistemas, procesos y mecanismos de gobernanza interna de acuerdo con el Derecho pertinente en materia de servicios financieros.

6.   Los responsables del despliegue de sistemas de IA de alto riesgo conservarán los archivos de registro que los sistemas de IA de alto riesgo generen automáticamente en la medida en que dichos archivos estén bajo su control, durante un período de tiempo adecuado para la finalidad prevista del sistema de IA de alto riesgo, de al menos seis meses, salvo que se disponga otra cosa en el Derecho de la Unión o nacional aplicable, en particular en el Derecho de la Unión en materia de protección de datos personales.

Los responsables del despliegue que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros mantendrán los archivos de registro como parte de la documentación conservada en virtud del Derecho de la Unión en materia de servicios financieros.

7.   Antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los responsables del despliegue que sean empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo. Esta información se facilitará, cuando proceda, con arreglo a las normas y procedimientos establecidos en el Derecho de la Unión y nacional y conforme a las prácticas en materia de información a los trabajadores y sus representantes.

8.   Los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades públicas o instituciones, órganos y organismos de la Unión cumplirán las obligaciones de registro a que se refiere el artículo 49. Cuando dichos responsables del despliegue constaten que el sistema de IA de alto riesgo que tienen previsto utilizar no ha sido registrado en la base de datos de la UE a que se refiere el artículo 71, no utilizarán dicho sistema e informarán al proveedor o al distribuidor.

9.   Cuando proceda, los responsables del despliegue de sistemas de IA de alto riesgo utilizarán la información facilitada conforme al artículo 13 del presente Reglamento para cumplir la obligación de llevar a cabo una evaluación de impacto relativa a la protección de datos que les imponen el artículo 35 del Reglamento (UE) 2016/679 o el artículo 27 de la Directiva (UE) 2016/680.

10.   No obstante lo dispuesto en la Directiva (UE) 2016/680, en el marco de una investigación cuya finalidad sea la búsqueda selectiva de una persona sospechosa de haber cometido un delito o condenada por ello, el responsable del despliegue de un sistema de IA de alto riego de identificación biométrica remota en diferido solicitará, ex ante o sin demora indebida y a más tardar en un plazo de cuarenta y ocho horas, a una autoridad judicial o administrativa cuyas decisiones sean vinculantes y estén sujetas a revisión judicial, una autorización para utilizar ese sistema, salvo cuando se utilice para la identificación inicial de un posible sospechoso sobre la base de hechos objetivos y verificables vinculados directamente al delito. Cada utilización deberá limitarse a lo que resulte estrictamente necesario para investigar un delito concreto.

En caso de que se deniegue la autorización contemplada en el párrafo primero, dejará de utilizarse el sistema de identificación biométrica remota en diferido objeto de la solicitud de autorización con efecto inmediato y se eliminarán los datos personales asociados al uso del sistema de IA de alto riesgo para el que se solicitó la autorización.

Dicho sistema de IA de alto riego de identificación biométrica remota en diferido no se utilizará en ningún caso a los efectos de la garantía del cumplimiento del Derecho de forma indiscriminada, sin que exista relación alguna con un delito, un proceso penal, una amenaza real y actual o real y previsible de delito, o con la búsqueda de una persona desaparecida concreta. Se velará por que las autoridades garantes del cumplimiento del Derecho no puedan adoptar ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida de dichos sistemas de identificación biométrica remota en diferido.

El presente apartado se entiende sin perjuicio del artículo 9 del Reglamento (UE) 2016/679 y del artículo 10 de la Directiva (UE) 2016/680 para el tratamiento de los datos biométricos.

Con independencia de la finalidad o del responsable del despliegue, se documentará toda utilización de tales sistemas de IA de alto riesgo en el expediente policial pertinente y se pondrá a disposición, previa solicitud, de la autoridad de vigilancia del mercado pertinente y de la autoridad nacional de protección de datos, quedando excluida la divulgación de datos operativos sensibles relacionados con la garantía del cumplimiento del Derecho. El presente párrafo se entenderá sin perjuicio de los poderes conferidas por la Directiva (UE) 2016/680 a las autoridades de control.

Los responsables del despliegue presentarán informes anuales a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos sobre el uso que han hecho de los sistemas de identificación biométrica remota en diferido, quedando excluida la divulgación de datos operativos sensibles relacionados con la garantía del cumplimiento del Derecho. Los informes podrán agregarse de modo que cubran más de un despliegue.

Los Estados miembros podrán adoptar, de conformidad con el Derecho de la Unión, leyes más restrictivas sobre el uso de sistemas de identificación biométrica remota en diferido.

11.   Sin perjuicio de lo dispuesto en el artículo 50 del presente Reglamento, los responsables del despliegue de los sistemas de IA de alto riesgo a que se refiere el anexo III que tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas informarán a las personas físicas de que están expuestas a la utilización de los sistemas de IA de alto riesgo. En el caso de los sistemas de IA de alto riesgo que se utilicen a los efectos de la garantía del cumplimiento del Derecho, se aplicará el artículo 13 de la Directiva (UE) 2016/680.

12.   Los responsables del despliegue cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con el sistema de IA de alto riesgo con el objetivo de aplicar el presente Reglamento.

Artículo 27. Evaluación de impacto relativa a los derechos fundamentales para los sistemas de IA de alto riesgo

1.   Antes de desplegar uno de los sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2, con excepción de los sistemas de IA de alto riesgo destinados a ser utilizados en el ámbito enumerado en el anexo III, punto 2, los responsables del despliegue que sean organismos de Derecho público, o entidades privadas que prestan servicios públicos, y los responsable del despliegue de sistemas de IA de alto riesgo a que se refiere el anexo III, punto 5, letras b) y c), llevarán a cabo una evaluación del impacto que la utilización de dichos sistemas puede tener en los derechos fundamentales. A tal fin, los responsables del despliegue llevarán a cabo una evaluación que consistirá en:

a) una descripción de los procesos del responsable del despliegue en los que se utilizará el sistema de IA de alto riesgo en consonancia con su finalidad prevista;

b) una descripción del período de tiempo durante el cual se prevé utilizar cada sistema de IA de alto riesgo y la frecuencia con la que está previsto utilizarlo;

c) las categorías de personas físicas y colectivos que puedan verse afectados por su utilización en el contexto específico;

d) los riesgos de perjuicio específicos que puedan afectar a las categorías de personas físicas y colectivos determinadas con arreglo a la letra c) del presente apartado, teniendo en cuenta la información facilitada por el proveedor con arreglo al artículo 13;

e) una descripción de la aplicación de medidas de supervisión humana, de acuerdo con las instrucciones de uso;

f) las medidas que deben adoptarse en caso de que dichos riesgos se materialicen, incluidos los acuerdos de gobernanza interna y los mecanismos de reclamación.

2.   La obligación descrita con arreglo al apartado 1 se aplicará al primer uso del sistema de IA de alto riesgo. En casos similares, el responsable del despliegue podrá basarse en evaluaciones de impacto relativas a los derechos fundamentales realizadas previamente o a evaluaciones de impacto existentes realizadas por los proveedores. Si, durante el uso del sistema de IA de alto riesgo, el responsable del despliegue considera que alguno de los elementos enumerados en el apartado 1 ha cambiado o ha dejado de estar actualizado, adoptará las medidas necesarias para actualizar la información.

3.   Una vez realizada la evaluación a que se refiere el apartado 1 del presente artículo, el responsable del despliegue notificará sus resultados a la autoridad de vigilancia del mercado, presentando el modelo cumplimentado a que se refiere el apartado 5 del presente artículo. En el caso contemplado en el artículo 46, apartado 1, los responsables del despliegue podrán quedar exentos de esta obligación de notificación.

4.   Si ya se cumple cualquiera de las obligaciones establecidas en el presente artículo mediante la evaluación de impacto relativa a la protección de datos realizada con arreglo al artículo 35 del Reglamento (UE) 2016/679 o del artículo 27 de la Directiva (UE) 2016/680, la evaluación de impacto relativa a los derechos fundamentales a que se refiere el apartado 1 del presente artículo complementará dicha evaluación de impacto relativa a la protección de datos.

5.   La Oficina de IA elaborará un modelo de cuestionario, también mediante una herramienta automatizada, a fin de facilitar que los responsables del despliegue cumplan sus obligaciones en virtud del presente artículo de manera simplificada.

SECCIÓN 4. Autoridades notificantes y organismos notificados

Artículo 28. Autoridades notificantes

1.   Cada Estado miembro nombrará o constituirá al menos una autoridad notificante que será responsable de establecer y llevar a cabo los procedimientos necesarios para la evaluación, designación y notificación de los organismos de evaluación de la conformidad, así como de su supervisión. Dichos procedimientos se desarrollarán por medio de la cooperación entre las autoridades notificantes de todos los Estados miembros.

2.   Los Estados miembros podrán decidir que la evaluación y la supervisión contempladas en el apartado 1 sean realizadas por un organismo nacional de acreditación en el sentido del Reglamento (CE) nº 765/2008 y con arreglo a este.

3.   Las autoridades notificantes se constituirán, se organizarán y funcionarán de forma que no surjan conflictos de intereses con los organismos de evaluación de la conformidad y que se garantice la imparcialidad y objetividad de sus actividades.

4.   Las autoridades notificantes se organizarán de forma que las decisiones relativas a la notificación de los organismos de evaluación de la conformidad sean adoptadas por personas competentes distintas de las que llevaron a cabo la evaluación de dichos organismos.

5.   Las autoridades notificantes no ofrecerán ni ejercerán ninguna actividad que efectúen los organismos de evaluación de la conformidad, ni ningún servicio de consultoría de carácter comercial o competitivo.

6.   Las autoridades notificantes preservarán la confidencialidad de la información obtenida, de conformidad con lo dispuesto en el artículo 78.

7.   Las autoridades notificantes dispondrán de suficiente personal competente para efectuar adecuadamente sus tareas. Cuando proceda, el personal competente tendrá los conocimientos especializados necesarios para ejercer sus funciones, en ámbitos como las tecnologías de la información, la IA y el Derecho, incluida la supervisión de los derechos fundamentales.

Artículo 29. Solicitud de notificación por parte de un organismo de evaluación de la conformidad

1.   Los organismos de evaluación de la conformidad presentarán una solicitud de notificación ante la autoridad notificante del Estado miembro en el que estén establecidos.

2.   La solicitud de notificación irá acompañada de una descripción de las actividades de evaluación de la conformidad, del módulo o módulos de evaluación de la conformidad y los tipos de sistemas de IA en relación con los cuales el organismo de evaluación de la conformidad se considere competente, así como de un certificado de acreditación, si lo hay, expedido por un organismo nacional de acreditación, que declare que el organismo de evaluación de la conformidad cumple los requisitos establecidos en el artículo 31.

Se añadirá cualquier documento válido relacionado con las designaciones existentes del organismo notificado solicitante en virtud de cualquier otro acto de la legislación de armonización de la Unión.

3.   Si el organismo de evaluación de la conformidad de que se trate no puede facilitar un certificado de acreditación, entregará a la autoridad notificante todas las pruebas documentales necesarias para verificar, reconocer y supervisar periódicamente que cumple los requisitos establecidos en el artículo 31.

4.   En lo que respecta a los organismos notificados designados de conformidad con cualquier otro acto legislativo de armonización de la Unión, todos los documentos y certificados vinculados a dichas designaciones podrán utilizarse para apoyar su procedimiento de designación en virtud del presente Reglamento, según proceda. El organismo notificado actualizará la documentación a que se refieren los apartados 2 y 3 del presente artículo cuando se produzcan cambios pertinentes, para que la autoridad responsable de los organismos notificados pueda supervisar y verificar que se siguen cumpliendo todos los requisitos establecidos en el artículo 31.

Artículo 30. Procedimiento de notificación

1.   Las autoridades notificantes solo podrán notificar organismos de evaluación de la conformidad que hayan cumplido los requisitos establecidos en el artículo 31.

2.   Las autoridades notificantes notificarán a la Comisión y a los demás Estados miembros, mediante el sistema de notificación electrónica desarrollado y gestionado por la Comisión, cada organismo de evaluación de la conformidad a que se refiere el apartado 1.

3.   La notificación a que se refiere el apartado 2 del presente artículo incluirá información detallada de las actividades de evaluación de la conformidad, el módulo o módulos de evaluación de la conformidad y los tipos de sistemas de IA afectados, así como la certificación de competencia pertinente. Si la notificación no está basada en el certificado de acreditación a que se refiere el artículo 29, apartado 2, la autoridad notificante facilitará a la Comisión y a los demás Estados miembros las pruebas documentales que demuestren la competencia del organismo de evaluación de la conformidad y las disposiciones existentes destinadas a garantizar que se supervisará periódicamente al organismo y que este continuará satisfaciendo los requisitos establecidos en el artículo 31.

4.   El organismo de evaluación de la conformidad de que se trate únicamente podrá realizar las actividades de un organismo notificado si la Comisión o los demás Estados miembros no formulan ninguna objeción en el plazo de dos semanas tras la notificación de una autoridad notificante cuando esta incluya el certificado de acreditación a que se refiere el artículo 29, apartado 2, o de dos meses tras la notificación de la autoridad notificante cuando esta incluya las pruebas documentales a que se refiere el artículo 29, apartado 3.

5.   Cuando se formulen objeciones, la Comisión iniciará sin demora consultas con los Estados miembros pertinentes y el organismo de evaluación de la conformidad. En vista de todo ello, la Comisión enviará su decisión al Estado miembro afectado y al organismo de evaluación de la conformidad pertinente.

Artículo 31. Requisitos relativos a los organismos notificados

1.   Los organismos notificados se establecerán de conformidad con el Derecho nacional de los Estados miembros y tendrán personalidad jurídica.

2.   Los organismos notificados satisfarán los requisitos organizativos, de gestión de la calidad, recursos y procesos, necesarios para el desempeño de sus funciones, así como los requisitos adecuados en materia de ciberseguridad.

3.   La estructura organizativa, la distribución de las responsabilidades, la línea jerárquica y el funcionamiento de los organismos notificados ofrecerán confianza en su desempeño y en los resultados de las actividades de evaluación de la conformidad que realicen los organismos notificados.

4.   Los organismos notificados serán independientes del proveedor de un sistema de IA de alto riesgo en relación con el cual lleven a cabo actividades de evaluación de la conformidad. Los organismos notificados serán independientes de cualquier otro operador con un interés económico en los sistemas de IA de alto riesgo que se evalúen, así como de cualquier competidor del proveedor. Ello no será óbice para el uso de sistemas de IA de alto riesgo evaluados que sean necesarios para las actividades del organismo de evaluación de la conformidad o para el uso de tales sistemas de alto riesgo con fines personales.

5.   Los organismos de evaluación de la conformidad, sus máximos directivos y el personal responsable de la realización de las tareas de evaluación de la conformidad no intervendrán directamente en el diseño, el desarrollo, la comercialización o el uso de dichos sistemas de IA de alto riesgo, ni tampoco representarán a las partes que llevan a cabo estas actividades. Además, no efectuarán ninguna actividad que pudiera entrar en conflicto con su independencia de criterio o su integridad en relación con las actividades de evaluación de la conformidad para las que han sido notificados. Ello se aplicará especialmente a los servicios de consultoría.

6.   Los organismos notificados estarán organizados y gestionados de modo que se garantice la independencia, objetividad e imparcialidad de sus actividades. Los organismos notificados documentarán e implantarán una estructura y procedimientos que garanticen la imparcialidad y permitan promover y poner en práctica los principios de imparcialidad aplicables en toda su organización, a todo su personal y en todas sus actividades de evaluación.

7.   Los organismos notificados contarán con procedimientos documentados que garanticen que su personal, sus comités, sus filiales, sus subcontratistas y todos sus organismos asociados o personal de organismos externos mantengan, de conformidad con el artículo 78, la confidencialidad de la información que llegue a su poder en el desempeño de las actividades de evaluación de la conformidad, excepto en aquellos casos en que la ley exija su divulgación. El personal de los organismos notificados estará sujeto al secreto profesional en lo que respecta a toda la información obtenida en el ejercicio de las funciones que les hayan sido encomendadas en virtud del presente Reglamento, salvo en relación con las autoridades notificantes del Estado miembro en el que desarrollen sus actividades.

8.   Los organismos notificados contarán con procedimientos para desempeñar sus actividades que tengan debidamente en cuenta el tamaño de los proveedores, el sector en que operan, su estructura y el grado de complejidad del sistema de IA de que se trate.

9.   Los organismos notificados suscribirán un seguro de responsabilidad adecuado para sus actividades de evaluación de la conformidad, salvo que la responsabilidad la asuma el Estado miembro en que estén establecidos con arreglo al Derecho nacional o que el propio Estado miembro sea directamente responsable de la evaluación de la conformidad.

10.   Los organismos notificados serán capaces de llevar a cabo todas sus tareas con arreglo al presente Reglamento con el máximo grado de integridad profesional y la competencia técnica necesaria en el ámbito específico, tanto si dichas tareas las efectúan los propios organismos notificados como si se realizan en su nombre y bajo su responsabilidad.

11.   Los organismos notificados contarán con competencias técnicas internas suficientes para poder evaluar de manera eficaz las tareas que lleven a cabo agentes externos en su nombre. El organismo notificado dispondrá permanentemente de suficiente personal administrativo, técnico, jurídico y científico que tenga experiencia y conocimientos relativos a los tipos de sistemas de IA, los datos y la computación de datos pertinentes y a los requisitos establecidos en la sección 2.

12.   Los organismos notificados participarán en las actividades de coordinación según lo previsto en el artículo 38. Asimismo, tomarán parte directamente o mediante representación en organizaciones europeas de normalización, o se asegurarán de mantenerse al corriente de la situación actualizada de las normas pertinentes.

Artículo 32. Presunción de conformidad con los requisitos relativos a los organismos notificados

Cuando un organismo de evaluación de la conformidad demuestre que cumple los criterios establecidos en las normas armonizadas pertinentes, o en partes de estas, cuyas referencias estén publicadas en el Diario Oficial de la Unión Europea, se presumirá que cumple los requisitos establecidos en el artículo 31 en la medida en que las normas armonizadas aplicables contemplen esos mismos requisitos.

Artículo 33. Filiales de organismos notificados y subcontratación

1.   Cuando un organismo notificado subcontrate tareas específicas relacionadas con la evaluación de la conformidad o recurra a una filial, se asegurará de que el subcontratista o la filial cumplan los requisitos establecidos en el artículo 31 e informará a la autoridad notificante en consecuencia.

2.   Los organismos notificados asumirán la plena responsabilidad de las tareas realizadas por cualesquiera subcontratistas o filiales.

3.   Las actividades solo podrán subcontratarse o delegarse en una filial previo consentimiento del proveedor. Los organismos notificados pondrán a disposición del público una lista de sus filiales.

4.   Los documentos pertinentes sobre la evaluación de las cualificaciones del subcontratista o de la filial y el trabajo que estos realicen en virtud del presente Reglamento se mantendrán a disposición de la autoridad notificante durante un período de cinco años a partir de la fecha de finalización de la subcontratación.

Artículo 34. Obligaciones operativas de los organismos notificados

1.   Los organismos notificados verificarán la conformidad de los sistemas de IA de alto riesgo siguiendo los procedimientos de evaluación de la conformidad establecidos en el artículo 43.

2.   Los organismos notificados evitarán cargas innecesarias para los proveedores cuando desempeñen sus actividades, y tendrán debidamente en cuenta el tamaño del proveedor, el sector en que opera, su estructura y el grado de complejidad del sistema de IA de alto riesgo de que se trate, en particular con vistas a reducir al mínimo las cargas administrativas y los costes del cumplimiento para las microempresas y pequeñas empresas en el sentido de la Recomendación 2003/361/CE. El organismo notificado respetará, sin embargo, el grado de rigor y el nivel de protección requeridos para que el sistema de IA de alto riesgo cumpla los requisitos del presente Reglamento.

3.   Los organismos notificados pondrán a disposición de la autoridad notificante mencionada en el artículo 28, y le presentarán cuando se les pida, toda la documentación pertinente, incluida la documentación de los proveedores, a fin de que dicha autoridad pueda llevar a cabo sus actividades de evaluación, designación, notificación y supervisión, y de facilitar la evaluación descrita en la presente sección.

Artículo 35. Números de identificación y listas de organismos notificados

1.   La Comisión asignará un número de identificación único a cada organismo notificado, incluso cuando un organismo sea notificado con arreglo a más de un acto de la Unión.

2.   La Comisión hará pública la lista de organismos notificados con arreglo al presente Reglamento, incluidos sus números de identificación y las actividades para las que hayan sido notificados. La Comisión se asegurará de que la lista se mantenga actualizada.

Artículo 36. Cambios en las notificaciones

1.   La autoridad notificante notificará a la Comisión y a los demás Estados miembros cualquier cambio pertinente en la notificación de un organismo notificado a través del sistema de notificación electrónica a que se refiere el artículo 30, apartado 2.

2.   Los procedimientos establecidos en los artículos 29 y 30 se aplicarán a las ampliaciones del ámbito de aplicación de la notificación.

Para modificaciones de la notificación distintas de las ampliaciones de su ámbito de aplicación, se aplicarán los procedimientos establecidos en los apartados 3 a 9.

3.   Cuando un organismo notificado decida poner fin a sus actividades de evaluación de la conformidad, informará de ello a la autoridad notificante y a los proveedores afectados tan pronto como sea posible y, cuando se trate de un cese planeado, al menos un año antes de poner fin a sus actividades. Los certificados del organismo notificado podrán seguir siendo válidos durante un plazo de nueve meses después del cese de las actividades del organismo notificado, siempre que otro organismo notificado haya confirmado por escrito que asumirá la responsabilidad de los sistemas de IA de alto riesgo cubiertos por dichos certificados. Este último organismo notificado realizará una evaluación completa de los sistemas de IA de alto riesgo afectados antes del vencimiento de ese plazo de nueve meses y antes de expedir nuevos certificados para esos sistemas. Si el organismo notificado ha puesto fin a sus actividades, la autoridad notificante retirará la designación.

4.   Si una autoridad notificante tiene motivo suficiente para considerar que un organismo notificado ya no cumple los requisitos establecidos en el artículo 31 o no está cumpliendo sus obligaciones, la autoridad notificante investigará el asunto sin demora y con la máxima diligencia. En ese contexto, informará al organismo notificado de que se trate acerca de las objeciones formuladas y le ofrecerá la posibilidad de exponer sus puntos de vista. Si la autoridad notificante llega a la conclusión de que el organismo notificado ya no cumple los requisitos establecidos en el artículo 31 o no está cumpliendo sus obligaciones, dicha autoridad limitará, suspenderá o retirará la designación, según el caso, dependiendo de la gravedad del incumplimiento de dichos requisitos u obligaciones. Asimismo, informará de ello inmediatamente a la Comisión y a los demás Estados miembros.

5.   Cuando su designación haya sido suspendida, limitada o retirada total o parcialmente, el organismo notificado informará a los proveedores afectados a más en un plazo de diez días.

6.   En caso de la limitación, suspensión o retirada de una designación, la autoridad notificante adoptará las medidas oportunas para garantizar que los archivos del organismo notificado de que se trate se conserven, y para ponerlos a disposición de las autoridades notificantes de otros Estados miembros y de las autoridades de vigilancia del mercado, a petición de estas.

7.   En caso de la limitación, suspensión o retirada de una designación, la autoridad notificante:

a) evaluará las repercusiones en los certificados expedidos por el organismo notificado;

b) presentará a la Comisión y a los demás Estados miembros un informe con sus conclusiones en un plazo de tres meses a partir de la notificación de los cambios en la designación;

c) exigirá al organismo notificado que suspenda o retire, en un plazo razonable determinado por la autoridad, todo certificado indebidamente expedido, a fin de garantizar la conformidad continua de los sistemas de IA de alto riesgo en el mercado;

d) informará a la Comisión y a los Estados miembros de los certificados cuya suspensión o retirada haya exigido;

e) facilitará a las autoridades nacionales competentes del Estado miembro en el que el proveedor tenga su domicilio social toda la información pertinente sobre los certificados cuya suspensión o retirada haya exigido; dicha autoridad tomará las medidas oportunas, cuando sea necesario, para evitar un riesgo para la salud, la seguridad o los derechos fundamentales.

8.   Salvo en el caso de los certificados expedidos indebidamente, y cuando una designación haya sido suspendida o limitada, los certificados mantendrán su validez en una de las circunstancias siguientes:

a) cuando, en el plazo de un mes a partir de la suspensión o la limitación, la autoridad notificante haya confirmado que no existe riesgo alguno para la salud, la seguridad o los derechos fundamentales en relación con los certificados afectados por la suspensión o la limitación y haya fijado un calendario de acciones para subsanar la suspensión o la limitación, o

b) cuando la autoridad notificante haya confirmado que no se expedirán, modificarán ni volverán a expedir certificados relacionados con la suspensión mientras dure la suspensión o limitación, y declare si el organismo notificado tiene o no la capacidad, durante el período de la suspensión o limitación, de seguir supervisando los certificados expedidos y siendo responsable de ellos; cuando la autoridad notificante determine que el organismo notificado no tiene la capacidad de respaldar los certificados expedidos, el proveedor del sistema cubierto por el certificado deberá confirmar por escrito a las autoridades nacionales competentes del Estado miembro en que tenga su domicilio social, en un plazo de tres meses a partir de la suspensión o limitación, que otro organismo notificado cualificado va a asumir temporalmente las funciones del organismo notificado para supervisar los certificados y ser responsable de ellos durante el período de la suspensión o limitación.

9.   Salvo en el caso de los certificados expedidos indebidamente, y cuando se haya retirado una designación, los certificados mantendrán su validez durante nueve meses en las circunstancias siguientes:

a) la autoridad nacional competente del Estado miembro en el que tiene su domicilio social el proveedor del sistema de IA de alto riesgo cubierto por el certificado ha confirmado que no existe ningún riesgo para la salud, la seguridad o los derechos fundamentales asociado al sistema de IA de alto riesgo de que se trate, y

b) otro organismo notificado ha confirmado por escrito que asumirá la responsabilidad inmediata de dichos sistemas de IA y completa su evaluación en el plazo de doce meses a partir de la retirada de la designación.

En las circunstancias a que se refiere el párrafo primero, la autoridad nacional competente del Estado miembro en el que tenga su domicilio social el proveedor del sistema cubierto por el certificado podrá prorrogar la validez provisional de los certificados por plazos adicionales de tres meses, sin exceder de doce meses en total.

La autoridad nacional competente o el organismo notificado que asuman las funciones del organismo notificado afectado por el cambio de la designación informarán de ello inmediatamente a la Comisión, a los demás Estados miembros y a los demás organismos notificados.

Artículo 37. Cuestionamiento de la competencia de los organismos notificados

1.   La Comisión investigará, cuando sea necesario, todos los casos en los que existan razones para dudar de la competencia de un organismo notificado o del cumplimiento continuo, por parte de un organismo notificado, de los requisitos establecidos en el artículo 31 y de sus responsabilidades aplicables.

2.   La autoridad notificante facilitará a la Comisión, a petición de esta, toda la información pertinente relativa a la notificación o el mantenimiento de la competencia del organismo notificado de que se trate.

3.   La Comisión garantizará el tratamiento confidencial de acuerdo con el artículo 78 de toda la información delicada recabada en el transcurso de sus investigaciones en virtud del presente artículo.

4.   Cuando la Comisión determine que un organismo notificado no cumple o ha dejado de cumplir los requisitos para su notificación, informará al Estado miembro notificante en consecuencia y le solicitará que adopte las medidas correctoras necesarias, incluidas la suspensión o la retirada de la designación en caso necesario. Si el Estado miembro no adopta las medidas correctoras necesarias, la Comisión, mediante un acto de ejecución, podrá suspender, limitar o retirar la designación. Dicho acto de ejecución se adoptará con arreglo al procedimiento de examen contemplado en el artículo 98, apartado 2.

Artículo 38. Coordinación de los organismos notificados

1.   La Comisión se asegurará de que se instaure y se mantenga convenientemente, en relación con los sistemas de IA de alto riesgo, una adecuada coordinación y cooperación entre los organismos notificados activos en los procedimientos de evaluación de la conformidad en virtud del presente Reglamento, en forma de grupo sectorial de organismos notificados.

2.   Cada autoridad notificante se asegurará de que los organismos notificados por ella participen en el trabajo del grupo a que se refiere el apartado 1, directamente o por medio de representantes designados.

3.   La Comisión dispondrá que se organicen intercambios de conocimientos y mejores prácticas entre autoridades notificantes.

Artículo 39. Organismos de evaluación de la conformidad de terceros países

Los organismos de evaluación de la conformidad establecidos en virtud del Derecho de un tercer país con el que la Unión haya celebrado un acuerdo podrán ser autorizados a desempeñar las actividades de los organismos notificados con arreglo al presente Reglamento, siempre que cumplan los requisitos establecidos en el artículo 31 o garanticen un nivel equivalente de cumplimiento.

SECCIÓN 5. Normas, evaluación de la conformidad, certificados, registro

Artículo 40. Normas armonizadas y documentos de normalización

1.   Los sistemas de IA de alto riesgo o los modelos de IA de uso general que sean conformes con normas armonizadas, o partes de estas, cuyas referencias estén publicadas en el Diario Oficial de la Unión Europea de conformidad con el Reglamento (UE) nº 1025/2012 se presumirá que son conformes con los requisitos establecidos en la sección 2 del presente capítulo o, en su caso, con las obligaciones establecidas en el capítulo V, secciones 2 y 3, del presente Reglamento, en la medida en que dichas normas contemplen estos requisitos u obligaciones.

2.   De conformidad con el artículo 10 del Reglamento (UE) nº 1025/2012, la Comisión formulará, sin demora indebida, peticiones de normalización que contemplen todos los requisitos establecidos en la sección 2 del presente capítulo y, según proceda, las peticiones de normalización que contemplen las obligaciones establecidas en el capítulo V, secciones 2 y 3, del presente Reglamento. La petición de normalización también incluirá la solicitud de documentos sobre los procesos de presentación de información y documentación a fin de mejorar el funcionamiento de los de los sistemas de IA desde el punto de vista de los recursos, como la reducción del consumo de energía y de otros recursos del sistema de IA de alto riesgo durante su ciclo de vida, así como sobre el desarrollo eficiente desde el punto de vista energético de los modelos de IA de uso general. Cuando prepare una petición de normalización, la Comisión consultará al Consejo de IA y a las partes interesadas pertinentes, incluido el foro consultivo.

Cuando dirija una petición de normalización a las organizaciones europeas de normalización, la Comisión especificará que las normas deben ser claras, coherentes —también con las normas elaboradas en diversos sectores para los productos regulados por los actos legislativos de armonización de la Unión vigentes enumerados en el anexo I— y destinadas a garantizar que los sistemas de IA de alto riesgo o los modelos de IA de uso general introducidos en el mercado o puestos en servicio en la Unión cumplan los requisitos u obligaciones pertinentes establecidos en el presente Reglamento.

La Comisión solicitará a las organizaciones europeas de normalización que aporten pruebas de que han hecho todo lo posible por cumplir los objetivos a que se refieren los párrafos primero y segundo del presente apartado, de conformidad con el artículo 24 del Reglamento (UE) nº 1025/2012.

3.   Los participantes en el proceso de normalización tratarán de promover la inversión y la innovación en IA, también incrementando la seguridad jurídica, así como la competitividad y el crecimiento del mercado de la Unión, de contribuir al refuerzo de la cooperación mundial en pro de la normalización, teniendo en cuenta las normas internacionales existentes en el ámbito de la IA que son coherentes con los valores, derechos fundamentales e intereses de la Unión, y de mejorar la gobernanza multilateral, garantizando una representación equilibrada de los intereses y la participación efectiva de todas las partes interesadas pertinentes de conformidad con los artículos 5, 6 y 7 del Reglamento (UE) nº 1025/2012.

Artículo 41. Especificaciones comunes

1.   La Comisión podrá adoptar actos de ejecución por los que se establezcan especificaciones comunes para los requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, para las obligaciones establecidas en el capítulo V, secciones 2 y 3, siempre que se hayan cumplido las siguientes condiciones:

a) la Comisión ha solicitado, de conformidad con el artículo 10, apartado 1, del Reglamento (UE) nº 1025/2012, a una o varias organizaciones europeas de normalización que elaboren una norma armonizada para los requisitos establecidos en la sección 2 del presente capítulo, o según corresponda, para las obligaciones establecidas en el capítulo V, secciones 2 y 3, y:

i) la solicitud no ha sido aceptada por ninguna de las organizaciones europeas de normalización, o

ii) las normas armonizadas que responden a dicha solicitud no se han entregado en el plazo establecido de conformidad con el artículo 10, apartado 1, del Reglamento (UE) nº 1025/2012, o

iii) las normas armonizadas pertinentes responden de forma insuficiente a las preocupaciones en materia de derechos fundamentales, o

iv) las normas armonizadas no se ajustan a la solicitud, y

b) no se ha publicado en el Diario Oficial de la Unión Europea ninguna referencia a normas armonizadas que regulen los requisitos establecidos en la sección 2 del presente capítulo, o según proceda, las obligaciones a que se refiere el capítulo V, secciones 2 y 3, de conformidad con el Reglamento (UE) nº 1025/2012 y no se prevé la publicación de tal referencia en un plazo razonable.

Al elaborar las disposiciones comunes, la Comisión consultará al foro consultivo a que se refiere el artículo 67.

Los actos de ejecución a que se refiere el párrafo primero del presente apartado se adoptarán de conformidad con el procedimiento de examen contemplado en el artículo 98, apartado 2.

2.   Antes de elaborar un proyecto de acto de ejecución, la Comisión informará al comité a que se refiere el artículo 22 del Reglamento (UE) nº 1025/2012 de que considera que se cumplen las condiciones establecidas en el apartado 1 del presente artículo.

3.   Se presumirá que los sistemas de IA de alto riesgo o los modelos de IA de uso general que sean conformes con las especificaciones comunes a que se refiere el apartado 1, o partes de dichas especificaciones, son conformes con los requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, para cumplir con las obligaciones a que se refiere el capítulo V, secciones 2 y 3, en la medida en que dichas especificaciones comunes contemplen esos requisitos o esas obligaciones.

4.   Cuando una norma armonizada sea adoptada por una organización europea de normalización y propuesta a la Comisión con el fin de publicar su referencia en el Diario Oficial de la Unión Europea, la Comisión evaluará la norma armonizada de conformidad con el Reglamento (UE) nº 1025/2012. Cuando la referencia a una norma armonizada se publique en el Diario Oficial de la Unión Europea, la Comisión derogará los actos de ejecución a que se refiere el apartado 1, o las partes de dichos actos que contemplen los mismos requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, las mismas obligaciones establecidas en el capítulo V, secciones 2 y 3.

5.   Cuando los proveedores de sistemas de IA de alto riesgo o los modelos de IA de uso general no cumplan las especificaciones comunes mencionadas en el apartado 1, justificarán debidamente que han adoptado soluciones técnicas que cumplan los requisitos a que se refiere la sección 2 del presente capítulo o, según corresponda, cumplan con las obligaciones establecidas en el capítulo V, secciones 2 y 3, en un nivel como mínimo equivalente a aquellos.

6.   Cuando un Estado miembro considere que una especificación común no cumple plenamente los requisitos establecidos en la sección 2, o, según corresponda, no cumple con las obligaciones establecidas en el capítulo V, secciones 2 y 3, informará de ello a la Comisión con una explicación detallada. La Comisión evaluará dicha información y, en su caso, modificará el acto de ejecución por el que se establece la especificación común de que se trate.

Artículo 42. Presunción de conformidad con determinados requisitos

1.   Se presumirá que los sistemas de IA de alto riesgo que hayan sido entrenados y probados con datos que reflejan el entorno geográfico, conductual, contextual o funcional específico en el que esté previsto su uso cumplen los requisitos pertinentes establecidos en el artículo 10, apartado 4.

2.   Se presumirá que los sistemas de IA de alto riesgo que cuenten con un certificado o una declaración de conformidad en virtud de un esquema de ciberseguridad con arreglo al Reglamento (UE) 2019/881 cuyas referencias estén publicadas en el Diario Oficial de la Unión Europea cumplen los requisitos de ciberseguridad establecidos en el artículo 15 del presente Reglamento en la medida en que el certificado de ciberseguridad o la declaración de conformidad, o partes de estos, contemplen dichos requisitos.

Artículo 43. Evaluación de la conformidad

1.   En el caso de los sistemas de IA de alto riesgo enumerados en el anexo III, punto 1, cuando, al demostrar el cumplimiento de los requisitos establecidos en la sección 2 por parte de un sistema de IA de alto riesgo, el proveedor haya aplicado las normas armonizadas a que se refiere el artículo 40, o bien, en su caso, las especificaciones comunes a que se refiere el artículo 41, el proveedor optará por uno de los procedimientos de evaluación de la conformidad siguientes:

a) el fundamentado en el control interno, mencionado en el anexo VI, o

b) el fundamentado en la evaluación del sistema de gestión de la calidad y la evaluación de la documentación técnica, con la participación de un organismo notificado, mencionado en el anexo VII.

Al demostrar el cumplimiento de los requisitos establecidos en la sección 2 por parte de un sistema de IA de alto riesgo, el proveedor se atendrá al procedimiento de evaluación de la conformidad establecido en el anexo VII cuando:

a) las normas armonizadas a que se refiere el artículo 40 no existan, y no se disponga de las especificaciones comunes a que se refiere el artículo 41;

b) el proveedor no haya aplicado la norma armonizada, o solo haya aplicado parte de esta;

c) existan las especificaciones comunes a que se refiere la letra a), pero el proveedor no las haya aplicado;

d) una o varias de las normas armonizadas a que se refiere la letra a) se hayan publicado con una limitación, y únicamente en la parte de la norma objeto de la limitación.

A efectos del procedimiento de evaluación de la conformidad mencionado en el anexo VII, el proveedor podrá escoger cualquiera de los organismos notificados. No obstante, cuando se prevea la puesta en servicio del sistema de IA de alto riesgo por parte de las autoridades garantes del cumplimiento del Derecho, las autoridades de inmigración o las autoridades de asilo, o por las instituciones, órganos u organismos de la Unión, la autoridad de vigilancia del mercado mencionada en el artículo 74, apartado 8 o 9, según proceda, actuará como organismo notificado.

2.   En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 2 a 8, los proveedores se atendrán al procedimiento de evaluación de la conformidad fundamentado en un control interno a que se refiere el anexo VI, que no contempla la participación de un organismo notificado.

3.   En el caso de los sistemas de IA de alto riesgo regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, el proveedor se atendrá al procedimiento de evaluación de la conformidad pertinente exigida por dichos actos legislativos. Los requisitos establecidos en la sección 2 del presente capítulo se aplicarán a dichos sistemas de IA de alto riesgo y formarán parte de dicha evaluación. Asimismo, se aplicarán los puntos 4.3, 4.4 y 4.5 del anexo VII, así como el punto 4.6, párrafo quinto, de dicho anexo.

A efectos de dicha evaluación, los organismos notificados que hayan sido notificados con arreglo a dichos actos legislativos dispondrán de la facultad de controlar la conformidad de los sistemas de IA de alto riesgo con los requisitos establecidos en la sección 2, a condición de que se haya evaluado el cumplimiento por parte de dichos organismos notificados de los requisitos establecidos en el artículo 31, apartados 4, 5, 10 y 11, en el contexto del procedimiento de notificación con arreglo a dichos actos legislativos.

Cuando un acto legislativo enumerado en el anexo I, sección A, permita al fabricante del producto prescindir de una evaluación de la conformidad de terceros, a condición de que el fabricante haya aplicado todas las normas armonizadas que contemplan todos los requisitos pertinentes, dicho fabricante solamente podrá recurrir a esta opción si también ha aplicado las normas armonizadas o, en su caso, las especificaciones comunes a que se refiere el artículo 41 que contemplan todos los requisitos establecidos en la sección 2 del presente capítulo.

4.   Los sistemas de IA de alto riesgo que ya hayan sido objeto de un procedimiento de evaluación de la conformidad se someterán a un nuevo procedimiento de evaluación de la conformidad en caso de modificación sustancial, con independencia de si está prevista una distribución posterior del sistema modificado o de si este continúa siendo utilizado por el responsable del despliegue actual.

En el caso de los sistemas de IA de alto riesgo que continúen aprendiendo tras su introducción en el mercado o su puesta en servicio, los cambios en el sistema de IA de alto riesgo y su funcionamiento que hayan sido predeterminados por el proveedor en el momento de la evaluación inicial de la conformidad y figuren en la información recogida en la documentación técnica mencionada en el anexo IV, punto 2, letra f), no constituirán modificaciones sustanciales.

5.   La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar los anexos VI y VII actualizándolos a la luz del progreso técnico.

6.   La Comisión estará facultada para adoptar actos delegados de conformidad con el artículo 97 al objeto de modificar los apartados 1 y 2 del presente artículo a fin de someter a los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 2 a 8, al procedimiento de evaluación de la conformidad a que se refiere el anexo VII o a partes de este. La Comisión adoptará dichos actos delegados teniendo en cuenta la eficacia del procedimiento de evaluación de la conformidad fundamentado en un control interno mencionado en el anexo VI para prevenir o reducir al mínimo los riesgos para la salud, la seguridad y la protección de los derechos fundamentales que plantean estos sistemas, así como la disponibilidad de capacidades y recursos adecuados por parte de los organismos notificados.

Artículo 44. Certificados

1.   Los certificados expedidos por los organismos notificados con arreglo al anexo VII se redactarán en una lengua que las autoridades pertinentes del Estado miembro en el que esté establecido el organismo notificado puedan entender fácilmente.

2.   Los certificados serán válidos para el período que indiquen, que no excederá de cinco años para los sistemas de IA contemplados en el anexo I, y cuatro años para los sistemas de IA contemplados en el anexo III. A solicitud del proveedor, la validez de un certificado podrá prorrogarse por períodos adicionales no superiores a cinco años para los sistemas de IA contemplados en el anexo I, y cuatro años para los sistemas de IA contemplados en el anexo III, sobre la base de una nueva evaluación con arreglo a los procedimientos de evaluación de la conformidad aplicables. Todo suplemento de un certificado mantendrá su validez a condición de que el certificado al que complementa sea válido.

3.   Si un organismo notificado observa que un sistema de IA ya no cumple los requisitos establecidos en la sección 2, suspenderá o retirará, teniendo en cuenta el principio de proporcionalidad, el certificado expedido o le impondrá restricciones, a menos que se garantice el cumplimiento de dichos requisitos mediante medidas correctoras adecuadas adoptadas por el proveedor del sistema en un plazo adecuado determinado por el organismo notificado. El organismo notificado motivará su decisión.

Existirá un procedimiento de recurso frente a las decisiones de los organismos notificados, también respecto a los certificados de conformidad expedidos.

Artículo 45. Obligaciones de información de los organismos notificados

1.   Los organismos notificados informarán a la autoridad notificante:

a) de cualquier certificado de la Unión de evaluación de la documentación técnica, de cualquier suplemento a dichos certificados y de cualesquiera aprobaciones de sistemas de gestión de la calidad expedidas con arreglo a los requisitos establecidos en el anexo VII;

b) de cualquier denegación, restricción, suspensión o retirada de un certificado de la Unión de evaluación de la documentación técnica o de una aprobación de un sistema de gestión de la calidad expedida con arreglo a los requisitos establecidos en el anexo VII;

c) de cualquier circunstancia que afecte al ámbito de aplicación o a las condiciones de notificación;

d) de cualquier solicitud de información sobre las actividades de evaluación de la conformidad que hayan recibido de las autoridades de vigilancia del mercado;

e) previa solicitud, de las actividades de evaluación de la conformidad realizadas dentro del ámbito de aplicación de su notificación y de cualquier otra actividad realizada, incluidas las actividades transfronterizas y las subcontrataciones.

2.   Cada organismo notificado informará a los demás organismos notificados:

a) de las aprobaciones de sistemas de gestión de la calidad que haya rechazado, suspendido o retirado y, previa solicitud, de las aprobaciones de sistemas de gestión de la calidad que haya expedido;

b) de los certificados de la Unión de evaluación de la documentación técnica o los suplementos a dichos certificados que haya rechazado, retirado, suspendido o restringido de cualquier otro modo y, previa solicitud, de los certificados o los suplementos a estos que haya expedido.

3.   Cada organismo notificado proporcionará a los demás organismos notificados que realicen actividades de evaluación de la conformidad similares y relativas a los mismos tipos de sistemas de IA información pertinente sobre cuestiones relacionadas con resultados negativos y, previa solicitud, con resultados positivos de las evaluaciones de la conformidad.

4.   Los organismos notificados preservarán la confidencialidad de la información obtenida, de conformidad con lo dispuesto en el artículo 78.

Artículo 46. Exención del procedimiento de evaluación de la conformidad

1.   Como excepción a lo dispuesto en el artículo 43 y previa solicitud debidamente motivada, cualquier autoridad de vigilancia del mercado podrá autorizar la introducción en el mercado o la puesta en servicio de sistemas de IA de alto riesgo específicos en el territorio del Estado miembro de que se trate por motivos excepcionales de seguridad pública o con el fin de proteger la vida y la salud de las personas, el medio ambiente o activos fundamentales de la industria y de las infraestructuras. Dicha autorización se concederá por un período limitado, mientras se lleven a cabo los procedimientos de evaluación de la conformidad necesarios, teniendo en cuenta los motivos excepcionales que justifiquen la exención. La conclusión de los procedimientos de que se trate se alcanzará sin demora indebida.

2.   En una situación de urgencia debidamente justificada por motivos excepcionales de seguridad pública o en caso de amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas, las autoridades garantes del cumplimiento del Derecho o las autoridades de protección civil podrán poner en servicio un sistema de IA de alto riesgo específico sin la autorización a que se refiere el apartado 1, siempre que se solicite dicha autorización durante o después de la utilización sin demora indebida. Si se deniega la autorización a que se refiere el apartado 1, se suspenderá el uso del sistema de IA de alto riesgo con efecto inmediato y se desecharán inmediatamente todos los resultados y toda la información de salida producidos por dicho uso.

3.   La autorización a que se refiere el apartado 1 solo se expedirá si la autoridad de vigilancia del mercado llega a la conclusión de que el sistema de IA de alto riesgo cumple los requisitos establecidos en la sección 2. La autoridad de vigilancia del mercado informará a la Comisión y a los demás Estados miembros de toda autorización expedida de conformidad con los apartados 1 y 2. Esta obligación no comprenderá los datos operativos sensibles relativos a las actividades de las autoridades garantes del cumplimiento del Derecho.

4.   Si, en el plazo de quince días naturales tras la recepción de la información indicada en el apartado 3, ningún Estado miembro ni la Comisión presentan objeción alguna sobre una autorización expedida por una autoridad de vigilancia del mercado de un Estado miembro con arreglo al apartado 1, la autorización se considerará justificada.

5.   Si, en el plazo de quince días naturales tras la recepción de la notificación a que se refiere el apartado 3, un Estado miembro formula objeciones contra una autorización expedida por una autoridad de vigilancia del mercado de otro Estado miembro, o si la Comisión considera que la autorización vulnera el Derecho de la Unión o que la conclusión de los Estados miembros relativa al cumplimiento del sistema a que se refiere el apartado 3 es infundada, la Comisión celebrará consultas con el Estado miembro pertinente sin demora. Se consultará a los operadores de que se trate y se les ofrecerá la posibilidad de exponer sus puntos de vista. En vista de todo ello, la Comisión decidirá si la autorización está justificada o no. La Comisión enviará su decisión al Estado miembro afectado y a los operadores pertinentes.

6.   Si la Comisión considera que la autorización no está justificada, la autoridad de vigilancia del mercado del Estado miembro de que se trate la retirará.

7.   En el caso de los sistemas de IA de alto riesgo asociados a productos regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, solo se aplicarán las exenciones de la evaluación de la conformidad establecidas en dichos actos legislativos de armonización de la Unión.

Artículo 47. Declaración UE de conformidad

1.   El proveedor redactará una declaración UE de conformidad por escrito en un formato legible por máquina, con firma electrónica o manuscrita, para cada sistema de IA de alto riesgo y la mantendrá a disposición de las autoridades nacionales competentes durante un período de diez años a contar desde la introducción del sistema de IA de alto riesgo en el mercado o su puesta en servicio. En la declaración UE de conformidad se especificará el sistema de IA de alto riesgo para el que ha sido redactada. Se entregará una copia de la declaración UE de conformidad a las autoridades nacionales competentes pertinentes que lo soliciten.

2.   En la declaración UE de conformidad constará que el sistema de IA de alto riesgo de que se trate cumple los requisitos establecidos en la sección 2. La declaración UE de conformidad contendrá la información indicada en el anexo V y se traducirá a una lengua que puedan entender fácilmente las autoridades nacionales competentes del Estado o Estados miembros en que se introduzca en el mercado o comercialice el sistema de IA de alto riesgo.

3.   Cuando los sistemas de IA de alto riesgo estén sujetos a otros actos legislativos de armonización de la Unión que también exijan una declaración UE de conformidad, se elaborará una única declaración UE de conformidad con respecto a todos el Derecho de la Unión aplicable al sistema de IA de alto riesgo. La declaración contendrá toda la información necesaria para determinar los actos legislativos de armonización de la Unión a los que se refiere la declaración.

4.   Al elaborar la declaración UE de conformidad, el proveedor asumirá la responsabilidad del cumplimiento de los requisitos establecidos en la sección 2. El proveedor mantendrá actualizada la declaración UE de conformidad según proceda.

5.   La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el anexo V actualizando el contenido de la declaración UE de conformidad establecida en dicho anexo, con el fin de introducir elementos que resulten necesarios a la luz del progreso técnico.

Artículo 48. Marcado CE

1.   El marcado CE estará sujeto a los principios generales establecidos en el artículo 30 del Reglamento (CE) nº 765/2008.

2.   En el caso de los sistemas de IA de alto riesgo que se proporcionan digitalmente, se utilizará un marcado CE digital, únicamente si es fácilmente accesible a través de la interfaz desde la que se accede a dicho sistema o mediante un código fácilmente accesible legible por máquina u otros medios electrónicos.

3.   El marcado CE se colocará de manera visible, legible e indeleble en los sistemas de IA de alto riesgo. Cuando esto no sea posible o no pueda garantizarse debido a la naturaleza del sistema de IA de alto riesgo, se colocará en el embalaje o en los documentos adjuntos, según proceda.

4.   En su caso, el marcado CE irá seguido del número de identificación del organismo notificado responsable de los procedimientos de evaluación de la conformidad establecidos en el artículo 43. El número de identificación del organismo notificado lo colocará él mismo o, siguiendo sus instrucciones, el proveedor o el representante autorizado del proveedor. El número de identificación figurará también en todo el material publicitario en el que se mencione que el sistema de IA de alto riesgo cumple los requisitos de marcado CE.

5.   Cuando los sistemas de IA de alto riesgo estén sujetos a otras disposiciones del Derecho de la Unión que también requieran la colocación del marcado CE, este indicará que los sistemas de IA de alto riesgo también cumplen los requisitos de esas otras disposiciones.

Artículo 49. Registro

1.   Antes de introducir en el mercado o de poner en servicio un sistema de IA de alto riesgo enumerado en el anexo III, con excepción de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 2, el proveedor o, en su caso, el representante autorizado, registrarán su sistema y a ellos mismos en la base de datos de la UE a que se refiere el artículo 71.

2.   Antes de introducir en el mercado o poner en servicio un sistema de IA sobre el que el proveedor haya llegado a la conclusión de que no es de alto riesgo de conformidad con el artículo 6, apartado 3, dicho proveedor o, en su caso, el representante autorizado, registrarán ese sistema y a ellos mismos en la base de datos de la UE a que se refiere el artículo 71.

3.   Antes de poner en servicio o utilizar un sistema de IA de alto riesgo enumerado en el anexo III, con excepción de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 2, los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades públicas, instituciones, órganos u organismos de la Unión, o personas que actúen en su nombre, se registrarán, seleccionarán el sistema y registrarán su utilización en la base de datos de la UE a que se refiere el artículo 71.

4.   En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 1, 6 y 7, en los ámbitos de la garantía del cumplimiento del Derecho, la migración, el asilo y la gestión del control fronterizo, el registro a que se refieren los apartados 1, 2 y 3 del presente artículo se efectuará en una sección segura no pública de la base de datos de la UE a que se refiere el artículo 71 e incluirá únicamente la información, según proceda, a la que se hace referencia en:

a) el anexo VIII, sección A, puntos 1 a 10, con excepción de los puntos 6, 8 y 9;

b) el anexo VIII, sección B, puntos 1 a 5 y puntos 8 y 9;

c) el anexo VIII, sección C, puntos 1 a 3;

d) el anexo IX, puntos 1, 2, 3 y 5.

Únicamente la Comisión y las autoridades nacionales a que se refiere el artículo 74, apartado 8, tendrán acceso a las secciones restringidas respectivas de la base de datos de la UE enumeradas en el párrafo primero del presente apartado.

5.   Los sistemas de IA de alto riesgo a que se refiere el anexo III, punto 2, se registrarán a nivel nacional.

CAPÍTULO IV. OBLIGACIONES DE TRANSPARENCIA DE LOS PROVEEDORES Y RESPONSABLES DEL DESPLIEGUE DE DETERMINADOS SISTEMAS DE IA

Artículo 50. Obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de IA

1.   Los proveedores garantizarán que los sistemas de IA destinados a interactuar directamente con personas físicas se diseñen y desarrollen de forma que las personas físicas de que se trate estén informadas de que están interactuando con un sistema de IA, excepto cuando resulte evidente desde el punto de vista de una persona física razonablemente informada, atenta y perspicaz, teniendo en cuenta las circunstancias y el contexto de utilización. Esta obligación no se aplicará a los sistemas de IA autorizados por ley para detectar, prevenir, investigar o enjuiciar delitos, con sujeción a las garantías adecuadas para los derechos y libertades de terceros, salvo que estos sistemas estén a disposición del público para denunciar un delito penal.

2.   Los proveedores de sistemas de IA, entre los que se incluyen los sistemas de IA de uso general, que generen contenido sintético de audio, imagen, vídeo o texto, velarán por que los resultados de salida del sistema de IA estén marcados en un formato legible por máquina y que sea posible detectar que han sido generados o manipulados de manera artificial. Los proveedores velarán por que sus soluciones técnicas sean eficaces, interoperables, sólidas y fiables en la medida en que sea técnicamente viable, teniendo en cuenta las particularidades y limitaciones de los diversos tipos de contenido, los costes de aplicación y el estado actual de la técnica generalmente reconocido, según se refleje en las normas técnicas pertinentes. Esta obligación no se aplicará en la medida en que los sistemas de IA desempeñen una función de apoyo a la edición estándar o no alteren sustancialmente los datos de entrada facilitados por el responsable del despliegue o su semántica, o cuando estén autorizados por ley para detectar, prevenir, investigar o enjuiciar delitos.

3.   Los responsables del despliegue de un sistema de reconocimiento de emociones o de un sistema de categorización biométrica informarán del funcionamiento del sistema a las personas físicas expuestas a él y tratarán sus datos personales de conformidad con los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y con la Directiva (UE) 2016/680, según corresponda. Esta obligación no se aplicará a los sistemas de IA utilizados para la categorización biométrica y el reconocimiento de emociones que hayan sido autorizados por ley para detectar, prevenir e investigar delitos, con sujeción a las garantías adecuadas para los derechos y libertades de terceros y de conformidad con el Derecho de la Unión.

4.   Los responsables del despliegue de un sistema de IA que genere o manipule imágenes o contenidos de audio o vídeo que constituyan una ultrasuplantación harán público que estos contenidos o imágenes han sido generados o manipulados de manera artificial. Esta obligación no se aplicará cuando la ley autorice su uso para para detectar, prevenir, investigar o enjuiciar delitos. Cuando el contenido forme parte de una obra o programa manifiestamente creativos, satíricos, artísticos, de ficción o análogos, las obligaciones de transparencia establecidas en el presente apartado se limitarán a la obligación de hacer pública la existencia de dicho contenido generado o manipulado artificialmente de una manera adecuada que no dificulte la exhibición o el disfrute de la obra.

Los responsables del despliegue de un sistema de IA que genere o manipule texto que se publique con el fin de informar al público sobre asuntos de interés público divulgarán que el texto se ha generado o manipulado de manera artificial. Esta obligación no se aplicará cuando el uso esté autorizado por ley para detectar, prevenir, investigar o enjuiciar delitos, o cuando el contenido generado por IA haya sido sometido a un proceso de revisión humana o de control editorial y cuando una persona física o jurídica tenga la responsabilidad editorial por la publicación del contenido.

5.   La información a que se refieren los apartados 1 a 4 se facilitará a las personas físicas de que se trate de manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición. La información se ajustará a los requisitos de accesibilidad aplicables.

6.   Los apartados 1 a 4 no afectarán a los requisitos y obligaciones establecidos en el capítulo III y se entenderán sin perjuicio de otras obligaciones de transparencia establecidas en el Derecho nacional o de la Unión para los responsables del despliegue de sistemas de IA.

7.   La Oficina de IA fomentará y facilitará la elaboración de códigos de buenas prácticas a escala de la Unión para promover la aplicación efectiva de las obligaciones relativas a la detección y el etiquetado de contenidos generados o manipulados de manera artificial. La Comisión podrá adoptar actos de ejecución a fin de aprobar dichos códigos de buenas prácticas, de conformidad con el procedimiento establecido en el artículo 56, apartado 6. Si considera que el código no es adecuado, la Comisión podrá adoptar un acto de ejecución que especifique normas comunes para el cumplimiento de las citadas obligaciones de conformidad con el procedimiento de examen establecido en el artículo 98, apartado 2.

CAPÍTULO V. MODELOS DE IA DE USO GENERAL

SECCIÓN 1. Reglas de clasificación

Artículo 51. Reglas de clasificación de los modelos de IA de uso general como modelos de IA de uso general con riesgo sistémico

1.   Un modelo de IA de uso general se clasificará como modelo de IA de uso general con riesgo sistémico si reúne alguna de las siguientes condiciones:

a) tiene capacidades de gran impacto evaluadas a partir de herramientas y metodologías técnicas adecuadas, como indicadores y parámetros de referencia;

b) con arreglo a una decisión de la Comisión, adoptada de oficio o a raíz de una alerta cualificada del grupo de expertos científicos, tiene capacidades o un impacto equivalente a los establecidos en la letra a), teniendo en cuenta los criterios establecidos en el anexo XIII.

2.   Se presumirá que un modelo de IA de uso general tiene capacidades de gran impacto con arreglo al apartado 1, letra a), cuando la cantidad acumulada de cálculo utilizada para su entrenamiento, medida en operaciones de coma flotante, sea superior a 1025.

3.   La Comisión adoptará actos delegados de conformidad con el artículo 97 para modificar los umbrales a que se refieren los apartados 1 y 2 del presente artículo, así como para complementar los parámetros de referencia e indicadores en función de los avances tecnológicos, como las mejoras algorítmicas o la mayor eficiencia del hardware, cuando sea necesario, para que los umbrales reflejen el estado actual de la técnica.

Artículo 52. Procedimiento

1.   Cuando un modelo de IA de uso general cumpla la condición a que se refiere el artículo 51, apartado 1, letra a), el proveedor pertinente lo notificará a la Comisión sin demora y, en cualquier caso, antes de transcurridas dos semanas desde que se cumpla dicho requisito o desde que se sepa que va a cumplirse. Dicha notificación incluirá la información necesaria para demostrar que se cumple el requisito pertinente. Si la Comisión tiene conocimiento de un modelo de IA de uso general que presenta riesgos sistémicos y que no ha sido notificado, podrá decidir designarlo como modelo con riesgo sistémico.

2.   El proveedor de un modelo de IA de uso general que cumpla la condición a que se refiere el artículo 51, apartado 1, letra a), podrá presentar, junto con su notificación, argumentos suficientemente fundamentados que demuestren que, excepcionalmente, aunque el modelo de IA de uso general cumple dicho requisito, no presenta riesgos sistémicos, debido a sus características específicas, y no debe clasificarse, por tanto, como modelo de IA de uso general con riesgo sistémico.

3.   Cuando la Comisión concluya que los argumentos presentados con arreglo al apartado 2 no están suficientemente fundamentados y que el proveedor pertinente no ha sido capaz de demostrar que el modelo de IA de uso general no presenta, debido a sus características específicas, riesgos sistémicos, rechazará dichos argumentos y el modelo de IA de uso general se considerará un modelo de IA de uso general con riesgo sistémico.

4.   La Comisión podrá determinar que un modelo de IA de uso general presenta riesgos sistémicos, de oficio o a raíz de una alerta cualificada del grupo de expertos científicos con arreglo al artículo 90, apartado 1, letra a), a partir de los criterios establecidos en el anexo XIII.

La Comisión estará facultada para adoptar actos delegados de conformidad con el artículo 97 al objeto de modificar el anexo XIII especificando y actualizando los criterios establecidos en dicho anexo.

5.   Previa solicitud motivada de un proveedor cuyo modelo haya sido designado como modelo de IA de uso general con riesgo sistémico con arreglo al apartado 4, la Comisión tendrá en cuenta la solicitud y podrá decidir reevaluar si puede seguir considerándose que el modelo de IA de uso general presenta riesgos sistémicos con arreglo a los criterios establecidos en el anexo XIII. Dicha solicitud contendrá motivos objetivos, detallados y nuevos que hayan surgido desde la decisión de designación. Los proveedores no podrán solicitar la reevaluación antes de transcurridos seis meses desde la decisión de designación. Si tras la reevaluación la Comisión decide mantener la designación como modelo de IA de uso general con riesgo sistémico, los proveedores no podrán solicitar otra reevaluación hasta transcurridos seis meses desde dicha decisión.

6.   La Comisión velará por que se publique una lista de modelos de IA de uso general con riesgo sistémico, que mantendrá actualizada, sin perjuicio de la necesidad de respetar y proteger los derechos de propiedad intelectual e industrial y la información empresarial confidencial o los secretos comerciales de conformidad con el Derecho de la Unión y nacional.

SECCIÓN 2. Obligaciones de los proveedores de modelos de IA de uso general

Artículo 53. Obligaciones de los proveedores de modelos de IA de uso general

1.   Los proveedores de modelos de IA de uso general:

a) elaborarán y mantendrán actualizada la documentación técnica del modelo, incluida la información relativa al proceso de entrenamiento y realización de pruebas y los resultados de su evaluación, que contendrá, como mínimo, la información establecida en el anexo XI con el fin de facilitarla, previa solicitud, a la Oficina de IA y a las autoridades nacionales competentes;

b) elaborarán y mantendrán actualizada información y documentación y la pondrán a disposición de los proveedores de sistemas de IA que tengan la intención de integrar el modelo de IA de uso general en sus sistemas de IA. Sin perjuicio de la necesidad de observar y proteger los derechos de propiedad intelectual e industrial y la información empresarial confidencial o los secretos comerciales de conformidad con el Derecho de la Unión y nacional, dicha información y documentación:

i) permitirá a los proveedores de sistemas de IA entender bien las capacidades y limitaciones del modelo de IA de uso general y cumplir sus obligaciones en virtud del presente Reglamento, y

ii) contendrá, como mínimo, los elementos previstos en el anexo XII;

c) establecerán directrices para cumplir el Derecho de la Unión en materia de derechos de autor y derechos afines, y en particular, para detectar y cumplir, por ejemplo, a través de tecnologías punta, una reserva de derechos expresada de conformidad con el artículo 4, apartado 3, de la Directiva (UE) 2019/790;

d) elaborarán y pondrán a disposición del público un resumen suficientemente detallado del contenido utilizado para el entrenamiento del modelo de IA de uso general, con arreglo al modelo facilitado por la Oficina de IA.

2.   Las obligaciones establecidas en el apartado 1, letras a) y b), no se aplicarán a los proveedores de modelos de IA que se divulguen con arreglo a una licencia libre y de código abierto que permita el acceso, la utilización, la modificación y la distribución del modelo y cuyos parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se pongan a disposición del público. Esta excepción no se aplicará a los modelos de IA de uso general con riesgo sistémico.

3.   Los proveedores de modelos de IA de uso general cooperarán con la Comisión y las autoridades nacionales competentes, según sea necesario, en el ejercicio de sus competencias y facultades en virtud del presente Reglamento.

4.   Los proveedores de modelos de IA de uso general podrán recurrir a códigos de buenas prácticas en el sentido de lo dispuesto en el artículo 56 para demostrar el cumplimiento de las obligaciones establecidas en el apartado 1 del presente artículo, hasta que se publique una norma armonizada. El cumplimiento de las normas armonizadas europeas otorga a los proveedores presunción de conformidad en la medida en que tales normas regulen dichas obligaciones. Los proveedores de modelos de IA de uso general que no se adhieran a un código de buenas prácticas aprobado o no cumplan una norma armonizada europea deberán demostrar que cumplen sus obligaciones por medios alternativos adecuados para su evaluación por parte de la Comisión.

5.   A fin de facilitar el cumplimiento de lo dispuesto en el anexo XI, en particular en su punto 2, letras d) y e), la Comisión estará facultada para adoptar actos delegados de conformidad con el artículo 97 para detallar las metodologías de medición y cálculo con vistas a que la documentación sea comparable y verificable.

6.   La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97, apartado 2, para modificar los anexos XI y XII en función de los avances tecnológicos.

7.   Toda información o documentación obtenida en virtud del presente artículo, incluidos los secretos comerciales, se tratarán de conformidad con las obligaciones de confidencialidad establecidas en el artículo 78.

Artículo 54. Representantes autorizados de los proveedores de modelos de IA de uso general

1.   Antes de introducir en el mercado de la Unión un modelo de IA de uso general, los proveedores establecidos en terceros países tendrán que nombrar, mediante un mandato escrito, a un representante autorizado que esté establecido en la Unión.

2.   Los proveedores permitirán que su representante autorizado pueda efectuar las tareas especificadas en el mandato recibido del proveedor.

3.   Los representantes autorizados efectuarán las tareas especificadas en el mandato recibido del proveedor. Facilitarán a la Oficina de IA, cuando lo solicite, una copia del mandato en una de las lenguas oficiales de las instituciones de la Unión. A los efectos del presente Reglamento, el mandato habilitará al representante autorizado para realizar las tareas siguientes:

a) comprobar que se ha elaborado la documentación técnica que se indica en el anexo XI y que el proveedor cumple todas las obligaciones a que se refiere el artículo 53 y, en su caso, el artículo 55;

b) conservar una copia de la documentación técnica que se indica en el anexo XI a disposición de la Oficina de IA y de las autoridades nacionales competentes por un período de diez años a partir de la introducción en el mercado del modelo de IA de uso general, y de los datos de contacto del proveedor que haya designado al representante autorizado;

c) facilitar a la Oficina de IA, previa solicitud motivada, toda la información y documentación, incluidas la información y documentación mencionadas en la letra b), que sean necesarias para demostrar el cumplimiento de las obligaciones establecidas en el presente capítulo;

d) cooperar con la Oficina de IA y las autoridades competentes, previa solicitud motivada, en cualquier acción que emprendan en relación con el modelo de IA de uso general, también cuando el modelo esté integrado en un sistema de IA introducido en el mercado o puesto en servicio en la Unión.

4.   El mandato habilitará al representante autorizado para que la Oficina de IA o las autoridades competentes se pongan en contacto con él, además de con el proveedor o en lugar de con el proveedor, con referencia a todas las cuestiones relacionadas con la garantía del cumplimiento del presente Reglamento.

5.   El representante autorizado pondrá fin al mandato si considera o tiene motivos para considerar que el proveedor contraviene sus obligaciones en virtud del presente Reglamento. En tal caso, también informará inmediatamente a la Oficina de IA del fin del mandato y de los motivos para ello.

6.   La obligación establecida en el presente artículo no se aplicará a los proveedores de modelos de IA de uso general que se divulguen con arreglo a una licencia libre y de código abierto que permita el acceso, la utilización, la modificación y la distribución del modelo y cuyos parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se pongan a disposición del público, salvo si los citados modelos de IA de uso general presentan riesgos sistémicos.

SECCIÓN 3. Obligaciones de los proveedores de modelos de IA de uso general con riesgo sistémico

Artículo 55. Obligaciones de los proveedores de modelos de IA de uso general con riesgo sistémico

1.   Además de las obligaciones enumeradas en los artículos 53 y 54, los proveedores de modelos de IA de uso general con riesgo sistémico:

a) evaluarán los modelos de conformidad con protocolos y herramientas normalizados que reflejen el estado de la técnica, lo que incluye la realización y documentación de pruebas de simulación de adversarios con el modelo con vistas a detectar y mitigar riesgos sistémicos;

b) evaluarán y mitigarán los posibles riesgos sistémicos a escala de la Unión que puedan derivarse del desarrollo, la introducción en el mercado o el uso de modelos de IA de uso general con riesgo sistémico, así como el origen de dichos riesgos;

c) vigilarán, documentarán y comunicarán, sin demora indebida, a la Oficina de IA y, en su caso, a las autoridades nacionales competentes, la información pertinente sobre incidentes graves y las posibles medidas correctoras para resolverlos;

d) velarán por que se establezca un nivel adecuado de protección de la ciberseguridad para el modelo de IA de uso general con riesgo sistémico y la infraestructura física del modelo.

2.   Los proveedores de modelos de IA de uso general con riesgo sistémico podrán recurrir a códigos de buenas prácticas en el sentido de lo dispuesto en el artículo 56 para demostrar el cumplimiento de las obligaciones establecidas en el apartado 1 del presente artículo, hasta que se publique una norma armonizada. El cumplimiento de las normas armonizadas europeas otorga a los proveedores presunción de conformidad en la medida en que tales normas regulen dichas obligaciones. Los proveedores de modelos de IA de uso general que no se adhieran a un código de buenas prácticas aprobado o no cumplan una norma armonizada europea deberán demostrar que cumplen sus obligaciones por medios alternativos adecuados para su evaluación por parte de la Comisión.

3.   Toda información o documentación obtenida en virtud del presente artículo, incluidos los secretos comerciales, se tratarán de conformidad con las obligaciones de confidencialidad establecidas en el artículo 78.

SECCIÓN 4. Códigos de buenas prácticas

Artículo 56. Códigos de buenas prácticas

1.   La Oficina de IA fomentará y facilitará la elaboración de códigos de buenas prácticas a escala de la Unión a fin de contribuir a la correcta aplicación del presente Reglamento, teniendo en cuenta los planteamientos internacionales.

2.   La Oficina de IA y el Consejo de IA velarán por que los códigos de buenas prácticas comprendan al menos las obligaciones establecidas en los artículos 53 y 55, entre las que se incluyen las cuestiones siguientes:

a) los medios para garantizar que la información a que se refiere el artículo 53, apartado 1, letras a) y b), se mantenga actualizada con respecto a la evolución del mercado y los avances tecnológicos;

b) el nivel adecuado de detalle por lo que respecta al resumen sobre el contenido utilizado para el entrenamiento;

c) la determinación del tipo y la naturaleza de los riesgos sistémicos a escala de la Unión, incluido su origen, cuando proceda;

d) las medidas, procedimientos y modalidades de evaluación y gestión de los riesgos sistémicos a escala de la Unión, incluida su documentación, que serán proporcionales a los riesgos y tendrán en cuenta su gravedad y probabilidad y las dificultades específicas para hacerles frente, habida cuenta de la manera en que dichos riesgos pueden surgir y materializarse a lo largo de la cadena de valor de la IA.

3.   La Oficina de IA podrá invitar a todos los proveedores de modelos de IA de uso general, así como a las autoridades nacionales competentes pertinentes, a participar en la elaboración de códigos de buenas prácticas. Las organizaciones de la sociedad civil, la industria, el mundo académico y otras partes interesadas pertinentes, como los proveedores posteriores y los expertos independientes, podrán contribuir al proceso.

4.   La Oficina de IA y el Consejo de IA velarán por que los códigos de buenas prácticas establezcan claramente sus objetivos específicos y contengan compromisos o medidas, como, por ejemplo, indicadores clave de rendimiento, si procede, para garantizar la consecución de dichos objetivos, y que tengan debidamente en cuenta las necesidades e intereses de todas las partes interesadas, incluidas las personas afectadas, a escala de la Unión.

5.   La Oficina de IA velará por que los participantes en los códigos de buenas prácticas informen periódicamente a la Oficina de IA sobre la aplicación de los compromisos y las medidas adoptadas y sus resultados, lo que incluye su evaluación con respecto a los indicadores clave de rendimiento, si procede. Los indicadores clave de rendimiento y los compromisos de presentación de información reflejarán las diferencias de tamaño y capacidad entre los distintos participantes.

6.   La Oficina de IA y el Consejo de IA supervisarán y evaluarán periódicamente la consecución de los objetivos de los códigos de buenas prácticas por parte de los participantes y su contribución a la correcta aplicación del presente Reglamento. La Oficina de IA y el Consejo de IA evaluarán si los códigos de buenas prácticas incluyen las obligaciones establecidas en los artículos 53 y 55, y supervisarán y evaluarán periódicamente la consecución de sus objetivos. Publicarán su evaluación de la adecuación de los códigos de buenas prácticas.

La Comisión podrá, mediante un acto de ejecución, aprobar un código de buenas prácticas y conferirle una validez general dentro de la Unión. Dicho acto de ejecución se adoptará con arreglo al procedimiento de examen contemplado en el artículo 98, apartado 2.

7.   La Oficina de IA podrá invitar a todos los proveedores de modelos de IA de uso general a adherirse a los códigos de buenas prácticas. En el caso de los proveedores de modelos de IA de uso general que no presenten riesgos sistémicos, esta adhesión podrá limitarse a las obligaciones previstas en el artículo 53, salvo que declaren expresamente su interés en adherirse al código completo.

8.   La Oficina de IA también fomentará y facilitará, según proceda, la revisión y la adaptación de los códigos de buenas prácticas, en particular teniendo en cuenta las normas emergentes. La Oficina de IA asistirá en la evaluación de las normas disponibles.

9.   Los códigos de buenas prácticas estarán finalizados a más tardar el 2 de mayo de 2025. La Oficina de IA adoptará las medidas necesarias, lo que incluye invitar a los proveedores a adherirse a los códigos de buenas prácticas con arreglo a lo dispuesto en el apartado 7.

Si un código de buenas prácticas no se ha podido finalizar a más tardar el 2 de agosto de 2025, o si la Oficina de IA lo considera inadecuado tras su evaluación con arreglo al apartado 6 del presente artículo, la Comisión podrá establecer, mediante actos de ejecución, normas comunes para el cumplimiento de las obligaciones establecidas en los artículos 53 y 55, que incluyan las cuestiones establecidas en el apartado 2 del presente artículo. Dichos actos de ejecución se adoptarán de conformidad con el procedimiento de examen a que se refiere el artículo 98, apartado 2.

CAPÍTULO VI. MEDIDAS DE APOYO A LA INNOVACIÓN

Artículo 57. Espacios controlados de pruebas para la IA

1.   Los Estados miembros velarán por que sus autoridades competentes establezcan al menos un espacio controlado de pruebas para la IA a escala nacional, que estará operativo a más tardar el 2 de agosto de 2026. Dicho espacio controlado de pruebas también podrá establecerse conjuntamente con las autoridades competentes de otros Estados miembros. La Comisión podrá proporcionar apoyo técnico, asesoramiento y herramientas para el establecimiento y el funcionamiento de los espacios controlados de pruebas para la IA.

La obligación prevista en el párrafo primero también podrá cumplirse mediante la participación en un espacio controlado de pruebas existente en la medida en que dicha participación proporcione un nivel de cobertura nacional equivalente a los Estados miembros participantes.

2.   También podrán establecerse espacios controlados de pruebas para la IA adicionales a escala regional o local o conjuntamente con las autoridades competentes de otros Estados miembros.

3.   El Supervisor Europeo de Protección de Datos también podrá establecer un espacio controlado de pruebas para la IA para las instituciones, órganos y organismos de la Unión, y podrá ejercer las funciones y tareas de las autoridades nacionales competentes de conformidad con el presente capítulo.

4.   Los Estados miembros velarán por que las autoridades competentes a que se refieren los apartados 1 y 2 asignen recursos suficientes para cumplir lo dispuesto en el presente artículo de manera efectiva y oportuna. Cuando proceda, las autoridades nacionales competentes cooperarán con otras autoridades pertinentes y podrán permitir la participación de otros agentes del ecosistema de la IA. El presente artículo no afectará a otros espacios controlados de pruebas establecidos en virtud del Derecho de la Unión o nacional. Los Estados miembros garantizarán un nivel adecuado de cooperación entre las autoridades que supervisan esos otros espacios controlados de pruebas y las autoridades nacionales competentes.

5.   Los espacios controlados de pruebas para la IA establecidos de conformidad con el apartado 1 proporcionarán un entorno controlado que fomente la innovación y facilite el desarrollo, el entrenamiento, la prueba y la validación de sistemas innovadores de IA durante un período limitado antes de su introducción en el mercado o su puesta en servicio, con arreglo a un plan del espacio controlado de pruebas específico acordado entre los proveedores o proveedores potenciales y la autoridad competente. Tales espacios controlados de pruebas podrán incluir pruebas en condiciones reales supervisadas dentro de ellos.

6.   Las autoridades competentes proporcionarán, en su caso, orientación, supervisión y apoyo dentro del espacio controlado de pruebas para la IA con vistas a determinar los riesgos, en particular para los derechos fundamentales, la salud y la seguridad, a las pruebas y a las medidas de reducción y su eficacia en relación con las obligaciones y los requisitos del presente Reglamento y, cuando proceda, de otras disposiciones de Derecho de la Unión y nacional cuya observancia se supervise en el espacio controlado de pruebas.

7.   Las autoridades competentes proporcionarán a los proveedores y proveedores potenciales que participen en el espacio controlado de pruebas para la IA orientaciones sobre las expectativas en materia de regulación y la manera de cumplir los requisitos y obligaciones establecidos en el presente Reglamento.

A petición del proveedor o proveedor potencial del sistema de IA, la autoridad competente aportará una prueba escrita de las actividades llevadas a cabo con éxito en el espacio controlado de pruebas. La autoridad competente también proporcionará un informe de salida en el que se detallen las actividades llevadas a cabo en el espacio controlado de pruebas y los resultados y resultados del aprendizaje correspondientes. Los proveedores podrán utilizar esta documentación para demostrar su cumplimiento del presente Reglamento mediante el proceso de evaluación de la conformidad o las actividades de vigilancia del mercado pertinentes. A este respecto, las autoridades de vigilancia del mercado y los organismos notificados tendrán en cuenta positivamente los informes de salida proporcionados y las pruebas escritas aportadas por la autoridad nacional competente, con vistas a acelerar los procedimientos de evaluación de la conformidad en una medida razonable.

8.   Con sujeción a las disposiciones de confidencialidad del artículo 78 y con el acuerdo del proveedor o proveedor potencial, la Comisión y el Consejo de IA estarán autorizados a acceder a los informes de salida y los tendrán en cuenta, según proceda, en el ejercicio de sus funciones en virtud del presente Reglamento. Si tanto el proveedor o proveedor potencial como la autoridad nacional competente dan expresamente su acuerdo para ello, el informe de salida podrá hacerse público a través de la plataforma única de información a que se refiere el presente artículo.

9.   El establecimiento de espacios controlados de pruebas para la IA tendrá por objeto contribuir a los siguientes objetivos:

a) mejorar la seguridad jurídica para lograr el cumplimiento del presente Reglamento o, en su caso, de otras disposiciones de Derecho de la Unión y nacional aplicable;

b) apoyar el intercambio de mejores prácticas mediante la cooperación con las autoridades que participan en el espacio controlado de pruebas para la IA;

c) fomentar la innovación y la competitividad y facilitar el desarrollo de un ecosistema de la IA;

d) contribuir a un aprendizaje normativo basado en datos contrastados;

e) facilitar y acelerar el acceso al mercado de la Unión de los sistemas de IA, en particular cuando los proporcionen pymes, incluidas las empresas emergentes.

10.   Las autoridades nacionales competentes velarán por que, en la medida en que los sistemas innovadores de IA impliquen el tratamiento de datos personales o estén comprendidos dentro del ámbito de supervisión de otras autoridades nacionales o autoridades competentes que proporcionen o respalden el acceso a los datos, las autoridades nacionales de protección de datos y las demás autoridades nacionales o competentes estén ligadas al funcionamiento del espacio controlado de pruebas para la IA e involucradas en la supervisión de dichos aspectos en la medida en que lo permitan sus respectivas funciones y competencias.

11.   Los espacios controlados de pruebas para la IA no afectarán a las facultades de supervisión o correctoras de las autoridades competentes que supervisan los espacios controlados de pruebas, tampoco a escala regional o local. Cualquier riesgo considerable para la salud, la seguridad y los derechos fundamentales detectado durante el proceso de desarrollo y prueba de estos sistemas de IA dará lugar a una reducción adecuada. Las autoridades nacionales competentes estarán facultadas para suspender temporal o permanentemente el proceso de prueba, o la participación en el espacio controlado de pruebas si no es posible una reducción efectiva, e informarán a la Oficina de IA de dicha decisión. Con el objetivo de apoyar la innovación en materia de IA en la Unión, las autoridades nacionales competentes ejercerán sus facultades de supervisión dentro de los límites del Derecho pertinente y harán uso de su potestad discrecional a la hora de aplicar disposiciones jurídicas en relación con un proyecto específico de espacio controlado de pruebas para la IA.

12.   Los proveedores y proveedores potenciales que participen en el espacio controlado de pruebas para la IA responderán, con arreglo al Derecho de la Unión y nacional en materia de responsabilidad, de cualquier daño infligido a terceros como resultado de la experimentación realizada en el espacio controlado de pruebas. Sin embargo, siempre que los proveedores potenciales respeten el plan específico y las condiciones de su participación y sigan de buena fe las orientaciones proporcionadas por la autoridad nacional competente, las autoridades no impondrán multas administrativas por infracciones del presente Reglamento. En los casos en que otras autoridades competentes responsables de otras disposiciones del Derecho de la Unión y nacional hayan participado activamente en la supervisión del sistema de IA en el espacio controlado de pruebas y hayan proporcionado orientaciones para el cumplimiento, no se impondrán multas administrativas en relación con dichas disposiciones.

13.   Los espacios controlados de pruebas para la IA serán diseñados y puestos en práctica de tal manera que, cuando proceda, faciliten la cooperación transfronteriza entre las autoridades nacionales competentes.

14.   Las autoridades nacionales competentes coordinarán sus actividades y cooperarán en el marco del Consejo de IA.

15.   Las autoridades nacionales competentes informarán a la Oficina de IA y al Consejo de IA del establecimiento de un espacio controlado de pruebas y podrán solicitarles apoyo y orientación. La Oficina de IA pondrá a disposición del público una lista de los espacios controlados de pruebas previstos y existentes y la mantendrá actualizada con el fin de fomentar una mayor interacción en los espacios controlados de pruebas para la IA, así como la cooperación transfronteriza.

16.   Las autoridades nacionales competentes presentarán informes anuales a la Oficina de IA y al Consejo de IA, por primera vez un año después del establecimiento del espacio controlado de pruebas para la IA y, posteriormente, cada año hasta su terminación, así como un informe final. Dichos informes proporcionarán información sobre el progreso y los resultados de la puesta en práctica de dichos espacios controlados de pruebas, incluidos mejores prácticas, incidentes, enseñanzas extraídas y recomendaciones acerca de su configuración y, en su caso, acerca de la aplicación y posible revisión del presente Reglamento, incluidos sus actos delegados y de ejecución, y sobre la aplicación de otras disposiciones de Derecho de la Unión, supervisada por las autoridades competentes en el marco del espacio controlado de pruebas. Las autoridades nacionales competentes pondrán dichos informes anuales, o resúmenes de estos, a disposición del público, en línea. La Comisión tendrá en cuenta, cuando proceda, los informes anuales en el ejercicio de sus funciones en virtud del presente Reglamento.

17.   La Comisión desarrollará una interfaz única y específica que contenga toda la información pertinente relacionada con los espacios controlados de pruebas para la IA para que las partes interesadas puedan interactuar con los espacios controlados de pruebas para la IA y plantear consultas a las autoridades competentes, así como pedir orientaciones no vinculantes sobre la conformidad de productos, servicios y modelos de negocio innovadores que incorporen tecnologías de IA, de conformidad con el artículo 62, apartado 1, letra c). La Comisión se coordinará de forma proactiva con las autoridades nacionales competentes, cuando proceda.

Artículo 58. Disposiciones detalladas relativas a los espacios controlados de pruebas para la IA y al funcionamiento de dichos espacios

1.   A fin de evitar que se produzca una fragmentación en la Unión, la Comisión adoptará actos de ejecución que especifiquen las disposiciones detalladas para el establecimiento, el desarrollo, la puesta en práctica, el funcionamiento y la supervisión de los espacios controlados de pruebas para la IA. Los actos de ejecución incluirán principios comunes sobre las siguientes cuestiones:

a) los criterios de admisibilidad y selección para participar en el espacio controlado de pruebas para la IA;

b) los procedimientos para la solicitud, la participación, la supervisión, la salida y la terminación del espacio controlado de pruebas para la IA, incluidos el plan del espacio controlado de pruebas y el informe de salida;

c) las condiciones aplicables a los participantes.

Dichos actos de ejecución se adoptarán de conformidad con el procedimiento de examen a que se refiere el artículo 98, apartado 2.

2.   Los actos de ejecución mencionados en el apartado 1 garantizarán:

a) que los espacios controlados de pruebas para la IA estén abiertos a cualquier proveedor o proveedor potencial de un sistema de IA que presente una solicitud y cumpla los criterios de admisibilidad y selección, que serán transparentes y equitativos, y también que las autoridades nacionales competentes informen a los solicitantes de su decisión en un plazo de tres meses a partir de la presentación de la solicitud;

b) que los espacios controlados de pruebas para la IA permitan un acceso amplio e igualitario y se adapten a la demanda de participación; los proveedores y proveedores potenciales también podrán presentar solicitudes en asociación con responsables del despliegue y con otros terceros pertinentes;

c) que las disposiciones detalladas y las condiciones relativas a los espacios controlados de pruebas para la IA propicien, en la medida de lo posible, que las autoridades nacionales competentes dispongan de flexibilidad para establecer y gestionar sus espacios controlados de pruebas para la IA;

d) que el acceso a los espacios controlados de pruebas para la IA sea gratuito para las pymes, incluidas las empresas emergentes, sin perjuicio de los costes excepcionales que las autoridades nacionales competentes puedan recuperar de una forma justa y proporcionada;

e) que se facilite a los proveedores y proveedores potenciales, mediante los resultados del aprendizaje de los espacios controlados de pruebas para la IA, el cumplimiento de las obligaciones de evaluación de la conformidad en virtud del presente Reglamento y la aplicación voluntaria de los códigos de conducta a que se refiere el artículo 95;

f) que los espacios controlados de pruebas para la IA faciliten la participación de otros agentes pertinentes del ecosistema de la IA, como los organismos notificados y los organismos de normalización, las pymes, incluidas las empresas emergentes, las empresas, los agentes innovadores, las instalaciones de ensayo y experimentación, los laboratorios de investigación y experimentación y los centros europeos de innovación digital, los centros de excelencia y los investigadores, a fin de permitir y facilitar la cooperación con los sectores público y privado;

g) que los procedimientos, procesos y requisitos administrativos para la solicitud, la selección, la participación y la salida del espacio controlado de pruebas para la IA sean sencillos y fácilmente inteligibles y se comuniquen claramente, a fin de facilitar la participación de las pymes, incluidas las empresas emergentes, con capacidades jurídicas y administrativas limitadas, y se racionalicen en toda la Unión, a fin de evitar la fragmentación y de que la participación en un espacio controlado de pruebas para la IA establecido por un Estado miembro o por el Supervisor Europeo de Protección de Datos esté reconocida mutua y uniformemente y tenga los mismos efectos jurídicos en toda la Unión;

h) que la participación en el espacio controlado de pruebas para la IA se limite a un período que se ajuste a la complejidad y la escala del proyecto, y que podrá ser prorrogado por la autoridad nacional competente;

i) que los espacios controlados de pruebas para la IA faciliten el desarrollo de herramientas e infraestructuras para la prueba, la evaluación comparativa, la evaluación y la explicación de las dimensiones de los sistemas de IA pertinentes para el aprendizaje normativo, como la precisión, la solidez y la ciberseguridad, así como de medidas para mitigar los riesgos para los derechos fundamentales y la sociedad en su conjunto.

3.   Se ofrecerán a los proveedores potenciales que participen en los espacios controlados de pruebas para la IA, en particular a las pymes y las empresas emergentes, cuando proceda, servicios previos al despliegue, como orientaciones sobre la aplicación del presente Reglamento, otros servicios que aportan valor añadido, como ayuda con los documentos de normalización y la certificación, y acceso a las instalaciones de ensayo y experimentación, los centros europeos de innovación digital y los centros de excelencia.

4.   Cuando las autoridades nacionales competentes estudien autorizar la realización de pruebas en condiciones reales supervisadas en el marco de un espacio controlado de pruebas para la IA que se establecerá en virtud del presente artículo, acordarán específicamente las condiciones de dichas pruebas y, en particular, las garantías adecuadas con los participantes, con vistas a proteger los derechos fundamentales, la salud y la seguridad. Cuando proceda, cooperarán con otras autoridades nacionales competentes con el fin de garantizar la coherencia de las prácticas en toda la Unión.

Artículo 59. Tratamiento ulterior de datos personales para el desarrollo de determinados sistemas de IA en favor del interés público en el espacio controlado de pruebas para la IA

1.   En el espacio controlado de pruebas, los datos personales recabados lícitamente con otros fines podrán tratarse únicamente con el objetivo de desarrollar, entrenar y probar determinados sistemas de IA en el espacio controlado de pruebas cuando se cumplan todas las condiciones siguientes:

a) que los sistemas de IA se desarrollen para que una autoridad pública u otra persona física o jurídica proteja un interés público esencial en uno o varios de los siguientes ámbitos:

i) la seguridad y la salud públicas, incluidos la detección, el diagnóstico, la prevención, el control y el tratamiento de enfermedades y la mejora de los sistemas sanitarios,

ii) un elevado nivel de protección y mejora de la calidad del medio ambiente, la protección de la biodiversidad, la protección contra la contaminación, las medidas de transición ecológica, la mitigación del cambio climático y las medidas de adaptación a este,

iii) la sostenibilidad energética,

iv) la seguridad y la resiliencia de los sistemas de transporte y la movilidad, las infraestructuras críticas y las redes,

v) la eficiencia y la calidad de la administración pública y de los servicios públicos;

b) que los datos tratados resulten necesarios para cumplir uno o varios de los requisitos mencionados en el capítulo III, sección 2, cuando dichos requisitos no puedan cumplirse efectivamente mediante el tratamiento de datos anonimizados o sintéticos o de otro tipo de datos no personales;

c) que existan mecanismos de supervisión eficaces para detectar si pueden producirse durante la experimentación en el espacio controlado de pruebas riesgos elevados para los derechos y libertades de los interesados, mencionados en el artículo 35 del Reglamento (UE) 2016/679 y en el artículo 39 del Reglamento (UE) 2018/1725, así como mecanismos de respuesta para mitigar sin demora dichos riesgos y, en su caso, detener el tratamiento;

d) que los datos personales que se traten en el contexto del espacio controlado de pruebas se encuentren en un entorno de tratamiento de datos funcionalmente separado, aislado y protegido, bajo el control del proveedor potencial, y que únicamente las personas autorizadas tengan acceso a dichos datos;

e) que los proveedores solo puedan compartir los datos recabados originalmente de conformidad con el Derecho de la Unión en materia de protección de datos; los datos personales creados en el espacio controlado de pruebas no pueden salir del espacio controlado de pruebas;

f) que el tratamiento de datos personales en el contexto del espacio controlado de pruebas no dé lugar a medidas o decisiones que afecten a los interesados ni afecte a la aplicación de sus derechos establecidos en el Derecho de la Unión en materia de protección de datos personales;

g) que los datos personales tratados en el contexto del espacio controlado de pruebas se protejan mediante medidas técnicas y organizativas adecuadas y se eliminen una vez concluida la participación en dicho espacio o cuando los datos personales lleguen al final de su período de conservación;

h) que los archivos de registro del tratamiento de datos personales en el contexto del espacio controlado de pruebas se conserven mientras dure la participación en el espacio controlado de pruebas, salvo que se disponga otra cosa en el Derecho de la Unión o el Derecho nacional;

i) que se conserve una descripción completa y detallada del proceso y la lógica subyacentes al entrenamiento, la prueba y la validación del sistema de IA junto con los resultados del proceso de prueba como parte de la documentación técnica a que se refiere el anexo IV;

j) que se publique una breve síntesis del proyecto de IA desarrollado en el espacio controlado de pruebas, junto con sus objetivos y resultados previstos, en el sitio web de las autoridades competentes; esta obligación no comprenderá los datos operativos sensibles relativos a las actividades de las autoridades garantes del cumplimiento del Derecho, del control fronterizo, de la inmigración o del asilo.

2.   Cuando se lleve a cabo con fines de prevención, investigación, detección o enjuiciamiento de delitos o de ejecución de sanciones penales, incluidas la protección frente a amenazas para la seguridad pública y la prevención de dichas amenazas, y bajo el control y la responsabilidad de las autoridades garantes del cumplimiento del Derecho, el tratamiento de datos personales en los espacios controlados de pruebas para la IA se basará en un Derecho específico, de la Unión o nacional y cumplirá las condiciones acumulativas que se indican en el apartado 1.

3.   El apartado 1 se entiende sin perjuicio del Derecho de la Unión o nacional que proscriba el tratamiento de datos personales con fines distintos de los expresamente mencionados en dichos actos, así como sin perjuicio del Derecho de la Unión o nacional que establezca las bases para el tratamiento de datos personales necesario para desarrollar, probar o entrenar sistemas innovadores de IA o de cualquier otra base jurídica, de conformidad con el Derecho de la Unión en materia de protección de datos personales.

Artículo 60. Pruebas de sistemas de IA de alto riesgo en condiciones reales fuera de los espacios controlados de pruebas para la IA

1.   Los proveedores o proveedores potenciales de sistemas de IA de alto riesgo enumerados en el anexo III podrán realizar pruebas de sistemas de IA de alto riesgo en condiciones reales fuera de los espacios controlados de pruebas para la IA de conformidad el presente artículo y con el plan de la prueba en condiciones reales a que se refiere el presente artículo, sin perjuicio de las prohibiciones establecidas en el artículo 5.

La Comisión adoptará, mediante un acto de ejecución, los elementos detallados del plan de la prueba en condiciones reales. Dichos actos de ejecución se adoptarán de conformidad con el procedimiento de examen a que se refiere el artículo 98, apartado 2.

El presente apartado se entiende sin perjuicio del Derecho de la Unión o nacional en materia de pruebas en condiciones reales de sistemas de IA de alto riesgo asociados a productos regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I.

2.   Los proveedores o proveedores potenciales podrán realizar pruebas de los sistemas de IA de alto riesgo mencionados en el anexo III en condiciones reales en cualquier momento antes de la introducción en el mercado o la puesta en servicio del sistema de IA por cuenta propia o en asociación con uno o varios responsables del despliegue o responsables del despliegue potenciales.

3.   Las pruebas de sistemas de IA de alto riesgo en condiciones reales con arreglo al presente artículo se entenderán sin perjuicio de cualquier revisión ética que se exija en el Derecho de la Unión o nacional.

4.   Los proveedores o proveedores potenciales podrán realizar pruebas en condiciones reales solamente cuando se cumplan todas las condiciones siguientes:

a) el proveedor o proveedor potencial ha elaborado un plan de la prueba en condiciones reales y lo ha presentado a la autoridad de vigilancia del mercado del Estado miembro en que se vayan a realizar las pruebas en condiciones reales;

b) la autoridad de vigilancia del mercado del Estado miembro en que se vayan a realizar las pruebas en condiciones reales ha aprobado las pruebas en condiciones reales y el plan de la prueba en condiciones reales; si la autoridad de vigilancia del mercado no responde en un plazo de treinta días, se entenderá que las pruebas en condiciones reales y el plan de la prueba en condiciones reales han sido aprobados; cuando el Derecho nacional no contemple una aprobación tácita, las pruebas en condiciones reales estarán sujetas a una autorización también en este caso;

c) el proveedor o proveedor potencial, con excepción de los proveedores o proveedores potenciales de sistemas de IA de alto riesgo mencionados en el anexo III, puntos 1, 6 y 7, en los ámbitos de la garantía del cumplimiento del Derecho, la migración, el asilo y la gestión del control fronterizo, así como de los sistemas de IA de alto riesgo mencionados en el punto 2 del anexo III ha registrado las pruebas en condiciones reales de conformidad con el artículo 71, apartado 4, con un número de identificación único para toda la Unión y la información indicada en el anexo IX; el proveedor o proveedor potencial de sistemas de IA de alto riesgo a que se refiere el anexo III, puntos 1, 6 y 7, en los ámbitos de la garantía del cumplimiento del Derecho, la migración, el asilo y la gestión del control fronterizo, ha registrado las pruebas en condiciones reales en la parte no pública de la base de datos de la UE de conformidad con el artículo 49, apartado 4, letra d), con un número de identificación único para toda la Unión y la información indicada en este; el proveedor o proveedor potencial de sistemas de IA de alto riesgo a que se refiere el anexo III, punto 2, ha registrado las pruebas en condiciones reales de conformidad con el artículo 49, apartado 5;

d) el proveedor o proveedor potencial que realiza las pruebas en condiciones reales está establecido en la Unión o ha designado a un representante legal que está establecido en la Unión;

e) los datos recabados y tratados a efectos de las pruebas en condiciones reales únicamente se transferirán a terceros países si se aplican las garantías adecuadas y aplicables en virtud del Derecho de la Unión;

f) las pruebas en condiciones reales no duran más de lo necesario para lograr sus objetivos y, en cualquier caso, no más de seis meses, que podrán prorrogarse por un período adicional de seis meses, con sujeción al envío de una notificación previa por parte del proveedor o proveedor potencial a la autoridad de vigilancia del mercado, acompañada por una explicación de la necesidad de dicha prórroga;

g) los sujetos de las pruebas en condiciones reales que sean personas pertenecientes a colectivos vulnerables debido a su edad o a una discapacidad cuentan con protección adecuada;

h) cuando un proveedor o proveedor potencial organice las pruebas en condiciones reales en cooperación con uno o varios responsables del despliegue o responsables del despliegue potenciales, estos últimos habrán sido informados de todos los aspectos de las pruebas que resulten pertinentes para su decisión de participar y habrán recibido las instrucciones de uso pertinentes del sistema de IA a que se refiere el artículo 13; el proveedor o proveedor potencial y el responsable del despliegue o responsable del despliegue potencial alcanzarán un acuerdo en que se detallen sus funciones y responsabilidades con vistas a garantizar el cumplimiento de las disposiciones relativas a las pruebas en condiciones reales con arreglo al presente Reglamento y a otras disposiciones de Derecho de la Unión y nacional aplicable;

i) los sujetos de las pruebas en condiciones reales han dado su consentimiento informado de conformidad con el artículo 61 o, en el ámbito de la garantía del cumplimiento del Derecho, en el que intentar obtener el consentimiento informado impediría que se probara el sistema de IA, las pruebas en sí y los resultados de las pruebas en condiciones reales no tendrán ningún efecto negativo sobre los sujetos, cuyos datos personales se suprimirán una vez realizada la prueba;

j) las pruebas en condiciones reales son supervisadas de manera efectiva por el proveedor o el proveedor potencial y por los responsables del despliegue o los responsables del despliegue potenciales mediante personas adecuadamente cualificadas en el ámbito pertinente y con la capacidad, formación y autoridad necesarias para realizar sus tareas;

k) se pueden revertir y descartar de manera efectiva las predicciones, recomendaciones o decisiones del sistema de IA.

5.   Cualquier sujeto de las pruebas en condiciones reales o su representante legalmente designado, según proceda, podrá, sin sufrir por ello perjuicio alguno y sin tener que proporcionar ninguna justificación, abandonar las pruebas en cualquier momento retirando su consentimiento informado y solicitar la supresión inmediata y permanente de sus datos personales. La retirada del consentimiento informado no afectará a las actividades ya completadas.

6.   De conformidad con el artículo 75, los Estados miembros conferirán a sus autoridades de vigilancia del mercado poderes para exigir a los proveedores y proveedores potenciales que faciliten información, realizar sin previo aviso inspecciones a distancia o in situ y controlar la realización de las pruebas en condiciones reales y los sistemas de IA de alto riesgo relacionados. Las autoridades de vigilancia del mercado harán uso de dichos poderes para garantizar que las pruebas en condiciones reales se desarrollen de manera segura.

7.   Se informará de cualquier incidente grave detectado en el transcurso de las pruebas en condiciones reales a la autoridad nacional de vigilancia del mercado de conformidad con el artículo 73. El proveedor o proveedor potencial adoptará medidas de reducción inmediatas o, en su defecto, suspenderá las pruebas en condiciones reales hasta que se produzca dicha reducción o pondrá fin a las pruebas. El proveedor o proveedor potencial establecerá un procedimiento para la rápida recuperación del sistema de IA en caso de que se ponga fin a las pruebas en condiciones reales.

8.   El proveedor o proveedor potencial notificará a la autoridad nacional de vigilancia del mercado del Estado miembro en que se vayan a realizar las pruebas en condiciones reales la suspensión o la terminación de las pruebas en condiciones reales y los resultados finales.

9.   El proveedor o proveedor potencial será responsable, conforme al Derecho de la Unión y nacional en materia de responsabilidad aplicable, de cualquier daño causado en el transcurso de sus pruebas en condiciones reales.

Artículo 61. Consentimiento informado para participar en pruebas en condiciones reales fuera de los espacios controlados de pruebas para la IA

1.   A los efectos de las pruebas en condiciones reales con arreglo al artículo 60, se obtendrá de los sujetos de las pruebas un consentimiento informado dado libremente antes de participar en dichas pruebas y después de haber recibido información concisa, clara, pertinente y comprensible en relación con:

a) la naturaleza y los objetivos de las pruebas en condiciones reales y los posibles inconvenientes asociados a su participación;

b) las condiciones en las que se van a llevar a cabo las pruebas en condiciones reales, incluida la duración prevista de la participación del sujeto o los sujetos;

c) sus derechos y las garantías relativas a su participación, en particular su derecho a negarse a participar y el derecho a abandonar las pruebas en condiciones reales en cualquier momento sin sufrir por ello perjuicio alguno y sin tener que proporcionar ninguna justificación;

d) las disposiciones para solicitar la reversión o el descarte de las predicciones, recomendaciones o decisiones del sistema de IA;

e) el número de identificación único para toda la Unión de la prueba en condiciones reales de conformidad con el artículo 60, apartado 4, letra c), y la información de contacto del proveedor o de su representante legal, de quien se puede obtener más información.

2.   El consentimiento informado estará fechado y documentado, y se entregará una copia a los sujetos de la prueba o a sus representantes legales.

Artículo 62. Medidas dirigidas a proveedores y responsables del despliegue, en particular pymes, incluidas las empresas emergentes

1.   Los Estados miembros adoptarán las medidas siguientes:

a) proporcionarán a las pymes, incluidas las empresas emergentes, que tengan un domicilio social o una sucursal en la Unión un acceso prioritario a los espacios controlados de pruebas para la IA, siempre que cumplan las condiciones de admisibilidad y los criterios de selección; el acceso prioritario no impedirá que otras pymes, incluidas las empresas emergentes, distintas de las mencionadas en el presente apartado accedan al espacio controlado de pruebas para la IA, siempre que también cumplan las condiciones de admisibilidad y los criterios de selección;

b) organizarán actividades de sensibilización y formación específicas sobre la aplicación del presente Reglamento adaptadas a las necesidades de las pymes, incluidas las empresas emergentes, los responsables del despliegue y, en su caso, las autoridades públicas locales;

c) utilizarán canales específicos existentes y establecerán, en su caso, nuevos canales para la comunicación con las pymes, incluidas las empresas emergentes, los responsables del despliegue y otros agentes innovadores, así como, en su caso, las autoridades públicas locales, a fin de proporcionar asesoramiento y responder a las dudas planteadas acerca de la aplicación del presente Reglamento, también en relación con la participación en los espacios controlados de pruebas para la IA;

d) fomentarán la participación de las pymes y otras partes interesadas pertinentes en el proceso de desarrollo de la normalización.

2.   Se tendrán en cuenta los intereses y necesidades específicos de los proveedores que sean pymes, incluidas las empresas emergentes, a la hora de fijar las tasas para la evaluación de la conformidad en virtud del artículo 43, y se reducirán dichas tasas en proporción a su tamaño, al tamaño del mercado y a otros indicadores pertinentes.

3.   La Oficina de IA adoptará las medidas siguientes:

a) proporcionará modelos normalizados para los ámbitos regulados por el presente Reglamento, tal como especifique el Consejo de IA en su solicitud;

b) desarrollará y mantendrá una plataforma única de información que proporcione información fácil de usar en relación con el presente Reglamento destinada a todos los operadores de la Unión;

c) organizará campañas de comunicación adecuadas para sensibilizar sobre las obligaciones derivadas del presente Reglamento;

d) evaluará y fomentará la convergencia de las mejores prácticas en los procedimientos de contratación pública en relación con los sistemas de IA.

Artículo 63. Excepciones para operadores específicos

1.   Las microempresas en el sentido de la Recomendación 2003/361/CE podrán cumplir determinados elementos del sistema de gestión de la calidad exigido por el artículo 17 del presente Reglamento de manera simplificada, siempre que no tengan empresas asociadas o empresas vinculadas en el sentido de dicha Recomendación. A tal fin, la Comisión elaborará directrices sobre los elementos del sistema de gestión de la calidad que puedan cumplirse de manera simplificada teniendo en cuenta las necesidades de las microempresas sin que ello afecte al nivel de protección ni a la necesidad de cumplir los requisitos relativos a los sistemas de IA de alto riesgo.

2.   El apartado 1 del presente artículo no se interpretará en el sentido de que exime a dichos operadores de cumplir cualquier otro requisito u obligación establecidos en el presente Reglamento, incluidos aquellos que figuran en los artículos 9, 10, 11, 12, 13, 14, 15, 72 y 73.

CAPÍTULO VII. GOBERNANZA

SECCIÓN 1. Gobernanza a escala de la Unión

Artículo 64. Oficina de IA

1.   La Comisión desarrollará los conocimientos especializados y las capacidades de la Unión en el ámbito de la IA mediante la Oficina de IA.

2.   Los Estados miembros facilitarán las tareas encomendadas a la Oficina de IA, que están reflejadas en el presente Reglamento.

Artículo 65. Creación y estructura del Consejo Europeo de Inteligencia Artificial

1.   Se crea un Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA»).

2.   El Consejo de IA estará compuesto de un representante por Estado miembro. El Supervisor Europeo de Protección de Datos participará en calidad de observador. La Oficina de IA también asistirá a las reuniones del Consejo de IA sin participar en las votaciones. El Consejo de IA podrá invitar a otras autoridades, organismos o expertos nacionales y de la Unión a las reuniones en función de cada situación concreta, cuando los temas tratados sean relevantes para ellos.

3.   Cada representante será designado por su Estado miembro por un período de tres años, renovable una vez.

4.   Los Estados miembros se asegurarán de que sus representantes en el Consejo de IA:

a) tengan las competencias y los poderes pertinentes en su Estado miembro para poder contribuir activamente al cumplimiento de las funciones del Consejo de IA a que se refiere el artículo 66;

b) sean designados como punto de contacto único respecto del Consejo de IA y, en su caso, teniendo en cuenta las necesidades de los Estados miembros, como punto de contacto único para las partes interesadas;

c) estén facultados para facilitar la coherencia y la coordinación entre las autoridades nacionales competentes en su Estado miembro en relación con la aplicación del presente Reglamento, también mediante la recopilación de datos e información pertinentes para cumplir sus funciones en el Consejo de IA.

5.   Los representantes designados de los Estados miembros adoptarán el Reglamento Interno del Consejo de IA por mayoría de dos tercios. El Reglamento Interno establecerá, en particular, los procedimientos para el proceso de selección, la duración del mandato y las especificaciones de las funciones de la presidencia, las modalidades de votación detalladas y la organización de las actividades del Consejo de IA y de sus subgrupos.

6.   El Consejo de IA establecerá dos subgrupos permanentes a fin de proporcionar una plataforma de cooperación e intercambio entre las autoridades de vigilancia del mercado y de notificar a las autoridades cuestiones relacionadas con la vigilancia del mercado y los organismos notificados, respectivamente.

El subgrupo permanente de vigilancia del mercado debe actuar como grupo de cooperación administrativa (ADCO) para el presente Reglamento en el sentido del artículo 30 del Reglamento (UE) 2019/1020.

El Consejo de IA puede establecer otros subgrupos de carácter permanente o temporal, según proceda, para examinar asuntos específicos. Cuando proceda, se podrá invitar a representantes del foro consultivo a que se refiere el artículo 67 a dichos subgrupos o a reuniones específicas de dichos subgrupos en calidad de observadores.

7.   El Consejo de IA se organizará y gestionará de manera que se preserve la objetividad e imparcialidad de sus actividades.

8.   El Consejo de IA estará presidido por uno de los representantes de los Estados miembros. La Oficina de IA asumirá las labores de secretaría del Consejo de IA, convocará las reuniones a petición de la presidencia y elaborará el orden del día de conformidad con las funciones del Consejo de IA en virtud del presente Reglamento y de su Reglamento Interno.

Artículo 66. Funciones del Consejo de IA

El Consejo de IA prestará asesoramiento y asistencia a la Comisión y a los Estados miembros para facilitar la aplicación coherente y eficaz del presente Reglamento. A tal fin, el Consejo de IA podrá, en particular:

a) contribuir a la coordinación entre las autoridades nacionales competentes responsables de la aplicación del presente Reglamento y, en cooperación con las autoridades de vigilancia del mercado de que se trate y previo acuerdo de estas, apoyar las actividades conjuntas de las autoridades de vigilancia del mercado a que se refiere el artículo 74, apartado 11;

b) recopilar y compartir conocimientos técnicos y reglamentarios y mejores prácticas entre los Estados miembros;

c) ofrecer asesoramiento sobre la aplicación del presente Reglamento, en particular en lo relativo al cumplimiento de las normas sobre modelos de IA de uso general;

d) contribuir a la armonización de las prácticas administrativas en los Estados miembros, también en relación con la exención de los procedimientos de evaluación de la conformidad a que se refiere el artículo 46, el funcionamiento de los espacios controlados de pruebas para la IA y las pruebas en condiciones reales a que se refieren los artículos 57, 59 y 60;

e) previa solicitud de la Comisión o por iniciativa propia, emitir recomendaciones y dictámenes por escrito en relación con cualquier asunto pertinente relacionado con la ejecución del presente Reglamento y con su aplicación coherente y eficaz, por ejemplo:

i) sobre la elaboración y aplicación de códigos de conducta y códigos de buenas prácticas con arreglo al presente Reglamento, así como de las directrices de la Comisión,

ii) sobre la evaluación y revisión del presente Reglamento con arreglo al artículo 112, también en lo que respecta a los informes de incidentes graves a que se refiere el artículo 73, y el funcionamiento de la base de datos de la UE a que se refiere el artículo 71, la preparación de los actos delegados o de ejecución, y en lo que respecta a las posibles adaptaciones del presente Reglamento a los actos legislativos de armonización de la Unión enumerados en el anexo I,

iii) sobre especificaciones técnicas o normas existentes relativas a los requisitos establecidos en el capítulo III, sección 2,

iv) sobre el uso de normas armonizadas o especificaciones comunes a que se refieren los artículos 40 y 41,

v) sobre tendencias, como la competitividad de Europa a escala mundial en materia de IA, la adopción de la IA en la Unión y el desarrollo de capacidades digitales,

vi) sobre tendencias en la tipología cambiante de las cadenas de valor de la IA, en particular sobre las implicaciones resultantes en términos de rendición de cuentas,

vii) sobre la posible necesidad de modificar el anexo III de conformidad con el artículo 7 y sobre la posible necesidad de revisar el artículo 5 con arreglo al artículo 112, teniendo en cuenta las pruebas disponibles pertinentes y los últimos avances tecnológicos;

f) apoyar a la Comisión en la promoción de la alfabetización en materia de IA, la sensibilización del público y la comprensión de las ventajas, los riesgos, las salvaguardias y los derechos y obligaciones en relación con la utilización de sistemas de IA;

g) facilitar el desarrollo de criterios comunes y la comprensión compartida entre los operadores del mercado y las autoridades competentes de los conceptos pertinentes previstos en el presente Reglamento, por ejemplo, contribuyendo al desarrollo de parámetros de referencia;

h) cooperar, en su caso, con otras instituciones, órganos y organismos de la Unión, así como con grupos de expertos y redes pertinentes de la Unión, en particular en los ámbitos de la seguridad de los productos, la ciberseguridad, la competencia, los servicios digitales y de medios de comunicación, los servicios financieros, la protección de los consumidores, y la protección de datos y de los derechos fundamentales;

i) contribuir a la cooperación efectiva con las autoridades competentes de terceros países y con organizaciones internacionales;

j) asistir a las autoridades nacionales competentes y a la Comisión en el desarrollo de los conocimientos técnicos y organizativos necesarios para la aplicación del presente Reglamento, por ejemplo, contribuyendo a la evaluación de las necesidades de formación del personal de los Estados miembros que participe en dicha aplicación;

k) asistir a la Oficina de IA en el apoyo a las autoridades nacionales competentes para el establecimiento y el desarrollo de espacios controlados de pruebas para la IA, y facilitar la cooperación y el intercambio de información entre espacios controlados de pruebas para la IA;

l) contribuir a la elaboración de documentos de orientación y proporcionar el asesoramiento pertinente al respecto;

m) proporcionar asesoramiento a la Comisión en relación con asuntos internacionales en materia de IA;

n) emitir dictámenes para la Comisión sobre las alertas cualificadas relativas a modelos de IA de uso general;

o) recibir dictámenes de los Estados miembros sobre alertas cualificadas relativas a modelos de IA de uso general y sobre las experiencias y prácticas nacionales en materia de supervisión y ejecución de los sistemas de IA, en particular los sistemas que integran los modelos de IA de uso general.

Artículo 67. Foro consultivo

1.   Se creará un foro consultivo para proporcionar conocimientos técnicos y asesorar al Consejo de IA y a la Comisión, así como para contribuir a las funciones de estos en virtud del presente Reglamento.

2.   La composición del foro consultivo representará una selección equilibrada de partes interesadas, incluidos la industria, las empresas emergentes, las pymes, la sociedad civil y el mundo académico. La composición del foro consultivo estará equilibrada en lo que respecta a los intereses comerciales y los no comerciales y, dentro de la categoría de los intereses comerciales, en lo que respecta a las pymes y otras empresas.

3.   La Comisión nombrará a los miembros del foro consultivo, de conformidad con los criterios establecidos en el apartado 2, de entre las partes interesadas con conocimientos especializados reconocidos en el ámbito de la IA.

4.   El mandato de los miembros del foro consultivo será de dos años y podrá prorrogarse hasta un máximo de cuatro años.

5.   La Agencia de los Derechos Fundamentales de la Unión Europea, la Agencia de la Unión Europea para la Ciberseguridad, el Comité Europeo de Normalización (CEN), el Comité Europeo de Normalización Electrotécnica (Cenelec) y el Instituto Europeo de Normas de Telecomunicaciones (ETSI) serán miembros permanentes del foro consultivo.

6.   El foro consultivo establecerá su reglamento interno. Elegirá dos copresidentes de entre sus miembros, de conformidad con los criterios establecidos en el apartado 2. El mandato de los copresidentes será de dos años, renovable una sola vez.

7.   El foro consultivo celebrará reuniones al menos dos veces al año. Podrá invitar a expertos y otras partes interesadas a sus reuniones.

8.   El foro consultivo podrá elaborar dictámenes, recomendaciones y contribuciones por escrito a petición del Consejo de IA o de la Comisión.

9.   El foro consultivo podrá crear subgrupos permanentes o temporales, según proceda, para examinar cuestiones específicas relacionadas con los objetivos del presente Reglamento.

10.   El foro consultivo redactará un informe anual de sus actividades. Dicho informe se pondrá a disposición del público.

Artículo 68. Grupo de expertos científicos independientes

1.   La Comisión adoptará, mediante un acto de ejecución, disposiciones sobre la creación de un grupo de expertos científicos independientes (en lo sucesivo, «grupo de expertos científicos») destinado a apoyar las actividades de garantía del cumplimiento previstas en el presente Reglamento. Dicho acto de ejecución se adoptará de conformidad con el procedimiento de examen a que se refiere el artículo 98, apartado 2.

2.   El grupo de expertos científicos estará compuesto por expertos seleccionados por la Comisión sobre la base de conocimientos científicos o técnicos actualizados en el ámbito de la IA necesarios para las funciones establecidas en el apartado 3, y será capaz de demostrar que cumple todas las condiciones siguientes:

a) conocimientos especializados y competencias particulares, y conocimientos científicos o técnicos en el ámbito de la IA;

b) independencia de cualquier proveedor de sistemas de IA o de modelos de IA de uso general;

c) capacidad para llevar a cabo actividades con diligencia, precisión y objetividad.

La Comisión, en consulta con el Consejo de IA, determinará el número de expertos del grupo de acuerdo con las necesidades requeridas y garantizará una representación geográfica y de género justa.

3.   El grupo de expertos científicos asesorará y apoyará a la Oficina de IA, en particular en lo que respecta a las siguientes funciones:

a) apoyar la aplicación y el cumplimiento del presente Reglamento en lo que respecta a los sistemas y modelos de IA de uso general, en particular:

i) alertando a la Oficina de IA de los posibles riesgos sistémicos a escala de la Unión de modelos de IA de uso general, de conformidad con el artículo 90,

ii) contribuyendo al desarrollo de herramientas y metodologías para evaluar las capacidades de los sistemas y modelos de IA de uso general, también a través de parámetros de referencia,

iii) asesorando sobre la clasificación de modelos de IA de uso general con riesgo sistémico,

iv) asesorando sobre la clasificación de diversos sistemas y modelos de IA de uso general,

v) contribuyendo al desarrollo de herramientas y modelos;

b) apoyar la labor de las autoridades de vigilancia del mercado, a petición de estas;

c) apoyar las actividades transfronterizas de vigilancia del mercado a que se refiere el artículo 74, apartado 11, sin perjuicio de los poderes de las autoridades de vigilancia del mercado;

d) apoyar a la Oficina de IA en el ejercicio de sus funciones en el contexto del procedimiento de salvaguardia de la Unión con arreglo al artículo 81.

4.   Los expertos del grupo desempeñarán sus funciones con imparcialidad y objetividad y garantizarán la confidencialidad de la información y los datos obtenidos en el ejercicio de sus funciones y actividades. No solicitarán ni aceptarán instrucciones de nadie en el ejercicio de sus funciones previstas en el apartado 3. Cada experto cumplimentará una declaración de intereses que se hará pública. La Oficina de IA establecerá sistemas y procedimientos para gestionar y prevenir activamente los posibles conflictos de intereses.

5.   El acto de ejecución a que se refiere el apartado 1 incluirá disposiciones sobre las condiciones, los procedimientos y las disposiciones detalladas para que el grupo de expertos científicos y sus miembros emitan alertas y soliciten la asistencia de la Oficina de IA para el desempeño de las funciones del grupo de expertos científicos.

Artículo 69. Acceso a expertos por parte de los Estados miembros

1.   Los Estados miembros podrán recurrir a expertos del grupo de expertos científicos para que apoyen sus actividades de garantía del cumplimiento previstas en el presente Reglamento.

2.   Se podrá exigir a los Estados miembros que paguen tasas por el asesoramiento y el apoyo prestado por los expertos. La estructura y el importe de las tasas, así como la escala y la estructura de los costes recuperables, se establecerán en el acto de ejecución a que se refiere el artículo 68, apartado 1, teniendo en cuenta los objetivos de la correcta aplicación del presente Reglamento, la rentabilidad y la necesidad de garantizar que todos los Estados miembros tengan un acceso efectivo a los expertos.

3.   La Comisión facilitará el acceso oportuno de los Estados miembros a los expertos, según sea necesario, y garantizará que la combinación de las actividades de apoyo llevadas a cabo por las estructuras de apoyo a los ensayos de IA de la Unión con arreglo al artículo 84 y por expertos con arreglo al presente artículo se organice de manera eficiente y ofrezca el mayor valor añadido posible.

SECCIÓN 2. Autoridades nacionales competentes

Artículo 70. Designación de las autoridades nacionales competentes y de los puntos de contacto único

1.   Cada Estado miembro establecerá o designará al menos una autoridad notificante y al menos una autoridad de vigilancia del mercado como autoridades nacionales competentes a los efectos del presente Reglamento. Dichas autoridades nacionales competentes ejercerán sus poderes de manera independiente, imparcial y sin sesgos, a fin de preservar la objetividad de sus actividades y funciones y de garantizar la aplicación y ejecución del presente Reglamento. Los miembros de dichas autoridades se abstendrán de todo acto incompatible con sus funciones. Siempre que se respeten esos principios, tales actividades y funciones podrán ser realizadas por una o varias autoridades designadas, de conformidad con las necesidades organizativas del Estado miembro.

2.   Los Estados miembros comunicarán a la Comisión la identidad de las autoridades notificantes y de las autoridades de vigilancia del mercado y las funciones de dichas autoridades, así como cualquier cambio posterior al respecto. Los Estados miembros pondrán a disposición del público, por medios de comunicación electrónica, información sobre la forma de contactar con las autoridades competentes y los puntos de contacto únicos a más tardar el 2 de agosto de 2025. Los Estados miembros designarán una autoridad de vigilancia del mercado que actúe como punto de contacto único para el presente Reglamento y notificarán a la Comisión la identidad de dicho punto. La Comisión pondrá a disposición del público la lista de puntos de contacto únicos.

3.   Los Estados miembros garantizarán que sus autoridades nacionales competentes dispongan de recursos técnicos, financieros y humanos adecuados, y de infraestructuras para el desempeño de sus funciones de manera efectiva con arreglo al presente Reglamento. En concreto, las autoridades nacionales competentes dispondrán permanentemente de suficiente personal cuyas competencias y conocimientos técnicos incluirán un conocimiento profundo de las tecnologías de IA, datos y computación de datos; la protección de los datos personales, la ciberseguridad, los riesgos para los derechos fundamentales, la salud y la seguridad, y conocimientos acerca de las normas y requisitos legales vigentes. Los Estados miembros evaluarán y, en caso necesario, actualizarán anualmente los requisitos en materia de competencias y recursos a que se refiere el presente apartado.

4.   Las autoridades nacionales competentes adoptarán las medidas adecuadas para garantizar un nivel adecuado de ciberseguridad.

5.   En el desempeño de sus funciones, las autoridades nacionales competentes actuarán de conformidad con las obligaciones de confidencialidad establecidas en el artículo 78.

6.   A más tardar el 2 de agosto de 2025 y cada dos años a partir de entonces, los Estados miembros presentarán a la Comisión un informe acerca del estado de los recursos financieros y humanos de las autoridades nacionales competentes, que incluirá una evaluación de su idoneidad. La Comisión remitirá dicha información al Consejo de IA para que mantenga un debate sobre ella y, en su caso, formule recomendaciones.

7.   La Comisión facilitará el intercambio de experiencias entre las autoridades nacionales competentes.

8.   Las autoridades nacionales competentes podrán proporcionar orientaciones y asesoramiento sobre la aplicación del presente Reglamento, en particular a las pymes —incluidas las empresas emergentes—, teniendo en cuenta las orientaciones y el asesoramiento del Consejo de IA y de la Comisión, según proceda. Siempre que una autoridad nacional competente tenga la intención de proporcionar orientaciones y asesoramiento en relación con un sistema de IA en ámbitos regulados por otros actos del Derecho de la Unión, se consultará a las autoridades nacionales competentes con arreglo a lo dispuesto en dichos actos, según proceda.

9.   Cuando las instituciones, órganos y organismos de la Unión entren en el ámbito de aplicación del presente Reglamento, el Supervisor Europeo de Protección de Datos actuará como autoridad competente para su supervisión.

CAPÍTULO VIII. BASE DE DATOS DE LA UE PARA SISTEMAS DE IA DE ALTO RIESGO

Artículo 71. Base de datos de la UE para los sistemas de IA de alto riesgo enumerados en el ANEXO III

1.   La Comisión, en colaboración con los Estados miembros, creará y mantendrá una base de datos de la UE que contendrá la información mencionada en los apartados 2 y 3 del presente artículo en relación con los sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2, que estén registrados con arreglo a los artículos 49 y 60 y los sistemas de IA que no se consideren de alto riesgo en virtud del artículo 6, apartado 3, y que estén registrados con arreglo al artículo 6, apartado 4, y al artículo 49. La Comisión consultará a los expertos pertinentes a la hora de fijar las especificaciones funcionales de dicha base de datos y al Consejo de IA a la hora de actualizarlas.

2.   Los datos enumerados en el anexo VIII, secciones A y B, serán introducidos en la base de datos de la UE por el proveedor o, en su caso, por el representante autorizado.

3.   Los datos enumerados en el anexo VIII, sección C, serán introducidos en la base de datos de la UE por el responsable del despliegue que sea una autoridad pública, órgano u organismo, o actúe en su nombre, de conformidad con el artículo 49, apartados 3 y 4.

4.   A excepción de la sección a que se refieren el artículo 49, apartado 4, y el artículo 60, apartado 4, letra c), la información presente en la base de datos de la UE y registrada de conformidad con lo dispuesto en el artículo 49 será accesible y estará a disposición del público de manera sencilla. Debe ser fácil navegar por la información y esta ha de ser legible por máquina. Únicamente podrán acceder a la información registrada de conformidad con el artículo 60 las autoridades de vigilancia de mercado y la Comisión, a menos que el proveedor potencial o el proveedor hayan dado su consentimiento a que la información también esté accesible para el público.

5.   La base de datos de la UE únicamente contendrá datos personales en la medida en que sean necesarios para la recogida y el tratamiento de información de conformidad con el presente Reglamento. Dicha información incluirá los nombres y datos de contacto de las personas físicas responsables del registro de sistema y que cuenten con autoridad legal para representar al proveedor o al responsable del despliegue, según proceda.

6.   La Comisión será la responsable del tratamiento de la base de datos de la UE, y proporcionará apoyo técnico y administrativo adecuado a los proveedores, proveedores potenciales y responsables del despliegue. La base de datos de la UE cumplirá los requisitos de accesibilidad aplicables.

CAPÍTULO IX. VIGILANCIA POSCOMERCIALIZACIÓN, INTERCAMBIO DE INFORMACIÓN Y VIGILANCIA DEL MERCADO

SECCIÓN 1. Vigilancia poscomercialización

Artículo 72. Vigilancia poscomercialización por parte de los proveedores y plan de vigilancia poscomercialización para sistemas de IA de alto riesgo

1.   Los proveedores establecerán y documentarán un sistema de vigilancia poscomercialización de forma proporcionada a la naturaleza de las tecnologías de IA y a los riesgos de los sistemas de IA de alto riesgo.

2.   El sistema de vigilancia poscomercialización recopilará, documentará y analizará de manera activa y sistemática los datos pertinentes que pueden facilitar los responsables del despliegue o que pueden recopilarse a través de otras fuentes sobre el funcionamiento de los sistemas de IA de alto riesgo durante toda su vida útil, y que permiten al proveedor evaluar el cumplimiento permanente de los requisitos establecidos en el capítulo III, sección 2, por parte de los sistemas de IA. Cuando proceda, la vigilancia poscomercialización incluirá un análisis de la interacción con otros sistemas de IA. Esta obligación no comprenderá los datos operativos sensibles de los responsables del despliegue que sean autoridades garantes del cumplimiento del Derecho.

3.   El sistema de vigilancia poscomercialización se basará en un plan de vigilancia poscomercialización. El plan de vigilancia poscomercialización formará parte de la documentación técnica a que se refiere el anexo IV. La Comisión adoptará un acto de ejecución en el que se establecerán disposiciones detalladas que constituyan un modelo para el plan de vigilancia poscomercialización y la lista de elementos que deberán incluirse en él a más tardar el 2 de febrero de 2026. Dicho acto de ejecución se adoptará de conformidad con el procedimiento de examen a que se refiere el artículo 98, apartado 2.

4.   En el caso de los sistemas de IA de alto riesgo regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, cuando ya se hayan establecido un sistema y un plan de vigilancia poscomercialización con arreglo a dichos actos, con el fin de garantizar la coherencia, evitar duplicidades y reducir al mínimo las cargas adicionales, los proveedores podrán optar por integrar, según proceda, los elementos necesarios descritos en los apartados 1, 2 y 3, utilizando el modelo a que se refiere el apartado 3, en los sistemas y planes que ya existan en virtud de dicha legislación, siempre que alcance un nivel de protección equivalente.

El párrafo primero del presente apartado también se aplicará a los sistemas de IA de alto riesgo a que se refiere el anexo III, punto 5, introducidos en el mercado o puestos en servicio por entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros.

SECCIÓN 2. Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves

1.   Los proveedores de sistemas de IA de alto riesgo introducidos en el mercado de la Unión notificarán cualquier incidente grave a las autoridades de vigilancia del mercado de los Estados miembros en los que se haya producido dicho incidente.

2.   La notificación a que se refiere el apartado 1 se efectuará inmediatamente después de que el proveedor haya establecido un vínculo causal entre el sistema de IA y el incidente grave o la probabilidad razonable de que exista dicho vínculo y, en cualquier caso, a más tardar quince días después de que el proveedor o, en su caso, el responsable del despliegue, tengan conocimiento del incidente grave.

El plazo para la notificación a que se refiere el párrafo primero tendrá en cuenta la magnitud del incidente grave.

3.   No obstante lo dispuesto en el apartado 2 del presente artículo, en caso de una infracción generalizada o de un incidente grave tal como se define en el artículo 3, punto 49, letra b), la notificación a que se refiere el apartado 1 del presente artículo se realizará de manera inmediata y a más tardar dos días después de que el proveedor o, en su caso, el responsable del despliegue tenga conocimiento del incidente.

4.   No obstante lo dispuesto en el apartado 2, en caso de fallecimiento de una persona, la notificación se efectuará de manera inmediata después de que el proveedor o el responsable del despliegue haya establecido —o tan pronto como sospeche— una relación causal entre el sistema de IA de alto riesgo y el incidente grave, en un plazo no superior a diez días a contar de la fecha en la que el proveedor o, en su caso, el responsable del despliegue tenga conocimiento del incidente grave.

5.   Cuando sea necesario para garantizar la notificación en tiempo oportuno, el proveedor o, en su caso, el responsable del despliegue podrá presentar inicialmente una notificación incompleta, seguida de una notificación completa.

6.   Después de notificar un incidente grave con arreglo al apartado 1, el proveedor realizará sin demora las investigaciones necesarias en relación con el incidente grave y el sistema de IA afectado. Esto incluirá una evaluación de riesgos del incidente y las medidas correctoras.

El proveedor cooperará con las autoridades competentes y, en su caso, con el organismo notificado afectado durante las investigaciones a que se refiere el párrafo primero, y no emprenderá acción alguna que suponga la modificación del sistema de IA afectado de un modo que pueda repercutir en cualquier evaluación posterior de las causas del incidente sin haber informado antes de dicha acción a las autoridades competentes.

7.   Tras la recepción de una notificación relativa a un incidente grave a que se refiere el artículo 3, punto 49, letra c), la autoridad de vigilancia del mercado pertinente informará a las autoridades u organismos públicos nacionales a que se refiere el artículo 77, apartado 1. La Comisión elaborará orientaciones específicas para facilitar el cumplimiento de las obligaciones establecidas en el apartado 1 del presente artículo. Dichas orientaciones se publicarán a más tardar el 2 de agosto de 2025 y se evaluarán periódicamente.

8.   La autoridad de vigilancia del mercado adoptará medidas adecuadas tal como se establece en el artículo 19 del Reglamento (UE) 2019/1020, en un plazo de siete días a partir de la fecha en que reciba la notificación a que se refiere el apartado 1 del presente artículo, y seguirá los procedimientos de notificación previstos en dicho Reglamento.

9.   En el caso de los sistemas de IA de alto riesgo a que se refiere el anexo III, introducidos en el mercado o puestos en servicio por proveedores que estén sujetos a instrumentos legislativos de la Unión por los que se establezcan obligaciones de información equivalentes a las establecidas en el presente Reglamento, la notificación de incidentes graves se limitará a los mencionados en el artículo 3, punto 49, letra c).

10.   En el caso de los sistemas de IA de alto riesgo que sean componentes de seguridad de dispositivos, o que en sí mismos sean dispositivos, regulados por los Reglamento (UE) 2017/745 y (UE) 2017/746, la notificación de incidentes graves se limitará a los mencionados en el artículo 3, punto 49, letra c), del presente Reglamento, y se hará a la autoridad nacional competente elegida para tal fin por los Estados miembros en los que se haya producido el incidente.

11.   Las autoridades nacionales competentes informarán de inmediato a la Comisión de todo incidente grave, independientemente de han adoptado medidas al respecto, de conformidad con el artículo 20 del Reglamento (UE) 2019/1020.

SECCIÓN 3. Garantía del cumplimiento

Artículo 74. Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

1.   El Reglamento (UE) 2019/1020 se aplicará a los sistemas de IA regulados por el presente Reglamento. A efectos de garantía del cumplimiento efectivo del presente Reglamento:

a) se entenderá que toda referencia a un operador económico con arreglo al Reglamento (UE) 2019/1020 incluye a todos los operadores mencionados en el artículo 2, apartado 1, del presente Reglamento;

b) se entenderá que toda referencia a un producto con arreglo al Reglamento (UE) 2019/1020 incluye todos los sistemas de IA que estén comprendidos en el ámbito de aplicación del presente Reglamento.

2.   Como parte de sus obligaciones de presentación de información en virtud del artículo 34, apartado 4, del Reglamento (UE) 2019/1020, las autoridades de vigilancia del mercado informarán anualmente a la Comisión y a las autoridades nacionales de competencia pertinentes de cualquier información recabada en el transcurso de las actividades de vigilancia del mercado que pueda ser de interés potencial para la aplicación del Derecho de la Unión en materia de normas de competencia. Asimismo, informarán anualmente a la Comisión sobre el recurso a prácticas prohibidas que se hayan producido durante ese año y sobre las medidas adoptadas.

3.   En el caso de los sistemas de IA de alto riesgo asociados a productos regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, la autoridad de vigilancia del mercado a efectos del presente Reglamento será la autoridad responsable de las actividades de vigilancia del mercado designada en virtud de dichos actos legislativos.

Como excepción a lo dispuesto en el párrafo primero, en circunstancias adecuadas, los Estados miembros podrán designar otra autoridad pertinente como autoridad de vigilancia del mercado, siempre que se garantice la coordinación con las autoridades sectoriales de vigilancia del mercado pertinentes responsables de la ejecución de los actos legislativos de armonización de la Unión enumerados en el anexo I.

4.   Los procedimientos a que se refieren los artículos 79 a 83 del presente Reglamento no se aplicarán a los sistemas de IA asociados a productos regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, cuando dichos actos legislativos ya prevean procedimientos que garanticen un nivel equivalente de protección que tengan el mismo objetivo. En dichos casos, se aplicarán los procedimientos sectoriales pertinentes.

5.   Sin perjuicio de los poderes de las autoridades de vigilancia del mercado en virtud del artículo 14 del Reglamento (UE) 2019/1020, a efectos de garantizar la ejecución efectiva del presente Reglamento, las autoridades de vigilancia del mercado podrán ejercer a distancia los poderes a que se refiere el artículo 14, apartado 4, letras d) y j), de dicho Reglamento, según proceda.

6.   En el caso de los sistemas de IA de alto riesgo introducidos en el mercado, puestos en servicio o utilizados por entidades financieras reguladas por el Derecho de la Unión en materia de servicios financieros, la autoridad de vigilancia del mercado a efectos del presente Reglamento será la autoridad nacional pertinente responsable de la supervisión financiera de dichas entidades con arreglo a la mencionada legislación, en la medida en que la introducción en el mercado, la puesta en servicio o la utilización del sistema de IA esté directamente relacionada con la prestación de dichos servicios financieros.

7.   Como excepción a lo dispuesto en el apartado 6, en las circunstancias apropiadas y siempre que se garantice la coordinación, el Estado miembro podrá designar otra autoridad pertinente como autoridad de vigilancia del mercado a efectos del presente Reglamento.

Las autoridades nacionales de vigilancia del mercado que supervisen las entidades de crédito reguladas por la Directiva 2013/36/UE y que participen en el Mecanismo Único de Supervisión establecido por el Reglamento (UE) nº 1024/2013 deberán comunicar sin demora al Banco Central Europeo toda información obtenida en el transcurso de sus actividades de vigilancia del mercado que pueda ser de interés para las funciones de supervisión prudencial del Banco Central Europeo especificadas en dicho Reglamento.

8.   En el caso de los sistemas de IA de alto riesgo enumerados en el anexo III del presente Reglamento, punto 1, en la medida en que los sistemas se utilicen a los efectos de la garantía del cumplimiento del Derecho, la gestión de fronteras y la justicia y la democracia, y en el caso de los sistemas de IA de alto riesgo enumerados en el anexo III, puntos 6, 7 y 8, del presente Reglamento, los Estados miembros designarán como autoridades de vigilancia del mercado a efectos del presente Reglamento bien a las autoridades de control encargadas de la protección de datos competentes con arreglo al Reglamento (UE) 2016/679 o a la Directiva (UE) 2016/680, bien a cualquier otra autoridad designada con arreglo a las mismas condiciones establecidas en los artículos 41 a 44 de la Directiva (UE) 2016/680. Las actividades de vigilancia del mercado no afectarán en modo alguno a la independencia de las autoridades judiciales ni interferirán de otro modo en sus actividades en el ejercicio de su función judicial.

9.   Cuando las instituciones, órganos y organismos de la Unión entren en el ámbito de aplicación del presente Reglamento, el Supervisor Europeo de Protección de Datos actuará como su autoridad de vigilancia del mercado, salvo en relación con el Tribunal de Justicia de la Unión Europea cuando actúe en el ejercicio de su función judicial.

10.   Los Estados miembros facilitarán la coordinación entre las autoridades de vigilancia del mercado designadas con arreglo al presente Reglamento y otras autoridades u organismos nacionales pertinentes responsables de supervisar la aplicación de la legislación de armonización de la Unión indicada en el anexo I o en otras disposiciones de Derecho de la Unión que pudieran resultar pertinente para los sistemas de IA de alto riesgo a que se refiere el anexo III.

11.   Las autoridades de vigilancia del mercado y la Comisión podrán proponer actividades conjuntas, incluidas investigaciones conjuntas, que deben llevar a cabo bien las autoridades de vigilancia del mercado, bien las autoridades de vigilancia del mercado junto con la Comisión, con el objetivo de fomentar el cumplimiento, detectar incumplimientos, sensibilizar u ofrecer orientaciones en relación con el presente Reglamento con respecto a las categorías específicas de sistemas de IA de alto riesgo que presentan un riesgo grave en dos o más Estados miembros de conformidad con el artículo 9 del Reglamento (UE) 2019/1020. La Oficina de IA prestará apoyo de coordinación a las investigaciones conjuntas.

12.   Sin perjuicio de los poderes previstos en el Reglamento (UE) 2019/1020, y cuando proceda y se limite a lo necesario para el desempeño de sus funciones, los proveedores concederán a las autoridades de vigilancia del mercado pleno acceso a la documentación, así como a los conjuntos de datos de entrenamiento, validación y prueba utilizados para el desarrollo de los sistemas de IA de alto riesgo, también, cuando proceda y con sujeción a garantías de seguridad, a través de interfaces de programación de aplicaciones (API) o de otras herramientas y medios técnicos pertinentes que permitan el acceso a distancia.

13.   Se concederá a las autoridades de vigilancia del mercado acceso al código fuente del sistema de IA de alto riesgo, previa solicitud motivada y solo si se cumplen las dos siguientes condiciones:

a) el acceso al código fuente es necesario para evaluar la conformidad de un sistema de IA de alto riesgo con los requisitos establecidos en el capítulo III, sección 2, y

b) se han agotado todos los procedimientos de prueba o auditoría y todas las comprobaciones basadas en los datos y la documentación facilitados por el proveedor, o han resultado insuficientes.

14.   Cualesquiera información o documentación obtenidas por las autoridades de vigilancia del mercado se tratarán de conformidad con las obligaciones de confidencialidad establecidas en el artículo 78.

Artículo 75. Asistencia mutua, vigilancia del mercado y control de sistemas de IA de uso general

1.   Cuando un sistema de IA se base en un modelo de IA de uso general y un mismo proveedor desarrolle tanto el modelo como el sistema, la Oficina de IA estará facultada para vigilar y supervisar el cumplimiento por parte de dicho sistema de IA de las obligaciones en virtud del presente Reglamento. Para llevar a cabo estas tareas de vigilancia y supervisión, la Oficina de IA tendrá todos los poderes de una autoridad prevista en la presente sección y en el Reglamento (UE) 2019/1020.

2.   Cuando las autoridades de vigilancia del mercado pertinentes tengan motivos suficientes para considerar que los sistemas de IA de uso general que pueden ser utilizados directamente por los responsables del despliegue al menos para una de las finalidades clasificadas como de alto riesgo con arreglo al presente Reglamento no cumplen los requisitos establecidos en el presente Reglamento, cooperarán con la Oficina de IA para llevar a cabo evaluaciones del cumplimiento e informarán al respecto al Consejo de IA y las demás autoridades de vigilancia del mercado.

3.   Cuando una autoridad de vigilancia del mercado no pueda concluir su investigación sobre el sistema de IA de alto riesgo por no poder acceder a determinada información relativa al modelo de IA de uso general, a pesar de haber realizado todos los esfuerzos adecuados para obtener esa información, podrá presentar una solicitud motivada a la Oficina de IA para que se imponga el acceso a dicha información. En tal caso, la Oficina de IA facilitará a la autoridad solicitante sin demora y, en cualquier caso en un plazo de treinta días, toda la información que la Oficina de IA considere pertinente para determinar si un sistema de IA de alto riesgo no es conforme. Las autoridades de vigilancia del mercado preservarán la confidencialidad de la información obtenida de conformidad con lo dispuesto en el artículo 78 del presente Reglamento. Se aplicará mutatis mutandis el procedimiento previsto en el capítulo VI del Reglamento (UE) 2019/1020.

Artículo 76. Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

1.   Las autoridades de vigilancia del mercado tendrán las competencias y los poderes necesarios para garantizar que las pruebas en condiciones reales se ajusten a lo dispuesto en el presente Reglamento.

2.   Cuando se realicen pruebas en condiciones reales de sistemas de IA supervisadas dentro de un espacio controlado de pruebas para la IA con arreglo al artículo 58, las autoridades de vigilancia del mercado verificarán el cumplimiento de del artículo 60 como parte de su función supervisora en el espacio controlado de pruebas para la IA. Dichas autoridades podrán permitir, según proceda, que el proveedor o proveedor potencial lleve a cabo pruebas en condiciones reales, como excepción a las condiciones establecidas en el artículo 60, apartado 4, letras f) y g).

3.   Cuando una autoridad de vigilancia del mercado haya sido informada por el proveedor potencial, el proveedor o un tercero de un incidente grave o tenga otros motivos para pensar que no se cumplen las condiciones establecidas en los artículos 60 y 61, podrá adoptar una de las decisiones siguientes en su territorio, según proceda:

a) suspender o poner fin a las pruebas en condiciones reales;

b) exigir al proveedor o proveedor potencial y al responsable del despliegue o responsable del despliegue potencial que modifiquen cualquier aspecto de las pruebas en condiciones reales.

4.   Cuando una autoridad de vigilancia del mercado haya adoptado una decisión mencionada en el apartado 3 del presente artículo o haya formulado una objeción en el sentido del artículo 60, apartado 4, letra b), la decisión o la objeción deberá estar motivada e indicar las vías de que dispone el proveedor o proveedor potencial para poder impugnar la decisión o la objeción.

5.   En su caso, cuando una autoridad de vigilancia del mercado haya adoptado una decisión mencionada en el apartado 3, comunicará los motivos de dicha decisión a las autoridades de vigilancia del mercado de los demás Estados miembros en que se haya probado el sistema de IA de conformidad con el plan de la prueba.

Artículo 77. Poderes de las autoridades encargadas de proteger los derechos fundamentales

1.   Las autoridades u organismos públicos nacionales encargados de supervisar o hacer respetar las obligaciones contempladas en el Derecho de la Unión en materia de protección de los derechos fundamentales, incluido el derecho a la no discriminación, con respecto al uso de sistemas de IA de alto riesgo mencionados en el anexo III tendrán la facultad de solicitar cualquier documentación creada o conservada con arreglo al presente Reglamento y de acceder a ella, en un lenguaje y formato accesibles, cuando el acceso a dicha documentación sea necesario para el cumplimiento efectivo de sus mandatos, dentro de los límites de su jurisdicción. La autoridad u organismo público pertinente informará sobre cualquier solicitud de este tipo a la autoridad de vigilancia del mercado del Estado miembro que corresponda.

2.   A más tardar el 2 de noviembre de 2024, cada Estado miembro designará las autoridades u organismos públicos a que se refiere el apartado 1 y los incluirá en una lista que pondrá a disposición del público. Los Estados miembros notificarán dicha lista a la Comisión y a los demás Estados miembros y la mantendrán actualizada.

3.   Cuando la documentación mencionada en el apartado 1 no baste para determinar si se ha producido un incumplimiento de las obligaciones previstas en el Derecho de la Unión en materia de protección de los derechos fundamentales, la autoridad u organismo público a que se refiere el apartado 1 podrá presentar una solicitud motivada a la autoridad de vigilancia del mercado para organizar pruebas del sistema de IA de alto riesgo a través de medios técnicos. La autoridad de vigilancia del mercado organizará las pruebas con la estrecha colaboración de la autoridad u organismo público solicitante en un plazo razonable tras la presentación de la solicitud.

4.   Cualquier información o documentación obtenidas por las autoridades u organismos públicos nacionales a que se refiere el apartado 1 del presente artículo con arreglo al presente artículo se tratará de conformidad con las obligaciones de confidencialidad dispuestas en el artículo 78.

Artículo 78. Confidencialidad

1.   La Comisión, las autoridades de vigilancia del mercado, los organismos notificados y cualquier otra persona física o jurídica que participe en la aplicación del presente Reglamento, de conformidad con el Derecho de la Unión o nacional, respetarán la confidencialidad de la información y los datos obtenidos en el ejercicio de sus funciones y actividades de modo que se protejan, en particular:

a) los derechos de propiedad intelectual e industrial y la información empresarial confidencial o los secretos comerciales de una persona física o jurídica, incluido el código fuente, salvo en los casos mencionados en el artículo 5 de la Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo (57);

b) la aplicación eficaz del presente Reglamento, en particular a efectos de investigaciones, inspecciones o auditorías;

c) los intereses de seguridad pública y nacional;

d) el desarrollo de las causas penales o los procedimientos administrativos;

e) la información clasificada con arreglo al Derecho de la Unión o nacional.

2.   Las autoridades involucradas en la aplicación del presente Reglamento de conformidad con el apartado 1 solo solicitarán los datos que sean estrictamente necesarios para la evaluación del riesgo que presentan los sistemas de IA y para el ejercicio de sus competencias de conformidad con el presente Reglamento y con el Reglamento (UE) 2019/1020. Establecerán medidas adecuadas y eficaces en materia de ciberseguridad a fin de proteger la seguridad y la confidencialidad de la información y los datos obtenidos, y suprimirán los datos recopilados tan pronto como dejen de ser necesarios para los fines para los que se obtuvieron, de conformidad con el Derecho de la Unión y nacional aplicable.

3.   Sin perjuicio de lo dispuesto en los apartados 1 y 2, la información intercambiada de forma confidencial entre las autoridades nacionales competentes o entre estas y la Comisión no se revelará sin consultar previamente a la autoridad nacional competente de origen y al responsable del despliegue cuando las autoridades garantes del cumplimiento del Derecho, del control de fronteras, de la inmigración o del asilo utilicen los sistemas de IA de alto riesgo a que se refiere el anexo III, puntos 1, 6 o 7, y dicha divulgación comprometería los intereses de seguridad pública y nacional. Este intercambio de información no comprenderá los datos operativos sensibles relativos a las actividades de las autoridades garantes del cumplimiento del Derecho, del control de fronteras, de la inmigración o del asilo.

Cuando las autoridades garantes del cumplimiento del Derecho, de la inmigración o del asilo sean proveedores de sistemas de IA de alto riesgo a que se refiere el anexo III, puntos 1, 6 o 7, la documentación técnica mencionada en el anexo IV permanecerá dentro de las instalaciones de dichas autoridades. Dichas autoridades velarán por que las autoridades de vigilancia del mercado a que se refiere el artículo 74, apartados 8 y 9, según proceda, puedan, previa solicitud, acceder inmediatamente a la documentación u obtener una copia de esta. Tan solo se permitirá acceder a dicha documentación o a cualquier copia de esta al personal de la autoridad de vigilancia del mercado que disponga de una habilitación de seguridad del nivel adecuado.

4.   Los apartados 1, 2 y 3 no afectarán a los derechos u obligaciones de la Comisión, los Estados miembros y sus autoridades pertinentes, ni a los derechos u obligaciones de los organismos notificados en lo que se refiere al intercambio de información y la difusión de advertencias, también en el contexto de la cooperación transfronteriza, ni a las obligaciones de facilitar información en virtud del Derecho penal de los Estados miembros que incumban a las partes interesadas.

5.   Cuando sea necesario y con arreglo a las disposiciones pertinentes de los acuerdos internacionales y comerciales, la Comisión y los Estados miembros podrán intercambiar información confidencial con autoridades reguladoras de terceros países con las que hayan celebrado acuerdos de confidencialidad bilaterales o multilaterales que garanticen un nivel de confidencialidad adecuado.

Artículo 79. Procedimiento aplicable a escala nacional a los sistemas de IA que presenten un riesgo

1.   Los sistemas de IA que presentan un riesgo se entenderán como «productos que presentan un riesgo» tal como se definen en el artículo 3, punto 19, del Reglamento (UE) 2019/1020, en la medida en que presenten riegos que afecten a la salud, la seguridad o los derechos fundamentales de las personas.

2.   Cuando la autoridad de vigilancia del mercado de un Estado miembro tenga motivos suficientes para considerar que un sistema de IA presenta un riesgo mencionado en el apartado 1 del presente artículo, efectuará una evaluación del sistema de IA de que se trate para verificar su cumplimiento de todos los requisitos y obligaciones establecidos en el presente Reglamento. Debe prestarse una especial atención a los sistemas de IA que presenten un riesgo para los colectivos vulnerables. Cuando se detecten riesgos para los derechos fundamentales, la autoridad de vigilancia del mercado informará también a las autoridades u organismos públicos nacionales pertinentes a que se refiere el artículo 77, apartado 1, y cooperará plenamente con ellos. Los operadores pertinentes cooperarán en lo necesario con la autoridad de vigilancia del mercado y con las demás autoridades u organismos públicos nacionales a que se refiere el artículo 77, apartado 1.

Cuando, en el transcurso de tal evaluación, la autoridad de vigilancia del mercado o, cuando proceda, la autoridad de vigilancia del mercado en cooperación con la autoridad nacional pública a que se refiere el artículo 77, apartado 1, constate que el sistema de IA no cumple los requisitos y obligaciones establecidos en el presente Reglamento, exigirá sin demora indebida al operador pertinente que adopte todas las medidas correctoras oportunas para adaptar el sistema de IA a los citados requisitos y obligaciones, retirarlo del mercado o recuperarlo, dentro de un plazo que dicha autoridad podrá determinar y, en cualquier caso, en un plazo de quince días hábiles a más tardar o en el plazo que prevean los actos legislativos de armonización de la Unión pertinentes según corresponda.

La autoridad de vigilancia del mercado informará al organismo notificado correspondiente en consecuencia. El artículo 18 del Reglamento (UE) 2019/1020 será de aplicación a las medidas mencionadas en el párrafo segundo del presente apartado.

3.   Cuando la autoridad de vigilancia del mercado considere que el incumplimiento no se limita a su territorio nacional, informará a la Comisión y a los demás Estados miembros sin demora indebida de los resultados de la evaluación y de las medidas que haya instado al operador a adoptar.

4.   El operador se asegurará de que se adopten todas las medidas correctoras adecuadas en relación con todos los sistemas de IA afectados que haya comercializado en la Unión.

5.   Si el operador de un sistema de IA no adopta las medidas correctoras adecuadas en el plazo a que hace referencia el apartado 2, la autoridad de vigilancia del mercado adoptará todas las medidas provisionales adecuadas para prohibir o restringir la comercialización del sistema de IA en su mercado nacional o su puesta en servicio, para retirar el producto o el sistema de IA independiente de dicho mercado o recuperarlo. Dicha autoridad notificará estas medidas sin demora indebida a la Comisión y a los demás Estados miembros.

6.   La notificación a que se refiere el apartado 5 incluirá todos los detalles disponibles, en particular la información necesaria para la identificación del sistema de IA no conforme, el origen del sistema de IA y la cadena de suministro, la naturaleza de la presunta no conformidad y el riesgo planteado, la naturaleza y duración de las medidas nacionales adoptadas y los argumentos expresados por el operador correspondiente. En concreto, las autoridades de vigilancia del mercado indicarán si la no conformidad se debe a uno o varios de los motivos siguientes:

a) el no respeto de la prohibición de las prácticas de IA a que se refiere el artículo 5;

b) el incumplimiento de los requisitos establecidos en el capítulo III, sección 2, por parte de un sistema de IA de alto riesgo;

c) deficiencias en las normas armonizadas o especificaciones comunes mencionadas en los artículos 40 y 41 que confieren la presunción de conformidad;

d) el incumplimiento del artículo 50.

7.   Las autoridades de vigilancia del mercado distintas de la autoridad de vigilancia del mercado del Estado miembro que inició el procedimiento comunicarán sin demora indebida a la Comisión y a los demás Estados miembros toda medida que adopten y cualquier información adicional de que dispongan en relación con la no conformidad del sistema de IA de que se trate y, en caso de desacuerdo con la medida nacional notificada, sus objeciones al respecto.

8.   Si, en el plazo de tres meses desde la recepción de la notificación mencionada en el apartado 5 del presente artículo, ninguna autoridad de vigilancia del mercado de un Estado miembro ni la Comisión presentan objeción alguna sobre una medida provisional adoptada por una autoridad de vigilancia del mercado de otro Estado miembro, la medida se considerará justificada. Esto se entiende sin perjuicio de los derechos procedimentales del operador correspondiente con arreglo al artículo 18 del Reglamento (UE) 2019/1020. El plazo de tres meses a que se refiere el presente apartado se reducirá a treinta días en caso de no respeto de la prohibición de las prácticas de IA a que se refiere el artículo 5 del presente Reglamento.

9.   Las autoridades de vigilancia del mercado velarán por que se adopten sin demora indebida las medidas restrictivas adecuadas respecto del producto o del sistema de IA de que se trate, tales como la retirada del producto o del sistema de IA de su mercado.

Artículo 80. Procedimiento aplicable a los sistemas de IA clasificados por el proveedor como no de alto riesgo en aplicación del anexo III

1.   Cuando una autoridad de vigilancia del mercado tenga motivos suficientes para considerar que un sistema de IA que el proveedor haya clasificado como no de alto riesgo con arreglo al artículo 6, apartado 3, sí lo es, dicha autoridad realizará una evaluación del sistema de IA de que se trate por cuanto se refiere a su clasificación como sistema de IA de alto riesgo en función de las condiciones establecidas en el artículo 6, apartado 3, y las directrices de la Comisión.

2.   Cuando, al realizar dicha evaluación, la autoridad de vigilancia del mercado constate que el sistema de IA afectado es de alto riesgo, pedirá sin demora indebida al proveedor correspondiente que adopte todas las medidas necesarias para que el sistema de IA cumpla los requisitos y obligaciones establecidos en el presente Reglamento, así como que adopte las medidas correctoras adecuadas en el plazo que la autoridad de vigilancia del mercado podrá determinar.

3.   Cuando la autoridad de vigilancia del mercado considere que la utilización del sistema de IA afectado no se circunscribe a su territorio nacional, informará a la Comisión y a los demás Estados miembros sin demora indebida de los resultados de la evaluación y de las medidas que haya exigido al proveedor que adopte.

4.   El proveedor se asegurará de que se adopten todas las medidas necesarias para que el sistema de IA cumpla los requisitos y obligaciones que se establecen en el presente Reglamento. Cuando el proveedor de un sistema de IA afectado no haga lo necesario para que cumpla dichos requisitos y obligaciones en el plazo a que se refiere el apartado 2 del presente artículo, se le impondrán multas de conformidad con el artículo 99.

5.   El proveedor se asegurará de que se adopten todas las medidas correctoras adecuadas para todos los sistemas de IA afectados que haya comercializado en toda la Unión.

6.   Cuando el proveedor del sistema de IA afectado no adopte las medidas correctoras adecuadas en el plazo a que se refiere el apartado 2 del presente artículo, se aplicará el artículo 79, apartados 5 a 9.

7.   Cuando, al realizar la evaluación con arreglo al apartado 1 del presente artículo, la autoridad de vigilancia del mercado determine que el proveedor había clasificado erróneamente el sistema de IA como de no alto riesgo con el fin de eludir la aplicación de los requisitos establecidos en el capítulo III, sección 2, se impondrán multas al proveedor de conformidad con el artículo 99.

8.   En el ejercicio de su facultad de supervisión de la aplicación del presente artículo, y de conformidad con el artículo 11 del Reglamento (UE) 2019/1020, las autoridades de vigilancia del mercado podrán realizar los controles pertinentes, teniendo en cuenta, en particular, la información almacenada en la base de datos de la UE a que se refiere el artículo 71 del presente Reglamento.

Artículo 81. Procedimiento de salvaguardia de la Unión

1.   Cuando, en el plazo de tres meses desde la recepción de la notificación a que se refiere el artículo 79, apartado 5, o en el plazo de treinta días en caso de que no se respete la prohibición de las prácticas de IA a que se refiere el artículo 5, la autoridad de vigilancia del mercado de un Estado miembro formule objeciones sobre una medida adoptada por otra autoridad de vigilancia del mercado, o cuando la Comisión considere que la medida es contraria al Derecho de la Unión, la Comisión entablará consultas sin demora indebida con la autoridad de vigilancia del mercado del Estado miembro pertinente y el operador u operadores, y evaluará la medida nacional. Basándose en los resultados de la mencionada evaluación, la Comisión decidirá, en un plazo de seis meses a partir de la notificación a que se refiere el artículo 79, apartado 5, o de sesenta días en caso de que no se respete la prohibición de las prácticas de IA a que se refiere el artículo 5, si la medida nacional está justificada y notificará su decisión a la autoridad de vigilancia del mercado del Estado miembro interesado. La Comisión informará también a las demás autoridades de vigilancia del mercado de su decisión.

2.   Cuando la Comisión considere que la medida adoptada por el Estado miembro correspondiente está justificada, todos los Estados miembros se asegurarán de adoptar las medidas restrictivas adecuadas con respecto al sistema de IA de que se trate, como exigir la retirada del sistema de IA de su mercado sin demora indebida, e informarán de ello a la Comisión. Cuando la Comisión considere que la medida nacional no está justificada, el Estado miembro correspondiente retirará la medida e informará de ello a la Comisión.

3.   Cuando se considere que la medida nacional está justificada y la no conformidad del sistema de IA se atribuya a deficiencias de las normas armonizadas o especificaciones comunes a las que se refieren los artículos 40 y 41 del presente Reglamento, la Comisión aplicará el procedimiento previsto en el artículo 11 del Reglamento (UE) nº 1025/2012.

Artículo 82. Sistemas de IA conformes que presenten un riesgo

1.   Si, tras efectuar una evaluación con arreglo a lo dispuesto en el artículo 79 y consultar a la autoridad pública nacional a que se refiere el artículo 77, apartado 1, la autoridad de vigilancia del mercado de un Estado miembro concluye que un sistema de IA de alto riesgo, a pesar de cumplir con el presente Reglamento, presenta sin embargo un riesgo para la salud o la seguridad de las personas, para los derechos fundamentales o para otros aspectos de protección del interés público, pedirá al operador interesado que adopte todas las medidas adecuadas para garantizar que el sistema de IA de que se trate ya no presente ese riesgo cuando se introduzca en el mercado o se ponga en servicio sin demora indebida, dentro de un plazo que dicha autoridad podrá determinar.

2.   El proveedor u otro operador pertinente se asegurará de que se adoptan medidas correctoras con respecto a todos los sistemas de IA afectados que haya comercializado en el mercado de la Unión en el plazo determinado por la autoridad de vigilancia del mercado del Estado miembro a que se refiere el apartado 1.

3.   Los Estados miembros informarán inmediatamente a la Comisión y a los demás Estados miembros cuando se llegue a una conclusión en virtud del apartado 1. La información facilitada incluirá todos los detalles disponibles, en particular los datos necesarios para detectar el sistema de IA afectado y para determinar su origen y cadena de suministro, la naturaleza del riesgo planteado y la naturaleza y duración de las medidas nacionales adoptadas.

4.   La Comisión entablará sin demora indebida consultas con los Estados miembros afectados y los operadores pertinentes y evaluará las medidas nacionales adoptadas. Basándose en los resultados de esta evaluación, la Comisión decidirá si la medida está justificada y, en su caso, propondrá otras medidas adecuadas.

5.   La Comisión comunicará inmediatamente su decisión a los Estados miembros afectados y a los operadores pertinentes. Informará asimismo a los demás Estados miembros.

Artículo 83. Incumplimiento formal

1.   Cuando la autoridad de vigilancia del mercado de un Estado miembro constate una de las situaciones indicadas a continuación, exigirá al proveedor correspondiente que subsane el incumplimiento de que se trate, dentro de un plazo que dicha autoridad podrá determinar:

a) se ha colocado el marcado CE contraviniendo el artículo 48;

b) no se ha colocado el marcado CE;

c) no se ha elaborado la declaración UE de conformidad con el artículo 47;

d) no se ha elaborado correctamente la declaración UE de conformidad con el artículo 47;

e) no se ha efectuado el registro en la base de datos de la UE de conformidad con el artículo 71;

f) cuando proceda, no se ha designado a un representante autorizado;

g) no se dispone de documentación técnica.

2.   Si el incumplimiento a que se refiere el apartado 1 persiste, la autoridad de vigilancia del mercado del Estado miembro de que se trate adoptará medidas adecuadas y proporcionadas para restringir o prohibir la comercialización del sistema de IA de alto riesgo o para asegurarse de que se recupera o retira del mercado sin demora.

Artículo 84. Estructuras de apoyo a los ensayos de IA de la Unión

1.   La Comisión designará una o varias estructuras de apoyo a los ensayos de IA de la Unión para realizar las actividades enumeradas en el artículo 21, apartado 6, del Reglamento (UE) 2019/1020 en el ámbito de la IA.

2.   Sin perjuicio de las actividades a que se refiere el apartado 1, las estructuras de apoyo a los ensayos de IA de la Unión también proporcionarán asesoramiento técnico o científico independiente a petición del Consejo de IA, la Comisión o de las autoridades de vigilancia del mercado.

SECCIÓN 4. Vías de recurso

Artículo 85. Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Sin perjuicio de otras vías administrativas o judiciales de recurso, toda persona física o jurídica que tenga motivos para considerar que se ha infringido lo dispuesto en el presente Reglamento podrá presentar reclamaciones ante la autoridad de vigilancia del mercado pertinente.

De conformidad con el Reglamento (UE) 2019/1020, tales reclamaciones se tendrán en cuenta a la hora de llevar a cabo actividades de vigilancia del mercado y se tramitarán de conformidad con los procedimientos específicos establecidos con este fin por las autoridades de vigilancia del mercado.

Artículo 86. Derecho a explicación de decisiones tomadas individualmente

1.   Toda persona que se vea afectada por una decisión que el responsable del despliegue adopte basándose en los resultados de salida de un sistema de IA de alto riesgo que figure en el anexo III, con excepción de los sistemas enumerados en su punto 2, y que produzca efectos jurídicos o le afecte considerablemente del mismo modo, de manera que considere que tiene un efecto perjudicial para su salud, su seguridad o sus derechos fundamentales, tendrá derecho a obtener del responsable del despliegue explicaciones claras y significativas acerca del papel que el sistema de IA ha tenido en el proceso de toma de decisiones y los principales elementos de la decisión adoptada.

2.   No se aplicará el apartado 1 a la utilización de sistemas de IA para los que existan excepciones o restricciones a la obligación prevista en dicho apartado derivadas del Derecho de la Unión o nacional de conformidad con el Derecho de la Unión.

3.   El presente artículo se aplicará únicamente en la medida en que el derecho a que se refiere el apartado 1 no esté previsto de otro modo en el Derecho de la Unión.

Artículo 87. Denuncia de infracciones y protección de los denunciantes

La Directiva (UE) 2019/1937 se aplicará a la denuncia de infracciones del presente Reglamento y a la protección de las personas que denuncien tales infracciones.

SECCIÓN 5. Supervisión, investigación, cumplimiento y seguimiento respecto de proveedores de modelos de IA de uso general

Artículo 88. Cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general

1.   La Comisión tendrá competencias exclusivas para supervisar y hacer cumplir el capítulo V, teniendo en cuenta las garantías procedimentales previstas en el artículo 94. La Comisión debe confiar la ejecución de estas tareas a la Oficina de IA, sin perjuicio de las competencias de organización de la Comisión y del reparto de competencias entre los Estados miembros y la Unión en virtud de los Tratados.

2.   Sin perjuicio de lo dispuesto en el artículo 75, apartado 3, las autoridades de vigilancia del mercado podrán solicitar a la Comisión que ejerza las facultades previstas en la presente sección, cuando resulte necesario y proporcionado para ayudar a que se lleven a cabo las actividades de su competencia en virtud del presente Reglamento.

Artículo 89. Medidas de seguimiento

1.   Con el fin de llevar a cabo los cometidos que se le atribuyen en la presente sección, la Oficina de IA podrá tomar las medidas necesarias para supervisar la aplicación y cumplimiento efectivos del presente Reglamento por parte de los proveedores de modelos de IA de uso general, incluida su observancia de los códigos de buenas prácticas aprobados.

2.   Los proveedores posteriores tendrán derecho a presentar reclamaciones alegando infracciones del presente Reglamento. Las reclamaciones deberán motivarse debidamente e indicar, como mínimo:

a) el punto de contacto del proveedor del modelo de IA de uso general de que se trate;

b) una descripción de los hechos, las disposiciones del presente Reglamento afectadas y los motivos por los que el proveedor posterior considera que el proveedor del modelo de IA de uso general de que se trate ha infringido el presente Reglamento;

c) cualquier otra información que el proveedor posterior que presente la reclamación considere pertinente, como, por ejemplo, en su caso, información que haya recopilado por iniciativa propia.

Artículo 90. Alertas del grupo de expertos científicos sobre riesgos sistémicos

1.   El grupo de expertos científicos podrá proporcionar alertas cualificadas a la Oficina de IA cuando tenga motivos para sospechar que:

a) un modelo de IA de uso general plantea un riesgo concreto reconocible a escala de la Unión, o

b) un modelo de IA de uso general reúne las condiciones a que se refiere el artículo 51.

2.   Tras recibir dicha alerta cualificada, la Comisión podrá ejercer, a través de la Oficina de IA y tras haber informado al Consejo de IA, las facultades previstas en la presente sección con el fin de evaluar la cuestión. La Oficina de IA informará al Consejo de IA de cualquier medida que se adopte de conformidad con los artículos 91 a 94.

3.   Las alertas cualificadas deberán motivarse debidamente e indicar, como mínimo:

a) el punto de contacto del proveedor del modelo de IA de uso general con riesgo sistémico de que se trate;

b) una descripción de los hechos y los motivos por los que el grupo de expertos científicos proporciona la alerta;

c) cualquier otra información que el grupo de expertos científicos considere pertinente, como, por ejemplo, en su caso, información que haya recopilado por iniciativa propia.

Artículo 91. Poderes para solicitar documentación e información

1.   La Comisión podrá solicitar al proveedor del modelo de IA de uso general interesado que facilite la documentación preparada por el proveedor de conformidad con los artículos 53 y 55, o cualquier otra información que sea necesaria para evaluar el cumplimiento del presente Reglamento por parte del proveedor.

2.   Antes de enviar la solicitud de información, la Oficina de IA podrá entablar un diálogo estructurado con el proveedor del modelo de IA de uso general.

3.   Cuando el grupo de expertos científicos presente la correspondiente solicitud debidamente motivada, la Comisión podrá dirigir al proveedor de un modelo de IA de uso general una solicitud de información si el acceso a dicha información resulta necesario y proporcionado para que el grupo de expertos científicos pueda llevar a cabo sus cometidos en virtud del artículo 68, apartado 2.

4.   La solicitud de información indicará la base jurídica y la finalidad de la solicitud, precisará qué información se requiere, fijará el plazo en el que deberá facilitarse la información e indicará las multas que se establecen en el artículo 101 por facilitar información incorrecta, incompleta o engañosa.

5.   El proveedor del modelo de IA de uso general interesado, o su representante, facilitará la información solicitada. De tratarse de personas jurídicas, sociedades o empresas, o cuando el proveedor carezca de personalidad jurídica, las personas habilitadas por ley o por sus estatutos para representarlas facilitarán la información solicitada en nombre del proveedor del modelo de IA de uso general interesado. Los abogados debidamente habilitados podrán facilitar la información en nombre de sus representados. Los representados seguirán siendo, no obstante, plenamente responsables, si la información facilitada es incompleta, incorrecta o engañosa.

Artículo 92. Poderes para realizar evaluaciones

1.   La Oficina de IA, previa consulta al Consejo de IA, podrá realizar evaluaciones del modelo de IA de uso general de que se trate con el fin de:

a) evaluar si el proveedor cumple sus obligaciones en virtud del presente Reglamento, cuando la información recabada con arreglo al artículo 91 resulte insuficiente, o

b) investigar riesgos sistémicos a escala de la Unión de modelos de IA de uso general con riesgo sistémico, en particular a raíz de una alerta cualificada del grupo de expertos científicos de conformidad con el artículo 90, apartado 1, letra a).

2.   La Comisión podrá decidir nombrar a expertos independientes para que realicen las evaluaciones en su nombre, también expertos científicos del grupo establecido de conformidad con el artículo 68. Los expertos independientes que se nombren para realizar estas tareas cumplirán los criterios establecidos en el artículo 68, apartado 2.

3.   A los efectos del apartado 1, la Comisión podrá solicitar el acceso al modelo de IA de uso general de que se trate a través de API o de otros medios y herramientas técnicos adecuados, como, por ejemplo, el código fuente.

4.   La solicitud de acceso indicará la base jurídica, la finalidad y los motivos de la solicitud, y fijará el plazo durante el que deberá facilitarse el acceso y las multas que se establecen en el artículo 101 por no facilitarlo.

5.   Los proveedores del modelo de IA de uso general interesados o su representante facilitarán la información solicitada. En caso de que se trate de personas jurídicas, sociedades o empresas, o cuando el proveedor carezca de personalidad jurídica, las personas habilitadas por ley o por sus estatutos para representarlas, facilitarán el acceso solicitado en nombre del proveedor del modelo de IA de uso general interesado.

6.   La Comisión adoptará actos de ejecución en los que se establezcan las modalidades detalladas y las condiciones de las evaluaciones, incluidas las disposiciones detalladas para la participación de expertos independientes y el procedimiento para su selección. Dichos actos de ejecución se adoptarán de conformidad con el procedimiento de examen a que se refiere el artículo 98, apartado 2.

7.   Antes de solicitar el acceso al modelo de IA de uso general de que se trate, la Oficina de IA podrá entablar un diálogo estructurado con el proveedor del modelo de IA de uso general para recabar más información sobre los ensayos internos del modelo, las salvaguardias internas para prevenir los riesgos sistémicos y otros procedimientos y medidas internos que el proveedor haya adoptado para mitigar tales riesgos.

Artículo 93. Poderes para solicitar la adopción de medidas

1.   Cuando resulte necesario y conveniente, la Comisión podrá solicitar a los proveedores que:

a) adopten las medidas oportunas para cumplir las obligaciones establecidas en los artículos 53 y 54;

b) apliquen medidas de reducción de riesgos cuando la evaluación realizada de conformidad con el artículo 92 apunte a que existen motivos serios y fundados de preocupación por la existencia de un riesgo sistémico a escala de la Unión;

c) restrinjan la comercialización del modelo, lo retiren o lo recuperen.

2.   Antes de solicitar que se adopten medidas, la Oficina de IA podrá entablar un diálogo estructurado con el proveedor del modelo de IA de uso general.

3.   Si, durante el diálogo estructurado a que se refiere el apartado 2, el proveedor del modelo de IA de uso general con riesgo sistémico se compromete a adoptar medidas de reducción para hacer frente a un riesgo sistémico a escala de la Unión, la Comisión podrá, mediante una decisión, hacer dichos compromisos vinculantes y declarar que no hay ya motivos para actuar.

Artículo 94. Garantías procesales de los operadores económicos del modelo de IA de uso general

El artículo 18 del Reglamento (UE) 2019/1020 se aplicará mutatis mutandis a los proveedores del modelo de IA de uso general, sin perjuicio de las garantías procesales más específicas previstas en el presente Reglamento.

CAPÍTULO X. CÓDIGOS DE CONDUCTA Y DIRECTRICES

Artículo 95. Códigos de conducta para la aplicación voluntaria de requisitos específicos

1.   La Oficina de IA y los Estados miembros fomentarán y facilitarán la elaboración de códigos de conducta, con los correspondientes mecanismos de gobernanza, destinados a fomentar la aplicación voluntaria de alguno o de todos los requisitos establecidos en el capítulo III, sección 2, a los sistemas de IA que no sean de alto riesgo, teniendo en cuenta las soluciones técnicas disponibles y las mejores prácticas del sector que permitan la aplicación de dichos requisitos.

2.   La Oficina de IA y los Estados miembros facilitarán la elaboración de códigos de conducta relativos a la aplicación voluntaria, también por parte de los responsables del despliegue, de requisitos específicos para todos los sistemas de IA, sobre la base de objetivos claros e indicadores clave de resultados para medir la consecución de dichos objetivos, incluidos, entre otros pero no exclusivamente, elementos como:

a) los elementos aplicables establecidos en las Directrices éticas de la Unión para una IA fiable;

b) la evaluación y reducción al mínimo de las repercusiones de los sistemas de IA en la sostenibilidad medioambiental, también por cuanto se refiere a la programación eficiente desde el punto de vista energético y las técnicas para diseñar, entrenar y utilizar la IA de manera eficiente;

c) la promoción de la alfabetización en materia de IA, en particular en el caso de las personas que se ocupan del desarrollo, funcionamiento y utilización de la IA;

d) la facilitación de un diseño inclusivo y diverso de los sistemas de IA, por ejemplo mediante la creación de equipos de desarrollo inclusivos y diversos y la promoción de la participación de las partes interesadas en dicho proceso;

e) la evaluación y prevención de los perjuicios de los sistemas de IA para las personas vulnerables o los colectivos de personas vulnerables, también por cuanto se refiere a accesibilidad para las personas con discapacidad, así como para la igualdad de género.

3.   Los códigos de conducta podrán ser elaborados por proveedores o responsables del despliegue de sistemas de IA particulares, por las organizaciones que los representen o por ambos, también con la participación de cualquier parte interesada y sus organizaciones representativas, como, por ejemplo, las organizaciones de la sociedad civil y el mundo académico. Los códigos de conducta podrán comprender uno o varios sistemas de IA en función de la similitud de la finalidad prevista de los distintos sistemas.

4.   La Oficina de IA y los Estados miembros tendrán en cuenta los intereses y necesidades específicos de las pymes, incluidas las empresas emergentes, a la hora de fomentar y facilitar la elaboración de códigos de conducta.

Artículo 96. Directrices de la Comisión sobre la aplicación del presente Reglamento

1.   La Comisión elaborará directrices sobre la aplicación práctica del presente Reglamento y, en particular, sobre:

a) la aplicación de los requisitos y obligaciones a que se refieren los artículos 8 a 15 y el artículo 25;

b) las prácticas prohibidas a que se refiere el artículo 5;

c) la aplicación práctica de las disposiciones relacionadas con modificaciones sustanciales;

d) la aplicación práctica de las obligaciones de transparencia establecidas en el artículo 50;

e) información detallada sobre la relación entre el presente Reglamento y la lista de actos legislativos de armonización de la Unión enumerados en el anexo I, así como otras disposiciones de Derecho de la Unión pertinentes, también por cuanto se refiere a la coherencia en su aplicación;

f) la aplicación de la definición de sistema de IA que figura en el artículo 3, punto 1.

Al publicar estas directrices, la Comisión prestará especial atención a las necesidades de las pymes, incluidas las empresas emergentes, de las autoridades públicas locales y de los sectores que tengan más probabilidades de verse afectados por el presente Reglamento.

Las directrices a que se refiere el párrafo primero del presente apartado tendrán debidamente en cuenta el estado de la técnica generalmente reconocido en materia de IA, así como las normas armonizadas y especificaciones comunes pertinentes a que se refieren los artículos 40 y 41, o las normas armonizadas o especificaciones técnicas que se establezcan con arreglo al Derecho de armonización de la Unión.

2.   A petición de los Estados miembros o de la Oficina de IA, o por propia iniciativa, la Comisión actualizará las directrices anteriormente adoptadas cuando se considere necesario.

CAPÍTULO XI. DELEGACIÓN DE PODERES Y PROCEDIMIENTO DE COMITÉ

Artículo 97. Ejercicio de la delegación

1.   Se otorgan a la Comisión los poderes para adoptar actos delegados en las condiciones establecidas en el presente artículo.

2.   Los poderes para adoptar actos delegados mencionados en el artículo 6, apartado 6 y 7, el artículo 7, apartados 1 y 3, el artículo 11, apartado 3, el artículo 43, apartados 5 y 6, el artículo 47, apartado 5, el artículo 51, apartado 3, el artículo 52, apartado 4, y el artículo 53, apartados 5 y 6, se otorgan a la Comisión por un período de cinco años a partir del 1 de agosto de 2024. La Comisión elaborará un informe sobre la delegación de poderes a más tardar nueve meses antes de que finalice el período de cinco años. La delegación de poderes se prorrogará tácitamente por períodos de idéntica duración, excepto si el Parlamento Europeo o el Consejo se oponen a dicha prórroga a más tardar tres meses antes del final de cada período.

3.   La delegación de poderes mencionada en el artículo 6, apartados 6 y 7, el artículo 7, apartados 1 y 3, el artículo 11, apartado 3, el artículo 43, apartados 5 y 6, el artículo 47, apartado 5, el artículo 51, apartado 3, el artículo 52, apartado 4, y el artículo 53, apartados 5 y 6, podrá ser revocada en cualquier momento por el Parlamento Europeo o por el Consejo. La decisión de revocación pondrá término a la delegación de los poderes que en ella se especifiquen. La decisión surtirá efecto el día siguiente al de su publicación en el Diario Oficial de la Unión Europea o en una fecha posterior indicada ella. No afectará a la validez de los actos delegados que ya estén en vigor.

4.   Antes de la adopción de un acto delegado, la Comisión consultará a los expertos designados por cada Estado miembro de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación.

5.   Tan pronto como la Comisión adopte un acto delegado lo notificará simultáneamente al Parlamento Europeo y al Consejo.

6.   Los actos delegados adoptados en virtud del artículo 6, apartados 6 o 7, el artículo 7, apartados 1 o 3, el artículo 11, apartado 3, el artículo 43, apartados 5 o 6, el artículo 47, apartado 5, el artículo 51, apartado 3, el artículo 52, apartado 4, o el artículo 53, apartados 5 o 6, entrarán en vigor únicamente si, en un plazo de tres meses a partir de su notificación al Parlamento Europeo y al Consejo, ninguna de estas instituciones formula objeciones o si, antes del vencimiento de dicho plazo, ambas informan a la Comisión de que no las formularán. El plazo se prorrogará tres meses a iniciativa del Parlamento Europeo o del Consejo.

Artículo 98. Procedimiento de comité

1.   La Comisión estará asistida por un comité. Dicho comité será un comité en el sentido del Reglamento (UE) nº 182/2011.

2.   En los casos en que se haga referencia al presente apartado, se aplicará el artículo 5 del Reglamento (UE) nº 182/2011.

CAPÍTULO XII. SANCIONES

Artículo 99. Sanciones

1.   De conformidad con las condiciones previstas en el presente Reglamento, los Estados miembros establecerán el régimen de sanciones y otras medidas de ejecución, como advertencias o medidas no pecuniarias, aplicable a las infracciones del presente Reglamento que cometan los operadores y adoptarán todas las medidas necesarias para garantizar que se aplican de forma adecuada y efectiva y teniendo así en cuenta las directrices emitidas por la Comisión con arreglo al artículo 96. Tales sanciones serán efectivas, proporcionadas y disuasorias. Tendrán en cuenta los intereses de las pymes, incluidas las empresas emergentes, así como su viabilidad económica.

2.   Los Estados miembros comunicarán a la Comisión, sin demora y, como muy tarde, en la fecha de aplicación las normas referentes a las sanciones y otras medidas de ejecución mencionadas en el apartado 1 y la informará, sin demora, de toda modificación de dichas normas.

3.   El no respeto de la prohibición de las prácticas de IA a que se refiere el artículo 5 estará sujeto a multas administrativas de hasta 35 000 000 EUR o, si el infractor es una empresa, de hasta el 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.

4.   El incumplimiento de cualquiera de las disposiciones que figuran a continuación en relación con los operadores o los organismos notificados, distintas de los mencionados en el artículo 5, estará sujeto a multas administrativas de hasta 15 000 000 EUR o, si el infractor es una empresa, de hasta el 3 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior:

a) las obligaciones de los proveedores con arreglo al artículo 16;

b) las obligaciones de los representantes autorizados con arreglo al artículo 22;

c) las obligaciones de los importadores con arreglo al artículo 23;

d) las obligaciones de los distribuidores con arreglo al artículo 24;

e) las obligaciones de los responsables del despliegue con arreglo al artículo 26;

f) los requisitos y obligaciones de los organismos notificados con arreglo al artículo 31, al artículo 33, apartados 1, 3 y 4, o al artículo 34;

g) las obligaciones de transparencia de los proveedores y responsables del despliegue con arreglo al artículo 50.

5.   La presentación de información inexacta, incompleta o engañosa a organismos notificados o a las autoridades nacionales competentes en respuesta a una solicitud estará sujeta a multas administrativas de hasta 7 500 000 EUR o, si el infractor es una empresa, de hasta el 1 % del volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.

6.   En el caso de las pymes, incluidas las empresas emergentes, cada una de las multas a que se refiere el presente artículo podrá ser por el porcentaje o el importe a que se refieren los apartados 3, 4 y 5, según cuál de ellos sea menor.

7.   Al decidir la imposición de una multa administrativa y su cuantía en cada caso concreto se tomarán en consideración todas las circunstancias pertinentes de la situación de que se trate y, en su caso, se tendrá en cuenta lo siguiente:

a) la naturaleza, la gravedad y la duración de la infracción y de sus consecuencias, teniendo en cuenta la finalidad del sistema de IA y, cuando proceda, el número de personas afectadas y el nivel de los daños que hayan sufrido;

b) si otras autoridades de vigilancia del mercado han impuesto ya multas administrativas al mismo operador por la misma infracción;

c) si otras autoridades han impuesto ya multas administrativas al mismo operador por infracciones de otros actos legislativos nacionales o de la Unión, cuando dichas infracciones se deriven de la misma actividad u omisión que constituya una infracción pertinente del presente Reglamento;

d) el tamaño, el volumen de negocios anual y la cuota de mercado del operador que comete la infracción;

e) cualquier otro factor agravante o atenuante aplicable a las circunstancias del caso, como los beneficios financieros obtenidos o las pérdidas evitadas, directa o indirectamente, a través de la infracción;

f) el grado de cooperación con las autoridades nacionales competentes con el fin de subsanar la infracción y mitigar sus posibles efectos adversos;

g) el grado de responsabilidad del operador, teniendo en cuenta las medidas técnicas y organizativas aplicadas por este;

h) la forma en que las autoridades nacionales competentes tuvieron conocimiento de la infracción, en particular si el operador notificó la infracción y, en tal caso, en qué medida;

i) la intencionalidad o negligencia en la infracción;

j) las acciones emprendidas por el operador para mitigar los perjuicios sufridos por las personas afectadas.

8.   Cada Estado miembro establecerá normas que determinen en qué medida es posible imponer multas administrativas a autoridades y organismos públicos establecidos en dicho Estado miembro.

9.   En función del ordenamiento jurídico de los Estados miembros, las normas relativas a las multas administrativas podrán aplicarse de tal modo que las multas las impongan órganos jurisdiccionales nacionales competentes u otros organismos, según proceda en dichos Estados miembros. La aplicación de dichas normas en estos Estados miembros tendrá un efecto equivalente.

10.   El ejercicio de poderes en virtud del presente artículo estará sujeto a garantías procesales adecuadas de conformidad con el Derecho de la Unión y nacional, entre ellas la tutela judicial efectiva y el respeto de las garantías procesales.

11.   Los Estados miembros informarán anualmente a la Comisión de las multas administrativas que hayan impuesto durante ese año de conformidad con el presente artículo y de cualquier litigio o proceso judicial relacionados.

Artículo 100. Multas administrativas a instituciones, órganos y organismos de la Unión

1.   El Supervisor Europeo de Protección de Datos podrá imponer multas administrativas a las instituciones, órganos y organismos de la Unión comprendidos en el ámbito de aplicación del presente Reglamento. Al decidir la imposición de una multa administrativa y su cuantía en cada caso concreto se tomarán en consideración todas las circunstancias pertinentes de la situación de que se trate y se tendrá debidamente en cuenta lo siguiente:

a) la naturaleza, la gravedad y la duración de la infracción y de sus consecuencias, teniendo en cuenta la finalidad del sistema de IA de que se trate, así como, cuando proceda, el número de personas afectadas y el nivel de los daños que hayan sufrido;

b) el grado de responsabilidad de la institución, órgano u organismo de la Unión, teniendo en cuenta las medidas técnicas y organizativas aplicadas;

c) las acciones emprendidas por la institución, órgano u organismo de la Unión para mitigar los perjuicios sufridos por las personas afectadas;

d) el grado de cooperación con el Supervisor Europeo de Protección de Datos con el fin de subsanar la infracción y mitigar sus posibles efectos adversos, incluido el cumplimiento de cualquiera de las medidas que el propio Supervisor Europeo de Protección de Datos haya ordenado previamente contra la institución, órgano u organismo de la Unión de que se trate en relación con el mismo asunto;

e) toda infracción anterior similar cometida por la institución, órgano u organismo de la Unión;

f) la forma en que el Supervisor Europeo de Protección de Datos tuvo conocimiento de la infracción, en particular si la institución, órgano u organismo de la Unión notificó la infracción y, en tal caso, en qué medida;

g) el presupuesto anual de la institución, órgano u organismo de la Unión.

2.   El no respeto de la prohibición de las prácticas de IA a que se refiere el artículo 5 estará sujeto a multas administrativas de hasta 1 500 000 EUR.

3.   El incumplimiento por parte del sistema de IA de cualquiera de los requisitos u obligaciones establecidos en el presente Reglamento, distintos de los previstos en el artículo 5, estará sujeto a multas administrativas de hasta 750 000 EUR.

4.   Antes de tomar ninguna decisión en virtud del presente artículo, el Supervisor Europeo de Protección de Datos ofrecerá a la institución, órgano u organismo de la Unión sometida al procedimiento instruido por el Supervisor Europeo de Protección de Datos la oportunidad de ser oída en lo que respecta a la posible infracción. El Supervisor Europeo de Protección de Datos basará sus decisiones únicamente en los elementos y las circunstancias sobre los que las partes afectadas hayan podido manifestarse. Los denunciantes, si los hay, participarán estrechamente en el procedimiento.

5.   Los derechos de defensa de las partes estarán garantizados plenamente en el curso del procedimiento. Tendrán derecho a acceder al expediente del Supervisor Europeo de Protección de Datos, sin perjuicio del interés legítimo de las personas físicas y las empresas en la protección de sus datos personales o secretos comerciales.

6.   La recaudación proveniente de la imposición de multas con arreglo al presente artículo contribuirá al presupuesto general de la Unión. Las multas no afectarán al funcionamiento efectivo de la institución, órgano u organismo de la Unión sancionado.

7.   El Supervisor Europeo de Protección de Datos informará anualmente a la Comisión de las multas administrativas que haya impuesto en virtud del presente artículo y de cualquier litigio o proceso judicial que haya iniciado.

Artículo 101. Multas a proveedores de modelos de IA de uso general

1.   La Comisión podrá imponer multas a los proveedores de modelos de IA de uso general que no superen el 3 % de su volumen de negocios mundial total anual correspondiente al ejercicio financiero anterior o de 15 000 000 EUR, si esta cifra es superior, cuando la Comisión considere que, de forma deliberada o por negligencia:

a) infringieron las disposiciones pertinentes del presente Reglamento;

b) no atendieron una solicitud de información o documentos con arreglo al artículo 91, o han facilitado información inexacta, incompleta o engañosa;

c) incumplieron una medida solicitada en virtud del artículo 93;

d) no dieron acceso a la Comisión al modelo de IA de uso general o al modelo de IA de uso general con riesgo sistémico para que se lleve a cabo una evaluación con arreglo al artículo 92.

Al fijar el importe de la multa o de la multa coercitiva, se tomarán en consideración la naturaleza, gravedad y duración de la infracción, teniendo debidamente en cuenta los principios de proporcionalidad y adecuación. La Comisión también tendrá en cuenta los compromisos contraídos de conformidad con el artículo 93, apartado 3, y en los códigos de buenas prácticas pertinentes previstos en el artículo 56.

2.   Antes de adoptar una decisión con arreglo al apartado 1, la Comisión comunicará sus conclusiones preliminares al proveedor del modelo de IA de uso general o del modelo de IA y le dará la oportunidad de ser oído.

3.   Las multas impuestas de conformidad con el presente artículo serán efectivas, proporcionadas y disuasorias.

4.   La información sobre las multas impuestas en virtud del presente artículo también se comunicará al Consejo de IA, según proceda.

5.   El Tribunal de Justicia de la Unión Europea tendrá plena competencia jurisdiccional para examinar las decisiones de imposición de una multa adoptadas por la Comisión en virtud del presente artículo. Podrá anular, reducir o incrementar la cuantía de la multa impuesta.

6.   La Comisión adoptará actos de ejecución que contengan disposiciones detalladas y garantías procesales para los procedimientos con vistas a la posible adopción de decisiones con arreglo al apartado 1 del presente artículo. Dichos actos de ejecución se adoptarán de conformidad con el procedimiento de examen a que se refiere el artículo 98, apartado 2.

CAPÍTULO XIII. DISPOSICIONES FINALES

Artículo 102. Modificación del Reglamento (CE) nº 300/2008

En el artículo 4, apartado 3, del Reglamento (CE) nº 300/2008, se añade el párrafo siguiente:

«Al adoptar medidas detalladas relativas a las especificaciones técnicas y los procedimientos de aprobación y utilización del equipo de seguridad en relación con sistemas de inteligencia artificial en el sentido del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (*1), se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.

Artículo 103. Modificación del Reglamento (UE) nº 167/2013

En el artículo 17, apartado 5, del Reglamento (UE) nº 167/2013, se añade el párrafo siguiente:

«Al adoptar actos delegados en virtud del párrafo primero relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (*2), se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.

Artículo 104. Modificación del Reglamento (UE) nº 168/2013

En el artículo 22, apartado 5, del Reglamento (UE) nº 168/2013, se añade el párrafo siguiente:

«Al adoptar actos delegados en virtud del párrafo primero relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (*3), se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.

Artículo 105. Modificación de la Directiva 2014/90/UE

En el artículo 8 de la Directiva 2014/90/UE, se añade el apartado siguiente:

«5.   En el caso de los sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (*4), la Comisión tendrá en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento al desempeñar sus actividades con arreglo al apartado 1 y al adoptar especificaciones técnicas y normas de ensayo de conformidad con los apartados 2 y 3.

Artículo 106. Modificación de la Directiva (UE) 2016/797

En el artículo 5 de la Directiva (UE) 2016/797, se añade el apartado siguiente:

«12.   Al adoptar actos delegados en virtud del apartado 1 y actos de ejecución en virtud del apartado 11 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (*5), se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.

Artículo 107. Modificación del Reglamento (UE) 2018/858

En el artículo 5 del Reglamento (UE) 2018/858, se añade el apartado siguiente:

«4.   Al adoptar actos delegados en virtud del apartado 3 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/… del Parlamento Europeo y del Consejo (*6), se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.

Artículo 108. Modificación del Reglamento (UE) 2018/1139

El Reglamento (UE) 2018/1139 se modifica como sigue:

1) En el artículo 17, se añade el apartado siguiente:

«3.   Sin perjuicio de lo dispuesto en el apartado 2, al adoptar actos de ejecución en virtud del apartado 1 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (*7), se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.

——————————————–

(*7)  Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) (DO L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).».”

—————————————————–

2) En el artículo 19, se añade el apartado siguiente:

«4.   Al adoptar actos delegados en virtud de los apartados 1 y 2 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689, se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.».

3) En el artículo 43, se añade el apartado siguiente:

«4.   Al adoptar actos de ejecución en virtud del apartado 1 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689, se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.».

4) En el artículo 47, se añade el apartado siguiente:

«3.   Al adoptar actos delegados en virtud de los apartados 1 y 2 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689, se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.».

5) En el artículo 57, se añade el párrafo siguiente:

«Al adoptar dichos actos de ejecución relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689, se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.».

6) En el artículo 58, se añade el apartado siguiente:

«3.   Al adoptar actos delegados en virtud de los apartados 1 y 2 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689, se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.».

Artículo 109. Modificación del Reglamento (UE) 2019/2144

En el artículo 11 del Reglamento (UE) 2019/2144, se añade el párrafo siguiente:

«3.   Al adoptar actos de ejecución en virtud del apartado 2 relativos a sistemas de inteligencia artificial que sean componentes de seguridad en el sentido del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (*8), se tendrán en cuenta los requisitos establecidos en el capítulo III, sección 2, de dicho Reglamento.

Artículo 110. Modificación de la Directiva (UE) 2020/1828

En el anexo I de la Directiva (UE) 2020/1828 del Parlamento Europeo y del Consejo (58) se añade el punto siguiente:

«68) Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 1689, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) (DO L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).».

Artículo 111. Sistemas de IA ya introducidos en el mercado o puestos en servicio y modelos de IA de uso general ya introducidos en el mercado

1.   Sin perjuicio de que se aplique el artículo 5 con arreglo a lo dispuesto en el artículo 113, apartado 3, letra a), los sistemas de IA que sean componentes de los sistemas informáticos de gran magnitud establecidos en virtud de los actos legislativos enumerados en el anexo X que se hayan introducido en el mercado o se hayan puesto en servicio antes del 2 de agosto de 2027 deberán estar en conformidad con el presente Reglamento a más tardar el 31 de diciembre de 2030.

Los requisitos establecidos en el presente Reglamento se tendrán en cuenta en la evaluación de cada sistema informático de gran magnitud establecido en virtud de los actos jurídicos enumerados en el anexo X que se efectúe de conformidad con lo dispuesto en dichos actos jurídicos y cuando dichos actos jurídicos hayan sido sustituidos o modificados.

2.   Sin perjuicio de que se aplique el artículo 5 con arreglo a lo dispuesto en el artículo 113, apartado 3, letra a), el presente Reglamento se aplicará a los operadores de sistemas de IA de alto riesgo, distintos de los mencionados en el apartado 1 del presente artículo, que se hayan introducido en el mercado o se hayan puesto en servicio antes del 2 de agosto de 2026 únicamente si, a partir de esa fecha, dichos sistemas se ven sometidos a cambios significativos en su diseño. En cualquier caso, los proveedores y los responsables del despliegue de los sistemas de IA de alto riesgo destinados a ser utilizados por las autoridades públicas adoptarán las medidas necesarias para cumplir los requisitos y obligaciones del presente Reglamento a más tardar el 2 de agosto de 2030.

3.   Los proveedores de modelos de IA de uso general que se hayan introducido en el mercado antes del 2 de agosto de 2025 adoptarán las medidas necesarias para cumplir las obligaciones establecidas en el presente Reglamento a más tardar el 2 de agosto de 2027.

Artículo 112. Evaluación y revisión

1.   La Comisión evaluará la necesidad de modificar la lista del anexo III y la lista de prácticas de IA prohibidas previstas en el artículo 5 una vez al año a partir de la entrada en vigor del presente Reglamento y hasta el final del período de delegación de poderes previsto en el artículo 97. La Comisión presentará las conclusiones de dicha evaluación al Parlamento Europeo y al Consejo.

2.   A más tardar el 2 de agosto de 2028, y posteriormente cada cuatro años, la Comisión evaluará los puntos siguientes e informará de ello al Parlamento Europeo y al Consejo:

a) la necesidad de ampliar los ámbitos enumerados en el anexo III o de añadir nuevos ámbitos;

b) la necesidad de modificar la lista de sistemas de IA que requieren medidas de transparencia adicionales con arreglo al artículo 50;

c) la necesidad de mejorar la eficacia del sistema de supervisión y gobernanza.

3.   A más tardar el 2 de agosto de 2029, y posteriormente cada cuatro años, la Comisión presentará al Parlamento Europeo y al Consejo un informe sobre la evaluación y revisión del presente Reglamento. El informe incluirá una evaluación de la estructura de control del cumplimiento y de la posible necesidad de que una agencia de la Unión resuelva las deficiencias detectadas. En función de sus conclusiones, dicho informe irá acompañado, en su caso, de una propuesta de modificación del presente Reglamento. Los informes se harán públicos.

4.   En los informes mencionados en el apartado 2 se prestará una atención especial a lo siguiente:

a) el estado de los recursos financieros, técnicos y humanos de las autoridades nacionales competentes para desempeñar de forma eficaz las funciones que les hayan sido asignadas en virtud del presente Reglamento;

b) el estado de las sanciones, en particular, de las multas administrativas a que se refiere el artículo 99, apartado 1, aplicadas por los Estados miembros a las infracciones de las disposiciones del presente Reglamento;

c) las normas armonizadas adoptadas y las especificaciones comunes desarrolladas en apoyo del presente Reglamento;

d) el número de empresas que entran en el mercado después de que se empiece a aplicar el presente Reglamento y, de entre ellas, el número de pymes.

5.   A más tardar el 2 de agosto de 2028, la Comisión evaluará el funcionamiento de la Oficina de IA, si se le han otorgado poderes y competencias suficientes para desempeñar sus funciones, y si sería pertinente y necesario para la correcta aplicación y ejecución del presente Reglamento mejorar la Oficina de IA y sus competencias de ejecución, así como aumentar sus recursos. La Comisión presentará un informe sobre su evaluación al Parlamento Europeo y al Consejo.

6.   A más tardar el 2 de agosto de 2028 y posteriormente cada cuatro años, la Comisión presentará un informe sobre la revisión de los avances en la elaboración de documentos de normalización sobre el desarrollo eficiente desde el punto de vista energético de modelos de IA de uso general y evaluará la necesidad de medidas o acciones adicionales, incluidas medidas o acciones vinculantes. Este informe se remitirá al Parlamento Europeo y al Consejo y se hará público.

7.   A más tardar el 2 de agosto de 2028 y posteriormente cada tres años, la Comisión evaluará la incidencia y la eficacia de los códigos de conducta voluntarios por lo que respecta a promover la aplicación de los requisitos establecidos en el capítulo III, sección 2, a sistemas de IA que no sean de alto riesgo y, en su caso, de otros requisitos adicionales aplicables a los sistemas de IA que no sean sistemas de IA de alto riesgo, como, por ejemplo, requisitos relativos a la sostenibilidad medioambiental.

8.   A efectos de lo dispuesto en los apartados 1 a 7, el Consejo de IA, los Estados miembros y las autoridades nacionales competentes facilitarán información a la Comisión, cuando así lo solicite, y sin demora indebida.

9.   Al llevar a cabo las evaluaciones y revisiones mencionadas en los apartados 1 a 7, la Comisión tendrá en cuenta las posiciones y conclusiones del Consejo de IA, el Parlamento Europeo, el Consejo y los demás organismos o fuentes pertinentes.

10.   La Comisión presentará, en caso necesario, las propuestas oportunas de modificación del presente Reglamento, en particular teniendo en cuenta la evolución de la tecnología y el efecto de los sistemas de IA en la salud y la seguridad y en los derechos fundamentales, y a la vista de los avances en la sociedad de la información.

11.   Para orientar las evaluaciones y revisiones a que se refieren los apartados 1 a 7 del presente artículo, la Oficina de IA se encargará de desarrollar una metodología objetiva y participativa para la evaluación de los niveles de riesgo a partir de los criterios expuestos en los artículos pertinentes y la inclusión de nuevos sistemas en:

a) la lista establecida en el anexo III, incluida la ampliación de los ámbitos existentes o la inclusión de nuevos ámbitos en dicho anexo;

b) la lista de prácticas prohibidas establecida en el artículo 5, y

c) la lista de sistemas de IA que requieren medidas de transparencia adicionales con arreglo al artículo 50.

12.   Las modificaciones del presente Reglamento con arreglo al apartado 10, o los actos delegados o de ejecución pertinentes, que afecten a los actos legislativos de armonización de la Unión sectoriales que se enumeran en el anexo I, sección B, tendrán en cuenta las particularidades normativas de cada sector y los mecanismos de gobernanza, evaluación de la conformidad y ejecución vigentes, así como las autoridades establecidas en ellos.

13.   A más tardar el 2 de agosto de 2031, la Comisión evaluará la ejecución del presente Reglamento e informará al respecto al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, teniendo en cuenta los primeros años de aplicación del presente Reglamento. En función de sus conclusiones, dicho informe irá acompañado, en su caso, de una propuesta de modificación del presente Reglamento en lo que respecta a la estructura de ejecución y a la necesidad de que una agencia de la Unión resuelva las deficiencias detectadas.

Artículo 113. Entrada en vigor y aplicación

El presente Reglamento entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea.

Será aplicable a partir del 2 de agosto de 2026.

No obstante:

a) los capítulos I y II serán aplicables a partir del 2 de febrero de 2025;

b) el capítulo III, sección 4, el capítulo V, el capítulo VII y el capítulo XII y el artículo 78 serán aplicables a partir del 2 de agosto de 2025, a excepción del artículo 101;

c) el artículo 6, apartado 1, y las obligaciones correspondientes del presente Reglamento serán aplicables a partir del 2 de agosto de 2027.

El presente Reglamento será obligatorio en todos sus elementos y directamente aplicable en cada Estado miembro.

Hecho en Bruselas, el 13 de junio de 2024.

Por el Parlamento Europeo, La Presidenta, R. METSOLA

Por el Consejo, El Presidente, M. MICHEL

———————————————————-

(1)   DO C 517 de 22.12.2021, p. 56.

(2)   DO C 115 de 11.3.2022, p. 5.

(3)   DO C 97 de 28.2.2022, p. 60.

(4)  Posición del Parlamento Europeo de 13 de marzo de 2024 (pendiente de publicación en el Diario Oficial) y Decisión del Consejo de 21 de mayo de 2024.

(5)  Consejo Europeo, Reunión extraordinaria del Consejo Europeo (1 y 2 de octubre de 2020) – Conclusiones, EUCO 13/20, 2020, p. 6.

(6)  Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas [2020/2012(INL)].

(7)  Reglamento (CE) nº 765/2008 del Parlamento Europeo y del Consejo, de 9 de julio de 2008, por el que se establecen los requisitos de acreditación y por el que se deroga el Reglamento (CEE) nº 339/93 (DO L 218 de 13.8.2008, p. 30).

(8)  Decisión nº 768/2008/CE del Parlamento Europeo y del Consejo, de 9 de julio de 2008, sobre un marco común para la comercialización de los productos y por la que se deroga la Decisión 93/465/CEE del Consejo (DO L 218 de 13.8.2008, p. 82).

(9)  Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativo a la vigilancia del mercado y la conformidad de los productos y por el que se modifican la Directiva 2004/42/CE y los Reglamentos (CE) nº 765/2008 y (UE) nº 305/2011 (DO L 169 de 25.6.2019, p. 1).

(10)  Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(11)  Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (DO L 119 de 4.5.2016, p. 1).

(12)  Reglamento (UE) 2018/1725 del Parlamento Europeo y del Consejo, de 23 de octubre de 2018, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por las instituciones, órganos y organismos de la Unión, y a la libre circulación de esos datos, y por el que se derogan el Reglamento (CE) nº 45/2001 y la Decisión nº 1247/2002/CE (DO L 295 de 21.11.2018, p. 39).

(13)  Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo (DO L 119 de 4.5.2016, p. 89).

(14)  Directiva 2002/58/CE del Parlamento Europeo y del Consejo, de 12 de julio de 2002, relativa al tratamiento de los datos personales y a la protección de la intimidad en el sector de las comunicaciones electrónicas (Directiva sobre la privacidad y las comunicaciones electrónicas) (DO L 201 de 31.7.2002, p. 37).

(15)  Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de Servicios Digitales) (DO L 277 de 27.10.2022, p. 1).

(16)  Directiva (UE) 2019/882 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los requisitos de accesibilidad de los productos y servicios (DO L 151 de 7.6.2019, p. 70).

(17)  Directiva 2005/29/CE del Parlamento Europeo y del Consejo, de 11 de mayo de 2005, relativa a las prácticas comerciales desleales de las empresas en sus relaciones con los consumidores en el mercado interior, que modifica la Directiva 84/450/CEE del Consejo, las Directivas 97/7/CE, 98/27/CE y 2002/65/CE del Parlamento Europeo y del Consejo y el Reglamento (CE) nº 2006/2004 del Parlamento Europeo y del Consejo («Directiva sobre las prácticas comerciales desleales») (DO L 149 de 11.6.2005, p. 22).

(18)  Decisión Marco 2002/584/JAI del Consejo, de 13 de junio de 2002, relativa a la orden de detención europea y a los procedimientos de entrega entre Estados miembros (DO L 190 de 18.7.2002, p. 1).

(19)  Directiva (UE) 2022/2557 del Parlamento Europeo y del Consejo, de 14 de diciembre de 2022, relativa a la resiliencia de las entidades críticas y por la que se deroga la Directiva 2008/114/CE del Consejo (DO L 333 de 27.12.2022, p. 164).

(20)   DO C 247 de 29.6.2022, p. 1.

(21)  Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios, por el que se modifican la Directiva 2001/83/CE, el Reglamento (CE) nº 178/2002 y el Reglamento (CE) nº 1223/2009 y por el que se derogan las Directivas 90/385/CEE y 93/42/CEE del Consejo (DO L 117 de 5.5.2017, p. 1).

(22)  Reglamento (UE) 2017/746 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios para diagnóstico in vitro y por el que se derogan la Directiva 98/79/CE y la Decisión 2010/227/UE de la Comisión (DO L 117 de 5.5.2017, p. 176).

(23)  Directiva 2006/42/CE del Parlamento Europeo y del Consejo, de 17 de mayo de 2006, relativa a las máquinas y por la que se modifica la Directiva 95/16/CE (DO L 157 de 9.6.2006, p. 24).

(24)  Reglamento (CE) nº 300/2008 del Parlamento Europeo y del Consejo, de 11 de marzo de 2008, sobre normas comunes para la seguridad de la aviación civil y por el que se deroga el Reglamento (CE) nº 2320/2002 (DO L 97 de 9.4.2008, p. 72).

(25)  Reglamento (UE) nº 167/2013 del Parlamento Europeo y del Consejo, de 5 de febrero de 2013, relativo a la homologación de los vehículos agrícolas o forestales, y a la vigilancia del mercado de dichos vehículos (DO L 60 de 2.3.2013, p. 1).

(26)  Reglamento (UE) nº 168/2013 del Parlamento Europeo y del Consejo, de 15 de enero de 2013, relativo a la homologación de los vehículos de dos o tres ruedas y los cuatriciclos, y a la vigilancia del mercado de dichos vehículos (DO L 60 de 2.3.2013, p. 52).

(27)  Directiva 2014/90/UE del Parlamento Europeo y del Consejo, de 23 de julio de 2014, sobre equipos marinos, y por la que se deroga la Directiva 96/98/CE del Consejo (DO L 257 de 28.8.2014, p. 146).

(28)  Directiva (UE) 2016/797 del Parlamento Europeo y del Consejo, de 11 de mayo de 2016, sobre la interoperabilidad del sistema ferroviario dentro de la Unión Europea (DO L 138 de 26.5.2016, p. 44).

(29)  Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo, de 30 de mayo de 2018, sobre la homologación y la vigilancia del mercado de los vehículos de motor y sus remolques y de los sistemas, los componentes y las unidades técnicas independientes destinados a dichos vehículos, por el que se modifican los Reglamentos (CE) nº 715/2007 y (CE) nº 595/2009 y por el que se deroga la Directiva 2007/46/CE (DO L 151 de 14.6.2018, p. 1).

(30)  Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo, de 4 de julio de 2018, sobre normas comunes en el ámbito de la aviación civil y por el que se crea una Agencia de la Unión Europea para la Seguridad Aérea y por el que se modifican los Reglamentos (CE) nº 2111/2005, (CE) nº 1008/2008, (UE) nº 996/2010 y (UE) nº 376/2014 y las Directivas 2014/30/UE y 2014/53/UE del Parlamento Europeo y del Consejo y se derogan los Reglamentos (CE) nº 552/2004 y (CE) nº 216/2008 del Parlamento Europeo y del Consejo y el Reglamento (CEE) nº 3922/91 del Consejo (DO L 212 de 22.8.2018, p. 1).

(31)  Reglamento (UE) 2019/2144 del Parlamento Europeo y del Consejo, de 27 de noviembre de 2019, relativo a los requisitos de homologación de tipo de los vehículos de motor y de sus remolques, así como de los sistemas, componentes y unidades técnicas independientes destinados a esos vehículos, en lo que respecta a su seguridad general y a la protección de los ocupantes de los vehículos y de los usuarios vulnerables de la vía pública, por el que se modifica el Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo y se derogan los Reglamentos (CE) nº 78/2009, (CE) nº 79/2009 y (CE) nº 661/2009 del Parlamento Europeo y del Consejo y los Reglamentos (CE) nº 631/2009, (UE) nº 406/2010, (UE) nº 672/2010, (UE) nº 1003/2010, (UE) nº 1005/2010, (UE) nº 1008/2010, (UE) nº 1009/2010, (UE) nº 19/2011, (UE) nº 109/2011, (UE) nº 458/2011, (UE) nº 65/2012, (UE) nº 130/2012, (UE) nº 347/2012, (UE) nº 351/2012, (UE) nº 1230/2012 y (UE) 2015/166 de la Comisión (DO L 325 de 16.12.2019, p 1).

(32)  Reglamento (CE) nº 810/2009 del Parlamento Europeo y del Consejo, de 13 de julio de 2009, por el que se establece un Código comunitario sobre visados (Código de visados) (DO L 243 de 15.9.2009, p. 1).

(33)  Directiva 2013/32/UE del Parlamento Europeo y del Consejo, de 26 de junio de 2013, sobre procedimientos comunes para la concesión o la retirada de la protección internacional (DO L 180 de 29.6.2013, p. 60).

(34)  Reglamento (UE) 2024/900 del Parlamento Europeo y del Consejo, de 13 de marzo de 2024, sobre transparencia y segmentación en la publicidad política (DO L, 2024/900, 20.3.2024, ELI: http://data.europa.eu/eli/reg/2024/900/oj).

(35)  Directiva 2014/31/UE del Parlamento Europeo y del Consejo, de 26 de febrero de 2014, sobre la armonización de las legislaciones de los Estados miembros en materia de comercialización de instrumentos de pesaje de funcionamiento no automático (DO L 96 de 29.3.2014, p. 107).

(36)  Directiva 2014/32/UE del Parlamento Europeo y del Consejo, de 26 de febrero de 2014, sobre la armonización de las legislaciones de los Estados miembros en materia de comercialización de instrumentos de medida (DO L 96 de 29.3.2014, p. 149).

(37)  Reglamento (UE) 2019/881 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, relativo a ENISA (Agencia de la Unión Europea para la Ciberseguridad) y a la certificación de la ciberseguridad de las tecnologías de la información y la comunicación y por el que se deroga el Reglamento (UE) nº 526/2013 («Reglamento sobre la Ciberseguridad») (DO L 151 de 7.6.2019, p. 15).

(38)  Directiva (UE) 2016/2102 del Parlamento Europeo y del Consejo, de 26 de octubre de 2016, sobre la accesibilidad de los sitios web y aplicaciones para dispositivos móviles de los organismos del sector público (DO L 327 de 2.12.2016, p. 1).

(39)  Directiva 2002/14/CE del Parlamento Europeo y del Consejo, de 11 de marzo de 2002, por la que se establece un marco general relativo a la información y a la consulta de los trabajadores en la Comunidad Europea (DO L 80 de 23.3.2002, p. 29).

(40)  Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital y por la que se modifican las Directivas 96/9/CE y 2001/29/CE (DO L 130 de 17.5.2019, p. 92).

(41)  Reglamento (UE) nº 1025/2012 del Parlamento Europeo y del Consejo, de 25 de octubre de 2012, sobre la normalización europea, por el que se modifican las Directivas 89/686/CEE y 93/15/CEE del Consejo y las Directivas 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE y 2009/105/CE del Parlamento Europeo y del Consejo y por el que se deroga la Decisión 87/95/CEE del Consejo y la Decisión nº 1673/2006/CE del Parlamento Europeo y del Consejo (DO L 316 de 14.11.2012, p. 12).

(42)  Reglamento (UE) 2022/868 del Parlamento Europeo y del Consejo, de 30 de mayo de 2022, relativo a la gobernanza europea de datos y por el que se modifica el Reglamento (UE) 2018/1724 (Reglamento de Gobernanza de Datos) (DO L 152 de 3.6.2022, p. 1).

(43)  Reglamento (UE) 2023/2854 del Parlamento Europeo y del Consejo, de 13 de diciembre de 2023, sobre normas armonizadas para un acceso justo a los datos y su utilización, y por el que se modifican el Reglamento (UE) 2017/2394 y la Directiva (UE) 2020/1828 (Reglamento de Datos) (DO L, 2023/2854, 22.12.2023, ELI: http://data.europa.eu/eli/reg/2023/2854/oj).

(44)  Recomendación 2003/361/CE de la Comisión, de 6 de mayo de 2003, sobre la definición de microempresas, pequeñas y medianas empresas (DO L 124 de 20.5.2003, p. 36).

(45)  Decisión de la Comisión, de 24 de enero de 2024, por la que se crea la Oficina Europea de Inteligencia Artificial (C/2024/390).

(46)  Reglamento (UE) nº 575/2013 del Parlamento Europeo y del Consejo, de 26 de junio de 2013, sobre los requisitos prudenciales de las entidades de crédito, y por el que se modifica el Reglamento (UE) nº 648/2012 (DO L 176 de 27.6.2013, p. 1).

(47)  Directiva 2008/48/CE del Parlamento Europeo y del Consejo, de 23 de abril de 2008, relativa a los contratos de crédito al consumo y por la que se deroga la Directiva 87/102/CEE del Consejo (DO L 133 de 22.5.2008, p. 66).

(48)  Directiva 2009/138/CE del Parlamento Europeo y del Consejo, de 25 de noviembre de 2009, sobre el acceso a la actividad de seguro y de reaseguro y su ejercicio (Solvencia II) (DO L 335 de 17.12.2009, p. 1).

(49)  Directiva 2013/36/UE del Parlamento Europeo y del Consejo, de 26 de junio de 2013, relativa al acceso a la actividad de las entidades de crédito y a la supervisión prudencial de las entidades de crédito, por la que se modifica la Directiva 2002/87/CE y se derogan las Directivas 2006/48/CE y 2006/49/CE (DO L 176 de 27.6.2013, p. 338).

(50)  Directiva 2014/17/UE del Parlamento Europeo y del Consejo, de 4 de febrero de 2014, sobre los contratos de crédito celebrados con los consumidores para bienes inmuebles de uso residencial y por la que se modifican las Directivas 2008/48/CE y 2013/36/UE y el Reglamento (UE) nº 1093/2010 (DO L 60 de 28.2.2014, p. 34).

(51)  Directiva (UE) 2016/97 del Parlamento Europeo y del Consejo, de 20 de enero de 2016, sobre la distribución de seguros (DO L 26 de 2.2.2016, p. 19).

(52)  Reglamento (UE) nº 1024/2013 del Consejo, de 15 de octubre de 2013, que encomienda al Banco Central Europeo tareas específicas respecto de políticas relacionadas con la supervisión prudencial de las entidades de crédito (DO L 287 de 29.10.2013, p. 63).

(53)  Reglamento (UE) 2023/988 del Parlamento Europeo y del Consejo, de 10 de mayo de 2023, relativo a la seguridad general de los productos, por el que se modifican el Reglamento (UE) nº 1025/2012 del Parlamento Europeo y del Consejo y la Directiva (UE) 2020/1828 del Parlamento Europeo y del Consejo, y se derogan la Directiva 2001/95/CE del Parlamento Europeo y del Consejo y la Directiva 87/357/CEE del Consejo (DO L 135 de 23.5.2023, p. 1).

(54)  Directiva (UE) 2019/1937 del Parlamento Europeo y del Consejo, de 23 de octubre de 2019, relativa a la protección de las personas que informen sobre infracciones del Derecho de la Unión (DO L 305 de 26.11.2019, p. 17).

(55)   DO L 123 de 12.5.2016, p. 1.

(56)  Reglamento (UE) nº 182/2011 del Parlamento Europeo y del Consejo, de 16 de febrero de 2011, por el que se establecen las normas y los principios generales relativos a las modalidades de control por parte de los Estados miembros del ejercicio de las competencias de ejecución por la Comisión (DO L 55 de 28.2.2011, p. 13).

(57)  Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, de 8 de junio de 2016, relativa a la protección de los conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y revelación ilícitas (DO L 157 de 15.6.2016, p. 1).

(58)  Directiva (UE) 2020/1828 del Parlamento Europeo y del Consejo, de 25 de noviembre de 2020, relativa a las acciones de representación para la protección de los intereses colectivos de los consumidores, y por la que se deroga la Directiva 2009/22/CE (DO L 409 de 4.12.2020, p. 1).

ANEXO I. Lista de actos legislativos de armonización de la Unión

Sección A — Lista de actos legislativos de armonización de la Unión basados en el nuevo marco legislativo

1. Directiva 2006/42/CE del Parlamento Europeo y del Consejo, de 17 de mayo de 2006, relativa a las máquinas y por la que se modifica la Directiva 95/16/CE (DO L 157 de 9.6.2006, p. 24)

2. Directiva 2009/48/CE del Parlamento Europeo y del Consejo, de 18 de junio de 2009, sobre la seguridad de los juguetes (DO L 170 de 30.6.2009, p. 1)

3. Directiva 2013/53/UE del Parlamento Europeo y del Consejo, de 20 de noviembre de 2013, relativa a las embarcaciones de recreo y a las motos acuáticas, y por la que se deroga la Directiva 94/25/CE (DO L 354 de 28.12.2013, p. 90)

4. Directiva 2014/33/UE del Parlamento Europeo y del Consejo, de 26 de febrero de 2014, sobre la armonización de las legislaciones de los Estados miembros en materia de ascensores y componentes de seguridad para ascensores (DO L 96 de 29.3.2014, p. 251)

5. Directiva 2014/34/UE del Parlamento Europeo y del Consejo, de 26 de febrero de 2014, sobre la armonización de las legislaciones de los Estados miembros en materia de aparatos y sistemas de protección para uso en atmósferas potencialmente explosivas (DO L 96 de 29.3.2014, p. 309)

6. Directiva 2014/53/UE del Parlamento Europeo y del Consejo, de 16 de abril de 2014, relativa a la armonización de las legislaciones de los Estados miembros sobre la comercialización de equipos radioeléctricos, y por la que se deroga la Directiva 1999/5/CE (DO L 153 de 22.5.2014, p. 62)

7. Directiva 2014/68/UE del Parlamento Europeo y del Consejo, de 15 de mayo de 2014, relativa a la armonización de las legislaciones de los Estados miembros sobre la comercialización de equipos a presión (DO L 189 de 27.6.2014, p. 164)

8. Reglamento (UE) 2016/424 del Parlamento Europeo y del Consejo, de 9 de marzo de 2016, relativo a las instalaciones de transporte por cable y por el que se deroga la Directiva 2000/9/CE (DO L 81 de 31.3.2016, p. 1)

9. Reglamento (UE) 2016/425 del Parlamento Europeo y del Consejo, de 9 de marzo de 2016, relativo a los equipos de protección individual y por el que se deroga la Directiva 89/686/CEE del Consejo (DO L 81 de 31.3.2016, p. 51)

10. Reglamento (UE) 2016/426 del Parlamento Europeo y del Consejo, de 9 de marzo de 2016, sobre los aparatos que queman combustibles gaseosos y por el que se deroga la Directiva 2009/142/CE (DO L 81 de 31.3.2016, p. 99)

11. Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios, por el que se modifican la Directiva 2001/83/CE, el Reglamento (CE) nº 178/2002 y el Reglamento (CE) nº 1223/2009 y por el que se derogan las Directivas 90/385/CEE y 93/42/CEE del Consejo (DO L 117 de 5.5.2017, p. 1)

12. Reglamento (UE) 2017/746 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios para diagnóstico in vitro y por el que se derogan la Directiva 98/79/CE y la Decisión 2010/227/UE de la Comisión (DO L 117 de 5.5.2017, p. 176)

Sección B — Lista de otros actos legislativos de armonización de la Unión

13. Reglamento (CE) nº 300/2008 del Parlamento Europeo y del Consejo, de 11 de marzo de 2008, sobre normas comunes para la seguridad de la aviación civil y por el que se deroga el Reglamento (CE) nº 2320/2002 (DO L 97 de 9.4.2008, p. 72)

14. Reglamento (UE) nº 168/2013 del Parlamento Europeo y del Consejo, de 15 de enero de 2013, relativo a la homologación de los vehículos de dos o tres ruedas y los cuatriciclos, y a la vigilancia del mercado de dichos vehículos (DO L 60 de 2.3.2013, p. 52)

15. Reglamento (UE) nº 167/2013 del Parlamento Europeo y del Consejo, de 5 de febrero de 2013, relativo a la homologación de los vehículos agrícolas o forestales, y a la vigilancia del mercado de dichos vehículos (DO L 60 de 2.3.2013, p. 1)

16. Directiva 2014/90/UE del Parlamento Europeo y del Consejo, de 23 de julio de 2014, sobre equipos marinos, y por la que se deroga la Directiva 96/98/CE del Consejo (DO L 257 de 28.8.2014, p. 146)

17. Directiva (UE) 2016/797 del Parlamento Europeo y del Consejo, de 11 de mayo de 2016, sobre la interoperabilidad del sistema ferroviario dentro de la Unión Europea (DO L 138 de 26.5.2016, p. 44)

18. Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo, de 30 de mayo de 2018, sobre la homologación y la vigilancia del mercado de los vehículos de motor y sus remolques y de los sistemas, los componentes y las unidades técnicas independientes destinados a dichos vehículos, por el que se modifican los Reglamentos (CE) nº 715/2007 y (CE) nº 595/2009 y por el que se deroga la Directiva 2007/46/CE (DO L 151 de 14.6.2018, p. 1)

19. Reglamento (UE) 2019/2144 del Parlamento Europeo y del Consejo, de 27 de noviembre de 2019, relativo a los requisitos de homologación de tipo de los vehículos de motor y de sus remolques, así como de los sistemas, componentes y unidades técnicas independientes destinados a esos vehículos, en lo que respecta a su seguridad general y a la protección de los ocupantes de los vehículos y de los usuarios vulnerables de la vía pública, por el que se modifica el Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo y se derogan los Reglamentos (CE) nº 78/2009, (CE) nº 79/2009 y (CE) nº 661/2009 del Parlamento Europeo y del Consejo y los Reglamentos (CE) nº 631/2009, (UE) nº 406/2010, (UE) nº 672/2010, (UE) nº 1003/2010, (UE) nº 1005/2010, (UE) nº 1008/2010, (UE) nº 1009/2010, (UE) nº 19/2011, (UE) nº 109/2011, (UE) nº 458/2011, (UE) nº 65/2012, (UE) nº 130/2012, (UE) nº 347/2012, (UE) nº 351/2012, (UE) nº 1230/2012 y (UE) 2015/166 de la Comisión (DO L 325 de 16.12.2019, p. 1)

20. Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo, de 4 de julio de 2018, sobre normas comunes en el ámbito de la aviación civil y por el que se crea una Agencia de la Unión Europea para la Seguridad Aérea y por el que se modifican los Reglamentos (CE) nº 2111/2005, (CE) nº 1008/2008, (UE) nº 996/2010 y (UE) nº 376/2014 y las Directivas 2014/30/UE y 2014/53/UE del Parlamento Europeo y del Consejo y se derogan los Reglamentos (CE) nº 552/2004 y (CE) nº 216/2008 del Parlamento Europeo y del Consejo y el Reglamento (CEE) nº 3922/91 del Consejo (DO L 212 de 22.8.2018, p. 1), en la medida en que afecte al diseño, la producción y la introducción en el mercado de aeronaves a que se refiere el artículo 2, apartado 1, letras a) y b), por lo que respecta a las aeronaves no tripuladas y sus motores, hélices, componentes y equipos para controlarlas a distancia

ANEXO II. Lista de los delitos a que se refiere el artículo 5, apartado 1, párrafo primero, letra h), inciso iii)

Delitos a que se refiere el artículo 5, apartado 1, párrafo primero, letra h), inciso iii):

—terrorismo,

—trata de seres humanos,

—explotación sexual de menores y pornografía infantil,

—tráfico ilícito de estupefacientes o sustancias psicotrópicas,

—tráfico ilícito de armas, municiones y explosivos,

—homicidio voluntario, agresión con lesiones graves,

—tráfico ilícito de órganos o tejidos humanos,

—tráfico ilícito de materiales nucleares o radiactivos,

—secuestro, detención ilegal o toma de rehenes,

—delitos que son competencia de la Corte Penal Internacional,

—secuestro de aeronaves o buques,

—violación,

—delitos contra el medio ambiente,

—robo organizado o a mano armada,

—sabotaje,

—participación en una organización delictiva implicada en uno o varios de los delitos enumerados en esta lista.

ANEXO III. Sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2

Los sistemas de IA de alto riesgo con arreglo al artículo 6, apartado 2, son los sistemas de IA que formen parte de cualquiera de los ámbitos siguientes:

1. Biometría, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable:

a) Sistemas de identificación biométrica remota

Quedan excluidos los sistemas de IA destinados a ser utilizados con fines de verificación biométrica cuya única finalidad sea confirmar que una persona física concreta es la persona que afirma ser

b) Sistemas de IA destinados a ser utilizados para la categorización biométrica en función de atributos o características sensibles o protegidos basada en la inferencia de dichos atributos o características

c) Sistemas de IA destinados a ser utilizados para el reconocimiento de emociones

2. Infraestructuras críticas: Sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento de las infraestructuras digitales críticas, del tráfico rodado o del suministro de agua, gas, calefacción o electricidad

3. Educación y formación profesional:

a) Sistemas de IA destinados a ser utilizados para determinar el acceso o la admisión de personas físicas a centros educativos y de formación profesional a todos los niveles o para distribuir a las personas físicas entre dichos centros

b) Sistemas de IA destinados a ser utilizados para evaluar los resultados del aprendizaje, también cuando dichos resultados se utilicen para orientar el proceso de aprendizaje de las personas físicas en centros educativos y de formación profesional a todos los niveles

c) Sistemas de IA destinados a ser utilizados para evaluar el nivel de educación adecuado que recibirá una persona o al que podrá acceder, en el contexto de los centros educativos y de formación profesional o dentro de estos a todos los niveles

d) Sistemas de IA destinados a ser utilizados para el seguimiento y la detección de comportamientos prohibidos por parte de los estudiantes durante los exámenes en el contexto de los centros educativos y de formación profesional o dentro de estos a todos los niveles

4. Empleo, gestión de los trabajadores y acceso al autoempleo:

a) Sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos

b) Sistemas de IA destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones

5. Acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales y disfrute de estos servicios y prestaciones:

a) Sistemas de IA destinados a ser utilizados por las autoridades públicas o en su nombre para evaluar la admisibilidad de las personas físicas para beneficiarse de servicios y prestaciones esenciales de asistencia pública, incluidos los servicios de asistencia sanitaria, así como para conceder, reducir o retirar dichos servicios y prestaciones o reclamar su devolución

b) Sistemas de IA destinados a ser utilizados para evaluar la solvencia de personas físicas o establecer su calificación crediticia, salvo los sistemas de IA utilizados al objeto de detectar fraudes financieros

c) Sistemas de IA destinados a ser utilizados para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de vida y de salud

d) Sistemas de IA destinados a ser utilizados para la evaluación y la clasificación de las llamadas de emergencia realizadas por personas físicas o para el envío o el establecimiento de prioridades en el envío de servicios de primera intervención en situaciones de emergencia, por ejemplo, policía, bomberos y servicios de asistencia médica, y en sistemas de triaje de pacientes en el contexto de la asistencia sanitaria de urgencia

6. Garantía del cumplimiento del Derecho, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable:

a) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho, o en su nombre, para evaluar el riesgo de que una persona física sea víctima de delitos

b) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho como polígrafos o herramientas similares

c) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho para evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos

d) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho para evaluar el riesgo de que una persona física cometa un delito o reincida en la comisión de un delito atendiendo no solo a la elaboración de perfiles de personas físicas mencionada en el artículo 3, punto 4, de la Directiva (UE) 2016/680 o para evaluar rasgos y características de la personalidad o comportamientos delictivos pasados de personas físicas o colectivos

e) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho para elaborar perfiles de personas físicas, como se menciona en el artículo 3, punto 4, de la Directiva (UE) 2016/680, durante la detección, la investigación o el enjuiciamiento de delitos

7. Migración, asilo y gestión del control fronterizo, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable:

a) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión, como polígrafos o herramientas similares

b) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión para evaluar un riesgo, por ejemplo, un riesgo para la seguridad, la salud o de migración irregular, que plantee una persona física que tenga la intención de entrar en el territorio de un Estado miembro o haya entrado en él

c) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión para ayudar a las autoridades públicas competentes a examinar las solicitudes de asilo, visado o permiso de residencia y las reclamaciones conexas con el fin de determinar si las personas físicas solicitantes reúnen los requisitos necesarios para que se conceda su solicitud, con inclusión de la evaluación conexa de la fiabilidad de las pruebas

d) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión, en el contexto de la migración, el asilo o la gestión del control fronterizo, con el fin de detectar, reconocer o identificar a personas físicas, con excepción de la verificación de documentos de viaje

8. Administración de justicia y procesos democráticos:

a) Sistemas de IA destinados a ser utilizados por una autoridad judicial, o en su nombre, para ayudar a una autoridad judicial en la investigación e interpretación de hechos y de la ley, así como en la garantía del cumplimiento del Derecho a un conjunto concreto de hechos, o a ser utilizados de forma similar en una resolución alternativa de litigios;

b) Sistemas de IA destinados a ser utilizados para influir en el resultado de una elección o referéndum o en el comportamiento electoral de personas físicas que ejerzan su derecho de voto en elecciones o referendos. Quedan excluidos los sistemas de IA a cuyos resultados de salida no estén directamente expuestos las personas físicas, como las herramientas utilizadas para organizar, optimizar o estructurar campañas políticas desde un punto de vista administrativo o logístico.

ANEXO IV. Documentación técnica a que se refiere el artículo 11, apartado 1

La documentación técnica a que se refiere el artículo 11, apartado 1, incluirá como mínimo la siguiente información, aplicable al sistema de IA pertinente:

1. Una descripción general del sistema de IA que incluya:

a) su finalidad prevista, el nombre del proveedor y la versión del sistema de tal manera que se refleje su relación con versiones anteriores;

b) la manera en que el sistema de IA interactúa o puede utilizarse para interactuar con hardware o software, también con otros sistemas de IA, que no formen parte del propio sistema de IA, cuando proceda;

c) las versiones de software o firmware pertinentes y todo requisito relacionado con la actualización de versiones;

d) la descripción de todas las formas en que el sistema de IA se introduce en el mercado o se pone en servicio, como paquetes de software integrados en el hardware, descargas o API;

e) la descripción del hardware en el que está previsto que se ejecute el sistema de IA;

f) en el caso de que el sistema de IA sea un componente de un producto, fotografías o ilustraciones de las características exteriores, el marcado y la configuración interna de dicho producto;

g) una descripción básica de la interfaz de usuario facilitada al responsable del despliegue;

h) instrucciones de uso para el responsable del despliegue y una descripción básica de la interfaz de usuario facilitada al responsable del despliegue, cuando proceda.

2. Una descripción detallada de los elementos del sistema de IA y de su proceso de desarrollo, incluidos:

a) los métodos y las medidas adoptados para el desarrollo del sistema de IA, incluido, en su caso, el recurso a sistemas o herramientas previamente entrenados facilitados por terceros y la manera en que han sido utilizados, integrados o modificados por el proveedor;

b) las especificaciones de diseño del sistema, a saber, la lógica general del sistema de IA y de los algoritmos; las decisiones clave de diseño, incluidos la lógica y los supuestos de los que se ha partido, también con respecto a las personas o colectivos de personas en relación con los que está previsto que se utilice el sistema; las principales decisiones de clasificación; aquello que el sistema está diseñado para optimizar y la pertinencia de los diversos parámetros; la descripción de los resultados de salida esperados del sistema y la calidad de dichos resultados; las decisiones adoptadas acerca de cualquier posible concesión con respecto a las soluciones técnicas adoptadas para dar cumplimiento a los requisitos establecidos en el capítulo III, sección 2;

c) la arquitectura del sistema, con una explicación de la manera en que los componentes del software se utilizan o enriquecen mutuamente y de la manera en que se integran en el procesamiento general; los recursos informáticos utilizados para desarrollar, entrenar, probar y validar el sistema de IA;

d) cuando proceda, los requisitos en materia de datos, en forma de fichas técnicas que describan las metodologías y técnicas de entrenamiento, así como los conjuntos de datos de entrenamiento utilizados, e incluyan una descripción general de dichos conjuntos de datos e información acerca de su procedencia, su alcance y sus características principales; la manera en que se obtuvieron y seleccionaron los datos; los procedimientos de etiquetado (p. ej., para el aprendizaje supervisado) y las metodologías de depuración de datos (p. ej., la detección de anomalías);

e) una evaluación de las medidas de supervisión humana necesarias de conformidad con el artículo 14, incluida una evaluación de las medidas técnicas necesarias para facilitar la interpretación de los resultados de salida de los sistemas de IA por parte de los responsables del despliegue, con arreglo al artículo 13, apartado 3, letra d);

f) en su caso, una descripción detallada de los cambios predeterminados en el sistema de IA y su funcionamiento, junto con toda la información pertinente relativa a las soluciones técnicas adoptadas con el objetivo de garantizar la conformidad permanente del sistema de IA con los requisitos pertinentes establecidos en el capítulo III, sección 2;

g) los procedimientos de validación y prueba utilizados, incluida la información acerca de los datos de validación y prueba empleados y sus características principales; los parámetros utilizados para medir la precisión, la solidez y el cumplimiento de otros requisitos pertinentes establecidos en el capítulo III, sección 2, así como los efectos potencialmente discriminatorios; los archivos de registro de las pruebas y todos los informes de las pruebas fechados y firmados por las personas responsables, también en lo que respecta a los cambios predeterminados a que se refiere la letra f);

h) las medidas de ciberseguridad adoptadas.

3. Información detallada acerca de la supervisión, el funcionamiento y el control del sistema de IA, en particular con respecto a sus capacidades y limitaciones de funcionamiento, incluidos los niveles de precisión para las personas o colectivos de personas específicos en relación con los que está previsto que se utilice el sistema y el nivel general de precisión esperado en relación con su finalidad prevista; los resultados no deseados previsibles y las fuentes de riesgo para la salud y la seguridad, los derechos fundamentales y la discriminación, en vista de la finalidad prevista del sistema de IA; las medidas de supervisión humana necesarias de conformidad con el artículo 14, incluidas las medidas técnicas establecidas para facilitar la interpretación de los resultados de salida de los sistemas de IA por parte de los responsables del despliegue; las especificaciones de los datos de entrada, según proceda.

4. Una descripción de la idoneidad de los parámetros de rendimiento para el sistema de IA concreto.

5. Una descripción detallada del sistema de gestión de riesgos con arreglo al artículo 9.

6. Una descripción de los cambios pertinentes realizados por el proveedor en el sistema a lo largo de su ciclo de vida.

7. Una lista de las normas armonizadas, aplicadas total o parcialmente, cuyas referencias se hayan publicado en el Diario Oficial de la Unión Europea; cuando no se hayan aplicado normas armonizadas, una descripción detallada de las soluciones adoptadas para cumplir los requisitos establecidos en el capítulo III, sección 2, incluida una lista de otras normas y especificaciones técnicas pertinentes que se hayan aplicado.

8. Una copia de la declaración UE de conformidad de conformidad con el artículo 47.

9. Una descripción detallada del sistema establecido para evaluar el funcionamiento del sistema de IA en la fase posterior a la comercialización, de conformidad con el artículo 72, incluido el plan de vigilancia poscomercialización a que se refiere el artículo 72, apartado 3.

ANEXO V. Declaración UE de conformidad

La declaración UE de conformidad a que se hace referencia en el artículo 47 contendrá toda la información siguiente:

1. El nombre y tipo del sistema de IA, y toda referencia inequívoca adicional que permita la identificación y trazabilidad del sistema de IA.

2. El nombre y la dirección del proveedor o, en su caso, de su representante autorizado.

3. La afirmación de que la declaración UE de conformidad con el artículo 47 se expide bajo la exclusiva responsabilidad del proveedor.

4. La declaración de que el sistema de IA es conforme con el presente Reglamento y, en su caso, con cualquier otra disposición de Derecho de la Unión pertinente que disponga la expedición de la declaración UE de conformidad con el artículo 47.

5. Cuando un sistema de IA implique el tratamiento de datos personales, la declaración de que el sistema de IA se ajusta al Reglamento (UE) 2016/679, al Reglamento (UE) 2018/1725 y a la Directiva (UE) 2016/680.

6. Referencias a todas las normas armonizadas pertinentes que se hayan aplicado o a cualquier otra especificación común respecto de la que se declara la conformidad.

7. En su caso, el nombre y el número de identificación del organismo notificado, una descripción del procedimiento de evaluación de la conformidad que se haya seguido y la identificación del certificado expedido.

8. El lugar y la fecha de expedición de la declaración, el nombre y el cargo de la persona que la firme, la indicación de la persona en cuyo nombre o por cuya cuenta firma la declaración y la firma.

ANEXO VI. Procedimiento de evaluación de la conformidad fundamentado en un control interno

1.    El procedimiento de evaluación de la conformidad fundamentado en un control interno es el procedimiento de evaluación de la conformidad basado en los puntos 2, 3 y 4.

2.    El proveedor comprueba que el sistema de gestión de la calidad establecido cumple los requisitos establecidos en el artículo 17.

3.    El proveedor examina la información de la documentación técnica para evaluar la conformidad del sistema de IA con los requisitos esenciales pertinentes establecidos en el capítulo III, sección 2.

4.    Asimismo, el proveedor comprueba que el proceso de diseño y desarrollo del sistema de IA y la vigilancia poscomercialización del mismo a que se refiere el artículo 72 son coherentes con la documentación técnica.

ANEXO VII. Conformidad fundamentada en la evaluación del sistema de gestión de la calidad y la evaluación de la documentación técnica

1.   Introducción

La conformidad fundamentada en la evaluación del sistema de gestión de la calidad y la evaluación de la documentación técnica es el procedimiento de evaluación de la conformidad basado en los puntos 2 a 5.

2.   Presentación general

El sistema de gestión de la calidad aprobado en relación con el diseño, el desarrollo y las pruebas de los sistemas de IA con arreglo al artículo 17 se examinará de conformidad con el punto 3 y será objeto de vigilancia con arreglo a lo establecido en el punto 5. La documentación técnica del sistema de IA se examinará de conformidad con el punto 4.

3.   Sistema de gestión de la calidad

3.1. La solicitud del proveedor incluirá:

a) el nombre y la dirección del proveedor y, si es el representante autorizado quien presenta la solicitud, también su nombre y dirección;

b) la lista de los sistemas de IA a los que se aplica el mismo sistema de gestión de la calidad;

c) la documentación técnica de cada sistema de IA al que se aplica el mismo sistema de gestión de la calidad;

d) la documentación relativa al sistema de gestión de la calidad, que cubrirá todos los aspectos enumerados en el artículo 17;

e) una descripción de los procedimientos establecidos para garantizar que el sistema de gestión de la calidad sigue siendo adecuado y eficaz;

f) una declaración por escrito de que no se ha presentado la misma solicitud ante ningún otro organismo notificado.

3.2. El sistema de gestión de la calidad será evaluado por el organismo notificado, que determinará si cumple los requisitos especificados en el artículo 17.

La decisión se notificará al proveedor o a su representante autorizado.

La notificación incluirá las conclusiones de la evaluación del sistema de gestión de la calidad y una decisión motivada sobre la evaluación.

3.3. El proveedor continuará aplicando y manteniendo el sistema de gestión de la calidad aprobado de forma que siga siendo adecuado y eficaz.

3.4. El proveedor comunicará al organismo notificado toda modificación prevista del sistema de gestión de la calidad aprobado o de la lista de sistemas de IA a los que este se aplica.

El organismo notificado examinará los cambios propuestos y decidirá si el sistema de gestión de la calidad modificado sigue cumpliendo los requisitos mencionados en el punto 3.2 o si es necesario realizar una nueva evaluación.

El organismo notificado notificará su decisión al proveedor. La notificación incluirá las conclusiones del examen de los cambios y una decisión motivada sobre la evaluación.

4.   Control de la documentación técnica

4.1. Además de la solicitud a que se refiere el punto 3, el proveedor presentará una solicitud ante el organismo notificado de su elección para la evaluación de la documentación técnica relativa al sistema de IA que el proveedor pretenda introducir en el mercado o poner en servicio y al que se aplique el sistema de gestión de la calidad mencionado en el punto 3.

4.2. La solicitud incluirá:

a) el nombre y la dirección del proveedor;

b) una declaración por escrito de que no se ha presentado la misma solicitud ante ningún otro organismo notificado;

c) la documentación técnica prevista en el anexo IV.

4.3. El organismo notificado examinará la documentación técnica. Cuando proceda, y en la medida en que sea necesario para el desempeño de sus tareas, se concederá al organismo notificado pleno acceso a los conjuntos de datos de entrenamiento, validación y prueba utilizados, también, cuando proceda y con sujeción a garantías de seguridad, a través de API u otras herramientas y medios técnicos pertinentes que permitan el acceso a distancia.

4.4. Al examinar la documentación técnica, el organismo notificado podrá exigir que el proveedor facilite más pruebas justificativas o que lleve a cabo pruebas adicionales para que pueda evaluarse adecuadamente la conformidad del sistema de IA con los requisitos establecidos en el capítulo III, sección 2. Cuando el organismo notificado no quede satisfecho con las pruebas realizadas por el proveedor, efectuará él mismo directamente las pruebas adecuadas, según proceda.

4.5.  Asimismo, se concederá al organismo notificado acceso al modelo de entrenamiento y al modelo entrenado del sistema de IA, con sus correspondientes parámetros, para, en caso necesario, una vez se hayan agotado y hayan demostrado ser insuficientes todas las demás vías razonables para verificar la conformidad, y previa solicitud motivada, evaluar la conformidad del sistema de IA de alto riesgo con los requisitos establecidos en el capítulo III, sección 2. Dicho acceso estará sujeto al Derecho de la Unión vigente relativo a la protección de la propiedad intelectual e industrial y los secretos comerciales.

4.6. Se notificará la decisión del organismo notificado al proveedor o a su representante autorizado. La notificación incluirá las conclusiones de la evaluación de la documentación técnica y una decisión motivada sobre la evaluación.

Cuando el sistema de IA cumpla los requisitos establecidos en el capítulo III, sección 2, el organismo notificado expedirá un certificado de la Unión de evaluación de la documentación técnica. Dicho certificado indicará el nombre y la dirección del proveedor, las conclusiones del examen, las condiciones de validez (en su caso) y los datos necesarios para identificar el sistema de IA.

El certificado y sus anexos contendrán toda la información pertinente para poder evaluar la conformidad del sistema de IA y permitir el control del sistema de IA mientras esté en uso, cuando proceda.

Cuando el sistema de IA no cumpla los requisitos establecidos en el capítulo III, sección 2, el organismo notificado denegará la expedición del certificado de la Unión de evaluación de la documentación técnica e informará de ello al solicitante, motivando detalladamente su decisión.

Cuando el sistema de IA no cumpla los requisitos relativos a los datos utilizados para su entrenamiento, será necesario llevar a cabo un nuevo entrenamiento del sistema antes de solicitar una nueva evaluación de la conformidad. En este caso, la decisión motivada sobre la evaluación del organismo notificado que deniegue la expedición del certificado de la Unión de evaluación de la documentación técnica contendrá consideraciones específicas relativas a la calidad de los datos utilizados para entrenar el sistema de IA, en particular acerca de los motivos del incumplimiento.

4.7. Todo cambio del sistema de IA que pueda afectar a su cumplimiento de los requisitos o su finalidad prevista será evaluado por el organismo notificado que haya expedido el certificado de la Unión de evaluación de la documentación técnica. El proveedor informará a dicho organismo notificado de su intención de introducir cualquiera de los cambios previamente mencionados o de si tiene constancia de que se hayan producido tales cambios. El organismo notificado evaluará los cambios previstos y decidirá si estos requieren una nueva evaluación de la conformidad con arreglo al artículo 43, apartado 4, o si pueden ser objeto de un suplemento al certificado de la Unión de evaluación de la documentación técnica. En este último caso, el organismo notificado evaluará los cambios, notificará su decisión al proveedor y, si aprueba los cambios, expedirá un suplemento al certificado de la Unión de evaluación de la documentación técnica.

5.   Vigilancia del sistema de gestión de la calidad aprobado

5.1. La finalidad de la vigilancia por parte del organismo notificado a que se refiere el punto 3 es asegurarse de que el proveedor cumple debidamente las condiciones del sistema de gestión de la calidad aprobado.

5.2. A efectos de la evaluación, el proveedor dará acceso al organismo notificado a las instalaciones donde se estén diseñando, desarrollando o probando los sistemas de IA. Además, el proveedor facilitará al organismo notificado toda la información necesaria.

5.3. El organismo notificado realizará auditorías periódicas para asegurarse de que el proveedor mantiene y aplica el sistema de gestión de la calidad, y le entregará un informe de la auditoría. En el marco de dichas auditorías, el organismo notificado podrá efectuar más pruebas de los sistemas de IA para los que se hayan expedido certificados de la Unión de evaluación de la documentación técnica.

ANEXO VIII. Información que debe presentarse para la inscripción en el registro de sistemas de IA de alto riesgo de conformidad con el artículo 49

Sección A — Información que deben presentar los proveedores de sistemas de IA de alto riesgo de conformidad con el artículo 49, apartado 1

Con respecto a los sistemas de IA de alto riesgo que vayan a inscribirse en el registro de conformidad con el artículo 49, apartado 1, se facilitará y se actualizará debidamente la información siguiente:

1. El nombre, la dirección y los datos de contacto del proveedor.

2. Cuando sea otra persona la que presente la información en nombre del proveedor, el nombre, dirección y datos de contacto de dicha persona.

3. El nombre, la dirección y los datos de contacto del representante autorizado, en su caso.

4. El nombre comercial del sistema de IA y toda referencia inequívoca adicional que permita su identificación y trazabilidad.

5. La descripción de la finalidad prevista del sistema de IA y de los componentes y funciones que se apoyan a través del mismo.

6. Una descripción sencilla y concisa de la información que utiliza el sistema (datos, entradas) y su lógica de funcionamiento.

7. La situación del sistema de IA (comercializado o puesto en servicio, ha dejado de comercializarse o de estar en servicio, recuperado).

8. El tipo, el número y la fecha de caducidad del certificado expedido por el organismo notificado y el nombre o número de identificación de dicho organismo notificado, cuando proceda.

9. Una copia escaneada del certificado a que se refiere el punto 8, cuando proceda.

10. Todo Estado miembro en el que el sistema de IA se haya introducido en el mercado, puesto en servicio o comercializado en la Unión.

11.Una copia de la declaración UE de conformidad a que se refiere el artículo 47.

12.Las instrucciones de uso electrónicas. No se facilitará esta información en el caso de los sistemas de IA de alto riesgo en los ámbitos de la garantía del cumplimiento del Derecho o la migración, el asilo y la gestión del control fronterizo a que se refiere el anexo III, puntos 1, 6 y 7.

13. Una URL para obtener información adicional (opcional).

Sección B — Información que deben presentar los proveedores de sistemas de IA de alto riesgo de conformidad con el artículo 49, apartado 2

Con respecto a los sistemas de IA que vayan a inscribirse en el registro de conformidad con el artículo 49, apartado 2, se facilitará y se actualizará debidamente la información siguiente:

1. El nombre, la dirección y los datos de contacto del proveedor.

2. Cuando sea otra persona la que presente la información en nombre del proveedor, el nombre, dirección y datos de contacto de dicha persona.

3. El nombre, la dirección y los datos de contacto del representante autorizado, en su caso.

4. El nombre comercial del sistema de IA y toda referencia inequívoca adicional que permita su identificación y trazabilidad.

5. La descripción de la finalidad prevista del sistema de IA.

6. La condición o condiciones previstas en el artículo 6, apartado 3, con arreglo a las cuales se considera que el sistema de IA no es de alto riesgo.

7. Un breve resumen de los motivos por los que se considera que el sistema de IA no es de alto riesgo en aplicación del procedimiento previsto en el artículo 6, apartado 3.

8. La situación del sistema de IA (comercializado o puesto en servicio, ha dejado de comercializarse o de estar en servicio, recuperado).

9. Todo Estado miembro en el que el sistema de IA se haya introducido en el mercado, puesto en servicio o comercializado en la Unión.

Sección C — Información que deben presentar los responsables del despliegue de sistemas de IA de alto riesgo de conformidad con el artículo 49, apartado 3

Con respecto a los sistemas de IA de alto riesgo que vayan a inscribirse en el registro de conformidad con el artículo 49, apartado 3, se facilitará y se actualizará debidamente la información siguiente:

1. El nombre, la dirección y los datos de contacto del responsable del despliegue.

2. El nombre, la dirección y los datos de contacto de la persona que presente la información en nombre del responsable del despliegue.

3. La URL de entrada del sistema de IA en la base de datos de la UE por parte de su proveedor.

4. Un resumen de las conclusiones de la evaluación de impacto relativa a los derechos fundamentales realizada de conformidad con el artículo 27.

5. Un resumen de la evaluación de impacto relativa a la protección de datos realizada de conformidad con el artículo 35 del Reglamento (UE) 2016/679 o el artículo 27 de la Directiva (UE) 2016/680, tal como se especifica en el artículo 26, apartado 8, del presente Reglamento, cuando proceda.

ANEXO IX. Información que debe presentarse para la inscripción en el registro de los sistemas de IA de alto riesgo enumerados en el anexo III en relación con las pruebas en condiciones reales de conformidad con el artículo 60

Con respecto a las pruebas en condiciones reales que vayan a inscribirse en el registro de conformidad con el artículo 60, se facilitará y se actualizará debidamente la información siguiente:

1. El número de identificación único para toda la Unión de la prueba en condiciones reales.

2. El nombre y los datos de contacto del proveedor o proveedor potencial y de los responsables del despliegue que participen en la prueba en condiciones reales.

3. Una breve descripción del sistema de IA, su finalidad prevista y demás información necesaria para la identificación del sistema.

4. Un resumen de las principales características del plan de la prueba en condiciones reales.

5. Información sobre la suspensión o la conclusión de la prueba en condiciones reales.

ANEXO X. Actos legislativos de la Unión relativos a sistemas informáticos de gran magnitud en el espacio de libertad, seguridad y justicia

1.   Sistema de Información de Schengen

a) Reglamento (UE) 2018/1860 del Parlamento Europeo y del Consejo, de 28 de noviembre de 2018, sobre la utilización del Sistema de Información de Schengen para el retorno de nacionales de terceros países en situación irregular (DO L 312 de 7.12.2018, p. 1).

b) Reglamento (UE) 2018/1861 del Parlamento Europeo y del Consejo, de 28 de noviembre de 2018, relativo al establecimiento, funcionamiento y utilización del Sistema de Información de Schengen (SIS) en el ámbito de las inspecciones fronterizas, por el que se modifica el Convenio de aplicación del Acuerdo de Schengen y se modifica y deroga el Reglamento (CE) nº 1987/2006 (DO L 312 de 7.12.2018, p. 14).

c) Reglamento (UE) 2018/1862 del Parlamento Europeo y del Consejo, de 28 de noviembre de 2018, relativo al establecimiento, funcionamiento y utilización del Sistema de Información de Schengen (SIS) en el ámbito de la cooperación policial y de la cooperación judicial en materia penal, por el que se modifica y deroga la Decisión 2007/533/JAI del Consejo, y se derogan el Reglamento (CE) nº 1986/2006 del Parlamento Europeo y del Consejo y la Decisión 2010/261/UE de la Comisión (DO L 312 de 7.12.2018, p. 56).

2.   Sistema de Información de Visados

a) Reglamento (UE) 2021/1133 del Parlamento Europeo y del Consejo, de 7 de julio de 2021, por el que se modifican los Reglamentos (UE) nº 603/2013, (UE) 2016/794, (UE) 2018/1862, (UE) 2019/816 y (UE) 2019/818 en lo que respecta al establecimiento de las condiciones para acceder a otros sistemas de información de la UE a efectos del Sistema de Información de Visados (DO L 248 de 13.7.2021, p. 1).

b) Reglamento (UE) 2021/1134 del Parlamento Europeo y del Consejo, de 7 de julio de 2021, por el que se modifican los Reglamentos (CE) nº 767/2008, (CE) nº 810/2009, (UE) 2016/399, (UE) 2017/2226, (UE) 2018/1240, (UE) 2018/1860, (UE) 2018/1861, (UE) 2019/817 y (UE) 2019/1896 del Parlamento Europeo y del Consejo y por el que se derogan las Decisiones 2004/512/CE y 2008/633/JAI del Consejo, a fin de reformar el Sistema de Información de Visados (DO L 248 de 13.7.2021, p. 11).

3.   Eurodac

a) Reglamento (UE) 2024/1358 del Parlamento Europeo y del Consejo, de 14 de mayo de 2024, sobre la creación del sistema «Eurodac» para la comparación de datos biométricos a efectos de la aplicación efectiva de los Reglamentos (UE) 2024/1315y (UE) 2024/1350 del Parlamento Europeo y del Consejo y de la Directiva 2001/55/CE del Consejo y de la identificación de nacionales de terceros países y apátridas en situación irregular, y sobre las solicitudes de comparación con los datos de Eurodac presentadas por los servicios de seguridad de los Estados miembros y Europol a efectos de garantía de cumplimiento del Derecho, por el que se modifican los Reglamentos (UE) 2018/1240 y (UE) 2019/818 del Parlamento Europeo y del Consejo y se deroga el Reglamento (UE) nº 603/2013 del Parlamento Europeo y del Consejo (DO L, 2024/1358, 22.5.2024, ELI: http://data.europa.eu/eli/reg/2024/1358/oj).

4.   Sistema de Entradas y Salidas

a) Reglamento (UE) 2017/2226 del Parlamento Europeo y del Consejo, de 30 de noviembre de 2017, por el que se establece un Sistema de Entradas y Salidas (SES) para registrar los datos de entrada y salida y de denegación de entrada relativos a nacionales de terceros países que crucen las fronteras exteriores de los Estados miembros, se determinan las condiciones de acceso al SES con fines policiales y se modifican el Convenio de aplicación del Acuerdo de Schengen y los Reglamentos (CE) nº 767/2008 y (UE) nº 1077/2011 (DO L 327 de 9.12.2017, p. 20).

5.   Sistema Europeo de Información y Autorización de Viajes

a) Reglamento (UE) 2018/1240 del Parlamento Europeo y del Consejo, de 12 de septiembre de 2018, por el que se establece un Sistema Europeo de Información y Autorización de Viajes (SEIAV) y por el que se modifican los Reglamentos (UE) nº 1077/2011, (UE) nº 515/2014, (UE) 2016/399, (UE) 2016/1624 y (UE) 2017/2226 (DO L 236 de 19.9.2018, p. 1).

b) Reglamento (UE) 2018/1241 del Parlamento Europeo y del Consejo, de 12 de septiembre de 2018, por el que se modifica el Reglamento (UE) 2016/794 con objeto de establecer el Sistema Europeo de Información y Autorización de Viajes (SEIAV) (DO L 236 de 19.9.2018, p. 72).

6.   Sistema Europeo de Información de Antecedentes Penales en relación con los nacionales de terceros países y apátridas

Reglamento (UE) 2019/816 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, por el que se establece un sistema centralizado para la identificación de los Estados miembros que poseen información sobre condenas de nacionales de terceros países y apátridas (ECRIS-TCN) a fin de complementar el Sistema Europeo de Información de Antecedentes Penales, y por el que se modifica el Reglamento (UE) 2018/1726 (DO L 135 de 22.5.2019, p. 1).

7.   Interoperabilidad

a) Reglamento (UE) 2019/817 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativo al establecimiento de un marco para la interoperabilidad de los sistemas de información de la UE en el ámbito de las fronteras y los visados y por el que se modifican los Reglamentos (CE) nº 767/2008, (UE) 2016/399, (UE) 2017/2226, (UE) 2018/1240, (UE) 2018/1726 y (UE) 2018/1861 del Parlamento Europeo y del Consejo, y las Decisiones 2004/512/CE y 2008/633/JAI del Consejo (DO L 135 de 22.5.2019, p. 27).

b) Reglamento (UE) 2019/818 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativo al establecimiento de un marco para la interoperabilidad entre los sistemas de información de la UE en el ámbito de la cooperación policial y judicial, el asilo y la migración y por el que se modifican los Reglamentos (UE) 2018/1726, (UE) 2018/1862 y (UE) 2019/816 (DO L 135 de 22.5.2019, p. 85).

ANEXO XI. Documentación técnica a que se refiere el artículo 53, apartado 1, letra a) — documentación técnica para proveedores de modelos de IA de uso general

Sección 1. Información que deben presentar los proveedores de modelos de IA de uso general

La documentación técnica a que se refiere el artículo 53, apartado 1, letra a), incluirá como mínimo la siguiente información en función del tamaño y perfil de riesgo del modelo:

1.Una descripción general del modelo de IA de uso general que incluya:

a) las tareas que el modelo vaya a realizar y el tipo y la naturaleza de los sistemas de IA en los que puede integrarse;

b) las políticas de usos aceptables aplicables;

c) la fecha de lanzamiento y los métodos de distribución;

d) la arquitectura y el número de parámetros;

e) la modalidad (por ejemplo, texto, imagen) y el formato de las entradas y salidas;

f) la licencia.

2. Una descripción detallada de los elementos del modelo a que se refiere el punto 1 e información pertinente sobre el proceso de desarrollo que incluya los siguientes elementos:

a) los medios técnicos (por ejemplo, instrucciones de uso, infraestructura, herramientas) necesarios para integrar el modelo de IA de uso general en los sistemas de IA;

b) las especificaciones de diseño del modelo y el proceso de entrenamiento, incluidos los métodos y las técnicas de entrenamiento, las decisiones clave de diseño, incluidas la justificación lógica y los supuestos de los que se ha partido; aquello que el modelo está diseñado para optimizar y la pertinencia de los diversos parámetros, según proceda;

c) información sobre los datos utilizados para el entrenamiento, las pruebas y la validación, cuando proceda, incluidos el tipo y la procedencia de los datos y los métodos de gestión (por ejemplo, limpieza, filtrado, etc.), el número de puntos de datos, su alcance y sus principales características; cómo se obtuvieron y seleccionaron los datos, así como cualquier otra medida que permita detectar que las fuentes de datos no son idóneas y los métodos para detectar sesgos identificables, cuando proceda;

d) los recursos computacionales utilizados para entrenar el modelo (por ejemplo, número de operaciones de coma flotante, el tiempo de entrenamiento y otros detalles pertinentes relacionados con el mismo;

e) el consumo de energía conocido o estimado del modelo.

A propósito de la letra e), cuando se desconozca el consumo de energía del modelo, podrá hacerse una estimación del consumo de energía a partir de la información relativa a los recursos computacionales utilizados.

Sección 2. Información adicional que deben presentar los proveedores de modelos de IA de uso general con riesgo sistémico

1. Una descripción detallada de las estrategias de evaluación, con los resultados de la misma, sobre la base de los protocolos y herramientas de evaluación públicos disponibles o de otros métodos de evaluación. Las estrategias de evaluación incluirán los criterios de evaluación, los parámetros y el método de detección de limitaciones.

2. Cuando proceda, una descripción detallada de las medidas adoptadas para realizar pruebas adversarias internas o externas (por ejemplo, utilización de «equipos rojos») y adaptaciones de los modelos, incluida su alineación y puesta a punto.

3. Cuando proceda, una descripción detallada de la arquitectura del sistema, con una explicación de la manera en que se incorporan o enriquecen mutuamente los componentes del software y de la manera en que se integran en el procesamiento general.

ANEXO XII. Información sobre transparencia a que se refiere el artículo 53, apartado 1, letra b) — documentación técnica de los proveedores de modelos de IA de uso general para los proveedores posteriores que integren el modelo en su sistema de IA

La información a que se refiere el artículo 53, apartado 1, letra b), incluirá como mínimo la siguiente información:

1. Una descripción general del modelo de IA de uso general que incluya:

a) las tareas que el modelo vaya a realizar y el tipo y la naturaleza de los sistemas de IA en los que puede integrarse;

b) las políticas de usos aceptables aplicables;

c) la fecha de lanzamiento y los métodos de distribución;

d) la manera en que el modelo interactúa o puede utilizarse para interactuar con el hardware o el software que no formen parte del propio modelo, cuando proceda;

e) las versiones del software pertinente relacionadas con el uso del modelo de IA de uso general, cuando proceda;

f) la arquitectura y el número de parámetros;

g) la modalidad (por ejemplo, texto, imagen) y el formato de las entradas y salidas;

h) la licencia del modelo.

2. Una descripción de los elementos del modelo y de su proceso de desarrollo, incluidos:

a) los medios técnicos (por ejemplo, instrucciones de uso, infraestructura, herramientas) necesarios para integrar el modelo de IA de uso general en los sistemas de IA;

b) la modalidad (por ejemplo, texto, imagen, etc.) y el formato de las entradas y salidas y su tamaño máximo (por ejemplo, longitud de la ventana de contexto, etc.);

c) información sobre los datos utilizados para el entrenamiento, las pruebas y la validación, cuando proceda, incluidos el tipo y la procedencia de los datos y los métodos de gestión.

ANEXO XIII. Criterios para la clasificación de los modelos de IA de uso general con riesgo sistémico a que se refiere el artículo 51

Con el fin de determinar si un modelo de IA de uso general tiene unas capacidades o unos efectos equivalentes a los contemplados en el artículo 51, apartado 1, letra a), la Comisión tendrá en cuenta los siguientes criterios:

a) el número de parámetros del modelo;

b) la calidad o el tamaño del conjunto de datos, por ejemplo medidos a través de criptofichas;

c) la cantidad de cálculo utilizada para entrenar el modelo, medida en operaciones de coma flotante o indicada con una combinación de otras variables, como el coste estimado del entrenamiento, el tiempo estimado necesario o el consumo de energía estimado para el mismo;

d) las modalidades de entrada y salida del modelo, como la conversión de texto a texto (grandes modelos de lenguaje), la conversión de texto a imagen, la multimodalidad y los umbrales punteros para determinar las capacidades de gran impacto de cada modalidad, y el tipo concreto de entradas y salidas (por ejemplo, secuencias biológicas);

e) los parámetros de referencia y las evaluaciones de las capacidades del modelo, también teniendo en cuenta el número de tareas sin entrenamiento adicional, la adaptabilidad para aprender tareas nuevas distintas, su nivel de autonomía y capacidad de ampliación y las herramientas a las que tiene acceso;

f) si sus repercusiones para el mercado interior son importantes debido a su alcance, lo que se dará por supuesto cuando se haya puesto a disposición de al menos 10 000 usuarios profesionales registrados establecidos en la Unión;

g) el número de usuarios finales registrados.

ELI: http://data.europa.eu/eli/reg/2024/1689/oj

ISSN 1977-0685 (electronic edition)

05Feb/24

Análisis de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial

Autor: José Luis Chávez Sánchez

22Ene/24

COM(2022) 496 final. de 28 de septiembre de 2022

COM(2022) 496 final. de 28 de septiembre de 2022. Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extra contractual a la Inteligencia Artificial (Directiva sobre responsabilidad en materia de IA)

Bruselas, 28.9.2022

COM(2022) 496 final 2022/0303(COD)

EXPOSICIÓN DE MOTIVOS

1. CONTEXTO DE LA PROPUESTA

* Razones y objetivos de la propuesta

La presente exposición de motivos acompaña a la propuesta de Directiva relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (IA). En una encuesta representativa realizada en 2020 (1) , la cuestión de la responsabilidad civil figuraba entre los tres principales obstáculos a la utilización de la IA por parte de las empresas europeas. Se citó como el obstáculo externo más importante (43 %) en el caso de las empresas que tienen previsto recurrir a la IA, pero que aún no lo han hecho.

En sus orientaciones políticas, la presidenta de la Comisión, Ursula von der Leyen, estableció un enfoque europeo coordinado en materia de IA (2). En su Libro Blanco sobre la IA, de 19 de febrero de 2020 (3), la Comisión se comprometió a promover la adopción de la IA y a abordar los riesgos asociados a algunos de sus usos fomentando la excelencia y la confianza. En el Informe sobre responsabilidad en materia de IA (4) que acompaña al Libro Blanco, la Comisión señaló los retos específicos que plantea la IA con respecto a las normas vigentes en materia de responsabilidad. En sus Conclusiones sobre la configuración del futuro digital de Europa, de 9 de junio de 2020, el Consejo acogió con satisfacción la consulta sobre las propuestas políticas del Libro Blanco sobre la IA y pidió a la Comisión que presentase propuestas concretas. El 20 de octubre de 2020, el Parlamento Europeo adoptó una resolución legislativa de propia iniciativa en virtud del artículo 225 del TFUE en la que pedía a la Comisión que adoptase una propuesta relativa a un régimen de responsabilidad civil para la IA basado en el artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE) (5) .

Las normas nacionales en vigor en materia de responsabilidad civil, particularmente las que se basan en la culpa, no son adecuadas para tramitar las denuncias de responsabilidad civil por daños causados por productos y servicios en los que se recurre a la IA. Con arreglo a dichas normas, las víctimas deben demostrar que ha habido una acción u omisión ilícita por parte de una persona que ha causado el daño. Las características específicas de la IA, incluidas su complejidad, su autonomía y su opacidad (el denominado efecto de «caja negra»), pueden dificultar o hacer excesivamente costoso para las víctimas determinar cuál es la persona responsable y probar que se cumplen los requisitos para una demanda de responsabilidad civil admisible. En particular, al reclamar una indemnización, las víctimas podrían tener que soportar unos costes iniciales muy elevados y enfrentarse a procedimientos judiciales mucho más largos, en comparación con los casos sin relación alguna con la inteligencia artificial. Por lo tanto, las víctimas pueden verse disuadidas de intentar siquiera obtener una indemnización. Estas preocupaciones también han sido señaladas por el Parlamento Europeo en su resolución de 3 de mayo de 2022 sobre la inteligencia artificial en la era digital.  (6)

Si una víctima presenta una demanda, los órganos jurisdiccionales nacionales, al verse confrontados con las características específicas de la IA, pueden adaptar el modo en que aplican las normas en vigor de forma ad hoc con el fin de llegar a un resultado justo para la víctima. Esto generará inseguridad jurídica. Las empresas tendrán dificultades para predecir cómo se aplicarán las normas de responsabilidad civil vigentes y, por tanto, para evaluar y asegurar su exposición a dicha responsabilidad. Este problema se verá agravado en el caso de las empresas que practiquen el comercio transfronterizo, ya que la incertidumbre abarcará diferentes jurisdicciones. Afectará especialmente a las pymes, que no pueden recurrir a los conocimientos de servicios jurídicos propios ni cuentan con reservas de capital.

Las estrategias nacionales de IA ponen de manifiesto que varios Estados miembros están estudiando, o incluso planificando de manera concreta, medidas legislativas sobre la responsabilidad civil en los casos en que medie IA. Por lo tanto, se espera que, si la UE no actúa, los Estados miembros adapten sus normas nacionales de responsabilidad civil a los retos que plantea la IA. Esto dará lugar a una mayor fragmentación y a un aumento de los costes para las empresas que operan en la UE.

La consulta pública abierta que sirvió de base para la evaluación de impacto de la presente propuesta confirmó la existencia los problemas explicados. En opinión del público, el efecto de «caja negra» puede dificultar a la víctima la prueba de la culpa y de la causalidad, y puede generarse incertidumbre sobre la manera en que los tribunales interpretarán y aplicarán las normas nacionales de responsabilidad civil en vigor en aquellos casos en que medie IA. Además, se puso de manifiesto una preocupación por parte del público en cuanto a la manera en que la acción legislativa para la adaptación de las normas de responsabilidad civil iniciada por los distintos Estados miembros y la consiguiente fragmentación afectarían a los costes de las empresas, especialmente a los de las pymes, impidiendo así la adopción de la IA en toda la Unión.

Así pues, el objetivo de la presente propuesta es promover la introducción generalizada de una IA fiable a fin de aprovechar plenamente sus beneficios para el mercado interior. Lo hace garantizando que las víctimas de daños causados por la IA obtengan una protección equivalente a la de las víctimas de daños causados por los demás productos. También reduce la inseguridad jurídica de las empresas que desarrollan o utilizan la IA en relación con su posible exposición a responsabilidad civil y evita la aparición de adaptaciones a la IA específicas fragmentadas de las normas nacionales en materia de responsabilidad civil.

* Coherencia con las disposiciones existentes en la misma política sectorial

La presente propuesta forma parte de un paquete de medidas para apoyar la adopción de la IA en Europa mediante el fomento de la excelencia y la confianza. Este paquete consta de tres líneas de trabajo complementarias:

–una propuesta legislativa por la que se establecen normas horizontales sobre los sistemas de inteligencia artificial (Ley de IA) (7) ;

–una revisión de las normas sectoriales y horizontales en materia de seguridad de los productos;

–normas de la UE para abordar las cuestiones de responsabilidad civil relacionadas con los sistemas de IA.

En la propuesta de Ley de IA, la Comisión ha propuesto normas destinadas a reducir los riesgos para la seguridad y proteger los derechos fundamentales. La seguridad y la responsabilidad son las dos caras de la misma moneda: intervienen en momentos diferentes y se refuerzan mutuamente. Si bien las normas para garantizar la seguridad y proteger los derechos fundamentales reducirán los riesgos, no los eliminan por completo (8) . En caso de que se materialice tal riesgo, sigue existiendo la posibilidad de que se produzcan daños. En tales casos, se aplicarán las normas sobre responsabilidad civil de la presente propuesta.

Unas normas eficaces en materia de responsabilidad también ofrecen un incentivo económico para cumplir las normas de seguridad y, por lo tanto, contribuyen a evitar que se produzcan daños (9) . Además, la presente propuesta contribuye al cumplimiento de los requisitos para sistemas de IA de alto riesgo impuestos por la Ley de IA, ya que el incumplimiento de dichos requisitos constituye un elemento importante de los que dan lugar al aligeramiento de la carga de la prueba. La presente propuesta también es coherente con las normas generales (10) y sectoriales propuestas en materia de seguridad de los productos aplicables a las máquinas y a sus partes y accesorios (11) y a los equipos radioeléctricos (12) que emplean IA.

La Comisión adopta un enfoque holístico en su política de responsabilidad en materia de IA, proponiendo adaptaciones de la responsabilidad del productor por productos defectuosos en virtud de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, y la armonización específica en el marco de la presente propuesta. Estas dos iniciativas políticas están estrechamente vinculadas y forman un paquete, ya que las demandas que entran en sus ámbitos de aplicación se refieren a diferentes tipos de responsabilidad. La Directiva sobre responsabilidad por los daños causados por productos defectuosos cubre la responsabilidad objetiva del productor por productos defectuosos, lo que da lugar a una indemnización por determinados tipos de daños, principalmente sufridos por particulares. La presente propuesta cubre las demandas nacionales de responsabilidad fundamentadas principalmente en la culpa de cualquier persona con el fin de indemnizar por cualquier tipo de daño y a cualquier tipo de víctima. Se complementan entre sí para formar un sistema general de responsabilidad civil eficaz.

Juntas, estas normas promoverán la confianza en la IA (y otras tecnologías digitales) garantizando que las víctimas reciban una indemnización efectiva si, a pesar de los requisitos preventivos de la Ley de IA y otras normas de seguridad, se producen daños.

*Coherencia con otras políticas de la Unión

La propuesta es coherente con la estrategia digital general de la Unión, ya que contribuye a promover una tecnología al servicio de las personas, uno de los tres pilares principales de las orientaciones políticas y los objetivos anunciados en la Comunicación titulada «Configurar el futuro digital de Europa» (13).

En este contexto, la presente propuesta pretende generar confianza en la IA y promover su adopción. Esto generará sinergias y es complementario con la [Ley de ciberresiliencia] (14), que también tiene por objeto fortalecer la confianza en los productos con elementos digitales reduciendo las vulnerabilidades cibernéticas y proteger mejor a las empresas y a los usuarios consumidores.

La presente propuesta no afecta a las normas establecidas por la [Ley de Servicios Digitales], que establecen un marco integral y plenamente armonizado para las obligaciones de diligencia debida para la toma de decisiones algorítmica por parte de las plataformas en línea, incluida su exención de responsabilidad para los prestadores de servicios intermediarios.

Además, al promover la adopción de la IA, la presente propuesta está vinculada a las iniciativas de la Estrategia de Datos de la UE (15) . También refuerza el papel de la Unión para ayudar a configurar las normas y estándares mundiales y promover una IA fiable que sea coherente con los valores e intereses de la Unión.

La propuesta también tiene vínculos indirectos con el «Pacto Verde Europeo» (16). En particular, las tecnologías digitales, incluida la IA, son un factor fundamental para alcanzar los objetivos de sostenibilidad del Pacto Verde en muchos sectores diferentes (como la asistencia sanitaria, el transporte, el medio ambiente y la agricultura).

* Principales consecuencias económicas, sociales y ambientales

La Directiva contribuirá a la introducción generalizada de la IA. Las condiciones para la introducción generalizada y el desarrollo de tecnologías de IA en el mercado interior pueden mejorarse significativamente evitando la fragmentación y aumentando la seguridad jurídica a través de medidas armonizadas a escala de la UE, en contraposición con las posibles adaptaciones de las normas de responsabilidad a nivel nacional. El estudio económico (17) en que se basa la evaluación de impacto de la presente propuesta concluyó —como estimación conservadora— que las medidas de armonización específicas de la responsabilidad civil por IA tendrían un impacto positivo del 5 al 7 % en el valor de producción del comercio transfronterizo pertinente en comparación con la hipótesis de referencia. Este valor añadido se generaría, en particular, gracias a la reducción de la fragmentación y a una mayor seguridad jurídica con respecto a la exposición de las partes interesadas a la responsabilidad civil. Esto reduciría los costes de información y representación jurídicas de las partes interesadas, así como los costes de gestión interna de riesgos y los costes de cumplimiento, facilitaría la planificación financiera y las estimaciones de riesgos a efectos de aseguramiento, y permitiría a las empresas —en particular a las pymes— explorar nuevos mercados más allá de sus fronteras. Sobre la base del valor global del mercado de la IA en la UE afectado por los problemas relacionados con la responsabilidad civil que aborda la presente Directiva, se estima que esta última generará un valor de mercado adicional de entre 500 y 1 100 millones EUR.

En términos de impacto social, la Directiva aumentará la confianza de la sociedad en las tecnologías de IA y promoverá el acceso a un sistema judicial eficaz. Contribuirá a un régimen de responsabilidad civil eficiente, adaptado a las especificidades de la IA, en el que las demandas fundamentadas de indemnización por daños y perjuicios sean estimadas. El aumento de la confianza social también beneficiaría a todas las empresas de la cadena de valor de la IA, ya que el aumento de la confianza de los ciudadanos contribuirá a una adopción más rápida de la IA. Debido al efecto incentivador de las normas sobre responsabilidad, evitar las lagunas en materia de responsabilidad también beneficiaría indirectamente a todos los ciudadanos mediante un mayor nivel de protección de la salud y la seguridad (artículo 114, apartado 3, del TFUE) y la evitación de fuentes de riesgo para la salud (artículo 168, apartado 1, del TFUE).

Por lo que se refiere a los impactos medioambientales, también se espera que la Directiva contribuya a la consecución de los Objetivos de Desarrollo Sostenible (ODS) y de las metas correspondientes. La adopción de aplicaciones de IA es beneficiosa para el medio ambiente. Por ejemplo, los sistemas de IA utilizados en la optimización de procesos reducen el despilfarro de estos (por ejemplo, reduciendo la cantidad de fertilizantes y plaguicidas necesaria, reduciendo el consumo de agua a igualdad de rendimiento, etc.). La Directiva también repercutiría positivamente en los ODS, ya que una legislación eficaz en materia de transparencia, rendición de cuentas y derechos fundamentales orientará el potencial de la IA en beneficio de las personas y de la sociedad hacia la consecución de los ODS.

2. BASE JURÍDICA, SUBSIDIARIEDAD Y PROPORCIONALIDAD

*  Base jurídica

La base jurídica de la propuesta es el artículo 114 del TFUE, que prevé la adopción de medidas para garantizar el establecimiento y el funcionamiento del mercado interior.

Los problemas que la presente propuesta pretende abordar, en particular, la inseguridad jurídica y la fragmentación jurídica, dificultan el desarrollo del mercado interior y, por lo tanto, suponen obstáculos significativos al comercio transfronterizo de productos y servicios basados en la IA.

La propuesta aborda los obstáculos derivados del hecho de que las empresas que desean producir, difundir y explotar productos y servicios basados en la IA más allá de sus fronteras no pueden saber si los regímenes de responsabilidad civil en vigor se aplican a los daños causados por la IA, ni tampoco de qué manera se aplican. Esta incertidumbre se refiere, en particular, a los Estados miembros a los que las empresas van a exportar productos y servicios, o a aquellos en los que los van a explotar. En un contexto transfronterizo, la ley aplicable a un caso de responsabilidad extracontractual derivada de un hecho dañoso es, por defecto, la del país en el que se produce el daño. Para estas empresas resulta esencial conocer los riesgos de responsabilidad civil pertinentes y poder asegurarse contra ellos.

Además, hay indicios concretos de que varios Estados miembros están estudiando la posibilidad de adoptar medidas legislativas unilaterales para abordar los retos específicos que plantea la IA en materia de responsabilidad. Por ejemplo, las estrategias de IA adoptadas en Chequia (18), Italia (19) , Malta (20) , Polonia (21) y Portugal (22) mencionan iniciativas para aclarar la cuestión de la responsabilidad. Dada la gran divergencia entre las normas vigentes en materia de responsabilidad civil de los Estados miembros, es probable que cualquier medida nacional relacionada específicamente con la IA en materia de responsabilidad siga los diferentes enfoques nacionales existentes y, por tanto, aumente el grado de fragmentación.

Por lo tanto, las adaptaciones de las normas de responsabilidad adoptadas de forma estrictamente nacional incrementarían los obstáculos a la introducción generalizada de productos y servicios basados en la IA en todo el mercado interior y contribuirían aún más a la fragmentación.

* Subsidiariedad

Los objetivos de la presente propuesta no pueden alcanzarse adecuadamente a nivel nacional, ya que la aparición de normas nacionales divergentes incrementaría la inseguridad jurídica y la fragmentación, creando obstáculos a la introducción generalizada de productos y servicios basados en la IA en todo el mercado interior. La inseguridad jurídica afectaría especialmente a las empresas con actividades transfronterizas, al imponer la necesidad de información o representación jurídica adicional, costes de gestión de riesgos y causar pérdidas de ingresos. Al mismo tiempo, las diferentes normas nacionales sobre las demandas de indemnización por daños causados por la IA aumentarían los costes de transacción para las empresas, especialmente en el comercio transfronterizo, lo que conllevaría importantes barreras al mercado interior. Además, la inseguridad jurídica y la fragmentación afectan de manera desproporcionada a las empresas emergentes y a las pymes, que representan una mayoría de las empresas y la mayor parte de las inversiones en los mercados pertinentes.

En ausencia de normas armonizadas a escala de la UE para indemnizar los daños causados por los sistemas de IA, los proveedores, operadores y usuarios de sistemas de IA, por una parte, y, por otra, las personas perjudicadas, se verían confrontadas a 27 regímenes de responsabilidad diferentes, lo que daría lugar a distintos niveles de protección y falsearía la competencia entre las empresas de los distintos Estados miembros.

Unas medidas armonizadas a escala de la UE mejorarían significativamente las condiciones para la introducción generalizada y el desarrollo de tecnologías de IA en el mercado interior, al evitar la fragmentación y aumentar la seguridad jurídica. Este valor añadido se generaría, en particular, gracias a la reducción de la fragmentación y a una mayor seguridad jurídica con respecto a la exposición de las partes interesadas a la responsabilidad civil. Además, solo la acción de la UE puede lograr de manera coherente el efecto deseado de promover la confianza de los consumidores en los productos y servicios basados en la IA evitando las lagunas en materia de responsabilidad civil vinculadas a las características específicas de la IA en todo el mercado interior. Esto garantizaría un nivel (mínimo) de protección uniforme para todas las víctimas (particulares y empresas) y unos incentivos uniformes para prevenir daños y garantizar la rendición de cuentas.

* Proporcionalidad

La propuesta se basa en un enfoque por fases. En la primera fase, los objetivos se alcanzan con un enfoque mínimamente invasivo; la segunda fase consiste en reevaluar la necesidad de medidas más estrictas o amplias.

La primera fase se limita a las medidas relativas a la carga de la prueba para hacer frente a los problemas propios de la IA detectados. Se basa en las condiciones sustantivas de responsabilidad civil que existen actualmente en las normas nacionales, como la causalidad o la culpa, pero se centra en medidas específicas relacionadas con la prueba, garantizando que las víctimas tengan el mismo nivel de protección que en los casos en los que no medien sistemas de IA. Además, de entre los diversos instrumentos disponibles en la legislación nacional para aliviar la carga de la prueba (23), la presente propuesta ha optado por recurrir a las presunciones refutables (iuris tantum) por ser esta la herramienta menos intervencionista. Este tipo de presunciones se encuentra con frecuencia en los sistemas nacionales de responsabilidad y ponderan los intereses de demandantes y demandados. Al mismo tiempo, están diseñadas para incentivar el cumplimiento de las obligaciones de diligencia en vigor establecidas a escala nacional o de la Unión. La propuesta no conduce a una inversión de la carga de la prueba para evitar exponer a los proveedores, operadores y usuarios de sistemas de IA a mayores riesgos de responsabilidad civil, lo cual podría obstaculizar la innovación y reducir la adopción de productos y servicios basados en la IA.

La segunda fase incluida en la propuesta garantiza que, a la hora de evaluar el efecto de la primera fase en términos de protección de las víctimas y adopción de la IA, se tengan en cuenta los futuros cambios tecnológicos, normativos y jurisprudenciales a la hora de reevaluar la necesidad de armonizar otros elementos de las demandas de indemnización u otros instrumentos relacionados con las demandas de responsabilidad civil, incluido en aquellas situaciones en que la responsabilidad objetiva sería más adecuada, según lo solicitado por el Parlamento Europeo. Esta evaluación también consideraría, probablemente, la posibilidad de que tal armonización vaya acompañada de un seguro obligatorio para garantizar la eficacia.

* Elección del instrumento

Una directiva es el instrumento más adecuado para esta propuesta, ya que proporciona el efecto de armonización y la seguridad jurídica deseados al tiempo que ofrece la flexibilidad necesaria para que los Estados miembros puedan integrar las medidas armonizadas sin fricciones en sus regímenes nacionales de responsabilidad.

Un instrumento obligatorio evitaría las lagunas de protección derivadas de una aplicación parcial o nula. Aunque un instrumento no vinculante sería menos intrusivo, es poco probable que pueda dar respuesta a los problemas detectados de manera eficaz. El porcentaje de aplicación de los instrumentos no vinculantes es difícil de predecir y no hay indicios suficientes de que el efecto persuasivo de una recomendación sea lo suficientemente fuerte como para dar lugar a una adaptación coherente de las legislaciones nacionales.

Este efecto es aún más improbable en el caso de las medidas de Derecho privado, del que forman parte las normas de responsabilidad extracontractual. Este ámbito se caracteriza por tradiciones jurídicas arraigadas, lo cual hace que los Estados miembros sean reacios a llevar a cabo reformas coordinadas a menos que estén movidos por una perspectiva clara de beneficios en el mercado interior gracias a un instrumento vinculante de la UE, o por la necesidad de adaptarse a las nuevas tecnologías de la economía digital.

Las importantes divergencias existentes entre los marcos de responsabilidad de los Estados miembros son otra razón por la que es poco probable que una recomendación se aplique de manera coherente.

1. RESULTADOS DE LAS EVALUACIONES EX POST, DE LAS CONSULTAS CON LAS PARTES INTERESADAS Y DE LAS EVALUACIONES DE IMPACTO

* Consultas con las partes interesadas

Se ha aplicado una estrategia de grandes consultas para garantizar una amplia participación de las partes interesadas a lo largo de todo el ciclo político de la presente propuesta. La estrategia de consulta estuvo fundamentada tanto en consultas públicas como en varias consultas específicas (seminarios web, debates bilaterales con empresas y diversas organizaciones).

Tras las preguntas iniciales sobre la responsabilidad que formaban parte de la consulta pública relativa al Libro Blanco sobre la IA y el informe de la Comisión sobre seguridad y responsabilidad, del 18 de octubre de 2021 al 10 de enero de 2022 se abrió una consulta pública específica en línea para recabar las opiniones de una amplia variedad de partes interesadas, incluidos los consumidores, las organizaciones de la sociedad civil, las asociaciones industriales, las empresas —incluidas las pymes— y las autoridades públicas. Tras analizar todas las respuestas recibidas, la Comisión publicó un resumen de resultados y las respuestas individuales en su sitio web (24).

En total, se recibieron 233 respuestas de encuestados de veintiún Estados miembros, así como de terceros países. En general, la mayoría de las partes interesadas confirmaron los problemas relacionados con la carga de la prueba, la inseguridad jurídica y la fragmentación, y apoyaron la acción a escala de la UE.

Los ciudadanos de la UE, las organizaciones de consumidores y las instituciones académicas confirmaron mayoritariamente la necesidad de que la UE actuase para mitigar los problemas de las víctimas en relación con la carga de la prueba. Las empresas, aun reconociendo los efectos negativos de la incertidumbre en torno a la aplicación de las normas de responsabilidad, fueron más cautas y pidieron medidas específicas para evitar que se obstaculice la innovación.

Sucedió algo similar en cuanto a las opciones políticas. Los ciudadanos de la UE, las organizaciones de consumidores y las instituciones académicas apoyaron decididamente las medidas relativas a la carga de la prueba y a la armonización de la responsabilidad sin culpa (denominada «responsabilidad objetiva») junto con un seguro obligatorio. Las empresas estaban más divididas en cuanto a las opciones políticas, y las diferencias dependían, en parte, de su tamaño. La mayoría de las empresas encuestadas consideraron que la responsabilidad objetiva era desproporcionada. La armonización del aligeramiento de la carga de la prueba obtuvo más apoyos, en particular entre las pymes. Sin embargo, las empresas advirtieron contra un traslado total de la carga de la prueba.

Por lo tanto, la opción política preferida se desarrolló y perfeccionó a la luz de las observaciones recibidas de las partes interesadas a lo largo de todo el proceso de evaluación de impacto, a fin de lograr un equilibrio entre las necesidades manifestadas y las preocupaciones planteadas por todos los grupos de partes interesadas pertinentes.

* Obtención y uso de asesoramiento especializado

La propuesta se basa en cuatro años de análisis y en la estrecha participación de las partes interesadas, incluidos el mundo académico, las empresas, las asociaciones de consumidores, los Estados miembros y los ciudadanos. Los trabajos preparatorios comenzaron en 2018 con la creación del Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías (formación sobre nuevas tecnologías). El grupo de expertos elaboró un informe en noviembre de 2019 (25) en el que se evaluaban los retos que plantean algunas características de la IA en relación con las normas nacionales en materia de responsabilidad civil.

Las aportaciones del informe del grupo de expertos se complementaron con tres estudios externos adicionales:

–un estudio de Derecho comparado basado en un análisis jurídico comparativo de las leyes europeas en materia de responsabilidad civil centrado en cuestiones clave relacionadas con la IA (26);

–un estudio de economía del comportamiento sobre los efectos de las adaptaciones específicas del régimen de responsabilidad civil en la toma de decisiones por parte de los consumidores, especialmente sobre su confianza y su voluntad de adoptar productos y servicios basados en la IA (27);

–un estudio económico (28) que abarca una serie de cuestiones: los retos a los que se enfrentan las víctimas de aplicaciones de la IA en comparación con las víctimas de dispositivos que no emplean IA cuando intentan obtener una indemnización por los perjuicios sufridos; si —y en qué medida— las empresas tienen dudas sobre la aplicación de las normas en vigor en materia de responsabilidad a sus operaciones relacionadas con la IA, y si la incidencia de la inseguridad jurídica puede obstaculizar la inversión en IA; si una mayor fragmentación de las legislaciones nacionales en materia de responsabilidad reduciría la eficacia del mercado interior de aplicaciones y servicios de IA, y si —y en qué medida— la armonización de determinados aspectos de la responsabilidad civil nacional a través de la legislación de la UE mitigaría estos problemas y facilitaría la adopción general de la tecnología de IA por parte de las empresas de la UE.

* Evaluación de impacto

En consonancia con su política de «legislar mejor», la Comisión sometió la presente propuesta a una evaluación de impacto que fue examinada por su Comité de Control Reglamentario. La reunión del Comité de Control Reglamentario del 6 de abril de 2022 dio lugar a un dictamen favorable con observaciones.

Se evaluaron tres opciones de actuación:

Opción política 1. tres medidas para aliviar la carga de la prueba que recae sobre las víctimas que intentan presentar pruebas que apoyen su demanda de responsabilidad civil.

Opción política 2. las medidas de la opción 1 + armonizar las normas de responsabilidad objetiva en los casos de uso de IA con un perfil de riesgo particular, junto con un seguro obligatorio.

Opción política 3. un enfoque por fases consistente en:

–primera fase: las medidas de la opción 1;

–segunda fase: un mecanismo de revisión para reevaluar, en particular, la necesidad de armonizar la responsabilidad objetiva en los casos de uso de IA con un perfil de riesgo particular (posiblemente acompañado de un seguro obligatorio).

Las opciones políticas se compararon mediante un análisis multicriterio que tenía en cuenta su eficacia, eficiencia, coherencia y proporcionalidad. Los resultados del análisis multicriterio y de sensibilidad muestran que la opción política 3, que prevé el alivio de la carga de la prueba en las demandas relacionadas con la IA y la revisión específica en relación con la responsabilidad objetiva, posiblemente acompañada de un seguro obligatorio, ocupa el lugar más alto y es, por tanto, la opción política preferida para la presente propuesta.

La opción política preferida garantizaría que las víctimas de productos y servicios basados en la IA (personas físicas, empresas y cualquier otra entidad pública o privada) no estén menos protegidas que las víctimas de las tecnologías tradicionales. Aumentaría el nivel de confianza en la IA y fomentaría su adopción.

Además, reduciría la inseguridad jurídica y evitaría la fragmentación normativa, ayudando así a las empresas —y sobre todo a las pymes— que deseen aprovechar todo el potencial del mercado único de la UE mediante el introducción generalizada y transfronteriza de productos y servicios basados en la IA. La opción política preferida también crea mejores condiciones para que las aseguradoras ofrezcan cobertura para actividades relacionadas con la IA, lo cual resulta crucial para que las empresas, y especialmente las pymes, gestionen sus riesgos. En concreto, se estima que la opción preferida generaría un aumento del valor de mercado de la IA en la EU-27 de entre 500 millones EUR y 1 100 millones EUR en 2025.

* Derechos fundamentales

Una de las funciones más importantes de las normas de responsabilidad civil es garantizar que las víctimas de daños puedan reclamar una indemnización. Al garantizar una indemnización efectiva, estas normas contribuyen a la protección del derecho a la tutela judicial efectiva y a un juez imparcial (artículo 47 de la Carta de los Derechos Fundamentales de la Unión Europea, denominada en lo sucesivo «la Carta»), al tiempo que incentivan a las personas que, potencialmente, puedan incurrir en responsabilidad civil a prevenir los daños y perjuicios con el fin de evitar que se genere la responsabilidad.

Con esta propuesta, la Comisión pretende garantizar que las víctimas de daños causados por la IA gocen de un nivel de protección equivalente en virtud de las normas de responsabilidad civil al de las víctimas de daños causados sin que medie IA. La propuesta permitirá una aplicación privada efectiva de los derechos fundamentales y protegerá el derecho a la tutela judicial efectiva cuando se materialicen los riesgos específicos de la IA. En particular, la propuesta contribuirá a proteger los derechos fundamentales, como el derecho a la vida (artículo 2 de la Carta), el derecho a la integridad física y mental (artículo 3) y el derecho a la propiedad (artículo 17). Además, en función del sistema y las tradiciones de Derecho civil de cada Estado miembro, las víctimas podrán reclamar una indemnización por los daños causados a otros intereses jurídicos, como las violaciones de la dignidad personal (artículos 1 y 4 de la Carta), el respeto de la vida privada y familiar (artículo 7), el derecho a la igualdad (artículo 20) y la no discriminación (artículo 21).

Además, la presente propuesta complementa otras vertientes de la política de IA de la Comisión basadas en requisitos preventivos normativos y de supervisión destinados directamente a evitar violaciones de los derechos fundamentales (como la discriminación), a saber: la Ley de IA, el Reglamento General de Protección de Datos, la Ley de Servicios Digitales y la legislación de la UE sobre no discriminación e igualdad de trato. Al mismo tiempo, la presente propuesta no crea ni armoniza los deberes de diligencia ni la responsabilidad civil de las distintas entidades cuya actividad está regulada por dichos actos jurídicos y, por lo tanto, no crea nuevos tipos de demandas de responsabilidad ni afecta a las exenciones de responsabilidad previstas en esos otros actos jurídicos. La presente propuesta solo introduce aligeramientos de la carga de la prueba para las víctimas de daños causados por sistemas de IA en las demandas que pueden fundamentarse en la legislación nacional o en estas otras leyes de la UE. Al complementar estas otras vertientes, la presente propuesta protege el derecho de la víctima a una indemnización en virtud del Derecho privado, incluidas las indemnizaciones por violaciones de los derechos fundamentales.

4. REPERCUSIONES PRESUPUESTARIAS

La presente propuesta no tendrá incidencia en el presupuesto de la Unión Europea.

5. OTROS ELEMENTOS

* Planes de ejecución y seguimiento, evaluación, programa de seguimiento y revisión específica

La presente propuesta propone un enfoque por fases. A fin de garantizar que se dispone de elementos suficientes para la revisión específica en la segunda fase, la Comisión elaborará un plan de seguimiento en el que se detallará cómo y con qué frecuencia se reunirán los datos y demás elementos de prueba necesarios.

El mecanismo de seguimiento podría abarcar los siguientes tipos de datos y elementos de prueba:

–la presentación de informes y el intercambio de información entre Estados miembros en relación con la aplicación de medidas para aligerar la carga de la prueba en los procedimientos judiciales o extrajudiciales nacionales;

–la información reunida por la Comisión o las autoridades de vigilancia del mercado en virtud de la Ley de IA (en particular su artículo 62) u otros instrumentos pertinentes;

–información y análisis en apoyo de la evaluación de la Ley de IA y de los informes que deba elaborar la Comisión sobre la aplicación de dicha Ley;

–información y análisis que respalden la evaluación de las futuras medidas políticas pertinentes con arreglo al «antiguo enfoque» de la legislación en materia de seguridad para garantizar que los productos introducidos en el mercado de la Unión cumplan unos requisitos elevados en materia de salud, seguridad y medio ambiente;

–información y análisis en apoyo del informe de la Comisión sobre la aplicación de la Directiva sobre el seguro de vehículos automóviles a los avances tecnológicos (en particular, a los vehículos autónomos y semiautónomos) de conformidad con su artículo 28 quater, apartado 2, letra a).

* Explicación detallada de las disposiciones específicas de la propuesta

1. Objeto y ámbito de aplicación (artículo 1)

El objetivo de la presente Directiva es mejorar el funcionamiento del mercado interior mediante el establecimiento de requisitos uniformes para determinados aspectos de la responsabilidad civil extracontractual por los daños causados con mediación de sistemas de IA. Da continuidad a la Resolución del Parlamento Europeo 2020/2014 (INL) y adapta el Derecho privado a las necesidades de la transición a la economía digital.

La elección de instrumentos jurídicos adecuados es limitada, dada la naturaleza de la cuestión de la carga de la prueba y las características específicas de la IA, que plantean un problema con respecto a las normas de responsabilidad existentes. A este respecto, la presente Directiva aligera la carga de la prueba de manera muy específica y proporcionada mediante el uso de la exhibición y las presunciones refutables (iuris tantum). Establece, para aquellos que soliciten una indemnización por daños y perjuicios, la posibilidad de obtener información sobre los sistemas de IA de alto riesgo que debe registrarse o documentarse de conformidad con la Ley de IA. Además, las presunciones refutables ofrecerán a quienes soliciten una indemnización por los daños causados por sistemas de IA una carga de la prueba más razonable y una oportunidad de que sus demandas de responsabilidad fundadas prosperen.

Estas herramientas no son nuevas; pueden encontrarse en los sistemas legislativos nacionales. Por lo tanto, estas herramientas nacionales constituyen puntos de referencia útiles sobre cómo abordar las cuestiones planteadas por la IA en relación con las normas de responsabilidad en vigor de manera que se interfiera lo menos posible en los diferentes regímenes jurídicos nacionales.

Además, cuando se les preguntó sobre cambios de mayor alcance, como una inversión de la carga de la prueba o una presunción irrefutable (iuris et de iure), las empresas respondieron de forma negativa en las consultas. Se eligieron medidas específicas para aligerar la carga de la prueba en forma de presunciones refutables por tratarse de medios pragmáticos y adecuados para ayudar a las víctimas a soportar la carga de la prueba de la manera más específica y proporcionada posible.

El artículo 1 indica el objeto y el ámbito de aplicación de la presente Directiva: se aplica a las demandas civiles de responsabilidad extracontractual por daños y perjuicios causados por un sistema de IA, cuando dichas demandas se interpongan en el marco de regímenes de responsabilidad subjetiva (por culpa). Esto se refiere, en particular, a los regímenes que establecen la responsabilidad legal de indemnizar los daños causados de forma deliberada o por un acto u omisión negligente. Las medidas previstas en la presente Directiva pueden encajar sin problemas en los sistemas de responsabilidad civil en vigor, ya que reflejan un enfoque que no depende de la definición de conceptos fundamentales como «culpa» o «daño», dado que el significado de estos conceptos varía considerablemente entre los Estados miembros de la UE. Así pues, más allá de las presunciones que establece, la presente Directiva no afecta a las normas nacionales o de la Unión que determinan, por ejemplo, qué parte ha de soportar la carga de la prueba, qué grado de certeza es necesario para que haya fuerza probatoria o cómo se define la culpa.

Además, la presente Directiva no afecta a las normas vigentes que regulan las condiciones de responsabilidad en el sector del transporte ni a las establecidas por la Ley de Servicios Digitales.

Aunque la presente Directiva no se aplica a la responsabilidad penal, puede resultar aplicable a la responsabilidad del Estado. Las autoridades estatales también están cubiertas por las disposiciones de la Ley de IA como sujetos de las obligaciones que en ella se establecen.

La presente Directiva no se aplica retroactivamente, sino únicamente a las demandas de indemnización por daños y perjuicios que se produzcan a partir de la fecha de su transposición.

La propuesta de la presente Directiva se ha adoptado junto con la propuesta de revisión de la Directiva 85/374/CEE sobre responsabilidad por los daños causados por productos defectuosos, en un paquete destinado a adaptar las normas de responsabilidad a la era digital y a la IA, garantizando la necesaria armonización entre estos dos instrumentos jurídicos complementarios.

2. Definiciones (artículo 2)

Las definiciones del artículo 2 siguen las de la Ley de IA a fin de garantizar la coherencia.

El artículo 2, apartado 6, letra b), establece que las demandas por daños y perjuicios pueden ser interpuestas no solo por el perjudicado, sino también por las personas que lo hayan sucedido o se hayan subrogado en sus derechos. La subrogación es la asunción por un tercero (como una compañía de seguros) del derecho legal de otra parte a cobrar una deuda o una indemnización por daños y perjuicios. De este modo, una persona tiene derecho a hacer valer los derechos de otra en beneficio propio. La subrogación también abarcaría a los herederos de una víctima fallecida.

Además, el artículo 2, apartado 6, letra c), establece que también puede interponer una demanda por daños y perjuicios una persona que actúe en nombre de una o varias partes perjudicadas, de conformidad con el Derecho de la Unión o nacional. Esta disposición tiene por objeto brindar más posibilidades a las personas perjudicadas por un sistema de IA de que un tribunal conozca de su demanda, incluido en aquellos casos en interponer una demanda individual pueda parecer demasiado costoso o engorroso, o cuando una demanda conjunta pueda conllevar beneficios de escala. Para que las víctimas de daños causados por sistemas de IA puedan hacer valer sus derechos en relación con la presente Directiva mediante acciones de representación, el artículo 6 modifica el anexo I de la Directiva (UE) 2020/1828.

3. Exhibición de pruebas (artículo 3)

La presente Directiva pretende proporcionar a las personas que soliciten una indemnización por los daños causados por sistemas de IA de alto riesgo medios eficaces para determinar las personas potencialmente responsables y las pruebas pertinentes de cara a una demanda. Al mismo tiempo, estos medios sirven para excluir a posibles demandados determinados erróneamente, ahorrando tiempo y costes a las partes implicadas y reduciendo la carga de trabajo de los tribunales.

A este respecto, el artículo 3, apartado 1, de la Directiva establece que un órgano jurisdiccional puede ordenar la exhibición de pruebas pertinentes relativas a sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños. Las solicitudes de pruebas se dirigen al proveedor de un sistema de IA, a una persona sujeta a las obligaciones del proveedor establecidas en el artículo 24 o el artículo 28, apartado 1, de la Ley de IA, o a un usuario con arreglo a la Ley de IA. Las solicitudes deben estar respaldadas por hechos y pruebas suficientes para acreditar la viabilidad de la demanda por daños y perjuicios prevista y las pruebas solicitadas deben estar a disposición de los destinatarios. Las solicitudes no pueden dirigirse a partes que no estén sujetas a obligaciones en virtud de la Ley de IA y que, por tanto, no tengan acceso a las pruebas.

De conformidad con el artículo 3, apartado 2, el demandante solo puede solicitar la exhibición de pruebas a proveedores o usuarios que no sean demandados en caso de que se hayan realizado sin éxito todos los intentos proporcionados de obtener las pruebas del demandado.

Para que los medios judiciales sean eficaces, el artículo 3, apartado 3, de la Directiva establece que un órgano jurisdiccional también puede ordenar la conservación de tales pruebas.

De conformidad con el artículo 3, apartado 4, párrafo primero, el órgano jurisdiccional únicamente puede ordenar dicha exhibición en la medida necesaria para sustentar la demanda, dado que la información podría constituir una prueba fundamental para la demanda de la persona perjudicada en caso de daños en los que hayan mediado sistemas de IA.

Al limitar la obligación de exhibición o conservación a las pruebas necesarias y proporcionadas, el artículo 3, apartado 4, párrafo primero, pretende garantizar la proporcionalidad en la exhibición de las pruebas, es decir, limitar la exhibición al mínimo necesario e impedir solicitudes genéricas.

El artículo 3, apartado 4, párrafos segundo y tercero, tiene también por objeto lograr un equilibrio entre los derechos del demandante y la necesidad de garantizar que dicha exhibición esté sujeta a garantías que protejan los intereses legítimos de todas las partes interesadas, como los secretos comerciales o la información confidencial.

En el mismo contexto, el artículo 3, apartado 4, párrafo cuarto, tiene por objeto garantizar que la persona sujeta a la orden de exhibición o conservación tenga remedios procesales a su disposición.

El artículo 3, apartado 5, introduce una presunción de incumplimiento de un deber de diligencia. Se trata de una herramienta procesal, pertinente únicamente en aquellos casos en que sea el propio demandado en una demanda por daños y perjuicios quien soporte las consecuencias del incumplimiento de una solicitud de exhibición o conservación de pruebas. Al demandado le asistirá el derecho de refutar esa presunción. La medida establecida en este apartado tiene por objeto promover la exhibición, pero también acelerar los procedimientos judiciales.

4. Presunción de relación de causalidad en caso de culpa (artículo 4)

En lo que respecta a los daños causados por sistemas de IA, la presente Directiva pretende proporcionar un fundamento eficaz para reclamar una indemnización en relación con la culpa consistente en el incumplimiento de un deber de diligencia en virtud del Derecho de la Unión o nacional.

Puede resultar difícil para los demandantes probar que existe un nexo causal entre dicho incumplimiento y la información de salida producida por el sistema de IA o la no producción de una información de salida por parte del sistema de IA que haya dado lugar a los daños en cuestión. Por lo tanto, en el artículo 4, apartado 1, se ha establecido una presunción refutable de causalidad específica en relación con este nexo causal. Esta presunción es la medida menos gravosa para dar respuesta a la necesidad de una indemnización justa para la víctima.

El demandante debe demostrar la culpa del demandado con arreglo a las normas nacionales o de la Unión aplicables. Esta culpa puede determinarse, por ejemplo, por incumplimiento de un deber de diligencia en virtud de la Ley de IA o de otras normas establecidas a escala de la Unión, como las que regulan el uso de la supervisión y la toma de decisiones automatizadas para el trabajo en plataformas o las que regulan el funcionamiento de aeronaves no tripuladas. El órgano jurisdiccional también puede presumir la culpa sobre la base del incumplimiento de una orden judicial de exhibición o conservación de pruebas con arreglo al artículo 3, apartado 5. No obstante, solo procede introducir una presunción de causalidad cuando pueda considerarse probable que la culpa en cuestión haya influido en la información de salida del sistema de IA pertinente —o en la ausencia de la información de salida—, lo cual puede evaluarse en función de las circunstancias generales del caso. Al mismo tiempo, el demandante aún tiene que demostrar que el sistema de IA (es decir, su información de salida o la no producción de una información de salida) ha causado los daños.

Los apartados 2 y 3 distinguen entre, por una parte, las demandas interpuestas contra el proveedor de un sistema de IA de alto riesgo o contra una persona sujeta a las obligaciones del proveedor en virtud de la Ley de IA y, por otra parte, las demandas interpuestas contra el usuario de dichos sistemas. A este respecto, sigue las disposiciones respectivas y las condiciones pertinentes de la Ley de IA. En el caso de las demandas fundadas en el artículo 4, apartado 2, el cumplimiento por parte de los demandados de las obligaciones enumeradas en dicho apartado debe evaluarse también a la luz del sistema de gestión de riesgos y sus resultados, es decir, las medidas de gestión de riesgos, con arreglo a la Ley de IA.

En el caso de los sistemas de IA de alto riesgo, tal como se definen en la Ley de IA, el artículo 4, apartado 4, establece una excepción a la presunción de causalidad cuando el demandado demuestre que el demandante puede acceder razonablemente a pruebas y conocimientos especializados suficientes para demostrar el nexo causal. Esta posibilidad puede incentivar a los demandados a cumplir sus obligaciones de exhibición, las medidas establecidas por la Ley de IA para garantizar un alto nivel de transparencia de la IA o los requisitos de documentación y registro.

En el caso de los sistemas de IA de riesgo no elevado, el artículo 4, apartado 5, establece una condición para la aplicabilidad de la presunción de causalidad en virtud de la cual esta última está sujeta a que el órgano jurisdiccional determine que es excesivamente difícil para el demandante demostrar el nexo causal. Tales dificultades deben evaluarse a la luz de las características de determinados sistemas de IA, como la autonomía y la opacidad, que hacen muy difícil en la práctica la explicación del funcionamiento interno del sistema de IA, lo que afecta negativamente a la capacidad del demandante para demostrar el nexo causal entre la culpa del demandado y la información de salida de IA.

En los casos en que el demandado utilice el sistema de IA en el transcurso de una actividad personal y no profesional, el artículo 4, apartado 6, establece que la presunción de causalidad solo debe aplicarse si el demandado ha interferido sustancialmente en las condiciones de funcionamiento del sistema de IA o si el demandado tenía la obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo hizo. Esta condición se justifica por la necesidad de ponderar los intereses de los perjudicados y de los usuarios no profesionales, eximiendo de la aplicación de la presunción de causalidad aquellos casos en que los usuarios no profesionales no incrementen el riesgo a través de su comportamiento.

Por último, el artículo 4, apartado 7, establece que el demandado tiene derecho a refutar la presunción de causalidad basada en el artículo 4, apartado 1.

Estas normas eficaces en materia de responsabilidad civil tienen la ventaja añadida de ofrecer a todos los que participan en actividades relacionadas con sistemas de IA un incentivo adicional para cumplir sus obligaciones en relación con la conducta que se espera de ellos.

5. Evaluación y revisión específica (artículo 5)

Varios ordenamientos jurídicos nacionales prevén diferentes regímenes de responsabilidad objetiva. En su Resolución de propia iniciativa de 20 de octubre de 2020, el Parlamento Europeo también propuso elementos para un régimen de este tipo a escala de la UE, consistentes en un régimen de responsabilidad objetiva limitada para determinadas tecnologías basadas en la IA y en una carga de la prueba facilitada en virtud de normas de responsabilidad subjetiva. Las consultas públicas también pusieron de relieve la preferencia por un régimen de este tipo entre los encuestados (excepto en el caso de las empresas que no son pymes), acompañado o no de un seguro obligatorio.

Sin embargo, la propuesta tiene en cuenta las diferencias entre las tradiciones jurídicas nacionales y el hecho de que el tipo de productos y servicios equipados con sistemas de IA que podrían afectar al público en general y poner en peligro importantes derechos —como el derecho a la vida, a la salud y a la propiedad— y que, por tanto, podrían estar sujetos a un régimen de responsabilidad estricta, todavía no están ampliamente disponibles en el mercado.

Se ha puesto en marcha un programa de seguimiento para proporcionar a la Comisión información sobre incidentes relacionados con sistemas de IA. La revisión específica evaluará si serían necesarias medidas adicionales, como la introducción de un régimen de responsabilidad objetiva o un seguro obligatorio.

6. Incorporación al Derecho nacional (artículo 7)

Al notificar a la Comisión las medidas nacionales de transposición para dar cumplimiento a la presente Directiva, los Estados miembros también deben facilitar documentos explicativos que proporcionen información suficientemente clara y precisa e indiquen, para cada disposición de la presente Directiva, la disposición o disposiciones nacionales que garanticen su transposición. Esto es necesario para que la Comisión pueda determinar, con respecto de cada disposición de la Directiva que requiere transposición, la parte pertinente de las medidas nacionales de transposición que crea la obligación legal correspondiente en el ordenamiento jurídico nacional, independientemente de la forma elegida por los Estados miembros.

2022/0303 (COD) Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA)

EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea, y en particular su artículo 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo ( ,)

Visto el dictamen del Comité de las Regiones (30),

De conformidad con el procedimiento legislativo ordinario,

Considerando lo siguiente:

(1) La inteligencia artificial («IA») es un conjunto de tecnologías facilitadoras que puede aportar una amplia gama de beneficios en todo el espectro de la economía y la sociedad. Alberga un gran potencial para el progreso tecnológico y permite nuevos modelos de negocio en muchos sectores de la economía digital.

(2) Al mismo tiempo, dependiendo de las circunstancias de su aplicación y uso específicos, la IA puede generar riesgos y perjudicar intereses y derechos protegidos por el Derecho de la Unión o nacional. Por ejemplo, el uso de la IA puede incidir negativamente en una serie de derechos fundamentales, como la vida, la integridad física, la no discriminación y la igualdad de trato. El Reglamento (UE)…/… del Parlamento Europeo y del Consejo [Ley de IA] (31) establece requisitos destinados a reducir los riesgos para la seguridad y los derechos fundamentales, mientras que otros instrumentos del Derecho de la Unión regulan las normas generales (32) y sectoriales de seguridad de los productos aplicables también a las máquinas y sus partes y accesorios (33) y a los equipos radioeléctricos (34) basados en IA. Si bien estos requisitos destinados a reducir los riesgos para la seguridad y los derechos fundamentales tienen por objeto prevenir, hacer un seguimiento y abordar los riesgos para, así, hacer frente a las preocupaciones sociales, no ofrecen ayuda individual a quienes han sufrido daños causados por la IA. Los requisitos existentes prevén, en particular, autorizaciones, controles, seguimiento y sanciones administrativas en relación con los sistemas de IA con el fin de evitar daños. No prevén la indemnización de la persona perjudicada por los daños causados por una información de salida producida por un sistema de IA, o por la no producción de una información de salida.

(3) Cuando un perjudicado solicita la indemnización del perjuicio sufrido, las normas generales de los Estados miembros en materia de responsabilidad subjetiva exigen normalmente al perjudicado que demuestre que ha habido un acto u omisión negligente o intencionadamente perjudicial («culpa») por parte de la persona potencialmente responsable de dicho daño, así como el nexo causal entre dicha culpa y el daño en cuestión. Sin embargo, cuando la IA se interpone entre el acto u omisión de una persona y el daño, las características específicas de determinados sistemas de IA, como la opacidad, el comportamiento autónomo y la complejidad, pueden hacer excesivamente difícil, si no imposible, que el perjudicado satisfaga la carga de la prueba. En particular, puede resultar excesivamente difícil demostrar que un dato de entrada concreto del que es responsable la persona potencialmente responsable ha dado lugar a una información de salida específica de un sistema de IA que, a su vez, ha provocado el daño en cuestión.

(4) En tales casos, el grado de resarcimiento que ofrecen las normas nacionales en materia de responsabilidad civil puede ser menor que en los casos en que las tecnologías que mediaron en la causación del daño son distintas de la IA. Estas diferencias en la indemnización pueden contribuir a reducir el nivel de aceptación social de la IA y la confianza en los productos y servicios basados en la IA.

(5) A fin de aprovechar los beneficios económicos y sociales de la IA y de promover la transición a la economía digital, es necesario adaptar de manera específica determinadas normas nacionales de responsabilidad civil a las características específicas de determinados sistemas de IA. Estas adaptaciones deben contribuir a la confianza de la sociedad y de los consumidores y, de este modo, promover la introducción generalizada de la IA. Estas adaptaciones también deben mantener la confianza en el sistema judicial, garantizando que las víctimas de daños causados en cuya causación haya mediado la IA reciban la misma indemnización efectiva que las víctimas de daños causados por otras tecnologías.

(6) Las partes interesadas — los perjudicados que sufren daños, las personas potencialmente responsables, las aseguradoras — se enfrentan a una inseguridad jurídica en cuanto a la manera en que los órganos jurisdiccionales nacionales podrían, al verse confrontados a los retos característicos de la IA, aplicar las normas vigentes en materia de responsabilidad a casos concretos con el fin de lograr resultados justos. A falta de actuación por parte de la Unión, es probable que al menos algunos Estados miembros adapten sus normas de responsabilidad civil para acometer los problemas de las discrepancias en materia de indemnización y de la inseguridad jurídica relacionados con las características específicas de determinados sistemas de IA. Esto crearía fragmentación jurídica y obstáculos al mercado interior para las empresas que desarrollen o suministren productos o servicios innovadores basados en la IA. Las pymes se verían especialmente afectadas.

(7) La finalidad de la presente Directiva es contribuir al correcto funcionamiento del mercado interior mediante la armonización de determinadas normas nacionales de responsabilidad extracontractual basada en la culpa (subjetiva), a fin de garantizar que las personas que reclamen una indemnización por los daños y perjuicios que les cause un sistema de IA disfruten de un nivel de protección equivalente al de las personas que reclaman una indemnización por los daños causados sin la mediación de un sistema de IA. Este objetivo no puede ser alcanzado de manera suficiente por los Estados miembros porque los obstáculos pertinentes del mercado interior están vinculados al riesgo de medidas normativas unilaterales y fragmentadas a nivel nacional. Dada la naturaleza digital de los productos y servicios comprendidos en el ámbito de aplicación de la presente Directiva, esta última es especialmente pertinente en los contextos transfronterizos.

(8) Por tanto, el objetivo de garantizar la seguridad jurídica y evitar las discrepancias en la indemnización en aquellos casos en que medien sistemas de IA puede lograrse mejor a escala de la Unión. Por consiguiente, la Unión puede adoptar medidas con arreglo al principio de subsidiariedad contemplado en el artículo 5 del TUE. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, la presente Directiva no excede de lo necesario para alcanzar dichos objetivos.

(9) Por lo tanto, es necesario armonizar de manera específica aspectos específicos de las normas sobre responsabilidad subjetiva a escala de la Unión. Dicha armonización debe aumentar la seguridad jurídica y crear unas condiciones de competencia equitativas para los sistemas de IA, mejorando así el funcionamiento del mercado interior en lo que respecta a la producción y difusión de productos y servicios basados en la IA.

(10) Para garantizar la proporcionalidad, conviene armonizar de manera específica únicamente las normas de responsabilidad subjetiva que rigen la carga de la prueba para las personas que reclamen una indemnización por daños y perjuicios causados por sistemas de IA. La presente Directiva no debe armonizar los aspectos generales de la responsabilidad civil que estén regulados de diferentes maneras por las normas nacionales de responsabilidad civil, como la definición de la culpa o la causalidad, los diferentes tipos de daños que dan lugar a demandas por daños y perjuicios, la distribución de la responsabilidad entre varios causantes de los daños, la concurrencia de culpas, el cálculo de los daños y perjuicios o los plazos de prescripción.

(11) Las leyes de los Estados miembros relativas a la responsabilidad de los productores por los daños causados por el carácter defectuoso de sus productos ya están armonizadas a escala de la Unión mediante la Directiva 85/374/CEE del Consejo (35) . Sin embargo, dichas leyes no afectan a las normas de los Estados miembros en materia de responsabilidad contractual o extracontractual sobre aspectos como la garantía, la culpa o la responsabilidad objetiva, basada en motivos distintos de los defectos del producto. Si bien, al mismo tiempo, la revisión de la Directiva 85/374/CEE del Consejo pretende aclarar y garantizar que el perjudicado pueda reclamar una indemnización por los daños causados por productos defectuosos basados en la IA, debe aclararse, por tanto, que las disposiciones de la presente Directiva no afectan a los derechos que el perjudicado pueda tener en virtud de las normas nacionales de transposición de la Directiva 85/374/CEE. Además, en el ámbito del transporte, el Derecho de la Unión que regula la responsabilidad de los transportistas no debe verse afectado por la presente directiva.

(12) [La Ley de Servicios Digitales (LSD) (36)] armoniza plenamente las normas aplicables a los prestadores de servicios intermediarios en el mercado interior, cubriendo los riesgos sociales derivados de los servicios ofrecidos por dichos proveedores, incluido en lo que respecta a los sistemas de IA que utilizan. La presente Directiva no afecta a las disposiciones de la [Ley de Servicios Digitales (LSD)] que proporcionan un marco integral y plenamente armonizado respecto de las obligaciones de diligencia debida para la toma de decisiones algorítmica por parte de los prestadores de servicios de alojamiento de datos, incluida la exención de responsabilidad por la difusión de contenidos ilícitos cargados por los destinatarios de sus servicios cuando se cumplan las condiciones de dicho Reglamento.

(13) Salvo en lo que se refiere a las presunciones que establece, la presente Directiva no armoniza las legislaciones nacionales en lo relativo a la parte sobre la que recae la carga de la prueba o al grado de certeza necesario para que haya fuerza probatoria.

(14) La presente Directiva debe seguir un enfoque de armonización mínima, ya que así se permite a los demandantes en casos de daños causados por sistemas de IA invocar normas más favorables del Derecho nacional. Así pues, las legislaciones nacionales podrían, por ejemplo, mantener la inversión de la carga de la prueba en el contexto de regímenes nacionales de responsabilidad subjetiva (basada en la culpa) o de regímenes nacionales de responsabilidad sin culpa (conocida como «responsabilidad objetiva») —de los que ya existe una gran variedad en las legislaciones nacionales— que puedan resultar de aplicación a los daños causados por sistemas de IA.

(15) También debe garantizarse la coherencia con [la Ley de IA]. Procede, por tanto, que la presente Directiva utilice las mismas definiciones con respecto a los sistemas de IA, los proveedores y los usuarios. Además, la presente Directiva solo debe abarcar las demandas por daños y perjuicios que hayan sido causados por una información de salida —o por la no producción de una información de salida— imputable a un sistema de IA cuando medie culpa de una persona, por ejemplo, el proveedor o el usuario con arreglo a la [Ley de IA]. No es necesario abarcar las demandas de responsabilidad cuando los daños hayan sido causados por una evaluación humana seguida de una acción u omisión humana y el sistema de IA se haya limitado a proporcionar información o asesoramiento que fue tenido en cuenta por el agente humano de que se trate. En este último caso, es posible atribuir los daños causados a una acción u omisión humana, ya que la información de salida del sistema de IA no se interpone entre la acción u omisión humana y el daño, por lo que establecer la causalidad no es más difícil que en situaciones en las que no interviene un sistema de IA.

(16) El acceso a información sobre sistemas de IA de alto riesgo específicos de los que se sospecha que han causado daños y perjuicios es un factor importante a la hora de determinar si procede reclamar una indemnización y de fundamentar las demandas de indemnización. Además, en el caso de los sistemas de IA de alto riesgo, [la Ley de IA] establece requisitos específicos de documentación, información y registro, pero no otorga al perjudicado el derecho a acceder a dicha información. Procede, por tanto, establecer normas sobre la exhibición de los medios de prueba pertinentes por parte de quienes los tengan a su disposición a efectos de determinar la responsabilidad. Esto también debe ofrecer un incentivo adicional para cumplir los requisitos pertinentes establecidos en la [Ley de IA] para documentar o registrar la información pertinente.

(17) El gran número de personas que suele participar en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de sistemas de IA de alto riesgo hace difícil que los perjudicados identifiquen a la persona potencialmente responsable de los daños causados y demuestren que se cumplen las condiciones para interponer una demanda por daños y perjuicios. Para que los perjudicados puedan determinar si una demanda por daños y perjuicios es fundada, conviene conceder a los demandantes potenciales el derecho a solicitar a un órgano jurisdiccional que ordene la exhibición de las pruebas pertinentes antes de presentar una demanda por daños y perjuicios. Dicha exhibición solo debe ordenarse cuando el demandante potencial presente hechos e información suficientes para acreditar la viabilidad de una demanda por daños y perjuicios y haya presentado previamente una solicitud al proveedor, a la persona sujeta a las obligaciones de un proveedor o al usuario para que exhiba dichas pruebas que obran en su poder sobre sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños y perjuicios, y que esta solicitud haya sido denegada. La orden de exhibición debe llevar a una reducción de los litigios innecesarios y evitar costes a los posibles litigantes causados por demandas sin fundamento o con pocas posibilidades de prosperar. La negativa del proveedor, de la persona sujeta a las obligaciones de un proveedor o del usuario previa a la solicitud de exhibición de pruebas al órgano jurisdiccional no debe dar lugar a la presunción de incumplimiento de las obligaciones de diligencia pertinentes por parte de la persona que deniegue dicha exhibición.

(18) La limitación de la exhibición de pruebas en lo que respecta a los sistemas de IA de alto riesgo es coherente con la [Ley de IA], que establece determinadas obligaciones específicas en materia de documentación, conservación de registros e información para los operadores que participan en el diseño, el desarrollo y la introducción de sistemas de IA de alto riesgo. Esta coherencia también garantiza la proporcionalidad necesaria al evitar que los operadores de sistemas de IA que planteen un riesgo menor o nulo tengan que documentar la información con un grado de detalle similar al exigido en el caso de los sistemas de IA de alto riesgo en virtud de la [Ley de IA].

(19) Los órganos jurisdiccionales nacionales deben poder ordenar, en el transcurso de un proceso civil, la exhibición o conservación de pruebas pertinentes relacionadas con los daños causados por sistemas de IA de alto riesgo a personas que ya estén obligadas a documentar o registrar información en virtud de la [Ley de IA], ya se trate de proveedores, de personas sujetas a las mismas obligaciones que los proveedores o de usuarios de un sistema de IA, y ya sean estos demandados o terceros con respecto a la demanda. Podrían darse situaciones en las que las pruebas pertinentes para el asunto obren en poder de entidades que no sean parte en la demanda por daños y perjuicios, pero que estén obligadas a documentar o registrar dichas pruebas de conformidad con la [Ley de IA]. Por lo tanto, es necesario fijar las condiciones en que se puede ordenar a tales terceros con respecto a la demanda que exhiban las pruebas pertinentes.

(20) Para mantener el equilibrio entre los intereses de las partes en la demanda por daños y perjuicios y los de los terceros afectados, los órganos jurisdiccionales deben ordenar la exhibición de pruebas únicamente cuando sea necesario y proporcionado para sustentar la demanda real o potencial por daños y perjuicios. A este respecto, la exhibición solo debe referirse a las pruebas que sean necesarias para adoptar una decisión sobre la correspondiente demanda por daños y perjuicios, por ejemplo, solo las partes de los registros o conjuntos de datos pertinentes necesarias para demostrar el incumplimiento de un requisito fijado por la [Ley de IA]. Para garantizar la proporcionalidad de tales medidas de exhibición o conservación, los órganos jurisdiccionales nacionales deben disponer de medios eficaces para salvaguardar los intereses legítimos de todas las partes implicadas, por ejemplo la protección de los secretos comerciales en el sentido de la Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo (37) y de la información confidencial como, por ejemplo, la relacionada con la seguridad pública o nacional. Por lo que respecta a los secretos comerciales o a los presuntos secretos comerciales que el órgano jurisdiccional haya considerado como confidenciales en el sentido de la Directiva (UE) 2016/943, los órganos jurisdiccionales nacionales deben estar facultados para adoptar medidas específicas que garanticen la confidencialidad de los secretos comerciales durante y después del proceso, al tiempo que se logra un equilibrio justo y proporcionado entre el interés del poseedor del secreto comercial en mantener el secreto y el interés de la persona perjudicada. Esto debe incluir medidas para restringir el acceso a los documentos que contengan secretos comerciales y el acceso a las audiencias o los documentos y sus transcripciones a un número limitado de personas. Al decidir sobre tales medidas, los órganos jurisdiccionales nacionales deben tener en cuenta la necesidad de garantizar el derecho a la tutela judicial efectiva y a un juez imparcial, los intereses legítimos de las partes y, en su caso, de terceros, así como el perjuicio que pudiera ocasionarse a cualquiera de las partes o, en su caso, a terceros, como consecuencia de que se acuerden o no dichas medidas. Por otra parte, a fin de garantizar una aplicación proporcionada de las medidas de exhibición dirigidas a terceros en las demandas por daños y perjuicios, los órganos jurisdiccionales nacionales deben ordenar la exhibición por parte de terceros únicamente si las pruebas no pueden obtenerse del demandado.

(21) Si bien los órganos jurisdiccionales nacionales disponen de medios para hacer ejecutar sus órdenes de exhibición a través de diversas medidas, tales medidas de ejecución podrían retrasar las demandas por daños y perjuicios y, por tanto, generar gastos adicionales para los litigantes. Para los perjudicados, tales retrasos y gastos adicionales pueden dificultar su acceso a la tutela judicial efectiva. Por lo tanto, cuando un demandado en una demanda de indemnización por daños y perjuicios no exhibe las pruebas a su disposición según lo ordenado por un órgano jurisdiccional, procede establecer una presunción de incumplimiento de las obligaciones de diligencia que dichas pruebas debían demostrar. Esta presunción refutable reducirá la duración de los litigios y redundará en una mayor eficiencia de los procedimientos judiciales. El demandado debe poder refutar esta presunción presentando pruebas en contrario.

(22) A fin de hacer frente a las dificultades para demostrar que un dato de entrada concreto del que es responsable la persona potencialmente responsable dio lugar a una información de salida específica de un sistema de IA que, a su vez, provocó el daño en cuestión, procede establecer, en determinadas condiciones, una presunción de causalidad. Si bien, en las demandas basadas en la culpa, el demandante normalmente tiene que probar el daño, la acción u omisión humana que determina la culpa del demandado y el vínculo de causalidad entre ambos, la presente Directiva no armoniza las condiciones en las que los órganos jurisdiccionales nacionales establecen la culpa. Siguen rigiéndose por el Derecho nacional aplicable y, cuando haya habido armonización, por el Derecho de la Unión aplicable. Del mismo modo, la presente Directiva no armoniza las condiciones relacionadas con los daños, por ejemplo, la cuestión de qué daños son indemnizables, que también están regulados por la legislación nacional y de la Unión aplicable. Para que se aplique la presunción de causalidad en virtud de la presente Directiva, la culpa del demandado debe establecerse como una acción u omisión humana que no se ajuste a un deber de diligencia derivado del Derecho de la Unión o nacional directamente destinado a proteger contra los daños que se hayan producido. Así pues, esta presunción puede aplicarse, por ejemplo, en demandas de indemnización por lesiones corporales cuando el órgano jurisdiccional establezca la culpa del demandado por incumplimiento de las instrucciones de uso destinadas a evitar daños a personas físicas. El incumplimiento de deberes de diligencia no destinados directamente a proteger contra los daños producidos no da lugar a la aplicación de la presunción; así, por ejemplo, el hecho de que un proveedor no presentase la documentación requerida ante las autoridades competentes no daría lugar a la aplicación de la presunción en las demandas de indemnización por lesiones corporales. También debe ser necesario establecer que puede considerarse razonablemente probable, basándose en las circunstancias del caso, que la culpa haya influido en la información de salida producida por el sistema de IA o en que el sistema de IA no haya producido una información de salida. Por último, debe exigirse al demandante que demuestre que la información de salida o la no producción de información de salida dio lugar al daño.

(23) Esta culpa puede establecerse en relación con el incumplimiento de las normas de la Unión que regulan específicamente los sistemas de IA de alto riesgo, como los requisitos introducidos para determinados sistemas de IA de alto riesgo por la [Ley de IA], los requisitos que pueden introducirse mediante la futura legislación sectorial para otros sistemas de IA de alto riesgo de conformidad con el [artículo 2, apartado 2, de la Ley de IA], o los deberes de diligencia vinculados a determinadas actividades y que son aplicables con independencia de que la IA se utilice o no para esa actividad. Al mismo tiempo, la presente Directiva ni crea ni armoniza los requisitos o la responsabilidad de las entidades cuya actividad está regulada por dichos actos jurídicos y, por tanto, no da lugar a nuevas demandas de responsabilidad. La prueba del incumplimiento de tales requisitos determinantes de la culpa se llevará a cabo de conformidad con las disposiciones de dichas normas aplicables del Derecho de la Unión, ya que la presente Directiva ni introduce nuevos requisitos ni afecta a los vigentes. Por ejemplo, la exención de responsabilidad de los prestadores de servicios intermediarios y las obligaciones de diligencia debida a las que están sujetos en virtud de la [Ley de Servicios Digitales] no se ven afectadas por la presente Directiva. Del mismo modo, el cumplimiento de los requisitos impuestos a las plataformas en línea para evitar la comunicación no autorizada al público de obras protegidas por derechos de autor debe establecerse en virtud de la Directiva (UE) 2019/790 sobre los derechos de autor y derechos afines en el mercado único digital y otra legislación pertinente de la Unión en materia de derechos de autor.

(24) En los ámbitos no armonizados por el Derecho de la Unión, sigue siendo de aplicación el Derecho nacional y la existencia de culpa se determina en virtud de la legislación nacional aplicable. Todos los regímenes nacionales de responsabilidad establecen obligaciones de diligencia y adoptan como norma de conducta diferentes expresiones del principio de que se debe actuar como una persona razonable, que también garantizan el funcionamiento seguro de los sistemas de IA con el fin de evitar el menoscabo de los intereses jurídicos protegidos. Estos deberes de diligencia podrían, por ejemplo, exigir a los usuarios de sistemas de IA que elijan para determinadas tareas un sistema de IA concreto con características determinadas o que excluyan a determinados segmentos de una población de la exposición a un sistema de IA concreto. La legislación nacional también puede introducir obligaciones específicas destinadas a prevenir los riesgos de determinadas actividades que sean de aplicación con independencia de que la IA se utilice o no para esa actividad, por ejemplo, normas de tráfico u obligaciones diseñadas específicamente para los sistemas de IA como, por ejemplo, requisitos nacionales adicionales para los usuarios de sistemas de IA de alto riesgo de conformidad con el artículo 29, apartado 2, de la [Ley de IA]. La presente Directiva no introduce tales requisitos ni afecta a las condiciones para determinar la existencia de culpa en caso de incumplimiento de dichos requisitos.

(25) Aun cuando se demuestre la existencia de una culpa consistente en el incumplimiento de un deber de diligencia destinado directamente a proteger contra los daños sufridos, no toda culpa debe dar lugar a la aplicación de la presunción refutable que la vincula a la información de salida de la IA. Tal presunción solo debe aplicarse cuando pueda considerarse razonablemente probable, en función de las circunstancias en las que se produjo el daño, que dicha culpa ha influido en la información de salida producida por el sistema de IA o en la no producción de la información de salida por parte del sistema de IA que haya dado lugar al daño. Por ejemplo, puede considerarse razonablemente probable que la culpa ha influido en la información de salida o en la no producción de una información de salida cuando dicha culpa consista en el incumplimiento de un deber de diligencia con respecto a la limitación del perímetro de funcionamiento del sistema de IA y los daños se hayan producido fuera del perímetro de funcionamiento. Por el contrario, no puede considerarse razonablemente probable que el incumplimiento de la obligación de presentar determinados documentos o de registrarse ante una autoridad determinada —aunque ello pueda estar previsto para esa actividad concreta o incluso ser expresamente aplicable al funcionamiento de un sistema de IA— ha influido en la información de salida producida por el sistema de IA o en la no producción de dicha información de salida por sistema de IA.

(26) La presente Directiva cubre la culpa constitutiva de incumplimiento de determinados requisitos enumerados en los capítulos 2 y 3 de la [Ley de IA] para los proveedores y usuarios de sistemas de IA de alto riesgo, cuyo incumplimiento puede dar lugar, en determinadas condiciones, a una presunción de causalidad. La Ley de IA prevé la plena armonización de los requisitos aplicables a los sistemas de IA, a menos que en ella se establezca expresamente lo contrario. Armoniza los requisitos específicos para los sistemas de IA de alto riesgo. Por lo tanto, a efectos de las demandas por daños y perjuicios en las que se aplica una presunción de causalidad con arreglo a la presente Directiva, la posible culpa de los proveedores o de las personas sujetas a las obligaciones de un proveedor en virtud de la [Ley de IA] solo se establece mediante el incumplimiento de dichos requisitos. Dado que, en la práctica, puede resultar difícil para el demandante demostrar dicho incumplimiento cuando el demandado es un proveedor del sistema de IA, y en plena coherencia con la lógica de la [Ley de IA], la presente Directiva también debe establecer que las medidas adoptadas por el proveedor en el marco del sistema de gestión de riesgos y los resultados del sistema de gestión de riesgos, es decir, la decisión de adoptar o no determinadas medidas de gestión de riesgos, deben tenerse en cuenta a la hora de determinar si el proveedor ha cumplido los requisitos pertinentes de la Ley de IA a que se refiere la presente Directiva. El sistema de gestión de riesgos adoptado por el proveedor de conformidad con la [Ley de IA] es un proceso iterativo continuo que se aplica a lo largo de todo el ciclo de vida del sistema de IA de alto riesgo mediante el cual el proveedor garantiza el cumplimiento de los requisitos obligatorios destinados a mitigar los riesgos y, por tanto, puede ser un elemento útil a efectos de la evaluación de dicho cumplimiento. La presente Directiva también abarca los casos de culpa de los usuarios cuando dicha culpa consista en el incumplimiento de determinadas exigencias específicas establecidas por la [Ley de IA]. Además, la culpa de los usuarios de sistemas de IA de alto riesgo puede determinarse a raíz del incumplimiento de otras obligaciones de diligencia establecidas en el Derecho de la Unión o nacional, a la luz del artículo 29, apartado 2, de la [Ley de IA].

(27) Si bien las características específicas de determinados sistemas de IA, como la autonomía y la opacidad, podrían dificultar excesivamente al demandante la satisfacción de la carga de la prueba, podrían darse situaciones en las que no se den tales dificultades por disponer el demandante de suficientes pruebas y conocimientos especializados para demostrar el nexo causal. Este podría ser el caso, por ejemplo, de los sistemas de IA de alto riesgo respecto de los cuales el demandante podría tener un acceso razonable a pruebas y conocimientos especializados suficientes mediante requisitos de documentación y registro de conformidad con la [Ley de IA]. En tales situaciones, el órgano jurisdiccional no debe aplicar la presunción.

(28) La presunción de causalidad también podría aplicarse a los sistemas de IA que no sean de alto riesgo, ya que podría haber dificultades de prueba excesivas para el demandante. Por ejemplo, tales dificultades podrían evaluarse a la luz de las características de determinados sistemas de IA, como la autonomía y la opacidad, que hacen muy difícil en la práctica la explicación del funcionamiento interno del sistema de IA, lo que afecta negativamente a la capacidad del demandante para demostrar el nexo causal entre la culpa del demandado y la información de salida de IA. Los órganos jurisdiccionales nacionales deben aplicar la presunción cuando el demandante se encuentre en una situación excesivamente difícil para demostrar la causalidad por verse en la obligación de explicar la manera en que el acto u omisión humano determinante de la culpa llevó al sistema de IA a producir la información de salida que dio lugar al daño o a no producir la información de salida cuya ausencia dio lugar al daño. Sin embargo, no debe exigirse al demandante que explique las características del sistema de IA de que se trate ni el modo en que estas características dificultan la determinación del nexo causal.

(29) La aplicación de la presunción de causalidad tiene por objeto garantizar al perjudicado un nivel de protección similar al existente en aquellas situaciones en las que no interviene la IA y en las que, por tanto, la causalidad puede ser más fácil de demostrar. No obstante, el aligeramiento de la carga de probar la causalidad no siempre es apropiado en virtud de la presente Directiva cuando el demandado no sea un usuario profesional, sino una persona que utiliza el sistema de IA para sus actividades privadas. En tales circunstancias, a fin de lograr un equilibrio entre los intereses de los perjudicados y los de los usuarios no profesionales, ha de tenerse en cuenta si dichos usuarios no profesionales pueden aumentar, mediante su comportamiento, el riesgo de que un sistema de IA cause daños. Si el proveedor de un sistema de IA ha cumplido todas sus obligaciones y, en consecuencia, se ha considerado que dicho sistema es suficientemente seguro para ser comercializado con vistas a un uso determinado por usuarios no profesionales y, a continuación, se utiliza con dicha finalidad, no debe aplicarse una presunción de causalidad por la mera puesta en funcionamiento de dicho sistema por parte de tales usuarios no profesionales. A los usuarios no profesionales que compren sistemas de IA y simplemente lo pongan en funcionamiento con arreglo a su finalidad, sin interferir sustancialmente en las condiciones de funcionamiento, no se les debe aplicar la presunción de causalidad establecida en la presente Directiva. No obstante, si un órgano jurisdiccional nacional determina que un usuario no profesional ha interferido sustancialmente en las condiciones de funcionamiento de un sistema de IA o que este tenía la obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo hizo, entonces debe aplicarse la presunción de causalidad, siempre y cuando se cumplan todas las demás condiciones. Este podría ser el caso, por ejemplo, cuando el usuario no profesional no respeta las instrucciones de uso u otras obligaciones de diligencia aplicables a la hora de elegir el ámbito de operación o de fijar las condiciones de funcionamiento del sistema de IA. Esto se entiende sin perjuicio del hecho de que el proveedor debe determinar la finalidad prevista de los sistemas de IA, incluidos el contexto y las condiciones específicas de uso, y eliminar o minimizar los riesgos de dicho sistema según convenga en el momento del diseño y el desarrollo, teniendo en cuenta los conocimientos y la experiencia de los usuarios previstos.

(30) Dado que la presente Directiva introduce una presunción refutable (iuris tantum), el demandado debe tener la posibilidad de refutarla, en particular demostrando que su culpa no puede haber sido la causa del daño.

(31) Es necesario prever una revisión de la presente Directiva [cinco años] después de la finalización del período de transposición. En particular, mediante dicha revisión debe examinarse si es necesario adoptar normas de responsabilidad objetiva (sin culpa) para las demandas contra el operador —siempre que estas no estén ya cubiertas por otras normas de responsabilidad de la Unión, en particular la Directiva 85/374/CEE— combinadas con un seguro obligatorio para la explotación de determinados sistemas de IA, tal como ha sugerido el Parlamento Europeo (38) . De conformidad con el principio de proporcionalidad, procede evaluar dicha necesidad a la luz de la evolución tecnológica y normativa pertinente en los próximos años, teniendo en cuenta el efecto y la incidencia en la introducción generalizada y la adopción de los sistemas de IA, especialmente para las pymes. Dicha revisión debe tener en cuenta, entre otras cosas, los riesgos que conlleven daños a bienes jurídicos importantes como la vida, la salud y la propiedad de terceros ajenos a estos riesgos a través de la utilización de productos o servicios basados en la IA. Dicha revisión también debe analizar la eficacia de las medidas previstas en la presente Directiva para hacer frente a tales riesgos, así como el desarrollo de soluciones adecuadas por parte del mercado de seguros. Para garantizar la disponibilidad de la información necesaria para llevar a cabo dicha revisión, es menester reunir los datos y demás elementos de prueba necesarios sobre las cuestiones pertinentes.

(32) Habida cuenta de la necesidad de realizar adaptaciones en las normas nacionales de responsabilidad civil y procesales con el fin de fomentar la introducción generalizada de productos y servicios basados en la IA en condiciones beneficiosas para el mercado interior, de aceptación social y de confianza de los consumidores en la tecnología de la IA y en el sistema judicial, conviene fijar un plazo máximo de [dos años desde la entrada en vigor] de la presente Directiva para que los Estados miembros adopten las medidas de transposición necesarias.

(33) De conformidad con la Declaración política conjunta, de 28 de septiembre de 2011, de los Estados miembros y de la Comisión sobre los documentos explicativos (39) , en casos justificados, los Estados miembros se comprometen a adjuntar a la notificación de las medidas de transposición uno o varios documentos que expliquen la relación entre los componentes de una directiva y las partes correspondientes de los instrumentos nacionales de transposición. Por lo que respecta a la presente Directiva, el legislador considera que la transmisión de tales documentos está justificada.

HAN ADOPTADO LA PRESENTE DIRECTIVA:

Artículo 1. Objeto y ámbito de aplicación

1. La presente Directiva establece normas comunes sobre:

a) la exhibición de pruebas relativas a sistemas de inteligencia artificial (IA) de alto riesgo con el fin de permitir a los demandantes fundamentar sus demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) por daños y perjuicios;

b) la carga de la prueba en el caso de demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) interpuestas ante tribunales nacionales por daños y perjuicios causados por sistemas de IA.

2. La presente Directiva se aplica a las demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) en aquellos casos en que los daños y perjuicios causados por un sistema de IA se produzcan después de [el final del período de transposición].

La presente Directiva no es aplicable a la responsabilidad penal.

3. La presente Directiva no afectará a:

a) las normas del Derecho de la Unión que regulan las condiciones de responsabilidad en el ámbito del transporte;

b) los derechos que puedan asistir a un perjudicado en virtud de las normas nacionales de transposición de la Directiva 85/374/CEE;

c) las exenciones de responsabilidad y las obligaciones de diligencia debida establecidas en [la Ley de servicios digitales], y

d) las normas nacionales que determinen qué parte ha de soportar la carga de la prueba, qué grado de certeza se exige para que haya fuerza probatoria o cómo se define la culpa, con excepción de lo previsto en los artículos 3 y 4.

4. Los Estados miembros podrán adoptar o mantener normas nacionales más favorables para que los demandantes fundamenten sus demandas civiles de responsabilidad extracontractual por daños y perjuicios causados por sistemas de IA, siempre que dichas normas sean compatibles con el Derecho de la Unión.

Artículo 2. Definiciones

A los efectos de la presente Directiva, se entenderá por:

1) «sistema de IA»: un sistema de IA tal como se define en [el artículo 3, apartado 1, de la Ley de IA];

2)«sistema de IA de alto riesgo»: un sistema de IA de alto riesgo de los mencionados en [el artículo 6 de la Ley de IA];

3) «proveedor»: un proveedor tal como se define en [el artículo 3, apartado 2, de la Ley de IA];

4) «usuario»: un usuario tal como se define en [el artículo 3, apartado 4, de la Ley de IA];

5) «demanda por daños y perjuicios»: una demanda de responsabilidad civil extracontractual subjetiva (basada en la culpa) por la que se solicita una indemnización por los daños y perjuicios causados por una información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido;

6) «demandante»: persona que interpone una demanda por daños y perjuicios y que:

a) se ha visto perjudicada por la información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido;

b) ha sucedido a una persona perjudicada o se ha subrogado en su derecho en virtud de una ley o contrato; o

c) actúa en nombre de uno o varios perjudicados, de conformidad con el Derecho de la Unión o nacional;

7) «demandante potencial»: persona física o jurídica que está considerando la posibilidad de presentar una demanda por daños y perjuicios, pero que aún no lo ha hecho;

8) «demandado»: la persona contra la que se interpone una demanda por daños y perjuicios;

9) «deber de diligencia»: norma de conducta exigida establecida por el Derecho nacional o de la Unión con el fin de evitar daños a bienes jurídicos reconocidos a nivel nacional o de la Unión, incluidos la vida, la integridad física, la propiedad y la protección de los derechos fundamentales.

Artículo 3. Exhibición de pruebas y presunción refutable de incumplimiento

1. Los Estados miembros velarán por que los órganos jurisdiccionales nacionales estén facultados, ya sea a petición de un demandante potencial que haya solicitado previamente a un proveedor, a una persona sujeta a las obligaciones de un proveedor con arreglo al [artículo 24 o al artículo 28, apartado 1, de la Ley de IA], o a un usuario, que exhiba las pruebas pertinentes que obran en su poder sobre un determinado sistema de IA de alto riesgo del que se sospeche que ha causado daños, pero cuya solicitud haya sido denegada, o a petición de un demandante, para ordenar la exhibición de dichas pruebas a estas personas.

En apoyo de esta solicitud, el demandante potencial deberá presentar hechos y pruebas suficientes para sustentar la viabilidad de una demanda de indemnización por daños y perjuicios.

2. En el contexto de una demanda por daños y perjuicios, el órgano jurisdiccional nacional solo ordenará la exhibición de las pruebas por parte de una de las personas enumeradas en el apartado 1 cuando el demandante haya realizado todos los intentos proporcionados de obtener del demandado las pruebas pertinentes.

3. Los Estados miembros velarán por que los órganos jurisdiccionales nacionales, a solicitud de un demandante, estén facultados para ordenar medidas específicas con el fin de conservar las pruebas mencionadas en el apartado 1.

4. Los órganos jurisdiccionales nacionales limitarán la exhibición de las pruebas y las medidas para su conservación a lo necesario y proporcionado para sustentar una demanda potencial o una demanda por daños y perjuicios.

A la hora de determinar si una orden de exhibición o conservación de pruebas es proporcionada, los órganos jurisdiccionales nacionales tendrán en cuenta los intereses legítimos de todas las partes, incluidos los terceros afectados, en particular los relativos a la protección de secretos comerciales en el sentido del artículo 2, apartado 1, de la Directiva (UE) 2016/943 y de la información confidencial como, por ejemplo, la relacionada con la seguridad pública o nacional.

Los Estados miembros velarán por que, cuando se ordene la revelación de un secreto comercial o de un supuesto secreto comercial que el órgano jurisdiccional haya declarado confidencial en el sentido del artículo 9, apartado 1, de la Directiva (UE) 2016/943, los órganos jurisdiccionales nacionales estén facultados, previa solicitud debidamente motivada de una parte o por iniciativa propia, para adoptar las medidas específicas necesarias a fin de preservar la confidencialidad cuando dicha prueba se utilice o se mencione en procedimientos judiciales.

Los Estados miembros velarán también por que la persona que reciba la orden de exhibir o conservar las pruebas mencionadas en los apartados 1 o 2 disponga de remedios procesales adecuados en respuesta a dichas órdenes.

5. Cuando un demandado incumpla la orden de un órgano jurisdiccional nacional en una demanda por daños y perjuicios de exhibir o conservar las pruebas que obran en su poder con arreglo a los apartados 1 o 2, el órgano jurisdiccional nacional presumirá el incumplimiento por parte del demandado de un deber de diligencia pertinente, en particular en las circunstancias a que se refiere el artículo 4, apartados 2 o 3, que las pruebas solicitadas estaban destinadas a probar a efectos de la correspondiente demanda por daños y perjuicios.

Al demandado le asistirá el derecho de refutar esa presunción.

Artículo 4. Presunción refutable de relación de causalidad en caso de culpa

1. Sin perjuicio de los requisitos establecidos en el presente artículo, los órganos jurisdiccionales nacionales presumirán, a efectos de la aplicación de las normas de responsabilidad a demandas por daños y perjuicios, el nexo causal entre la culpa del demandado y los resultados producidos por el sistema de IA o la no producción de resultados por parte del sistema de IA, siempre y cuando se cumplan todas las condiciones siguientes:

a) que el demandante haya demostrado o el órgano jurisdiccional haya supuesto, de conformidad con el artículo 3, apartado 5, la culpa del demandado o de una persona de cuyo comportamiento sea responsable el demandado, consistente en el incumplimiento de un deber de diligencia establecido por el Derecho de la Unión o nacional destinado directamente a proteger frente a los daños que se hayan producido;

b) que pueda considerarse razonablemente probable, basándose en las circunstancias del caso, que la culpa ha influido en los resultados producidos por el sistema de IA o en la no producción de resultados por parte del sistema de IA;

c) que el demandante haya demostrado que la información de salida producida por el sistema de IA o la no producción de una información de salida por parte del sistema de IA causó los daños.

2. En caso de demandas por daños y perjuicios contra proveedores de sistemas de IA de alto riesgo sujetos a los requisitos establecidos en los capítulos 2 y 3 del título III de la [Ley de IA] o contra personas sujetas a las obligaciones del proveedor con arreglo al [artículo 24 o al artículo 28, apartado 1, de la Ley de IA], la condición del apartado 1, letra a), solo se cumplirá cuando el demandante haya demostrado que el proveedor o, en su caso, la persona sujeta a las obligaciones del proveedor, ha incumplido cualquiera de los siguientes requisitos establecidos en dichos capítulos, teniendo en cuenta las medidas adoptadas y los resultados del sistema de gestión de riesgos con arreglo al [artículo 9 y el artículo 16, letra a), de la Ley de IA]:

a) el sistema de IA es un sistema que utiliza técnicas que implican el entrenamiento de modelos con datos y que no se ha desarrollado a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplen los criterios de calidad expuestos en el [artículo 10, apartados 2 a 4, de la Ley de IA];

b) el sistema de IA no ha sido diseñado ni desarrollado de modo que cumpla los requisitos de transparencia establecidos en [el artículo 13 de la Ley de IA];

c) el sistema de IA no ha sido diseñado ni desarrollado de modo que permita una vigilancia efectiva por personas físicas durante el período de utilización del sistema de IA de conformidad con el [artículo 14 de la Ley de IA];

d) el sistema de IA no ha sido diseñado ni desarrollado de modo que, a la luz de su finalidad prevista, alcance un nivel adecuado de precisión, solidez y ciberseguridad de conformidad con [el artículo 15 y el artículo 16, letra a), de la Ley de IA]; o

e) no se han adoptado de forma inmediata las medidas correctoras necesarias para poner el sistema de IA en conformidad con las obligaciones establecidas en el [título III, capítulo 2, de la Ley de IA] o para retirar del mercado o recuperar el sistema, según proceda, de conformidad con el [artículo 16, letra g), y artículo 21 de la Ley de IA].

3. En caso de demandas por daños y perjuicios contra usuarios de sistemas de IA de alto riesgo sujetos a los requisitos establecidos en los capítulos 2 y 3 del título III de la [Ley de IA], la condición del apartado 1, letra a), se cumplirá cuando el demandante demuestre que el usuario:

a) no cumplió con sus obligaciones de utilizar o supervisar el sistema de IA de conformidad con las instrucciones de uso adjuntas o, en su caso, de suspender o interrumpir su uso con arreglo al [artículo 29 de la Ley de IA]; o

b) expuso al sistema de IA a datos de entrada bajo su control que no eran pertinentes habida cuenta de la finalidad prevista del sistema con arreglo al [artículo 29, apartado 3, de la Ley].

4. En el caso de las demandas por daños y perjuicios relacionadas con sistemas de IA de alto riesgo, los órganos jurisdiccionales nacionales no aplicarán la presunción establecida en el apartado 1 cuando el demandado demuestre que el demandante puede acceder razonablemente a pruebas y conocimientos especializados suficientes para demostrar el nexo causal mencionado en el apartado 1.

5. En el caso de las demandas por daños y perjuicios relacionadas con sistemas de IA que no sean de alto riesgo, la presunción establecida en el apartado 1 solo se aplicará cuando el órgano jurisdiccional nacional considere excesivamente difícil para el demandante demostrar el nexo causal mencionado en el apartado 1.

6. En el caso de las demandas por daños y perjuicios contra un demandado que haya utilizado el sistema de IA en el transcurso de una actividad personal de carácter no profesional, la presunción establecida en el apartado 1 solo se aplicará cuando el demandado haya interferido sustancialmente en las condiciones de funcionamiento del sistema de IA o cuando el demandado tuviese la obligación y estuviese en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo haya hecho.

7. Al demandado le asistirá el derecho de refutar la presunción establecida en el apartado 1.

Artículo 5. Evaluación y revisión específica

1. A más tardar el [FECHA cinco años después del final del período de transposición], la Comisión revisará la aplicación de la presente Directiva y presentará un informe al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, acompañado, en su caso, de una propuesta legislativa.

2. El informe examinará los efectos de los artículos 3 y 4 en la consecución de los objetivos perseguidos por la presente Directiva. En particular, deberá evaluar la idoneidad de las normas de responsabilidad objetiva (sin culpa) para las demandas contra los operadores de determinados sistemas de IA —siempre que estas no estén ya reguladas por otras normas de responsabilidad de la Unión— y la necesidad de aseguramiento, teniendo en cuenta al mismo tiempo el efecto y el impacto en la introducción general y la adopción de los sistemas de IA, especialmente para las pymes.

3. La Comisión establecerá un programa de seguimiento para la preparación del informe con arreglo a los apartados 1 y 2, en el que se establecerá cómo y con qué periodicidad se recopilarán los datos y demás elementos de prueba necesarios. El programa especificará las medidas que deban adoptar la Comisión y los Estados miembros para recopilar y analizar los datos y demás elementos de prueba. A efectos de dicho programa, los Estados miembros comunicarán a la Comisión los datos y elementos de prueba pertinentes, a más tardar el [31 de diciembre del segundo año completo siguiente al final del período de transposición] y al final de cada año posterior.

Artículo 6. Modificación de la Directiva (UE) 2020/1828

En el anexo I de la Directiva (UE) 2020/1828 (40), se añade el punto 67 siguiente:

«(67) Directiva (UE) …/… del Parlamento Europeo y del Consejo, de …, relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA) (DO L… de…, p. …).».

Artículo 7. Transposición

1. Los Estados miembros adoptarán las disposiciones legales, reglamentarias y administrativas necesarias para dar cumplimiento a la presente Directiva a más tardar el [dos años después de su entrada en vigor]. Comunicarán inmediatamente a la Comisión el texto de dichas disposiciones.

Cuando los Estados miembros adopten dichas disposiciones, estas incluirán una referencia a la presente Directiva o irán acompañadas de dicha referencia en su publicación oficial. Los Estados miembros establecerán las modalidades de la mencionada referencia.

2. Los Estados miembros comunicarán a la Comisión el texto de las principales disposiciones de Derecho interno que adopten en el ámbito regulado por la presente Directiva.

Artículo 8. Entrada en vigor

La presente Directiva entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea.

Artículo 9. Destinatarios

Los destinatarios de la presente Directiva son los Estados miembros.

Hecho en Bruselas, el

Por el Parlamento Europeo, La Presidenta    Por el Consejo, El Presidente

——————————————-

(1)   European enterprise survey on the use of technologies based on AI (Encuesta empresarial europea sobre el uso de tecnologías basadas en la IA), Ipsos 2020, Final report, p. 58.

( https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 )

(2)    https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf

(3)   Libro Blanco sobre la inteligencia artificial — un enfoque europeo orientado a la excelencia y la confianza, 19.2.2020, [COM(2020) 65 final].

(4)   Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica, 19.2.2020 [COM(2020) 64 final].

(5)   Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial [2020/2014(INL)].

(6)   Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital [2020/2266 (INI)].

(7)   Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) [COM(2021) 206 final].

(8)   Solo un reducido número de casos de uso de la IA están expresamente prohibidos por la Ley de IA.

(9)   Documento de trabajo de los servicios de la Comisión SWD(2021) 84 final, Evaluación de impacto que acompaña a la Ley de Inteligencia Artificial, p. 88.

(10)   Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos [COM(2021) 346 final].

(11)   Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a las máquinas y sus partes y accesorios [COM(2021) 202 final].

(12)   Reglamento Delegado (UE) 2022/30 de la Comisión que completa la Directiva 2014/53/UE del Parlamento Europeo y del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d), e) y f), de dicha Directiva (DO L 7 de 12.1.2022, p. 6).

(13)   Comunicación de la Comisión «Configurar el futuro digital de Europa» [COM(2020) 67 final].

(14)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para productos con elementos digitales) — COM(2022) 454 final]

(15)   Comunicación de la Comisión «Una Estrategia Europea de Datos» [COM(2020) 66 final].

(16)   Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones: El Pacto Verde Europeo [COM(2019) 640 final].

(17)   Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021 («Estudio económico»).

(18)   Estrategia Nacional de Inteligencia Artificial de la República Checa, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, «National strategies on Artificial Intelligence — A European perspective» (Estrategias nacionales para la inteligencia artificial: una perspectiva europea), edición de 2021, informe del JRC y la OCDE: https://op.europa.eu/es/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , p. 41.

(19)   2025 Strategia per l’innovazione técnica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;

(20)   Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021, p. 96.

(21)   Véase Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019 – 2027 (Política para el desarrollo de la inteligencia artificial en Polonia, 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102.

(22)   AI Portugal 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., p. 113.

(23)   Principalmente, responsabilidad objetiva, inversión de la carga de la prueba o atenuación de la carga de la prueba en forma de presunciones irrefutables o refutables (absolutas o relativas).

(24)   Este resumen puede encontrarse en < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_es >

(25)   Liability for artificial intelligence and other emerging digital technologies (Responsabilidad en materia de inteligencia artificial y otras tecnologías digitales emergentes), noviembre de 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en 

(26)   Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence (Estudio de Derecho comparado sobre responsabilidad civil por inteligencia artificial), 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .

(27)   Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services («Estudio de conducta sobre el vínculo entre los retos de la inteligencia artificial para las normas de los Estados miembros en materia de responsabilidad civil y las actitudes de los consumidores respecto a los productos y servicios en los que se emplea IA», documento en inglés), informe final de 2021.

(28)   Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence, 2021.

(29)   DO C de , p. .

(30)   DO C de , p. .

(31)   [Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) – COM(2021) 206 final].

(32)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos (COM[2021] 346 final)].

(33)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a las máquinas y sus partes y accesorios (COM[2021] 202 final)].

(34)   Reglamento Delegado (UE) 2022/30 de la Comisión que completa la Directiva 2014/53/UE del Parlamento Europeo y del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d), e) y f), de dicha Directiva (DO L 7 de 12.1.2022, p. 6).

(35)   Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(36)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a un mercado único de servicios digitales (Ley de servicios digitales) — COM(2020) 825 final]

(37)   Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, de 8 de junio de 2016, relativa a la protección de los conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y revelación ilícitas (DO L 157 de 15.6.2016, p. 1).

(38)   Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial [2020/2014(INL)] (DO C 404 de 6.10.2021, p. 107).

(39)   DO C 369 de 17.12.2011, p. 14.

(40)   Directiva (UE) 2020/1828 del Parlamento Europeo y del Consejo, de 25 de noviembre de 2020, relativa a las acciones de representación para la protección de los intereses colectivos de los consumidores, y por la que se deroga la Directiva 2009/22/CE (DO L 409 de 4.12.2020, p. 1).

21Ene/24

Resolución del Parlamento Europeo, de 3 de mayo de 2022

Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital (2020/2266(INI))

El Parlamento Europeo,

–  Vistos los artículos 4, 16, 26, 114, 169, 173, 179, 180, 181 y 187 del Tratado de Funcionamiento de la Unión Europea,

–  Vista la Carta de los Derechos Fundamentales de la Unión Europea,

–  Vistas la Convención de las Naciones Unidas sobre los Derechos del Niño y la observación general n.º 25 del Comité de los Derechos del Niño, de 2 de marzo de 2021, relativa a los derechos de los niños en relación con el entorno digital,

–  Vista la recomendación de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) sobre la ética de la inteligencia artificial, aprobada por la Conferencia General de la UNESCO en su 41.º período de sesiones el 24 de noviembre de 2021,

–  Vistos el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación (1) y las directrices de la Comisión para la mejora de la legislación,

–  Vista la Comunicación de la Comisión, de 24 de marzo de 2021, titulada «Estrategia de la UE sobre los Derechos del Niño» (COM(2021)0142),

–  Vista su Resolución, de 7 de octubre de 2021, sobre la situación de las capacidades de ciberdefensa de la UE(2),

–  Vista su Resolución, de 15 de diciembre de 2021, sobre los desafíos y perspectivas para los regímenes multilaterales de control de armas de destrucción masiva y desarme (3),

–  Visto el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos, y por la que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (4),

–  Visto el Reglamento (UE) 2021/694 del Parlamento Europeo y del Consejo, de 29 de abril de 2021, por el que se establece el Programa Europa Digital y por el que se deroga la Decisión (UE) 2015/2240 (5),

–  Visto el Reglamento (UE) 2021/695 del Parlamento Europeo y del Consejo, de 28 de abril de 2021, por el que se crea el Programa Marco de Investigación e Innovación «Horizonte Europa» y se establecen sus normas de participación y difusión, y se derogan los Reglamentos (UE) n.º 1290/2013 y (UE) n.º 1291/2013 (6),

–  Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 21 de abril de 2021, por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206),

–  Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 25 de noviembre de 2020, relativo a la gobernanza europea de datos (Ley de Gobernanza de Datos) (COM(2020)0767),

–  Visto el Reglamento (UE) 2018/1807 del Parlamento Europeo y del Consejo, de 14 de noviembre de 2018, relativo a un marco para la libre circulación de datos no personales en la Unión Europea (7),

–  Visto el Reglamento (UE) 2021/697 del Parlamento Europeo y del Consejo, de 29 de abril de 2021, por el que se establece el Fondo Europeo de Defensa y por el que se deroga el Reglamento (UE) 2018/1092 (8),

–  Vista la Directiva (UE) 2019/770 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales (9),

–  Visto el Reglamento (UE) 2021/1173 del Consejo, de 13 de julio de 2021, por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea y por el que se deroga el Reglamento (UE) 2018/1488 (10),

–  Vista la Comunicación de la Comisión, de 25 de abril de 2018, titulada «Inteligencia artificial para Europa» (COM(2018)0237),

–  Vista la Comunicación de la Comisión, de 7 de diciembre de 2018, titulada «Plan coordinado sobre la inteligencia artificial» (COM(2018)0795),

–  Vista la Comunicación de la Comisión, de 8 de abril de 2019, titulada «Generar confianza en la inteligencia artificial centrada en el ser humano» (COM(2019)0168),

–  Visto el Libro Blanco de la Comisión, de 19 de febrero de 2020, titulado «Inteligencia artificial – Un enfoque europeo orientado a la excelencia y la confianza» (COM(2020)0065),

–  Vista la Comunicación de la Comisión, de 19 de febrero de 2020, titulada «Una Estrategia Europea de Datos» (COM(2020)0066),

–  Vista la Comunicación de la Comisión, de 19 de febrero de 2020, titulada «Configurar el futuro digital de Europa» (COM(2020)0067),

–  Vistas la Comunicación de la Comisión, de 10 de marzo de 2020, titulada «Un nuevo modelo de industria para Europa» (COM(2020)0102) y la Comunicación, de 5 de mayo de 2021, titulada «Actualización del nuevo modelo de industria de 2020: Creación de un mercado único más sólido para la recuperación de Europa» (COM(2021)0350),

–  Vista la Comunicación de la Comisión, de 30 de septiembre de 2020, titulada «Plan de Acción de Educación Digital 2021-2027 – Adaptar la educación y la formación a la era digital» (COM(2020)0624),

–  Visto el Libro Verde de la Comisión sobre el Envejecimiento – Fomentar la solidaridad y la responsabilidad entre generaciones, de 27 de enero de 2021 (COM(2021)0050),

–  Vista la Comunicación de la Comisión, de 9 de marzo de 2021, titulada «Brújula Digital 2030: el enfoque de Europa para el Decenio Digital» (COM(2021)0118),

–  Vista la propuesta de Decisión del Parlamento Europeo y del Consejo, de 15 de septiembre de 2021, por la que se establece el programa de política «Itinerario hacia la Década Digital» para 2030 (COM(2021)0574),

–  Visto el estudio de la Comisión, de 28 de julio de 2020, titulado «European enterprise survey on the use of technologies based on artificial intelligence» (Encuesta a empresas europeas sobre el uso de tecnologías basadas en la inteligencia artificial),

–  Visto el estudio de la Comisión, de 26 de noviembre de 2020, titulado «Energy-efficient cloud computing technologies and policies for an eco-friendly cloud market» (Tecnologías y políticas en materia de computación en la nube eficientes desde el punto de vista energético para un mercado de la nube respetuoso con el medio ambiente),

–  Visto el informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, de 19 de febrero de 2020, sobre las implicaciones en materia de seguridad y responsabilidad de la inteligencia artificial, el Internet de las cosas y la robótica (COM(2020)0064),

–  Vistas las Conclusiones del Consejo, de 22 de marzo de 2021, sobre la Estrategia de Ciberseguridad de la UE para la Década Digital,

–  Visto el informe del Grupo de expertos de alto nivel sobre inteligencia artificial, de 8 de abril de 2019, titulado «Directrices éticas para una IA fiable»,

–  Visto el informe del Grupo de expertos de alto nivel sobre inteligencia artificial, de 8 de abril de 2019, titulado «Una definición de la inteligencia artificial: principales capacidades y disciplinas»,

–  Visto el informe del Grupo de expertos de alto nivel sobre inteligencia artificial, de 26 de junio de 2019, titulado «Recomendaciones estratégicas y de inversión para una inteligencia artificial fiable»,

–  Vista la publicación de la UNESCO, de marzo de 2019, titulada «I’d blush if I could: Closing gender divides in digital skills through education» (Me sonrojaría si pudiera: eliminar las brechas de género en las capacidades digitales a través de la educación),

–  Visto el informe de la Agencia de los Derechos Fundamentales de la Unión Europea, de 14 de diciembre de 2020, titulado «Getting the future right — Artificial intelligence and fundamental rights» (Acertar con el futuro: inteligencia artificial y derechos fundamentales),

–  Vista la Recomendación del Consejo de la Organización de Cooperación y Desarrollo Económicos (OCDE), de 22 de mayo de 2019, sobre la inteligencia artificial,

–  Vista la plataforma de las Naciones Unidas para el diálogo sobre la inteligencia artificial: Cumbre Mundial «AI for Good» (IA para el bien),

–  Vistos los Principios para la IA del G-20 de 9 de junio de 2019,

–  Visto el informe de la Organización Mundial de la Salud, de 28 de junio de 2021, sobre la inteligencia artificial aplicada a la salud y seis principios rectores relativos a su concepción y utilización,

–  Visto el dictamen de iniciativa del Comité Económico y Social Europeo, de 31 de mayo de 2017, titulado «Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad» (11),

–  Visto el informe del Grupo de expertos sobre responsabilidad y nuevas tecnologías – Formación sobre nuevas tecnologías, de 21 de noviembre de 2019, titulado «Liability for artificial intelligence and other emerging digital technologies» (Responsabilidad en materia de inteligencia artificial y otras tecnologías digitales emergentes),

–  Vista la publicación del Comité ad hoc sobre inteligencia artificial (CAHAI) del Consejo de Europa, de diciembre de 2020, titulada «Towards Regulation of AI systems – Global perspectives on the development of a legal framework on Artificial Intelligence systems based on the Council of Europe’s standards on human rights, democracy and the rule of law» (Hacia la regulación de los sistemas de IA – Perspectivas globales sobre el desarrollo de un marco legal sobre los sistemas de inteligencia artificial basado en las normas del Consejo de Europa sobre derechos humanos, democracia y el Estado de Derecho),

–  Visto el documento de trabajo del Instituto Universitario Europeo, de octubre de 2020, titulado «Models of Law and Regulation for AI» (Modelos de legislación y regulación de la inteligencia artificial),

–  Visto el informe conjunto de Trend Micro Research, el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia y Europol, de 19 de noviembre de 2020, titulado «Malicious Uses and Abuses of Artificial Intelligence» (Usos malintencionados e indebidos de la inteligencia artificial),

–  Vistas las orientaciones políticas de la Comisión para 2019-2024, tituladas «Una Unión que se esfuerza por lograr más resultados: Mi agenda para Europa»,

–  Vista la sentencia del Tribunal de Justicia de la Unión Europea, de 16 de julio de 2020, en el asunto C-311/18 (Schrems II),

–  Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (12),

–  Vista su Resolución, de 1 de junio de 2017, sobre la digitalización de la industria europea (13),

–  Vista su Resolución, de 6 de octubre de 2021, sobre el Marco de la política de la Unión Europea en materia de seguridad vial para 2021-2030 – Recomendaciones sobre los próximos pasos hacia la «Visión Cero» (14),

–  Vista su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos (15),

–  Vista su Resolución, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica (16),

–  Vista su Resolución, de 12 de febrero de 2020, sobre los procesos automatizados de toma de decisiones: garantizar la protección de los consumidores y la libre circulación de bienes y servicios (17),

–  Vista su Resolución, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (18),

–  Vista su Resolución, de 20 de octubre de 2020, sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial (19),

–  Vista su Resolución, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (20),

–  Vista su Resolución, de 20 de enero de 2021, sobre inteligencia artificial: cuestiones de interpretación y de aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar y de la autoridad del Estado fuera del ámbito de la justicia penal (21),

–  Vista su Resolución, de 20 de mayo de 2021, sobre la configuración del futuro digital de Europa: eliminación de los obstáculos al funcionamiento del mercado único digital y mejora del uso de la inteligencia artificial para los consumidores europeos (22),

–  Vista su Resolución, de 25 de marzo de 2021, sobre una Estrategia Europea de Datos (23),

–  Vista su Resolución, de 19 de mayo de 2021, sobre la inteligencia artificial en los sectores educativo, cultural y audiovisual (24),

–  Vista su Resolución, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales (25);

–  Visto el estudio de la Dirección General de Políticas Interiores de la Unión (DG IPOL), de junio de 2021, titulado «Artificial Intelligence diplomacy – Artificial Intelligence governance as a new European Union external policy tool» (Diplomacia de la inteligencia artificial: la gobernanza de la inteligencia artificial como nueva herramienta de política exterior de la Unión Europea),

–  Visto el estudio de la DG IPOL, de mayo de 2021, titulado «Challenges and limits of an open source approach to Artificial Intelligence» (Desafíos y límites de un enfoque de código abierto para la inteligencia artificial),

–  Visto el estudio de la DG IPOL, de mayo de 2021, titulado «Artificial Intelligence market and capital flows – AI and the financial sector at crossroads» (Mercado de la inteligencia artificial y flujos de capital: la IA y el sector financiero en la encrucijada),

–  Visto el estudio de la DG IPOL, de junio de 2021, titulado «Improving working conditions using Artificial Intelligence» (Mejorar las condiciones de trabajo mediante la inteligencia artificial),

–  Visto el estudio de la DG IPOL, de mayo de 2021, titulado «The role of Artificial Intelligence in the European Green Deal» (El papel de la inteligencia artificial en el Pacto Verde Europeo),

–  Visto el estudio de la DG IPOL, de julio de 2021, titulado «Artificial Intelligence in smart cities and urban mobility» (La inteligencia artificial en las ciudades inteligentes y la movilidad urbana),

–  Visto el estudio de la DG IPOL, de julio de 2021, titulado «Artificial Intelligence and public services» (La inteligencia artificial y los servicios públicos),

–  Visto el estudio de la DG IPOL, de julio de 2021, titulado «European Union data challenge» (Los desafíos en materia de datos en la Unión Europea),

–  Visto el estudio de la DG IPOL, de junio de 2020, titulado «Opportunities of Artificial Intelligence» (Oportunidades de la inteligencia artificial),

–  Visto el estudio de la DG IPOL, de octubre de 2021, titulado «Europe’s Digital Decade and Autonomy» (La autonomía y la década digital de Europa),

–  Visto el estudio de la DG IPOL, de enero de 2022, titulado «Identification and assessment of existing and draft EU legislation in the digital field» (Identificación y evaluación de la legislación vigente y de las propuestas legislativas de la UE en el ámbito digital),

–  Visto el estudio de los Servicios de Estudios Parlamentarios (EPRS), de septiembre de 2020, titulado «Civil liability regime for artificial intelligence – European added value assessment» (El régimen de responsabilidad civil para la inteligencia artificial: evaluación del valor añadido europeo),

–  Visto el estudio de la Unidad de Prospectiva Científica de EPRS, de diciembre de 2020, titulado «Data subjects, digital surveillance, AI and the future of work» (Los titulares de los datos, la vigilancia digital, la inteligencia artificial y el futuro del trabajo),

–  Visto el estudio de EPRS, de septiembre de 2020, titulado «European framework on ethical aspects of artificial intelligence, robotics and related technologies» (Marco europeo sobre los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas),

–  Visto el estudio de EPRS, de marzo de 2020, titulado «The ethics of artificial intelligence: Issues and initiatives» (La ética de la inteligencia artificial: cuestiones e iniciativas),

–  Visto el estudio de EPRS, de junio de 2020, titulado «Artificial Intelligence: How does it work, why does it matter, and what can we do about it?» (Inteligencia artificial: ¿cómo funciona, por qué es importante y qué podemos hacer al respecto?),

–  Visto el estudio de EPRS, de julio de 2020, titulado «Artificial Intelligence and Law enforcement – Impact on Fundamental Rights» (Inteligencia artificial y aplicación de la ley: impacto sobre los derechos fundamentales),

–  Visto el estudio de EPRS, de junio de 2020, titulado «The impact of the General Data Protection Regulation (GDPR) on artificial intelligence» (El impacto del Reglamento general de protección de datos (RGPD) en la inteligencia artificial),

–  Visto el estudio de EPRS, de abril 2020, titulado «The White Paper on Artificial Intelligence» (Libro Blanco sobre la inteligencia artificial),

–  Visto el estudio de EPRS, de septiembre de 2021, titulado «Regulating facial recognition in the EU» (Regulación del reconocimiento facial en la UE),

–  Visto el estudio de EPRS, de febrero de 2021, titulado «The future of work: Trends, challenges and potential initiatives» (El futuro del trabajo: tendencias, desafíos e iniciativas potenciales),

–  Visto el estudio de EPRS, de junio de 2021, titulado «Robo-advisors: How do they fit in the existing EU regulatory framework, in particular with regard to investor protection?» (Robo-asesores: ¿Cómo encajan en el marco normativo vigente de la UE, en particular en lo que se refiere a la protección de los inversores?),

–  Visto el estudio de EPRS, de septiembre de 2021, titulado «China’s ambitions in artificial intelligence» (Las ambiciones de China en materia de inteligencia artificial),

–  Visto el estudio de EPRS, de junio de 2021, titulado «What if we chose new metaphors for artificial intelligence?» (¿Y si eligiéramos nuevas metáforas para la inteligencia artificial?),

–  Visto el estudio de EPRS, de enero de 2018, titulado «Understanding artificial intelligence» (Comprender la inteligencia artificial),

–  Visto el estudio de EPRS, de julio de 2021, titulado «Tackling deepfakes in European Policy» (Lucha contra las ultrafalsificaciones en la política europea),

–  Visto el documento de trabajo de la Comisión Especial sobre Inteligencia Artificial en la Era Digital (AIDA), de febrero de 2021, titulado «Artificial Intelligence and Health» (Inteligencia artificial y salud),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de marzo de 2021, titulado «Artificial Intelligence and the Green Deal» (La inteligencia artificial y el Pacto Verde),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de marzo de 2021, titulado «The External Policy Dimensions of AI» (Las dimensiones de política exterior de la IA),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de mayo de 2021, titulado «AI and Competitiveness» (La IA y la competitividad),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de junio de 2021, titulado «AI and the Future of Democracy» (La IA y el futuro de la democracia»),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de junio de 2021, titulado «AI and the Labour Market» (La IA y el mercado laboral),

–  Visto el artículo 54 de su Reglamento interno,

–  Visto el informe de la Comisión Especial sobre Inteligencia Artificial en la Era Digital (A9-0088/2022),

1.Introducción

1.  Observa que el mundo está al borde de la cuarta revolución industrial; señala que, en comparación con las tres oleadas anteriores, iniciadas por la introducción del vapor, la electricidad y luego los ordenadores, la cuarta oleada extrae su energía de la abundancia de datos combinada con potentes algoritmos y capacidad informática; destaca que la revolución digital actual se caracteriza por su escala mundial, su rápida convergencia y el enorme impacto de los nuevos avances tecnológicos en los países, las economías, las sociedades, las relaciones internacionales y el medio ambiente; reconoce que un cambio radical de esa magnitud repercute diversamente en las distintas partes de la sociedad, en función de sus objetivos, ubicación geográfica o contexto socioeconómico; hace hincapié en que se ha de configurar la transformación digital dentro del pleno respeto de los derechos fundamentales y de tal manera que las tecnologías digitales sirvan a la humanidad;

2.  Observa que, al mismo tiempo, la revolución digital ha activado una competencia mundial como resultado del valor económico y las capacidades tecnológicas enormes que han acumulado las economías que más recursos destinan a la investigación, el desarrollo y la comercialización de aplicaciones de inteligencia artificial (en lo sucesivo, «IA»); señala que la competitividad digital y la autonomía estratégica abierta se han convertido en un objetivo político central en varios países; destaca la creciente concienciación entre los responsables de la toma de decisiones de que las tecnologías emergentes podrían afectar al estatuto de potencia geopolítica de países enteros;

3.  Señala que Europa, que durante siglos fijó las normas internacionales, dominó el progreso tecnológico y lideró la fabricación y el despliegue de alta tecnología, se ha quedado rezagada y desarrolla e invierte en el mercado digital mucho menos que economías punteras como las de los Estados Unidos o de China, si bien sigue manteniéndose en un nivel relativamente competitivo en términos de producción investigadora temática en IA; reconoce el riesgo de que los agentes europeos se vean marginados en el desarrollo de normas mundiales y los avances tecnológicos, y de que los valores europeos se vean amenazados;

4.  Pone de relieve, en primer lugar, que las herramientas digitales se están convirtiendo cada vez más en un instrumento de manipulación y abuso en manos de algunos agentes empresariales y también de gobiernos autocráticos cuyo objetivo es socavar los sistemas políticos democráticos, lo que podría conducir a un choque entre sistemas políticos; explica que el espionaje digital, el sabotaje, la guerra a baja escala y las campañas de desinformación suponen un desafío para las sociedades democráticas;

5.  Destaca que la naturaleza de los modelos de negocio digitales permite un mayor grado de escalabilidad y efectos de red; señala que muchos de los mercados digitales se caracterizan por un nivel elevado de concentración del mercado, lo que propicia que un pequeño número de plataformas tecnológicas, que en su mayoría tienen actualmente su sede en los EE. UU., encabece la comercialización de innovaciones tecnológicas pioneras, atraigan las mejores ideas, talento y empresas, y consigan una rentabilidad fuera de lo común; advierte de que las posiciones dominantes en el mercado de la economía de los datos pueden extenderse a la economía de la IA emergente; señala que solo ocho de las 200 principales empresas digitales actuales tienen su domicilio en la Unión; destaca que a ese respecto la realización de un verdadero mercado único digital reviste la máxima importancia;

6.  Hace hincapié en que, a consecuencia de ello, la competencia mundial por el liderazgo tecnológico se ha convertido en una prioridad en la Unión; destaca que, si la Unión no actúa con rapidez y valentía, acabará teniendo que seguir las reglas y normas fijadas por otros y corre el riesgo de sufrir efectos perjudiciales para la estabilidad política, la seguridad social, los derechos fundamentales, las libertades individuales y la competitividad económica;

7.  Sostiene que la IA es una de las tecnologías emergentes clave en el marco de la cuarta revolución industrial; señala que la IA alimenta la economía digital ya que permite la introducción de productos y servicios innovadores, tiene la capacidad de incrementar las posibilidades de elección de los consumidores y puede conseguir que los procesos de producción sean más eficientes; afirma que se prevé que en 2030 a más tardar la IA contribuya con más de 11 billones de euros a la economía mundial; subraya, al mismo tiempo, que las tecnologías de IA corren el riesgo de reducir la intervención humana; pone de relieve que la IA debe ser una tecnología centrada en el ser humano y fiable, y no debe reemplazar la autonomía humana ni asumir la pérdida de libertad individual; destaca la necesidad de garantizar que esta cuarta revolución industrial sea integradora y no deje a nadie atrás;

8.  Propone una competición a escala mundial para el liderazgo en materia de IA; señala que las tecnologías de IA se comprometen a generar un inmenso valor económico para aquellas economías que las desarrollen, fabriquen y adopten provechosamente, así como para aquellos países en los que se produzca esa creación de valor; subraya que la IA no es una tecnología omnipotente, sino un conjunto eficiente de herramientas y técnicas que se puede poner al servicio de la sociedad; explica que el funcionamiento de las tecnologías depende de cómo las diseñemos; señala que la Unión ha declarado su intención de liderar un marco regulador en materia de IA; subraya, no obstante, que es fundamental que la Unión pueda definir el enfoque regulador, incluida la protección de los derechos y las libertades fundamentales, y actuar como un referente normativo a escala mundial; destaca, por tanto, la importancia de la competitividad europea en materia de IA y la capacidad de la Unión para configurar el panorama normativo a escala internacional; destaca asimismo que determinados usos de la IA pueden plantear riesgos individuales y sociales que pueden poner en peligro los derechos fundamentales, por lo que deben ser abordados por los responsables políticos, posibilitándose con ello que la IA se convierta efectivamente en un instrumento al servicio de las personas y la sociedad, en pos del bien común y del interés general;

9.  Señala que, para que los agentes europeos tengan éxito en la era digital y se conviertan en líderes tecnológicos en el ámbito de la IA, es necesario un marco normativo claro, un compromiso político y una mentalidad más prospectiva, a menudo inexistentes en la actualidad; concluye que, sobre la base de ese enfoque, tanto los ciudadanos como las empresas de la Unión pueden sacar provecho de la IA y de la gran oportunidad que ofrece para impulsar la competitividad, también en materia de prosperidad y bienestar; subraya que los marcos reglamentarios han de configurarse de manera que no impongan obstáculos injustificados para impedir que los agentes europeos tengan éxito en la era digital, en particular las empresas emergentes y las pequeñas y medianas empresas (pymes); destaca que se deben incrementar sustancialmente las inversiones públicas y privadas para crear un clima en el que surjan y se desarrollen en nuestro continente más historias de éxito europeas;

10.  Destaca que el rápido progreso tecnológico introducido por la IA está ligado de manera cada vez más inextricable a la mayoría de los ámbitos de la actividad humana y afectará también a los medios de subsistencia de aquellas personas que no posean las capacidades que necesitan para adaptarse con la suficiente rapidez a esas nuevas tecnologías; señala que, si bien lograr la alfabetización digital mediante el perfeccionamiento y el reciclaje profesionales puede ayudar a abordar muchas de las preocupaciones socioeconómicas resultantes, las consiguientes repercusiones también deben abordarse en el contexto de los sistemas de protección social, las infraestructuras urbanas y rurales y los procesos democráticos;

11.  Hace hincapié en la necesidad de reflejar los objetivos e intereses de las mujeres y los grupos vulnerables en la transición digital; destaca, en ese contexto, que en 2018 las mujeres solo representaron el 22 % de los profesionales mundiales de la IA, lo que constituye un problema que solo sirve para perpetuar y afianzar estereotipos y sesgos; reconoce la necesidad de preservar los derechos a la igualdad ante la ley, la privacidad, la libertad de expresión y la participación en la vida cultural y política al utilizar las tecnologías de IA, especialmente en el caso de las comunidades minoritarias;

2. Posibles oportunidades, riesgos y obstáculos en el uso de la IA: seis estudios de caso examinados por la Comisión Especial AIDA

12.  Recuerda que la IA se basa en programas informáticos que utilizan modelos probabilísticos y algoritmos predictivos para un conjunto de objetivos específicos; señala que el término IA es un término genérico que abarca una amplia gama de tecnologías, técnicas y enfoques antiguos y nuevos que se entiende mejor bajo la denominación de «sistemas de inteligencia artificial», que se refiere a cualesquiera sistemas automatizados que a menudo apenas tienen nada más en común que estar guiados por un conjunto dado de objetivos definidos por el ser humano, con distintos grados de autonomía en sus acciones, e intervenir en predicciones, recomendaciones o tomas de decisiones basadas en los datos disponibles; señala que, si bien algunas de esas tecnologías ya se utilizan de forma generalizada, otras aún están en fase de desarrollo o incluso son solo conceptos especulativos que pueden existir o no en el futuro;

13.  Señala que hay una diferencia significativa entre la IA simbólica, que constituye el principal enfoque de la IA entre los años cincuenta y los años noventa, y la IA basada en datos y aprendizaje automático, que domina desde el año 2000; aclara que durante la primera oleada, la IA se desarrolló codificando los conocimientos y la experiencia de los expertos en un conjunto de reglas que luego ejecutaba una máquina;

14.  Observa que en la segunda oleada, los procesos de aprendizaje automatizados de algoritmos basados en el procesamiento de grandes cantidades de datos, la capacidad de reunir datos procedentes de múltiples fuentes diferentes y de elaborar representaciones complejas de un entorno dado, y la determinación de patrones convirtieron a los sistemas de IA en sistemas más complejos, autónomos y opacos, lo que puede hacer que los resultados sean menos explicables; destaca que, en consecuencia, la IA actual puede clasificarse en muchos subcampos y técnicas diferentes, por lo que el aprendizaje profundo es, por ejemplo, un subcampo del aprendizaje automático, que a su vez es un subcampo de la IA;

15.  Observa que, aunque la IA actual se ha vuelto mucho más eficaz y potente que la IA simbólica, gracias a los grandes incrementos de las capacidades informáticas, por el momento solo puede resolver tareas claramente definidas en nichos específicos del dominio, como el ajedrez o el reconocimiento de imágenes, y su programación no está concebida para reconocer completamente las acciones que realiza el sistema de IA; destaca que, al contrario de lo que sugiere su nombre, los sistemas de IA carecen de «inteligencia» en el sentido humano del término; señala que por ello se habla de IA «débil» y todavía no es más que una herramienta que facilita recomendaciones y predicciones; observa, por ejemplo, que los vehículos autónomos funcionan mediante una combinación de diversos sistemas de IA monotarea que, en conjunto, son capaces de elaborar un mapa tridimensional del entorno del vehículo para que su sistema operativo pueda tomar decisiones;

16.  Subraya que muchos temores relacionados con la IA se basan en conceptos hipotéticos como la IA general, la superinteligencia artificial y la singularidad, que, en teoría, podrían hacer que la inteligencia de las máquinas superara a la inteligencia humana en numerosos ámbitos; destaca que existen dudas sobre la posibilidad de llegar a esa IA especulativa con nuestras tecnologías y leyes científicas; estima, no obstante, que los legisladores deben abordar los riesgos que plantea actualmente la toma de decisiones basada en la IA, ya que ha quedado claramente patente que efectos nocivos como la discriminación racial y sexual ya son atribuibles a casos concretos en los que la IA se ha implantado sin salvaguardias;

17.  Subraya que la mayoría de los sistemas de IA que se utilizan actualmente presentan un riesgo bajo; se refiere, por ejemplo, a la traducción automática, las «máquinas Eureka», las máquinas de juego y los robots que ejecutan procesos de fabricación repetitivos; llega a la conclusión de que algunos casos de uso se pueden calificar de arriesgados y requieren medidas reglamentarias y salvaguardias eficaces caso de no haberse establecido aún;

18.  Respalda un debate público sobre cómo explorar el enorme potencial de la IA sobre la base de los valores fundamentales europeos, los principios de transparencia, explicabilidad, equidad, rendición de cuentas, responsabilidad y fiabilidad, así como el principio de que la IA y la robótica deben centrarse en el ser humano y desarrollarse para complementar a los seres humanos; hace hincapié en que en un importante número de ámbitos de la vida humana, desde la sostenibilidad hasta la asistencia sanitaria, la IA puede aportar beneficios como una herramienta auxiliar para los usuarios y los profesionales, aumentando las capacidades de los seres humanos sin mermar su capacidad para actuar y decidir libremente; hace hincapié en que los principios y requisitos éticos acordados en materia de IA deben ponerse en práctica en todos los ámbitos de aplicación de la IA, sobre la base de las salvaguardias necesarias, lo que aumentará el nivel de confianza de los ciudadanos y les permitirá aprovechar los beneficios de la IA;

19.  Subraya que el nivel de riesgo de una determinada aplicación de IA varía considerablemente en función de la probabilidad de que se produzcan daños y de la gravedad de estos; hace hincapié, por tanto, en que los requisitos legales deben ajustarse a ello, en consonancia con un enfoque basado en el riesgo y teniendo debidamente en cuenta, cuando esté justificado, el principio de precaución; destaca que en las situaciones presentes o futuras en las que, para un uso en concreto, los sistemas de IA planteen riesgos elevados para los derechos fundamentales y humanos, se requiere una supervisión totalmente humana y una intervención reguladora, y que, habida cuenta de la velocidad del desarrollo tecnológico, la regulación de los sistemas de IA de alto riesgo debe ser flexible y estar orientada al futuro;

20.  Señala que en el presente informe se abordan en detalle seis estudios de casos de utilización de la IA exponiéndose las oportunidades que ofrece la IA en el sector respectivo, los riesgos que hay que abordar y los obstáculos que impiden a Europa aprovechar plenamente los beneficios de la IA; pone de relieve que los estudios de casos representan algunos de los más importantes casos de uso de la IA en la actualidad y, al mismo tiempo, reflejan varios de los principales temas tratados en las audiencias públicas celebradas por la Comisión Especial AIDA durante su mandato, a saber, la salud, el Pacto Verde, la política exterior y la seguridad, la competitividad, el futuro de la democracia y el mercado laboral;

a) La IA y la salud

21.  Estima que el análisis metodológico de grandes cantidades de datos, también a través de la IA, puede dar paso a nuevas soluciones o mejorar las técnicas existentes en el sector sanitario que podrían acelerar enormemente la investigación científica, salvar vidas humanas y mejorar la atención a los pacientes poniendo a disposición tratamientos innovadores y mejoras en materia de diagnóstico, así como fomentando entornos favorables a estilos de vida saludables; pone de relieve que los sistemas de IA también pueden contribuir a la accesibilidad, resiliencia y sostenibilidad de los sistemas sanitarios, al tiempo que aportan una ventaja competitiva a los sectores europeos de las TIC y de la asistencia sanitaria, si los riesgos inherentes de gestionan adecuadamente;

22.  Pone de relieve que el uso de la IA en el sector sanitario debe asentarse en requisitos éticos firmes, como el acceso equitativo a la asistencia sanitaria, la privacidad, la responsabilidad, la transparencia, la explicabilidad, la fiabilidad, la inclusión y la representatividad de los conjuntos de datos, así como la supervisión humana constante; hace hincapié en que en el diseño de sistemas basados en la IA se ha de abordar el riesgo de que los recursos se asignen indebidamente a personas sobre la base de una categorización defectuosa o sesgada, la priorización o el mal funcionamiento de la tecnología, desembocando en un diagnóstico erróneo, malos tratos o falta de tratamiento; opina que deben aplicarse las normas éticas más estrictas a todas las aplicaciones sanitarias, y que se deben establecer normas éticas en una fase muy temprana de su desarrollo y diseño, esto es, la ética por diseño; subraya que la toma de decisiones automatizada en las aplicaciones sanitarias puede plantear riesgos para el bienestar y los derechos fundamentales de los pacientes, y subraya que por ello la IA ha de desempeñar un papel de apoyo en la asistencia sanitaria, en la que siempre debe mantenerse la supervisión humana profesional; pide que, en los diagnósticos médicos dentro de los sistemas de salud pública, la IA preserve la relación entre el paciente y el médico y sea coherente en todo momento con el juramento hipocrático; observa, no obstante, que la IA mejora la precisión del cribado y en varios casos ya supera a los diagnósticos de los médicos; estima que los marcos de responsabilidad existentes no aportan la suficiente seguridad jurídica y no defienden el derecho de los pacientes a obtener reparación judicial en caso de diagnóstico erróneo y tratamiento incorrecto a través de la IA; acoge con satisfacción, en ese sentido, la futura propuesta legislativa sobre la responsabilidad en el ámbito de la IA; observa que es importante proteger tanto a los profesionales sanitarios en cuanto usuarios de sistemas de IA como a los pacientes en cuanto destinatarios finales, facilitándoles información suficiente y transparente;

23.  Subraya que ya se están utilizando o probando en contextos clínicos soluciones basadas en la IA a fin de apoyar el diagnóstico, el pronóstico, el tratamiento y la participación de los pacientes, acelerándose y mejorándose por ese medio el tratamiento y reduciéndose las intervenciones innecesarias; señala además que la IA puede mejorar la medicina personalizada y la atención a los pacientes; señala asimismo que la IA abarca actualmente un amplio abanico de ámbitos sanitarios, entre los que figuran la salud pública, los servicios asistenciales, el cuidado personal y los sistemas sanitarios; observa que los datos desempeñan un importante papel; opina que existen aplicaciones prometedoras de IA para la extracción de información a partir de imágenes y en otros dispositivos médicos para perfilar análisis a posteriori, y observa que también se prevé que los algoritmos de aprendizaje profundo propicien un salto cualitativo en diversas tareas clínicas;

24.  Pone de relieve que las tecnologías de IA pueden aplicarse a la investigación, el desarrollo y la producción masiva de productos farmacéuticos y tienen potencial para acelerar el desarrollo de nuevos medicamentos, tratamientos y vacunas a un coste inferior; estima que la IA puede ayudar a predecir el resultado de las respuestas a los tratamientos y permitir a los médicos ajustar las estrategias terapéuticas en función de las características genéticas o fisiológicas individuales, con niveles cada vez mayores de precisión cuando se parte de datos de alta calidad y de hipótesis sólidas, aumentándose por esa vía la eficacia de la atención preventiva, siempre que se cumplan todos los requisitos éticos en relación con la supervisión profesional de la validación clínica de la IA, la privacidad, la protección de datos y el consentimiento informado; señala que los macrodatos en materia de salud se pueden analizar con la ayuda de la IA para acelerar su tratamiento; subraya la importancia de garantizar que la informática de alto rendimiento sea interoperable con la IA, ya que los principales sectores económicos, incluidos la fabricación, la salud y los productos farmacéuticos, dependen de la informática de alto rendimiento;

25.  Subraya que las soluciones basadas en IA tienen el potencial de adaptar los tratamientos y el desarrollo de medicamentos a las necesidades específicas de los pacientes y mejorar el compromiso con las partes interesadas y los participantes en el sistema sanitario; considera que la IA y el acceso a conjuntos de datos pertinentes, actualizados y de alta calidad anonimizados y representativos, en consonancia con las normas de la Unión en materia de protección de datos personales, ayuda a los profesionales de la salud a prestar una mejor atención a sus pacientes, así como una información, orientación y apoyo más personalizados, promoviendo la seguridad de los pacientes y la eficacia terapéutica; pone de relieve que esto puede resultar especialmente útil a la hora de seleccionar y examinar los volúmenes cada vez mayores de conocimientos científicos para extraer la información pertinente para los profesionales de la salud; pone de relieve que los ciudadanos de todos los Estados miembros deben poder compartir sus datos sanitarios con los proveedores de asistencia sanitaria y las autoridades de su elección; subraya, en este sentido, la necesidad de crear incentivos para la mejora y readaptación de las capacidades de los trabajadores y prepararlos para asumir nuevos trabajos en el ámbito de la salud;

26.  Considera que la lucha contra la COVID-19 ha acelerado la investigación y el despliegue de nuevas tecnologías, en particular las aplicaciones de IA, para mejorar la detección de casos, la atención clínica y la investigación terapéutica, y ha puesto de relieve la utilidad de la IA, así como la importancia de la financiación y los datos de alta calidad para el seguimiento y la modelización eficientes de la propagación de brotes de enfermedades infecciosas, de conformidad con la legislación en materia de protección de datos; señala, no obstante, que las experiencias con las aplicaciones de IA durante la COVID-19 han puesto de manifiesto algunas de las limitaciones del uso de la IA en el diagnóstico médico (26);

27.  Destaca el potencial de los sistemas de IA para aliviar los sistemas sanitarios, en especial a los profesionales de la salud, y encontrar soluciones para abordar el rápido envejecimiento de la población en Europa y en el mundo y protegerla de enfermedades peligrosas;

28.  Pone de relieve que la utilización de aplicaciones de IA seguras y eficientes para tareas administrativas que no requieran intervención humana puede ahorrar a los profesionales sanitarios mucho tiempo que podrían dedicar a las consultas con los pacientes;

29.  Destaca que las aplicaciones sanitarias de los consumidores basadas en IA pueden facilitar el seguimiento del estado de salud de una persona a través de dispositivos cotidianos como los teléfonos inteligentes, permitiendo a los usuarios proporcionar voluntariamente datos que puedan servir de base para las alertas tempranas y para detectar enfermedades potencialmente mortales, como accidentes cerebrovasculares o paradas cardíacas; hace hincapié en que las aplicaciones sanitarias basadas en IA también pueden fomentar un comportamiento saludable y empoderar a los pacientes para que cuiden de sí mismos, dotándolos de medios adicionales para supervisar su propia salud y estilo de vida y mejorando la precisión del cribado por parte de los profesionales sanitarios; señala, no obstante, el carácter particularmente sensible de los datos sanitarios personales y el riesgo de que se produzcan usos indebidos o violaciones de la seguridad de los datos en este sentido, y destaca la necesidad de establecer normas de ciberseguridad estrictas para cualquier aplicación sanitaria;

30.  Destaca que la IA en el sector de la salud depende especialmente de la existencia de grandes cantidades de datos personales, el intercambio de datos, la alta calidad de los datos, la accesibilidad de los datos y la interoperabilidad de los mismos para aprovechar todo el potencial de la IA y la salud; destaca la necesidad de vincular historias clínicas digitales con los sistemas de prescripción electrónica, lo que permitiría a los profesionales sanitarios acceder a la información necesaria sobre sus pacientes, siempre que estos den su consentimiento;

31.  Acoge con satisfacción la creación de un espacio europeo de datos sanitarios con el fin de incorporar datos de muy alta calidad para su uso en el sector sanitario; considera que la interconexión y la interoperabilidad de infraestructuras de informática de alto rendimiento con el espacio europeo de datos sanitarios garantizaría la disponibilidad de conjuntos de datos sanitarios amplios y de alta calidad, que son importantes para la investigación y el tratamiento de patologías, especialmente las enfermedades minoritarias e infantiles;

32.  Destaca la necesidad de generar confianza promoviendo la interoperabilidad y una mayor colaboración entre los diferentes profesionales de la salud que atienden a los mismos pacientes; subraya la necesidad de ofrecer formación a los profesionales de la salud sobre las técnicas y los enfoques de la IA; destaca la necesidad de luchar contra la desconfianza, por ejemplo, aprovechando todo el potencial de la anonimización y la seudonimización de los datos, e informar mejor a los ciudadanos, a los profesionales de la salud y a los responsables de la toma de decisiones sobre los beneficios de la IA en el ámbito de la salud, y a los desarrolladores de IA sobre los desafíos y los riesgos del tratamiento de datos sensibles en este ámbito;

33.  Considera, además, que son necesarias normas éticas y jurídicas vinculantes y sólidas, así como vías de recurso ejecutables, para promover un ecosistema de confianza entre los ciudadanos y proteger adecuadamente los datos sanitarios frente a posibles usos indebidos y acceso ilícito; conviene con la Comisión en que los ciudadanos deben contar con un acceso seguro al historial electrónico completo de sus datos sanitarios, seguir teniendo control sobre sus datos sanitarios personales y poder compartirlos con terceros autorizados con la debida protección y una ciberseguridad sólida; destaca que debe prohibirse todo acceso y difusión no autorizados y que debe garantizarse la protección de los datos personales de los pacientes de conformidad con la legislación en materia de protección de datos;

34.  Subraya, a este respecto, el riesgo de que las decisiones sesgadas den lugar a discriminación y violaciones de los derechos humanos; destaca, por tanto, la necesidad de verificaciones imparciales de los algoritmos y conjuntos de datos utilizados, así como de la promoción de una mayor investigación sobre los métodos y sesgos integrados en sistemas de IA entrenados para evitar conclusiones discriminatorias y carentes de ética en el ámbito de los datos sanitarios de las personas;

35.  Destaca la necesidad de aplicar de manera eficiente y uniforme el RGPD en toda la Unión para superar retos como el de la inseguridad jurídica y la falta de cooperación en el sector sanitario; destaca que en ocasiones estos retos provocan largos retrasos en los descubrimientos científicos y una carga burocrática en la investigación sanitaria; destaca que la creación de un espacio europeo de datos sanitarios que garantice la portabilidad de datos y los derechos de los pacientes podría incrementar la cooperación y estimular el intercambio de datos de cara a la investigación y la innovación en el sector sanitario europeo;

36.  Señala que la IA puede contribuir al rápido desarrollo de las nuevas tecnologías, como la obtención de imágenes cerebrales, que ya tienen aplicaciones importantes en la medicina, pero también entrañan riesgos sustanciales para la voluntad humana y la expresión de los derechos fundamentales sin necesidad de consentimiento; muestra su preocupación por la falta de legislación sobre los datos neurológicos y opina que la Unión debe aspirar a convertirse en líder mundial del desarrollo de tecnologías neurológicas seguras;

b) La IA y el Pacto Verde

37.  Pone de relieve que las dos prioridades fundamentales de la Comisión para los próximos años son Una Europa Adaptada a la Era Digital y el Pacto Verde; subraya la necesidad de garantizar que la transición digital favorezca el desarrollo sostenible y promueva la transición verde; considera que esto requiere una aceleración de la innovación compatible con los objetivo climáticos y las normas medioambientales de la Unión; pone de relieve que las aplicaciones de IA pueden aportar beneficios medioambientales y económicos y reforzar las capacidades de predicción que pueden contribuir a la lucha contra el cambio climático y a la consecución de los objetivos del Pacto Verde Europeo y de la meta de la Unión de convertirse en el primer continente neutro desde el punto de vista climático de aquí a 2050; considera que el uso de la IA tiene el potencial de reducir las emisiones mundiales de gases de efecto invernadero hasta en un 4 % para 2030 (27); considera que, según algunas estimaciones, las TIC podrían reducir las emisiones de gases de efecto invernadero diez veces más que su propia huella (28), si bien reconoce que esto requiere una elección consciente de los diseños y medidas reguladoras; advierte, al mismo tiempo, de que el aumento del consumo de energía para almacenar los grandes conjuntos de datos necesarios para entrenar los sistemas de IA también puede tener un efecto negativo; recuerda que el tráfico de datos y la infraestructura de TIC consumen actualmente alrededor del 7 % de la electricidad del mundo, y que, sin las medidas oportunas, está previsto que aumente hasta el 13 % para 2030; añade que el uso intensivo de materias primas para la fabricación de microprocesadores y dispositivos de alta tecnología que utilizan la IA puede acrecentar, asimismo, este efecto negativo; subraya que, a fin de garantizar una «gran impronta positiva pero con una huella reducida» de la IA sobre el medio ambiente y el clima, debe tenerse en cuenta este impacto negativo directo e indirecto sobre el medio ambiente y los sistemas de IA deben diseñarse de forma sostenible para reducir el uso de recursos y el consumo de energía, evitando así operaciones de tratamiento innecesarias y daños para el medio ambiente; hace hincapié en que abordar el impacto medioambiental del sector de las TIC requiere información y datos pertinentes;

38.  Muestra preocupación por que solo seis Estados miembros hayan incluido una especial atención a las aplicaciones de IA en sus esfuerzos por cumplir los objetivos del Pacto Verde; considera que la IA puede servir para recopilar y organizar información relevante para la planificación medioambiental, la toma de decisiones y la gestión y el seguimiento del progreso de las políticas medioambientales, por ejemplo, para un aire más limpio, donde las aplicaciones de IA pueden controlar la contaminación y advertir de los peligros; pone de relieve que la IA y las soluciones digitales podrían utilizarse en varios sectores para generalizar soluciones que requieran menos recursos;

39.  Hace hincapié en la importancia de los sistemas basados en IA en el desarrollo de ciudades y pueblos inteligentes optimizando los recursos y mejorando la resiliencia de las infraestructuras, en especial mediante la predicción y reducción del tráfico, la gestión inteligente de la energía, la asistencia en caso de emergencia y los residuos, como ya sucede en varias ciudades y municipios de toda la Unión; destaca que las soluciones basadas en la IA pueden ayudar en los ámbitos de la planificación urbana, la arquitectura, la construcción y la ingeniería para reducir las emisiones, el tiempo, los costes y los residuos de la construcción;

40.  Destaca que la transición energética no tendrá lugar sin la digitalización; subraya que la IA puede controlar, optimizar y reducir el consumo y la producción de energía, así como apoyar la integración de las energías renovables en las redes eléctricas existentes; subraya que los contadores inteligentes, el alumbrado eficiente, la computación en la nube y el software distribuido junto con un componente de IA tienen el potencial de transformar los patrones de uso de la energía y promover un uso responsable;

41.  Pone de relieve que la creciente complejidad de un sistema de transición energética, con el aumento de la volatilidad de la generación renovable y los cambios en la gestión de la carga, hace necesario un mayor control automatizado para la seguridad del suministro energético; destaca que la IA tiene el potencial de ser beneficiosa para la seguridad de los suministros, especialmente en la explotación, la supervisión, el mantenimiento y el control de las redes de agua, gas y electricidad; observa, no obstante, que las tecnologías de red mejoradas mediante la IA introducirán millones de componentes inteligentes con vulnerabilidades comunes, añadiendo un gran número de posibles puntos de ataque a las redes energéticas y aumentando las vulnerabilidades de las infraestructuras críticas, si no se aplican las disposiciones pertinentes en materia de ciberseguridad; considera que las redes inteligentes requieren más inversiones e investigación;

42.  Considera que la IA y otras aplicaciones digitales para la movilidad y el transporte permiten optimizar los flujos de tráfico y mejorar la seguridad vial, aumentando también la eficiencia de los sistemas de transporte; señala que la IA puede ayudar con el diseño y la gestión energética de vehículos energéticamente eficientes; pone de relieve que las opciones de servicios de transporte y de uso compartido y alquiler de vehículos basados en aplicaciones han aumentado significativamente y que con frecuencia se utiliza IA en dichos servicios de movilidad, por ejemplo para planificar el recorrido y seleccionar los puntos de recogida de manera más eficiente;

43.  Considera que la IA puede desempeñar un papel transformador en el sector agrícola, apoyando la aparición de nuevos métodos de recolección, incluida la predicción de las cosechas y la gestión de los recursos agrícolas; destaca que la agricultura es un sector clave en el que la IA puede ayudar a reducir las emisiones y el uso de pesticidas, fertilizantes, productos químicos y agua, limitando su uso a la cantidad exacta y en una zona más restringida; destaca además que la IA puede contribuir a la restauración de la biodiversidad mediante la vigilancia de las especies en peligro o el seguimiento de las actividades de deforestación; pone de relieve la necesidad de desarrollar directrices para el despliegue y métodos normalizados de evaluación para impulsar la «IA verde» en ámbitos como las redes inteligentes, la agricultura de precisión, así como las ciudades y comunidades inteligentes y sostenibles; opina que la IA en forma de agricultura de precisión tiene un potencial para optimizar la producción de alimentos y la gestión más amplia de la tierra, al mejorar la ordenación territorial, predecir cambios en el uso de la tierra y realizar el seguimiento de la salud de los cultivos, así como transformar la predicción de los fenómenos meteorológicos extremos;

44.  Destaca que la IA puede contribuir a la economía circular haciendo que los procesos y conductas de producción, consumo y reciclado sean más eficientes en términos de recursos y aumentando la transparencia del uso de material, por ejemplo en lo que respecta al abastecimiento ético de materias primas y la reducción de los residuos; pone de relieve que la IA tiene el potencial de mejorar la comprensión por parte de las empresas de sus emisiones, incluidas las de las cadenas de valor, ayudándoles así a ajustar y alcanzar los objetivos individuales de emisiones; subraya que las herramientas digitales pueden ayudar a las empresas a dar los pasos necesarios hacia una conducta más sostenible, especialmente a las pymes que, de otro modo, podrían carecer de los recursos necesarios para ello;

45.  Destaca que actualmente no es posible utilizar la IA para medir con exactitud el impacto medioambiental; considera que es necesario realizar más estudios sobre el papel de la IA en la reducción del impacto medioambiental; destaca que se necesitan más datos medioambientales para obtener más información e inducir más progresos mediante soluciones de IA; subraya que el uso de la IA para conectar sistemáticamente los datos sobre las emisiones de CO2 con los datos sobre los patrones de producción y consumo, las cadenas de suministro y las rutas logísticas podría garantizar la detección de las actividades que tienen un impacto positivo o negativo;

c) La política exterior y la dimensión de seguridad de la IA

46.  Reitera que la Unión está presionando para lograr un acuerdo mundial sobre normas comunes para el uso responsable de la IA, lo cual es de vital importancia; cree, sin embargo, por principio, en el potencial de las democráticas afines para trabajar y contribuir juntas al debate internacional sobre un marco para la IA que sea respetuoso con los derechos humanos y el Estado de derecho, para cooperar hacia ciertas normas y principios comunes, normas técnicas y éticas mínimas y orientaciones para un comportamiento responsable a nivel estatal, en concreto a cargo de organizaciones internacionales como las Naciones Unidas y la OECD, y así promover el multilateralismo, el desarrollo sostenible, la interoperabilidad y el intercambio de datos en el panorama internacional; apoya, por consiguiente, el trabajo del Grupo de Trabajo de Composición Abierta de las Naciones Unidas sobre las TIC y la Seguridad Internacional; subraya que las medidas de fomento de la confianza son esenciales para aumentar el nivel de diálogo y confianza; pide, por tanto, una mayor transparencia en el uso de la IA a fin de garantizar una mejor rendición de cuentas;

47.  Acoge con satisfacción las recientes iniciativas multilaterales para desarrollar directrices y normas para un uso ético y responsable de la IA, como los principios de la OCDE sobre la IA, la Alianza Mundial sobre la IA, la Recomendación sobre la ética de la IA de la Unesco, la Cumbre Mundial «IA for Good», las recomendaciones del Consejo de Europa sobre un posible marco jurídico en materia de IA y las orientaciones políticas de UNICEF sobre la IA para los niños; acoge con satisfacción el trabajo en curso a nivel internacional en materia de normas de IA y el progreso realizado con las normas de la Organización Internacional de Normalización en las implicaciones de la IA para la gobernanza;

48.  Acoge con satisfacción el establecimiento y la puesta en funcionamiento del Consejo UE-EE. de Comercio y Tecnología (CCT); celebra el resultado de la primera reunión del CCT en Pittsburgh; ve el CCT como un posible foro de coordinación global entre la Unión y los Estados Unidos para establecer normas globales para la IA y normas tecnológicas mundiales que protejan nuestros valores comunes, a fin de impulsar la inversión, investigación y desarrollo comunes, y para una mayor coordinación política en las instituciones internacionales en cuestiones relacionadas con la tecnología y la IA;

49.  Pone de relieve el papel fundamental que puede desempeñar la Unión en establecer normas a escala mundial, como primer bloque del mundo en elaborar legislación en materia de IA; hace hincapié en que el marco jurídico de la Unión en materia de IA podría convertir a Europa en líder mundial en este sector y que debe, por tanto, promoverse a escala mundial mediante la cooperación con todos los socios internacionales, al tiempo que se prosigue con el diálogo crítico basado en la ética con terceros países con modelos de gobernanza y normas en materia de IA alternativos;

50.  Observa que el Gobierno chino ha firmado normas y acuerdos de cooperación con cincuenta y dos países a través de su Iniciativa de la Franja y la Ruta; advierte que, dado que varias de estas normas, incluidas las relativas a las tecnologías de IA y, en particular, las relacionadas con la vigilancia gubernamental y las libertades individuales, no están en consonancia con los derechos humanos y los valores de la UE, el activismo de China en lo que respecta a las normas supone un reto para la UE;

51.  Hace hincapié en que las tecnologías de IA, especialmente las que no se han diseñado y desarrollado con los procedimientos de control explícitos en vigor y se utilizan de forma inadecuada y sin supervisión en centros de mando militar o en instalaciones de lanzamiento de misiles, entrañan riesgos especialmente significativos y podrían agravar un conflicto recíproco automatizado;

52.  Observa que el uso de los sistemas de IA en desarrollos relacionados con la defensa se considera un factor determinante en las operaciones militares mediante el análisis de datos, la capacidad de reflejar una mayor complejidad situacional, el potencial para mejorar la precisión de los objetivos, optimizar la logística y participar en conflictos armados con un menor riesgo de daños físicos para la población civil y el propio personal militar, así como utilizando datos para desarrollar vías de acción, como por ejemplo los simulacros de combate; advierte, no obstante, que esto podría provocar la bajada del umbral para el uso de la fuerza y, por lo tanto, más conflictos; afirma que las máquinas no pueden tomar decisiones de carácter humano que impliquen principios jurídicos de distinción, proporcionalidad y precaución; afirma que las personas deben mantener el control sobre el despliegue y el uso de armas y deben seguir siendo responsables del uso de la fuerza letal y de las decisiones sobre la vida o la muerte; Considera que los sistemas armamentísticos basados en IA deben estar sometidos a normas globales y a un código ético de conducta internacional para respaldar el despliegue de tecnologías de IA en operaciones militares, dentro del pleno respeto del Derecho internacional humanitario y el Derecho en materia de derechos humanos, y en consonancia con el Derecho y los valores de la Unión;

53.  Muestra preocupación por la investigación militar y el interés de algunos países en incentivar desarrollos tecnológicos relacionados con sistemas de armas autónomos letales sin supervisión humana significativa; observa que estos sistemas de armas autónomos letales ya se utilizan en los conflictos militares; recuerda que el Parlamento, en repetidas ocasiones, ha pedido la prohibición internacional del desarrollo, producción y utilización de sistemas armamentísticos autónomos letales y ha exigido negociaciones efectivas para iniciar su proceso de prohibición; hace hincapié en que en ningún caso puede permitirse que los sistemas basados en IA sustituyan a la toma de decisiones humanas, cuando estas conciernan a los principios legales de distinción, proporcionalidad y precaución;

54.  Señala, en concreto, que la tecnología de IA puede entrañar riesgos como medio para incentivar diversas formas de guerra híbrida e injerencia extranjera; especifica que, por ejemplo, podría movilizarse para propagar la desinformación, utilizando bots o cuentas falsas en las redes sociales, convertir en arma la interdependencia, recopilando información valiosa o negando el acceso a la red a los adversarios, crear perturbaciones en los sistemas económicos y financieros de otros países, contaminar el debate político y favorecer a los grupos extremistas o manipular las elecciones y desestabilizar las democracias;

55.  Ilustra que las tecnologías de IA también podrían incluir malware impulsado por IA, robo de identidad, contaminación de datos u otros tipos de aprendizaje automatizado adversos que provoquen que otros sistemas de IA malinterpreten los datos introducidos; señala, en particular, el aumento de las ultrafalsificaciones, que no necesariamente son ciberataques, pero que hacen dudar de la autenticidad de todos los contenidos digitales, incluidos los vídeos, y por tanto exigen especial atención en términos de requisitos de transparencia; advierte que las ultrafalsificaciones podrían contribuir a un amplio clima de desconfianza general de la IA, así como a una mayor polarización sociopolítica en nuestras sociedades;

56.  Explica que el uso de sistemas de IA en una cantidad significativa de infraestructuras críticas clave, como las redes de energía y transporte, el sector aeroespacial, la cadena alimentaria, las infraestructuras bancarias y financieras y los centros hospitalarios, ha creado nuevas vulnerabilidades que requieren medidas de ciberseguridad rigurosas para prevenir amenazas; señala, en este contexto, la importancia de la cooperación, el intercambio de información y la adopción de medidas tanto a nivel de la Unión como en los Estados miembros; subraya la importancia de fomentar la resiliencia de organismos críticos frente a las amenazas híbridas;

57.  Advierte que el alto nivel de precisión que puede alcanzar la IA puede entrañar riesgos para la seguridad, ya que puede inducir a los humanos a depositar tal confianza en la IA que confíen en ella más que en su propio juicio; observa que aplicar un enfoque humano como mecanismo corrector no es viable en todos los casos; señala que los experimentos han demostrado que esto puede elevar el nivel de autonomía de la IA más allá del papel de apoyo para el que fue diseñada originalmente y significa que los humanos pierden oportunidades de ganar experiencia y perfeccionar sus habilidades y conocimientos de los sistemas de IA; subraya, por lo tanto, que es necesario que los sistemas de IA de alto riesgo cuenten con medidas de seguridad desde su concepción y con control humano, garantizando para ello el entrenamiento y las medidas de protección y privacidad apropiadas, a fin de superar el sesgo de automatización;

58.  Hace hincapié, no obstante, en que la IA puede utilizarse para predecir cortes de energía e identificar necesidades de mantenimiento con gran precisión; especifica, asimismo, que puede utilizarse para sintetizar grandes cantidades de datos a través de la extracción automática de información o la clasificación automática de información, y para detectar patrones específicos; destaca que estos elementos permitirían predecir y evaluar mejor el nivel de amenaza y las vulnerabilidades del sistema, agilizar los procesos de toma de decisiones, mejorar la capacidad de reacción y asegurar los dispositivos terminales más efectivamente;

59.  Subraya, en especial, el potencial inherente de permitir a las fuerzas de seguridad identificar y contrarrestar las actividades delictivas con la ayuda de la tecnología de IA; subraya que estas actividades de las fuerzas de seguridad relacionadas con la IA requieren, sin embargo, el pleno respeto de los derechos fundamentales, una estricta vigilancia democrática, normas claras de transparencia, una infraestructura informática sólida, control humano, empleados altamente cualificados y acceso a grandes cantidades de datos de alta calidad;

d) La IA y la competitividad

60.  Señala que cada vez más productos y servicios a lo largo de la cadena de valor estarán interconectados en un futuro próximo y que la IA y la automatización desempeñarán un importante papel en la mayoría de los procesos de fabricación, operaciones y modelos de negocio; subraya la importancia primordial de la investigación básica para el desarrollo de ecosistemas industriales de IA, así como de una inversión sustancial para promover la administración pública digital y mejorar la infraestructura digital;

61.  Observa que, a pesar del significativo aumento del capital riesgo y otros modos de financiación para empresas emergentes en los dos últimos años, muchas industrias europeas se están quedando rezagadas y los niveles de financiación actuales en la UE siguen siendo insuficientes y deben reforzarse sustancialmente para igualar el dinamismo de los ecosistemas de IA más importantes como Silicon Valley; destaca la estructura singular en red de agrupaciones del ecosistema de innovación de la Unión, en contraposición a ecosistemas de innovación centralizados (y con apoyo público);

62.  Subraya que la IA tiene el potencial de impulsar la competitividad de la industria de la Unión y la productividad, acelerar la innovación, mejorar los procesos de fabricación y ayudar a supervisar la resiliencia de las cadenas de suministro europeas;

63.  Señala el riesgo de interrupción de las cadenas de suministro bien establecidas debido a la desvinculación económica o a catástrofes como pandemias o fenómenos relacionados con el cambio climático; destaca que la IA puede ayudar a detectar patrones de perturbaciones en las cadenas de suministro y contribuir a los sistemas de mantenimiento predictivo, lo que podría apoyar la diversificación de los proveedores;

64.  Observa que las empresas que han iniciado la disrupción digital se han visto a menudo recompensadas con ganancias importantes de cuota de mercado; señala que estudios recientes indican que es probable que esta pauta se repita con mayor intensidad, ya que las empresas que adoptan la IA a menudo recopilan grandes cantidades de datos, lo que tiende a mejorar su posición competitiva; muestra preocupación por los riesgos que la concentración del mercado conlleva en detrimento de las pymes y de las empresas emergentes;

65.  Hace hincapié en que esta perspectiva es especialmente preocupante, ya que el monopolio de las grandes empresas tecnológicas, que aunque son guardianes del mercado también capturan la mayor parte del valor generado, probablemente se extienda también a las tecnologías de IA; destaca que, dado que los datos que impulsan el sector de la IA son recogidos en su inmensa mayoría por las mismas grandes empresas tecnológicas, que ofrecen a los usuarios acceso a los servicios a cambio de datos y exposición a la publicidad dirigida, es probable que su actual dominio del mercado se convierta, en sí mismo, en un motor para seguir extendiendo este dominio; señala que, aunque muchas de estas empresas tecnológicas están establecidas fuera de la Unión, logran capturar el valor generado por los datos de clientes europeos, lo que les da una ventaja competitiva;

66.  Acoge con satisfacción la reciente Comunicación de la Comisión en la que se pide que se actualicen las normas de competencia para adaptarlas a la era digital (29) y destaca el papel clave de las medidas ex ante, incluida la futura Ley de Mercados Digitales, para contrarrestar la concentración antes de que surja; subraya, además, el papel que la normalización y la cooperación normativa pueden desempeñar a la hora de abordar este problema, facilitando el desarrollo global de productos y servicios independientemente de su ubicación física;

67.  Subraya que las pymes y las empresas emergentes están desempeñando un papel fundamental en la introducción de las tecnologías de IA en la UE, ya que representan el grueso de todas las empresas y son una fuente de innovación fundamental; observa, sin embargo, que las empresas emergentes de IA con mayor potencial se enfrentan a importantes obstáculos para expandirse por Europa, debido al carácter incompleto del mercado único digital y a la divergencia normativa en muchos Estados miembros, o que, cuando consiguen abrirse camino, son adquiridas por empresas tecnológicas más grandes; lamenta que las pymes se enfrenten a menudo a la escasez de financiación, a procedimientos administrativos complejos y a la falta de competencias adecuadas y de acceso a la información; observa que, en el pasado, las autoridades de competencia de la Unión han permitido la mayoría de las adquisiciones extranjeras de empresas europeas de IA y robótica;

68.  Destaca que el uso intensivo de algoritmos, por ejemplo para establecer precios, también podría originar problemas específicos de la IA totalmente nuevos dentro del mercado único; observa que las autoridades antimonopolio podrían, por ejemplo, tener dificultades para demostrar la colusión de precios entre los sistemas de establecimiento de precios basados en la IA; añade, además, que los pocos proveedores de IA que ya participan en la negociación de valores podrían presentar un riesgo sistémico para los mercados financieros, también a través de la colusión; subraya que la colusión algorítmica puede ser muy difícil de identificar, ya que los sistemas basados en IA no necesitan comunicarse entre sí de la manera en que lo hacen los seres humanos por prácticas colusorias, lo que puede hacer imposible demostrar la intención colusoria; subraya el riesgo que esto supone para la estabilidad del mercado y la necesidad de que las autoridades de competencia nacionales y de la Unión desarrollen estrategias y herramientas adecuadas; pone de relieve, además, el riesgo sistémico para los mercados financieros derivado del uso generalizado de sistemas y modelos de comercio algorítmicos sin interacción humana, que en el pasado han amplificado en gran medida los movimientos del mercado y que probablemente lo hagan de nuevo en el futuro;

69.  Observa que muchas de las empresas de IA dentro de la UE se enfrentan actualmente a la inseguridad jurídica con respecto a la forma en que pueden desarrollar sus productos y servicios de forma garantizada, como consecuencia de las cargas burocráticas, un solapamiento entre la legislación sectorial existente y la ausencia de normas y estándares de IA establecidos;

70.  Destaca el reto para las empresas de IA en términos de control de calidad y protección de los consumidores; concluye que la transparencia y la fiabilidad son esenciales para conseguir que las empresas de la UE adquieran una ventaja competitiva, ya que estos factores son clave para que un producto o servicio sea finalmente aceptado por el mercado en el futuro;

71.  Señala que, aunque el 26 % de las publicaciones de investigación de alto valor en materia de IA procede de Europa, solo cuatro de los treinta principales solicitantes (13 %) y el 7 % de las empresas que se dedican a patentar productos de IA en todo el mundo son europeos;

72.  Considera que la legislación de la UE en materia de propiedad intelectual requiere armonización, una aplicación clara y transparente y un marco equilibrado, aplicable y predecible que permita a las empresas europeas, y en particular a las pymes y a las empresas emergentes, asegurar de forma adecuada y sencilla la protección de la propiedad intelectual;

73.  Muestra su preocupación por que las medidas de protección de la propiedad intelectual por parte de las pymes sigan siendo escasas, dado que no son plenamente conscientes de sus derechos ni disponen de recursos suficientes para defenderlos; destaca la importancia de que las pymes activas en sectores de alta intensidad de conocimiento dispongan de información y estadísticas en materia de protección de la propiedad intelectual y acoge con satisfacción los esfuerzos, incluidos los procedimientos de registro simplificados y la reducción de las tasas administrativas, para informar mejor a las pymes y a las empresas emergentes y facilitar su acceso a la protección de la propiedad intelectual; señala que, con objeto de ayudar a las empresas de la UE a proteger sus derechos de propiedad intelectual sobre la IA, debería reforzarse la posición de la Unión como organismo normativo global; hace hincapié en que la competitividad y el atractivo a nivel internacional se basan en un mercado único fuerte y resiliente, también en lo relativo a la protección y el respeto de la propiedad intelectual;

74.  Afirma que la analítica de datos, así como el acceso, el intercambio y la reutilización de datos no personales, son ya esenciales para muchos productos y servicios basados en datos hoy en día, pero serán importantes para el desarrollo y el despliegue de los próximos sistemas de IA; destaca, sin embargo, que la mayor parte de los datos no personales generados en la UE hasta ahora no se utilizan, en tanto que aún no existe un mercado único de datos;

75.  Señala la importancia de facilitar el acceso a los datos y su intercambio, así como de las tecnologías de código abierto y las normas abiertas, como forma de potenciar las inversiones e impulsar la innovación en tecnología de IA en la Unión; especifica que una mejor armonización de las interpretaciones de las autoridades nacionales de protección de datos, así como de las orientaciones sobre los datos mixtos y las técnicas de despersonalización, resultaría útil para los desarrolladores de IA;

76.  Destaca el papel que puede desempeñar la IA ayudando en la actuación de las autoridades europeas y nacionales, en particular en los ámbitos de las aduanas y la vigilancia del mercado; opina que los procedimientos comerciales y aduaneros pueden hacerse más eficientes y rentables a través de la IA, velando por un mayor respeto de los requisitos y por que solo entren en el mercado único productos seguros; señala el ejemplo del sistema de evaluación y gestión de ingresos de la Agencia de Servicios Fronterizos de Canadá, que simplifica en gran medida los procedimientos de importación y exportación mediante la evaluación de riesgos cualificada basada en IA y la gestión de información digitalizada simplificada para reducir la necesidad de largas inspecciones;

e) La IA y el mercado laboral

77.  Señala que la IA está influyendo cada vez más en el mercado laboral, el lugar de trabajo y el ámbito social, y que los efectos del cambio tecnológico en el trabajo y el empleo son multifacéticos; hace hincapié en que el uso de la IA en estos ámbitos plantea varios desafíos éticos, jurídicos y laborales; expresa su preocupación por que, en lo que respecta al mercado laboral, la digitalización podría conducir a la reorganización de los trabajadores y a la posible desaparición de determinados sectores de empleo; considera que la adopción de la IA, si se combina con la infraestructura de apoyo y el aprendizaje y la formación necesarios, podría aumentar sustancialmente el capital y la productividad laboral, la innovación, el crecimiento sostenible y la creación de empleo;

78.  Destaca que, aunque la IA puede sustituir algunas tareas, incluidas las repetitivas, las pesadas, las que requieren mucha mano de obra o las peligrosas, también podría ayudar a desarrollar competencias, mejorar la calidad del trabajo y crear nuevos empleos de mayor valor añadido, dejando más tiempo para las tareas estimulantes y el desarrollo profesional; destaca que la IA ya está sustituyendo o complementando a los humanos en un subconjunto de tareas, pero que aún no está teniendo consecuencias agregadas significativas detectables en el mercado laboral (30); hace hincapié, sin embargo, en la posibilidad de que aumente la desigualdad de renta si la IA favorece las ocupaciones de alta cualificación y sustituye las de baja cualificación; añade que cualquier repercusión económica y social debe mitigarse con las medidas, la investigación y la previsión adecuadas, para lo cual es necesario invertir en el reciclaje profesional y en mejorar las cualificaciones de la mano de obra, centrándose en los grupos infrarrepresentados como las mujeres y las minorías, que probablemente se verán más afectados por esta transición, y promoviendo la diversidad en todas las fases de desarrollo de los sistemas de IA; expresa su preocupación por que la IA pueda ocasionar procesos de pérdida de cualificaciones y crear e integrar empleos de bajo salario y poca autonomía, así como extender las formas de empleo atípico y flexible (trabajo de pequeños encargos); subraya que la gestión mediante algoritmos podría crear desequilibrios de poder y opacidad entre la propia gestión y los empleados y opacidad sobre la toma de decisiones;

79.  Destaca que la implementación de IA ofrece la oportunidad de promover un cambio cultural significativo dentro de las organizaciones, incluso mediante la mejora de la seguridad en el lugar de trabajo, conseguir un mejor equilibrio entre la vida laboral y personal y ofrecer el derecho a la desconexión y orientación y oportunidades de formación más eficaces; señala, a este respecto, las recomendaciones de la OCDE que destacan que la automatización también podría traducirse en una reducción del número de horas trabajadas y mejorar, de esta manera, las condiciones de vida y la salud de los trabajadores; opina que las aplicaciones de IA que empoderan al ser humano también podrían crear nuevas oportunidades de trabajo, en particular para aquellos que, debido a restricciones como discapacidades o circunstancias de vida, han estado sujetos a trabajos menos cualificados hasta ahora; destaca la necesidad de utilizar la asistencia de la IA en el lugar de trabajo para que las personas dispongan de tiempo para mejorar la calidad de sus resultados, en lugar de simplemente aumentar la carga de trabajo;

80.  Condena que cada vez se esté recurriendo más a la vigilancia basada en IA en el lugar de trabajo, lo que sucede a menudo sin el conocimiento de los trabajadores, y mucho menos su consentimiento, en particular también en el contexto del teletrabajo; sostiene que esta práctica no debe permitirse, ya que es extremadamente abusiva con respecto al derecho fundamental a la privacidad, a la protección de datos y a la dignidad humana del trabajador y a los derechos sociales y laborales, y también tiene efectos negativos sobre la salud mental de los trabajadores debido al grado de intrusión, su efecto general o indiscriminado y la falta de salvaguardias para las personas afectadas;

81.  Expresa su preocupación por que en el entorno escolar también exista un riesgo similar de vigilancia, con la cada vez mayor adopción de sistemas de IA en las escuelas, lo que socava los derechos fundamentales de los niños; observa que las implicaciones que reviste la IA para la privacidad, la seguridad y la protección de los niños presentan una amplia variedad, y abarcan desde las ventajas relativas a la capacidad para entender las amenazas a las que se enfrentan los menores con una mayor especificidad y precisión hasta los riesgos de violaciones no intencionadas de la privacidad; subraya que las implicaciones tanto positivas como negativas para la privacidad, la seguridad y la protección de los niños en la era de la IA requieren un minucioso examen y las correspondientes salvaguardas; destaca, además, que debe prestarse especial atención y protección a los niños a la hora de desarrollar sistemas de IA debido a su naturaleza especialmente sensible y a sus vulnerabilidades específicas;

82.  Subraya que es fundamental proporcionar a las personas programas globales de desarrollo de capacidades en todas las etapas de la vida, a fin de permitirles seguir siendo productivos en un lugar de trabajo en constante evolución y evitar su exclusión del mercado laboral; considera que la adaptación de la mano de obra en términos de educación, aprendizaje permanente y reciclaje profesional sobre IA es de vital importancia; pone de relieve que los conceptos actuales de aprendizaje y trabajo se siguen definiendo en demasiada medida por un mundo predigital, lo que también está contribuyendo a un creciente déficit de competencias y a una nueva brecha digital para los ciudadanos que no tienen acceso a un espacio digital seguro; destaca que la mejora de la alfabetización digital contribuye a la consecución de los objetivos de desarrollo sostenible, en particular los relativos a la educación, el capital humano y las infraestructuras; hace hincapié en el conocimiento adquirido sobre las nuevas formas de trabajo y aprendizaje a raíz de la crisis de la COVID-19 y la necesidad de seguir profundizando en ellas;

83.  Señala que, para aprovechar plenamente las ventajas de la digitalización, la Unión debe abordar la alfabetización digital y las cibercapacidades para todos; considera que la alfabetización digital es una condición indispensable para que los ciudadanos confíen en los efectos de la IA y sean conscientes de sus efectos; hace hincapié en la importancia de incluir formación básica en competencias digitales e IA en los sistemas nacionales de educación; cree que la implantación y el desarrollo de la tecnología de IA en el ámbito de las lenguas minoritarias podría ayudar a darlas a conocer y promover su uso; destaca que más del 70 % de las empresas señalan la falta de personal con competencias digitales y de IA adecuadas como un obstáculo para la inversión; muestra preocupación por que en 2019 hubiera 7,8 millones de especialistas en TIC en la UE, con una tasa de crecimiento anual previa del 4,2 %, lo que está muy lejos de los 20 millones de expertos que se necesitan para ámbitos clave como el análisis de datos, según las previsiones de la Comisión;

84.  Muestra preocupación por la amplia brecha de género en este ámbito, ya que solo uno de cada seis especialistas en TIC y uno de cada tres licenciados en ciencias, tecnología, ingeniería y matemáticas (CTIM) son mujeres (31); observa con preocupación la persistencia de la brecha de género, especialmente en el ámbito de las empresas emergentes, en el que, en el año 2019, 92 dólares estadounidenses (USD) de cada 100 USD invertidos en empresas tecnológicas europeas se destinó a equipos fundadores formados íntegramente por hombres; recomienda destinar iniciativas específicas al apoyo de las mujeres en el ámbito de las CTIM, a fin de reducir el déficit de cualificaciones general en este sector; insiste en que esta brecha da lugar inevitablemente a algoritmos sesgados; insiste en la importancia de empoderar y motivar a las niñas para que posteriormente elijan carreras de CTIM y de erradicar la brecha de género en este ámbito;

f) La IA y el futuro de la democracia

85.  Afirma que la IA tiene, por una parte, el potencial de ayudar a construir un sector público más transparente y eficiente, pero, por otra parte, que los avances técnicos en el ámbito de la IA, impulsados a menudo por una lógica de crecimiento y beneficios, son muy rápidos y dinámicos, lo que dificulta que los responsables políticos comprendan suficientemente cómo funcionan las nuevas aplicaciones de IA y qué tipo de resultados pueden producir, aunque tienen la obligación de proporcionar un marco para garantizar que la IA respete los derechos fundamentales y pueda utilizarse en beneficio de la sociedad; pone de relieve que las previsiones de los expertos en cuanto al futuro impacto de la IA también varía, lo que sugiere que podría ser difícil, incluso para ellos, predecir los resultados de un amplio despliegue de nuevas tecnologías de IA; sostiene por tanto que esta incertidumbre acrecienta la necesidad de los legisladores de tener debidamente en cuenta el principio de precaución en la regulación de la IA; considera que es fundamental consultar a expertos de distintas áreas y procedencias a fin de crear una legislación sólida, práctica y orientada al futuro; advierte que la inseguridad jurídica puede ser uno de los mayores impedimentos para la innovación; señala, a este respecto, la importancia de promover la alfabetización en materia de IA entre los ciudadanos, incluidos los representantes electos y las autoridades nacionales;

86.  Advierte que los ciclos legislativos no suelen estar sincronizados con el ritmo del progreso tecnológico, lo que fuerza a los responsables políticos a ponerse al día y favorecer la regulación de casos de uso que ya se encuentran en el mercado; señala que un enfoque regulador sólido de la IA debe ir precedido de un análisis exhaustivo de la proporcionalidad y la necesidad, a fin de no obstaculizar la innovación y la competitividad de las empresas de la Unión;

87.  Destaca que el uso de la IA para adquirir datos biométricos podría ser tanto intrusivo como perjudicial o beneficioso para los individuos, así como para el público en general;

88.  Observa con preocupación que estas tecnologías de IA plantean cuestiones éticas y jurídicas cruciales; señala que determinadas tecnologías de IA permiten automatizar el tratamiento de la información a una escala sin precedentes, lo que allana el camino para la vigilancia colectiva y la injerencia de manera ilegal y representa una amenaza para los derechos fundamentales, en especial el derecho a la privacidad y la protección de datos;

89.  Destaca que muchos regímenes autoritarios utilizan sistemas de IA para controlar, espiar, seguir y clasificar a sus ciudadanos, restringir su libertad de circulación y ejercer vigilancia colectiva; hace hincapié en que cualquier forma de marcaje normativo ciudadano por parte de las autoridades públicas, especialmente en el ámbito de las fuerzas de seguridad del Estado, el control de las fronteras y el poder judicial, así como su uso por parte de empresas privadas o particulares, conduce a la pérdida de autonomía y privacidad y no está en consonancia con los valores europeos; recuerda que tecnologías como la cibervigilancia y el reconocimiento biométrico, que pueden utilizarse para estos fines, están sujetas al Reglamento sobre el control de las exportaciones de la Unión; muestra su profunda preocupación por los casos anteriores de empresas de la Unión que han vendido a regímenes autoritarios de países no pertenecientes a la Unión sistemas biométricos cuyo uso sería ilegal en la Unión y condena estos casos;

90.  Observa que las plataformas tecnológicas dominantes hoy en día no solo tienen un importante control sobre el acceso a la información y su distribución, sino que también utilizan tecnologías de IA para obtener más información sobre la identidad y el comportamiento de una persona, y el conocimiento de su historial de decisiones; considera que esta elaboración de perfiles plantea riesgos para los sistemas democráticos, así como para la salvaguardia de los derechos fundamentales y la autonomía de los ciudadanos; destaca que esto genera un desequilibrio de poder y plantea riesgos sistémicos que podrían afectar a la democracia;

91.  Señala que las plataformas digitales pueden ser utilizadas, también mediante aplicaciones de marketing basadas en la IA, por la injerencia extranjera y para difundir desinformación y ultrafalsificaciones, actuando como redes de propaganda, troleo y acoso con el objetivo de socavar los procesos electorales; destaca que el aprendizaje automático permite, en particular, el uso selectivo de datos personales para manipular a votantes que no sean conscientes de ello, creando mensajes personalizados y convincentes; hace hincapié en la importancia de unas estrictas obligaciones de transparencia que se hagan cumplir de manera efectiva;

92.  Subraya, no obstante, que la IA también podría utilizarse para reducir las actividades antidemocráticas y poco éticas en las plataformas, y como medio para limitar la distribución de noticias falsas e incitación al odio, a pesar de que las pruebas de su capacidad para comprender contenidos específicos del contexto han arrojado hasta ahora resultados deficientes; muestra su preocupación por el hecho de que el lenguaje divisivo puede generar una mayor participación de los usuarios, por lo que su eliminación entraría en conflicto directo con el modelo de negocio de estas plataformas, que se basa en maximizar la participación de los usuarios; opina que las soluciones basadas en la IA deben basarse en el pleno respeto de la libertad de expresión y opinión, y en pruebas sólidas a su favor, antes de su posible uso;

93.  Destaca que los sesgos en los sistemas de IA, en especial en lo que respecta a los sistemas de aprendizaje profundo, se producen a menudo debido a la falta de datos de entrenamiento y de prueba diversos y de alta calidad, por ejemplo, cuando se utilizan conjuntos de datos que no representan suficientemente a los grupos vulnerables, o cuando la definición de la tarea o el establecimiento de los propios requisitos están sesgados; señala que también puede producirse sesgos por la falta de diversidad en los equipos de desarrolladores de la IA, que refuerza los sesgos intrínsecos, debido al volumen limitado de datos de entrenamiento, o cuando un desarrollador de IA sesgado ha comprometido el algoritmo; señala que la diferenciación razonada también se genera de manera intencionada para mejorar el rendimiento de aprendizaje de la IA en determinadas circunstancias;

94.  Destaca que los sesgos estructurales presentes en nuestra sociedad no deben repetirse ni mucho menos aumentarse por medio de conjuntos de datos de baja calidad; especifica en este sentido que los algoritmos aprenden a ser tan discriminatorios como los datos con los que trabajan y, a consecuencia de unos datos de entrenamiento de baja calidad o los sesgos y la discriminación observados en la sociedad, podrían sugerir decisiones que son inherentemente discriminatorias, lo que exacerba la discriminación dentro de la sociedad; observa, no obstante, que los sesgos de la IA a veces puede ser corregidos; concluye que, por tanto, es necesario aplicar medios técnicos y establecer distintos niveles de control en los sistemas de IA, como en el software, los algoritmos y los datos utilizados y elaborados por estos, con el fin de minimizar el riesgo; sostiene, por tanto, que la IA puede y debe utilizarse para reducir los sesgos y la discriminación en nuestras sociedades y promocionar la igualdad de derechos y un cambio social positivo, también mediante requisitos normativos para los conjuntos de datos que se usan para entrenar los sistemas de IA; destaca que uno de los modos más eficientes de reducir los sesgos en los sistemas de IA es garantizar, con los límites impuestos por el Derecho de la Unión, que se dispone de la máxima cantidad de datos personales con fines de entrenamiento y aprendizaje automático;

g) Conclusiones recurrentes en los seis estudios de caso

95.  Observa que existen beneficios y oportunidades evidentes para la sociedad asociados a la adopción de tecnologías de IA que solo pueden aprovecharse si se abordan los obstáculos transversales en la Unión, de conformidad con los derechos fundamentales, los valores y la legislación; afirma que los solapamientos en la legislación, la fragmentación del mercado, las trabas burocráticas, la falta de infraestructuras digitales accesibles y de competencias digitales en el conjunto de la sociedad se perciben, en particular, como obstáculos para la aplicación satisfactoria de la IA en todos los ámbitos analizados;

96.  Concluye, además, de los estudios de casos examinados que algunos casos de uso son arriesgados o perjudiciales, pero que el problema no reside necesariamente en las tecnologías de IA específicas, sino en sus ámbitos de aplicación; reconoce que la futura regulación debe abordar las preocupaciones legítimas relacionadas con estos riesgos, con el fin de que las tecnologías de IA gocen de una amplia aplicación en la Unión;

97.  Afirma que, si bien es importante examinar y categorizar los riesgos potenciales que plantea la IA, los estudios de caso ilustran que las tecnologías de la IA pueden permitirnos aplicar contramedidas eficaces capaces de mitigar o eliminar esos mismos riesgos; subraya que, dado que la IA está todavía en sus primeras fases de desarrollo dentro de un contexto más amplio de tecnologías emergentes, su potencial total y sus riesgos aún no están claros; señala que es necesario examinar no solo los riesgos para los individuos, sino también los perjuicios para el conjunto de la sociedad y los daños individuales no materiales; destaca los importantes desequilibrios de poder de mercado presentes en los mercados de datos y en la economía de IA adyacente; destaca que la competencia leal y la eliminación de los obstáculos para que las empresas emergentes y las pymes puedan competir son esenciales para el reparto justo de los beneficios potenciales de la IA en términos económicos y sociales, que parecen ser significativos tanto a escala global como de la Unión;

3.El lugar de la UE en la competencia mundial de la IA

98.  Observa una feroz competencia mundial en materia de IA, en la que la Unión aún no ha cumplido sus aspiraciones; examina en los siguientes apartados la competitividad global de la Unión en materia de IA comparándola con la de China y los Estados Unidos, centrándose en tres elementos fundamentales: enfoque normativo, posición en el mercado e inversiones; reconoce, no obstante, que los mercados transnacionales y las empresas no pueden delimitarse fácilmente a través de las fronteras nacionales, ya que la mayoría de las empresas tecnológicas tienen clientes, accionistas, empleados y proveedores en numerosos países;

a) Enfoque normativo

99.  Señala que los Estados Unidos aún no han introducido legislación horizontal en el ámbito digital, y que hasta la fecha se han centrado en leyes sectoriales y en facilitar las inversiones, también a través de medidas impositivas sobre la innovación del sector privado, en particular entre sus gigantes tecnológicos y sus principales universidades; observa que, a pesar de los recientes acontecimientos que muestran un papel más activo en la elaboración de políticas, la estrategia de los Estados Unidos ha mostrado interés hasta ahora, principalmente, en proporcionar orientación jurídica a las empresas, invertir en proyectos de investigación y eliminar los obstáculos a la innovación detectados;

100.  Destaca que la Ley de Iniciativa Americana de Inteligencia Artificial de 2019 supuso un ligero reajuste, ya que además de reorientar la financiación, reciclar a los trabajadores y reforzar la infraestructura digital, el Gobierno estadounidense anunció el desarrollo de normas comunes para una IA de confianza; señala, sin embargo, que los diez principios resultantes se formularon de forma muy amplia para permitir a cada organismo gubernamental crear regulación específica para cada sector; espera que, aunque el actual Gobierno estadounidense tiene previsto presentar una nueva carta de derechos para limitar los daños causados por la IA en 2022, el planteamiento de los Estados Unidos seguirá estando orientado al mercado;

101.  Pone de relieve que el presidente chino Xi Jinping subrayó ya en 2013 la importancia de las tecnologías en la geopolítica, del papel de las políticas públicas en la definición de objetivos a largo plazo y del hecho de que las tecnologías de la IA ofrezcan la oportunidad de mejorar sus capacidades militares; destaca además que el Gobierno chino presentó posteriormente el plan Made in China 2025, en 2015, y el Plan de Desarrollo de la IA de Nueva Generación, en 2017, ambos con el claro objetivo de convertir a China en el líder mundial de la IA para 2030; observa que el Libro Blanco chino de la normalización de la IA de 2018 esbozó además cómo la economía de mercado socialista puede desarrollar normas internacionales y participar estratégicamente en las organizaciones internacionales de normalización; toma nota de la introducción de normas sobre sistemas de recomendación, así como de un código ético sobre la IA en China;

102.  Observa que en la escena mundial, China promueve activamente las asociaciones internacionales de IA como una forma de exportar sus propias prácticas de vigilancia basadas en la IA, su sistema de puntuación ciudadana y sus estrategias de censura; hace hincapié en que las cuantiosas inversiones en el extranjero en el marco de la Iniciativa de la Ruta Digital de la Seda también se utilizan como medio para difundir la influencia china y su tecnología de IA a escala mundial, lo que podría tener implicaciones de gran alcance más allá de la imposición de normas tecnológicas o del mantenimiento de la competitividad tecnológica; concluye que el planteamiento chino se basa, por tanto, en el despliegue de la IA a escala nacional, así como en la exportación de tecnologías de IA basadas en normas predeterminadas en consonancia con la ideología del Gobierno chino;

103.  Observa que la Comisión comenzó su trabajo de regulación de la IA en 2018 publicando la estrategia europea de IA, creando un Grupo de Expertos de Alto Nivel e introduciendo un plan coordinado (32) para fomentar la «IA hecha en Europa»; observa que el Libro blanco de 2020 sobre la IA propuso numerosas medidas y opciones políticas para la futura regulación de la IA y finalmente dio lugar a la Ley horizontal sobre la IA (33), que se presentó con un plan coordinado revisado sobre la IA (34) en mayo de 2021; señala que a fecha de junio de 2021 ya hay 20 Estados miembros que han publicado estrategias nacionales de IA, mientras que otros 7 están en la fase final de preparación para adoptar las suyas;

104.  Hace hincapié en que el planteamiento regulador de la Unión se basa en una gran atención al desarrollo de un mercado único digital europeo, así como a las consideraciones éticas, en consonancia con los valores fundamentales de los derechos humanos y los principios democráticos; afirma que el establecimiento del primer marco regulador del mundo en materia de IA podría suponer una ventaja para la Unión, como pionera, para establecer normas internacionales de IA basadas en los derechos fundamentales, así como para exportar con éxito la «IA de confianza» centrada en el ser humano a todo el mundo; subraya que es necesario apoyar este planteamiento mediante la coordinación regulatoria y la convergencia con socios democráticos afines;

b) Situación del mercado

105.  Observa que la gran mayoría de las 100 empresas líderes en IA a nivel mundial tienen su sede en los Estados Unidos, mientras que solo algunas tienen su sede en la Unión; toma nota de que los Estados Unidos también están a la cabeza del número total de empresas de IA de reciente creación;

106.  Señala que, en los últimos años, varias empresas digitales europeas han sido adquiridas por gigantes tecnológicos estadounidenses; celebra el objetivo de la Comisión de hacer frente a las adquisiciones que puedan tener un impacto significativo en la competencia efectiva en el mercado digital y de limitar las adquisiciones «asesinas»; señala, no obstante, que, en algunos casos, la adquisición puede ser uno de los objetivos principales de los creadores de las empresas emergentes y de los que las financian, como método legítimo para obtener beneficios procedentes de sus ideas;

107.  Destaca que mientras los Estados Unidos y China intentan acelerar el uso de las tecnologías de la IA en los sectores público y privado, la adopción de la IA en la UE sigue a la zaga; afirma que, en 2020, solo el 7 % de las empresas de la Unión con al menos 10 empleados utilizaban tecnologías de IA, con diferencias significativas entre los Estados miembros y entre los distintos sectores empresariales;

108.  Expresa su preocupación por el hecho de que, mientras que los Estados Unidos y China tienen un mercado digital unificado con un conjunto coherente de normas, el mercado único digital de la Unión aún no está completo y adolece de obstáculos injustificados; destaca que el desarrollo de productos y servicios de IA podría verse ralentizado aún más por el trabajo en curso sobre 27 estrategias nacionales diferentes en materia de IA;

109.  Señala también el hecho de que las incoherencias en la legislación de la Unión, los solapamientos de las distintas iniciativas legislativas, las contradicciones entre la legislación de la Unión y las nacionales, las diferentes interpretaciones jurídicas y la falta de aplicación entre los Estados miembros impiden la igualdad de condiciones y amenazan con crear inseguridad jurídica para las empresas europeas, que pueden tener dificultades a la hora de determinar si sus innovaciones en materia de IA son conformes con la legislación de la Unión;

110.  Observa que la fragmentación del mercado para las empresas de IA se ve agravada aún más por la falta de estándares y normas comunes en algunos sectores, también en materia de interoperabilidad de los datos; lamenta el riesgo normativo derivado del retraso de la legislación, como el Reglamento sobre la privacidad y las comunicaciones electrónicas; destaca como ejemplo el hecho de que los desarrolladores de IA de la Unión se enfrentan a una dificultad de obtención de datos al que no se enfrentan sus homólogos estadounidenses o chinos, debido a que el mercado único digital europeo aún está incompleto; observa que a menudo no disponen de suficientes datos de alta calidad para entrenar y probar sus algoritmos y tienen que lidiar con la falta de espacios de datos sectoriales y de interoperabilidad intersectorial, así como con las restricciones a los flujos de datos transfronterizos;

c) Inversiones

111.  Observa que las empresas y los gobiernos europeos invierten mucho menos en tecnologías de IA que los Estados Unidos o China; señala que, aunque las inversiones privadas en la industria de la IA de la Unión están aumentando significativamente, la Unión sigue invirtiendo sustancialmente poco en IA en comparación con otras regiones líderes, habida cuenta de que los Estados Unidos y China representan más del 80 % de las inversiones anuales de capital de los 25 000 millones de euros en IA y tecnología de cadena de bloques, mientras que la cuota de la Unión solo asciende al 7 %, aproximadamente 1 750 millones de euros; destaca que la liquidez en los mercados de financiación de la Unión para las empresas tecnológicas no alcanza la envergadura de los mercados comparables de los Estados Unidos; observa que los Estados Unidos también están a la cabeza de la financiación de capital riesgo y de capital privado, que resulta especialmente importante para las empresas emergentes de IA, con 12 600 millones de euros en 2019, frente a los 4 800 millones de China y los 1 200 millones de la Unión; señala que, como consecuencia, muchos empresarios europeos dedicados a la IA están cruzando el Atlántico para ampliar sus negocios en Estados Unidos;

112.  Afirma que, junto con las iniciativas nacionales, la inversión pública anual estimada de la Unión en IA, 1 000 millones de euros (35), es también muy inferior a los 5 100 millones de euros que se invierten anualmente en los Estados Unidos y hasta 6 800 millones de euros en China (36); señala, no obstante, que entre 2017 y 2020, la financiación pública de la Unión para investigación e innovación en IA aumentó un 70 % en comparación con el período anterior, y que en 2019 la Unión invirtió entre 7 900 y 9 000 millones de euros en IA, lo que supuso un 39 % más que en el año anterior; reconoce y celebra que los planes de la Comisión para aumentar aún más la inversión a través del programa Europa Digital, Horizonte Europa, InvestEU, los Fondos Estructurales y de Inversión Europeos, el Fondo Europeo de Inversiones, el Mecanismo «Conectar Europa» en el ámbito de las telecomunicaciones y varios programas de la política de cohesión se vayan a complementar e impulsar con la meta mínima del 20 % de gasto para la transición digital en los planes nacionales de recuperación y resiliencia, acordados por la Comisión y los Estados miembros en virtud del Mecanismo de Recuperación y Resiliencia; subraya, no obstante, el reciente informe del Banco Europeo de Inversiones, que calcula una brecha de inversiones en tecnologías de IA y cadena de bloques en la Unión de entre 5 000 y 10 000 millones de euros al año;

113.  Destaca que las empresas de IA de la Unión tienen que hacer frente a una fuerte competencia para encontrar empleados cualificados, ya que el 42 % de la población de la Unión carece de las competencias digitales básicas; subraya que hace falta formar y atraer a un número sustancialmente superior de licenciados con buena formación, incluidas mujeres, para que trabajen en el sector digital;

114.  Observa que, aunque la Unión cuenta con una excelente comunidad de investigadores en materia de IA, la fuga de cerebros de investigadores de la Unión sigue siendo un problema; hace hincapié en que se necesitan medidas para atraer a los investigadores más destacados; señala que la Unión solo dedicó el 2,32 % de su PIB a investigación y desarrollo (I+D) en 2020, mientras que los Estados Unidos dedicaron el 3,08 %; recuerda que los Estados miembros han de mantener su compromiso de invertir el 3 % de su PIB en investigación y desarrollo, a fin de lograr la autonomía estratégica de la Unión en el ámbito digital;

115.  Observa que la infraestructura digital de la Unión necesita una puesta al día sustancial, ya que solo el 25 % de los habitantes de la Unión puede conectarse a una red 5G, frente al 76 % de los habitantes de Estados Unidos; observa que la Unión carece de una infraestructura digital suficiente de alto rendimiento con espacios de datos interoperables, altas tasas y volúmenes de transmisión, fiabilidad y retrasos cortos; destaca la necesidad de apoyar los ecosistemas europeos de IA con clústeres de excelencia;

d) Conclusión

116.  Concluye que Estados Unidos es el líder global en IA, ya que está por delante en numerosas categorías, con sedes de empresas referentes en el desarrollo tecnológico en áreas como la computación en la nube o las capacidades de computación de alto rendimiento, y también en lo que respecta a la inversión, la atracción de talento en IA, la investigación y la infraestructura; pone de relieve, sin embargo, que China, que hace pocos años seguía estando significativamente por detrás de Estados Unidos en todos los indicadores, se está poniendo rápidamente al día; reconoce que ambos países tienen la ventaja de contar con un mercado único unificado y un compromiso político mayor por conservar su posición de líderes en IA;

117.  Destaca que, a pesar de la firme posición de la Unión en materia de software industrial y robótica, los agentes de la Unión siguen estando rezagados con respecto a sus homólogos estadounidenses y chinos en numerosas categorías; subraya que la Unión debe desarrollar un plan ambicioso para la IA europea centrada en el ser humano; señala que la Unión, sin embargo, va por delante en cuanto a las estrategias normativas; señala que una estrategia viable de la Unión para ser más competitiva en materia de IA implica hacer hincapié en la investigación y la innovación, las competencias, la infraestructura y la inversión en IA, al tiempo que se intenta establecer un marco normativo horizontal orientado al futuro y favorable a la innovación para el desarrollo y el uso de la IA, garantizando al mismo tiempo la salvaguarda del Estado de Derecho y de los derechos fundamentales de los ciudadanos de la Unión;

118.  Subraya que el Brexit tuvo un efecto negativo en los esfuerzos de la Unión por reforzar su papel mundial en materia de IA, ya que el Reino Unido era uno de los países más avanzados de la Unión en este ámbito; destaca, no obstante, que el Reino Unido debe seguir siendo un socio valioso para la Unión, lo que impulsaría la competitividad de ambos socios y la promoción de perspectivas normativas compartidas en la fijación de normas a nivel mundial;

119.  Concluye que la Unión aún está lejos de cumplir su aspiración de ser competitiva en el ámbito de la IA a escala mundial, y puede correr el riesgo de quedarse más rezagada en algunas categorías; sostiene que una acción rápida en relación con la hoja de ruta de la Unión para la IA que se describe a continuación brinda una oportunidad para cambiar esta situación;

120.  Especifica que, dado que la Unión no tiene poder legislativo para abordar todos los puntos enumerados en la hoja de ruta de la Unión para la IA, la Comisión especial recomienda que se propicien más debates de alto nivel y más procesos políticos entre las instituciones de la Unión y los Estados miembros para impulsar un enfoque más armonizado en materia de IA y para contribuir a que los Estados miembros coordinen sus esfuerzos; se refiere a este respecto a la Agenda de Lisboa de la UE de 2000, que, a pesar de las críticas, contribuyó a guiar la orientación política de la Unión durante 20 años y a mantener la presión sobre los Estados miembros para su reforma;

4. «Una Europa adaptada a la era digital»: hoja de ruta para convertirse en líder mundial

a) Marco normativo favorable

i. Legislación

121.  Pide a la Comisión que proponga únicamente actos legislativos en forma de reglamento para nuevas leyes digitales en ámbitos como la IA, ya que el mercado único digital debe someterse a un proceso de auténtica armonización; está convencido de que, dado el rápido desarrollo tecnológico, la legislación digital siempre debería estar basada en principios y ser flexible, tecnológicamente neutra, preparada para el futuro y proporcionada, adoptando a la vez un enfoque basado en el riesgo, cuando proceda, respetando los derechos fundamentales y evitando cargas administrativas innecesarias para las pymes, las empresas emergentes, el mundo académico y la investigación; destaca, además, la importancia de un alto nivel de seguridad jurídica y, en consecuencia, la necesidad de contar con criterios de aplicabilidad, definiciones y obligaciones sólidas, prácticas e inequívocas en todos los textos legales relativos a la venta, el uso o el desarrollo de tecnologías de IA;

122.  Cree que el Programa de Mejora de la Legislación es un elemento clave para el éxito de la estrategia de la Unión en materia de IA; destaca la necesidad de concentrarse en los mecanismos de revisión, adaptación, aplicación y ejecución de las leyes ya existentes antes de proponer nuevos actos legislativos;

123.  Insta a la Comisión a que elabore evaluaciones de impacto ex ante detalladas, con un análisis prospectivo y de riesgos adecuado, antes de presentar nuevas propuestas digitales en ámbitos tales como la IA; hace hincapié en que las evaluaciones de impacto deben cartografiar y evaluar sistemáticamente la legislación vigente en la materia, evitando solapamientos o conflictos;

124.  Propone que las nuevas leyes en ámbitos como la IA deben ir acompañadas de la promoción de normas europeas elaboradas por las partes interesadas; opina que la Unión debe esforzarse por evitar la fragmentación y que las normas internacionales pueden servir de referencia útil, pero que la Unión debe dar prioridad a la elaboración de su propia normativa; recalca que dicha normativa debe ser el resultado de una competencia leal entre las mejores normas dentro de la Unión, que deben ser examinadas por la Unión y por las organizaciones de normalización; observa que las normas técnicas y las instrucciones de diseño podrían combinarse entonces con sistemas de etiquetado como manera de desarrollar la confianza del consumidor ofreciendo servicios y productos de confianza; destaca el papel de las organizaciones de normalización de la Unión en el desarrollo de normas técnicas de vanguardia; pide a la Comisión que acelere la expedición de mandatos de normalización a las organizaciones europeas de normalización de conformidad con el Reglamento (UE) n.º 1025/2012 del Parlamento Europeo y del Consejo, de 25 de octubre de 2012, sobre la normalización europea (37);

125.  Explica que una plataforma de certificación abierta podría establecer un ecosistema de confianza que implique a Gobiernos, sociedad civil, empresas y otras partes interesadas;

126.  Pide que el Parlamento, la Comisión y el Consejo traten los conflictos de competencias internos en lo que respecta a asuntos de carácter general como la IA, ya que dichos conflictos amenazan con retrasar el procedimiento legislativo, con un efecto dominó en lo que respecta a la entrada en vigor de legislación;

ii. Gobernanza y control de la ejecución

127.  Pide la coordinación, la aplicación y el cumplimiento coherentes en toda la Unión de la legislación en materia de IA;

128.  Explica que los foros de consulta basados en partes interesadas, como el Comité Europeo de Innovación en los Datos, que será establecido por la Ley de Gobernanza de Datos, o la Alianza europea de la IA, que incluye asociaciones público-privadas, como la Alianza Europea para los datos industriales y la computación periférica y en la nube, constituyen un enfoque de gobernanza prometedor; puntualiza que este enfoque permite al ecosistema de IA de la Unión poner en práctica sus principios, valores y objetivos y reflejar intereses sociales a nivel del código de software;

129.  Destaca que el «problema de seguimiento del ritmo» requiere prestar especial atención a la aplicación efectiva ex post por parte de los tribunales y las agencias reguladoras, así como a enfoques ex ante para hacer frente a los retos jurídicos que plantean las tecnologías emergentes; apoya, por tanto, el uso de entornos controlados de pruebas, que brindarían a los desarrolladores de IA la oportunidad única de experimentar de una manera rápida, ágil y controlada bajo la supervisión de las autoridades competentes; señala que estos entornos controlados de pruebas serían espacios experimentales en los que probar los sistemas de IA y los nuevos modelos de negocio en condiciones reales en un espacio controlado antes de su entrada real en el mercado;

iii. Marco jurídico de la IA

130.  Pone de relieve que un objetivo subyacente a la estrategia digital de la Unión, así como al de la estrategia de la IA, es crear un «enfoque europeo» en un mundo digitalizado; aclara que este enfoque debe estar centrado en el ser humano, ser fiable, guiarse por principios éticos y basarse en el concepto de economía social de mercado; subraya que la persona y la protección de sus derechos fundamentales deben permanecer siempre en el centro de todas las consideraciones políticas;

131.  Está de acuerdo con la conclusión extraída por la Comisión en su Libro Blanco sobre la inteligencia artificial, de 2020, en el sentido de que es necesario establecer un marco jurídico basado en el riesgo para la IA, que abarque, especialmente, normas éticas de alto nivel basadas en mecanismos de transparencia, auditoría y rendición de cuentas, combinadas con disposiciones de seguridad de los productos, normas de responsabilidad adecuadas y disposiciones específicas para el sector, y que al mismo tiempo proporcione a las empresas y a los usuarios suficiente flexibilidad y seguridad jurídica y unas condiciones de competencia equitativas para fomentar la adopción de la IA y la innovación;

132.  Apunta al valor añadido orientativo de tomar los conceptos, la terminología y las normas desarrollados por la OCDE como inspiración para la definición de la IA en la legislación; destaca que hacerlo daría a la Unión una ventaja en la configuración de un futuro sistema de gobernanza internacional de la IA;

133.  Está convencido de que la IA no siempre debe estar regulada en tanto que tecnología, sino que el nivel de la intervención reguladora debe ser proporcional al tipo de riesgo individual o social que entraña el uso de un sistema de IA; subraya, a este respecto, la importancia de distinguir entre casos de uso de la IA de «alto riesgo» y de «bajo riesgo»; concluye que la primera categoría requiere más salvaguardias legislativas estrictas, mientras que la segunda, en muchos casos requerirá requisitos de transparencia para los usuarios finales y los consumidores;

134.  Especifica que la clasificación de los sistemas de IA como de «alto riesgo» debe basarse en su uso concreto y en el contexto, la naturaleza, la probabilidad, la gravedad y la posible irreversibilidad de los daños que cabe esperar que se produzcan y que vulneren los derechos fundamentales y las normas de salud y seguridad establecidas en el Derecho de la Unión; destaca que esta clasificación debe ir acompañada de orientaciones y de la promoción del intercambio de mejores prácticas para los desarrolladores de IA; destaca que el derecho a la privacidad debe respetarse siempre y que los desarrolladores de IA deben garantizar el pleno cumplimiento de las normas sobre protección de datos;

135.  Subraya que los sistemas de IA que probablemente interactúen con niños o que les afecten de otro modo deben tener en cuenta sus derechos y vulnerabilidades y cumplir las más estrictas normas de seguridad e intimidad desde el diseño y por defecto;

136.  Señala que los entornos en los que operan los sistemas de IA pueden diferir significativamente en un entorno entre empresas en comparación con un entorno entre empresa y consumidor; señala que deben protegerse jurídicamente los derechos de los consumidores mediante normativa de protección de los consumidores; recalca que, aunque las empresas pueden resolver la responsabilidad y otros desafíos legales de forma rápida y rentable por medios contractuales directamente con sus socios comerciales, puede ser necesaria legislación para proteger a las empresas más pequeñas del abuso de poder del mercado por parte de agentes dominantes a través del bloqueo comercial o tecnológico, barreras a la entrada en el mercado o problemas de información asimétrica; recalca que también es necesario tener en cuenta las necesidades de las pymes y las empresas emergentes con requisitos legislativos demasiado complejos, para evitar ponerlas en desventaja frente a las grandes empresas, que cuentan con los recursos para mantener departamentos legales y de verificación del cumplimiento importantes;

137.  Subraya la necesidad de aplicar un enfoque basado en principios a las cuestiones éticas no resueltas que plantean las nuevas posibilidades tecnológicas derivadas de la venta y el uso de aplicaciones de IA, también a través del uso de principios fundamentales y obligatorios como el principio de no maleficencia, el principio de respeto de la dignidad humana y los derechos fundamentales o la protección del proceso democrático; observa que las buenas prácticas en el desarrollo de la IA, como la IA centrada en el ser humano, la gobernanza responsable y los principios de transparencia y explicabilidad, así como los principios de IA sostenible que estén en plena consonancia con la Agenda 2030 para el Desarrollo Sostenible de las Naciones Unidas, son otros componentes importantes para configurar la economía de la IA;

138.  Reconoce que no siempre es posible eliminar completamente los algoritmos de la IA, ya que el objetivo ideal de usar datos sin errores es muy difícil o casi imposible de alcanzar; observa que incluso un sistema de IA que haya sido probado se encontrará inevitablemente con escenarios reales que pueden producir resultados sesgados cuando se despliegue en un entorno diferente de aquel para el que fue entrenado y probado; destaca que la Unión debe esforzarse por mejorar la transparencia de los conjuntos de datos y algoritmos, cooperar muy estrechamente con los desarrolladores de IA para contrarrestar y reducir los sesgos sociales estructurales y tener en cuenta la adopción de normas obligatorias de diligencia debida en materia de derechos humanos en una fase temprana de desarrollo;

139.  Explica que las obligaciones de transparencia o explicabilidad significativa de los sistemas de IA, si bien son útiles en muchas ocasiones, puede que no se puedan aplicar en todos los casos; señala que los derechos de propiedad intelectual y los secretos comerciales deben protegerse frente a prácticas injustas como el espionaje industrial;

140.  Afirma que el marco legislativo sobre la propiedad intelectual debe seguir incentivando y protegiendo a los innovadores de la IA mediante la concesión de patentes como recompensa por desarrollar y publicar sus creaciones; considera que la mayoría de la normativa vigente está preparada para el futuro, pero propone determinados ajustes, como la integración de elementos de código abierto y el recurso a la contratación pública para encargar, cuando proceda, programas informáticos de código abierto para soluciones de IA; propone nuevas formas de concesión de licencias de patentes para garantizar que las herramientas estén disponibles para regiones e iniciativas que, de otro modo, no podrían permitírselas;

141.  Considera que las autoevaluaciones de riesgos ex ante obligatorias basadas en reglas y normas claras, así como en evaluaciones de impacto sobre la protección de datos, complementadas por evaluaciones de la conformidad a cargo de terceros con el marcado CE pertinente y adecuado, junto con el control del cumplimiento ex post mediante la vigilancia del mercado, podrían ser útiles para garantizar que los sistemas de IA en el mercado sean seguros y fiables; considera que, con el fin de evitar que las pymes se vean expulsadas del mercado, se deben elaborar normas y guías sobre cumplimiento de la legislación en materia de IA, con la estrecha participación de pequeñas empresas, alineadas internacionalmente todo lo posible, que deben estar disponibles de manera gratuita;

142.  Señala que, para aumentar la seguridad de los productos y mejorar la identificación de los fallos, los desarrolladores de IA de alto riesgo deben garantizar que se conserven de forma segura los registros accesibles de la actividad algorítmica; considera que, cuando proceda, los desarrolladores también deberían diseñar sistemas de IA de alto riesgo con mecanismos incorporados —«interruptores de parada inmediata»— para que la intervención humana detenga de manera segura y eficiente las actividades automatizadas en cualquier momento y garantizar un enfoque basado en la participación humana; considera que los resultados y el razonamiento del sistema de IA deben ser siempre comprensibles para los seres humanos;

143.  Reconoce los retos jurídicos que plantean los sistemas de IA y que es necesario plantear una revisión de determinadas partes de las normas de responsabilidad existentes; espera con interés, en este sentido, la presentación de la propuesta legislativa de la Comisión sobre la responsabilidad en materia de IA; destaca que la Directiva sobre responsabilidad por los daños causados por productos defectuosos (38) y los sistemas nacionales de responsabilidad basados en la culpa pueden seguir siendo, en principio, la legislación central para contrarrestar la mayor parte de los daños causados por la IA; subraya que en algunos casos podrían obtenerse resultados inadecuados, pero advierte que cualquier revisión debe tener en cuenta la legislación vigente en materia de seguridad de los productos y debe basarse en lagunas claramente determinadas, estando al mismo tiempo adaptada para el futuro y siendo susceptible de aplicarse efectivamente y de garantizar la protección de las personas en la Unión;

144.  Subraya que, en cuanto a la comprensión de los riesgos, el marco jurídico no debe someter a los niños al mismo nivel de responsabilidad personal que a los adultos;

145.  Observa que se pueden considerar algunos cambios en las definiciones legales de «producto», incluidas las aplicaciones informáticas integradas, los servicios digitales y la dependencia entre productos, y de «productor», incluidos el operador final, el proveedor de servicios y el proveedor de datos, a fin de garantizar la posibilidad de indemnización por los daños causados por estas tecnologías; destaca, no obstante, que debe evitarse un enfoque demasiado amplio o excesivamente restrictivo de la definición de «producto»;

146.  Señala que, debido a las características de los sistemas de IA, como su complejidad, conectividad, opacidad, vulnerabilidad, capacidad de modificación mediante actualizaciones, capacidad de autoaprendizaje y autonomía potencial, así como la multitud de agentes que participan en su desarrollo, despliegue y uso, existen retos importantes para la eficacia de las disposiciones del marco de responsabilidad civil nacional y de la Unión; considera, por tanto, que, si bien no es necesaria una revisión completa de los regímenes de responsabilidad que funcionan correctamente, son necesarios ajustes específicos y coordinados de los regímenes de responsabilidad europeos y nacionales para evitar una situación en la que las personas que sufren daños o cuyas propiedades sufren daños no llegan a recibir indemnización alguna; especifica que, si bien los sistemas de IA de alto riesgo deben entrar en el ámbito de aplicación de la legislación en materia de responsabilidad objetiva, junto con la cobertura de seguro obligatoria, cualesquiera otras actividades, dispositivos o procesos impulsados por sistemas de IA que causen daños o perjuicios deben seguir estando sujetos a responsabilidad subjetiva; cree, no obstante, que la persona afectada debe poder acogerse a una presunción de culpa del operador, salvo si este último demuestra que ha observado el deber de diligencia;

iv. Dificultad de obtención de datos en la UE

147.  Toma nota de las conclusiones extraídas por la Comisión en su Comunicación de 2020 titulada «Una estrategia europea de datos» y por el Parlamento en su Resolución, de 25 de marzo de 2021, sobre el mismo tema, en las que se afirma que la creación de un espacio único europeo de datos, acompañado del desarrollo de espacios de datos sectoriales y un enfoque basado en normas comunes, es fundamental para garantizar la rápida escalabilidad de las soluciones de IA en la Unión y fuera de ella, así como para garantizar la autonomía estratégica abierta y la prosperidad económica de la Unión; recuerda el vínculo esencial entre la disponibilidad de datos de alta calidad y el desarrollo de aplicaciones de IA; destaca, a este respecto, la necesidad de desplegar servicios en nube sólidos, fiables e interoperables dentro de la Unión, así como soluciones que aprovechen el análisis de datos descentralizado y la arquitectura periférica; pide a la Comisión que aclare los derechos de acceso, uso e intercambios de datos por parte de los titulares de datos no personales creados conjuntamente; subraya que el acceso a los datos debe ser técnicamente posible, también mediante interfaces interoperables normalizadas y programas informáticos interoperables; recalca que los obstáculos al intercambio de datos conducirían a una menor innovación y competencia y a la promoción de estructuras de mercado oligopolísticas, que amenazan con perpetuarse en el mercado contiguo para las aplicaciones de IA;

148.  Recalca la importancia clave de abrir silos de datos y de fomentar el acceso a los datos para el desarrollo y el uso de la IA, según se describe en la Resolución del Parlamento sobre la Estrategia Europea de Datos; destaca que los desequilibrios del mercado derivados de una mayor restricción de datos por parte de empresas privadas multiplican las barreras de entrada en el mercado y reducen el acceso y el uso más amplios de los datos, lo que hace especialmente difícil para las empresas emergentes y los investigadores adquirir u obtener la autorización para usar los datos que necesitan para entrenar sus algoritmos; subraya la necesidad de establecer la seguridad jurídica y la infraestructura técnica interoperable necesarias, incentivando al mismo tiempo a los titulares de datos en Europa para que pongan a disposición sus ingentes cantidades de datos no utilizados; considera que el intercambio de datos voluntario entre empresas basado en acuerdos contractuales justos contribuye a alcanzar este objetivo; reconoce, no obstante, que los acuerdos contractuales entre empresas no garantizan necesariamente el acceso adecuado a los datos para las pymes, debido a disparidades en el poder de negociación o en los conocimientos técnicos; hace hincapié en que los mercados de datos abiertos facilitan el intercambio de datos al ayudar a las empresas y los investigadores en el ámbito de la IA a adquirir u obtener la autorización de uso de datos de quienes deseen facilitar datos en dichos mercados, por ejemplo mediante catálogos de datos, y permiten a los titulares de datos y a los usuarios negociar transacciones de intercambio de datos; acoge favorablemente, en este contexto, las normas en materia de intermediación de datos recogidas en la Ley de Gobernanza de Datos;

149.  Acoge con satisfacción las iniciativas de la federación europea en la nube, como la Alianza para los Datos Industriales y la Computación Periférica y en la Nube, así como el proyecto GAIA-X, cuyo objetivo es desarrollar una infraestructura de datos federada y crear un ecosistema que permita la escalabilidad, la interoperabilidad y la autonomía de los proveedores de datos; observa que el código normativo relativo a la computación en la nube de la Unión, que compila legislación e iniciativas de autorregulación existentes, también contribuiría a traducir principios y valores comunes de la Unión en procesos y controles ejecutables para los responsables técnicos;

150.  Recomienda que se siga reforzando la interoperabilidad de los datos y que se establezcan normas comunes para facilitar el flujo de datos entre diferentes máquinas y entidades a fin de mejorar el intercambio de datos entre países y sectores y permitir la creación a gran escala de conjuntos de datos de alta calidad; observa que, más allá de las normas abiertas, el software de fuente abierta, las licencias de Creative Commons y las interfaces de programación de aplicaciones (API) abiertas también podrían desempeñar un papel clave en la aceleración del intercambio de datos; destaca el papel de los espacios comunes europeos de datos a la hora de facilitar la libre circulación de datos en la economía de datos europea;

151.  Pide a la Comisión y a los Estados miembros que garantice una ejecución más firme de las condiciones contractuales justas dentro del ámbito de las normas de competencia, con el objetivo de abordar los desequilibrios de poder de mercado sin interferir de manera injustificada con la libertad contractual, y que se dote de equipos y recursos a las autoridades de defensa de la competencia para contrarrestar la tendencia a la concentración de datos; subraya que los espacios europeos de datos permitirían a las empresas cooperar más estrechamente entre sí, por lo que considera que estas necesitan una mayor orientación y claridad jurídica en materia de Derecho de la competencia y más cooperación en materia de intercambio y puesta en común de datos; recalca que la cooperación en materia de datos, también para el entrenamiento de aplicaciones de IA o en la industria del internet de las cosas, no debería facilitar bajo ninguna circunstancia la formación de cárteles ni crear barreras para los nuevos participantes en un mercado; hace hincapié en la importancia de aclarar los derechos contractuales de los desarrolladores y las empresas de IA que contribuyen a la creación de datos a través del uso de algoritmos o máquinas de internet de las cosas, en particular los derechos de acceso a datos, de portabilidad de los datos, a instar a otra parte a que deje de utilizar datos y a corregir o suprimir datos;

152.  Pide a los Estados miembros, en lo que respecta a datos de titularidad gubernamental, que ejecuten rápidamente la Directiva sobre datos abiertos (39) y apliquen adecuadamente la Ley de Gobernanza de Datos, poniendo a disposición, idealmente de manera gratuita, conjuntos de datos de alto valor y suministrándolos en formatos legibles por máquina e interfaces de programación de aplicaciones; recalca que esta iniciativa reduciría los costes para los organismos públicos de difundir y reutilizar sus datos y ayudaría enormemente a los investigadores y las empresas de la Unión a mejorar sus tecnologías digitales en ámbitos como la IA;

153.  Pide una implementación uniforme del RGPD en toda la Unión mediante la aplicación eficaz y rápida del mecanismo de coherencia y la racionalización de las distintas interpretaciones nacionales de la ley; considera que es asimismo necesario preparar mejor a las autoridades de protección de datos, en particular dotándolas de más conocimientos técnicos;

154.  Toma nota de las orientaciones prácticas de la Comisión de 2019 sobre cómo tratar conjuntos de datos mixtos; señala que no intercambiar conjuntos de datos a menudo sigue siendo la mejor opción para los investigadores y las empresas en el ámbito de la IA debido a la inseguridad jurídica en torno a si se han anonimizado suficientemente los datos;

155.  Considera que el dictamen 5/2014 del Grupo de Trabajo sobre Protección de Datos del artículo 29 de 10 de abril de 2014 sobre técnicas de anonimización ofrece una visión de conjunto útil, que podría desarrollarse en mayor medida; pide al Comité Europeo de Protección de Datos (en lo sucesivo, «CEPD») que adopte directrices basadas en casos de uso específicos y situaciones pertinentes para diferentes tipos de responsables y encargados del tratamiento de datos y diferentes situaciones de tratamiento, incluida una lista de verificación con todos los requisitos que deben cumplirse para anonimizar suficientemente los datos; observa, sin embargo, que actualmente las técnicas de anonimización no pueden garantizar una protección plena y completa de la intimidad, ya que los experimentos han mostrado que los sistemas de IA modernos pueden volver a identificar a las personas;

156.  Pide al CEPD que emita más orientaciones para los investigadores y las empresas en ámbitos como la IA sobre cómo tratar de forma eficaz datos personales fuera de la Unión de una manera que sea conforme con el RGPD;

157.  Propone financiar más investigación sobre la normalización de enfoques de «protección de la intimidad desde el diseño», así como promover soluciones criptográficas y aprendizaje automático que proteja la intimidad, ya que resulta fundamental garantizar que se puedan utilizar datos de alta calidad para entrenar algoritmos y realizar tareas de IA sin vulnerar la intimidad; observa que los fondos de datos, las certificaciones para aplicaciones de IA alto riesgo, los sistemas de gestión de información personal y el uso de datos sintéticos también muestran resultados prometedores;

158.  Anima a la Unión y a sus Estados miembros a que aprovechen el proyecto de la OCDE establecido recientemente sobre el acceso fiable por parte de los gobiernos a datos personales en poder del sector privado como referencia para que los responsables políticos a escala mundial trabajen en favor de una solución internacional y la convergencia reglamentaria de las mejores prácticas en este ámbito; recalca, a este respecto, que la libre circulación de datos y metadatos a través de las fronteras internacionales, en el pleno respeto del acervo de la Unión en materia de protección de datos, es un factor decisivo para la innovación digital en Europa; pide, por consiguiente, a la Comisión que se abstenga de imponer requisitos de localización de datos, excepto cuando sea necesario para proteger los derechos fundamentales, incluida la protección de datos, o en casos limitados, proporcionados y justificados, en los que dicha política vaya en interés de la Unión o sea necesaria para defender las normas europeas;

159.  Pide a la Comisión que responda a la sentencia del Tribunal de Justicia de la Unión Europea (en lo sucesivo, «TJUE») de que el Escudo de la privacidad UE-EE. UU. es inválido adoptando todas las medidas necesarias para garantizar que cualquier nueva decisión de adecuación con respecto a los Estados Unidos cumpla plenamente el RGPD, la Carta de los Derechos Fundamentales de la Unión Europea y todos los aspectos de la sentencia del TJUE, simplificando al mismo tiempo los flujos transatlánticos de datos; pide a la Comisión que prosiga las conversaciones sobre adecuación de datos con otros países no pertenecientes a la Unión, dado que esta es la mejor manera de promover las políticas de protección de datos de la Unión y permitir el intercambio internacional de datos;

b) Culminación del mercado único digital

i. Estrategias nacionales en materia de IA

160.  Pide a los Estados miembros que revisen sus estrategias nacionales en materia de IA, ya que muchas de ellas siguen siendo vagas y carecen de objetivos claros, también por lo que respecta a la educación digital para el conjunto de la sociedad y las cualificaciones avanzadas para especialistas; recomienda a los Estados miembros que formulen acciones concretas, cuantificables y específicas, tratando de crear al mismo tiempo sinergias entre ellas;

161.  Pide a la Comisión que ayude a los Estados miembros a establecer prioridades y a adecuar sus estrategias y sus marcos normativos nacionales en materia de IA en la medida de lo posible, con el fin de garantizar la coherencia y la uniformidad en toda la Unión; señala que, aunque contar con una diversidad de enfoques nacionales es una buena manera de establecer mejores prácticas, los desarrolladores y los investigadores de IA se enfrentarían a importantes obstáculos si estuviesen sujetos a diferentes parámetros operativos y obligaciones reglamentarias en cada uno de los veintisiete Estados miembros;

ii. Barreras comerciales

162.  Insta a la Comisión a que prosiga su labor de eliminación de las barreras injustificadas a la plena culminación del mercado único digital, incluida la discriminación indebida por país, el reconocimiento mutuo incompleto de cualificaciones profesionales, los procedimientos de acceso al mercado excesivamente gravosos, los elevados costes de cumplimiento de la normativa excesivamente elevados y las divergencias de los procedimientos de evaluación de la conformidad, así como a que aborde el frecuente uso de las excepciones, que da lugar a normas divergentes entre las distintas jurisdicciones de los Estados miembros; recalca que, para las empresas que operan en un entorno transfronterizo, la elaboración de normas en materia de IA a escala de la Unión, en lugar de un enfoque país por país fragmentado, constituye un avance positivo que ayudará a fomentar el liderazgo europeo en materia de desarrollo y de despliegue de la IA;

163.  Pide a la Comisión que acelere la creación de una Unión de los Mercados de Capitales real; recalca la necesidad de mejorar el acceso a los recursos financieros, especialmente para las pymes, las empresas emergentes y las empresas emergentes en expansión;

164.  Subraya la necesidad de concluir rápidamente las negociaciones sobre los expedientes legislativos pendientes destinados a la culminación del mercado único digital;

165.  Pide a la Comisión que garantice una aplicación coherente de las normas del mercado único;

166.  Observa que el nuevo marco legislativo debe actualizarse cuidadosamente y adaptarse a los productos y servicios digitales; propone que se haga hincapié en la modernización y la simplificación de los procedimientos de verificación de la conformidad mediante la introducción de alternativas digitales a los medios analógicos o en soporte papel existentes, lo que permitiría a las empresas utilizar, por ejemplo, el marcado CE digital, el etiquetado electrónico o instrucciones de seguridad en formato digital;

167.  Anima a la Comisión a que apoyen a las empresas fuera de línea que desean tener presencia en línea; alienta nuevas campañas de información dirigidas a las pymes y a las empresas emergentes en previsión de la nueva y futura legislación de la Unión a este respecto, así como una mayor aplicación de las normas de vigilancia del mercado como medio para aumentar la confianza de los consumidores europeos;

iii. Igualdad de condiciones

168.  Está convencido de que es necesario reformar los actuales marcos nacionales y europeos de competencia y antimonopolio para combatir mejor los abusos de poder de mercado y la colusión algorítmica en la economía digital, y los problemas relacionados con la acumulación de datos, así como para abordar mejor los riesgos de los nuevos monopolios emergentes sin poner en riesgo la innovación; acoge favorablemente la próxima aprobación de la Ley de Mercados Digitales; pide que se tengan especialmente en cuenta los posibles problemas de competencia en el ámbito de la IA;

169.  Observa que dicha reforma debe reforzar un enfoque empírico y tener más en cuenta el valor de los datos y las implicaciones de los efectos de red mediante la introducción de normas claras para las plataformas dominantes del mercado y el aumento de la seguridad jurídica para la cooperación en la economía digital;

170.  Afirma, a este respecto, que la Comisión debe adaptar sus prácticas de definición del mercado para definir los mercados con mayor precisión y de conformidad con las realidades del mercado moderno en el sector digital, para lo que debe llevar a cabo análisis dinámicos y adoptar una visión a largo plazo para evaluar la existencia de presiones competitivas;

171.  Pide a la Comisión y a las autoridades nacionales de competencia que aumenten sus esfuerzos para controlar los mercados digitales de forma continuada, e identificar así las restricciones competitivas y los cuellos de botella a la competencia, e imponer posteriormente medidas correctivas con mayor frecuencia a las empresas que abusen de su posición dominante o que adopten un comportamiento contrario a la competencia;

172.  Pide a los Estados miembros que aumenten sustancialmente la financiación y la capacidad técnica de las autoridades de competencia con el fin de garantizar la ejecución eficaz y rápida de normas de competencia en la compleja economía digital que cambia a gran velocidad; subraya que las autoridades de competencia deben acelerar los procedimientos por abuso y, cuando sea necesario, aplicar medidas provisionales con el fin de proteger y fomentar la competencia leal, garantizando al mismo tiempo los derechos de defensa procesal de las empresas;

c) Infraestructura verde digital

i. Conectividad y potencia informática

173.  Pide a la Comisión que prosiga con su ambición de incentivar al 75 % de las empresas europeas para que adopten servicios de computación en la nube, macrodatos y la IA de aquí a 2030, con el fin de mantener su competitividad a escala mundial y acelerar sus objetivos de neutralidad climática para garantizar que se cumplen a más tardar en 2050; considera insuficiente la asignación de 2 070 millones de euros para la financiación de infraestructuras digitales en el marco del Mecanismo «Conectar Europa»;

174.  Subraya que el cambio en el volumen y el procesamiento de datos para la IA también requiere el desarrollo y el despliegue de nuevas tecnologías de procesamiento de datos que abarquen las zonas próximas al usuario, pasando así de los modelos de infraestructura centralizados basados en la nube a la creciente descentralización de las capacidades de procesamiento de datos; insta a que se refuercen las inversiones y la investigación en agrupaciones informáticas distribuidas, nodos de proximidad e iniciativas de microcontroladores digitales; señala que el paso a un uso generalizado de soluciones periféricas puede requerir más recursos, ya que se pierden los beneficios de la puesta en común de la optimización, y subraya que el coste/beneficio medioambiental de las infraestructuras periféricas debe examinarse a nivel sistémico en una estrategia europea en la nube, también para optimizar el consumo de energía de la IA;

175.  Destaca que la IA requiere un hardware potente para que se puedan utilizar algoritmos sofisticados, incluida la computación de alto rendimiento y cuántica y el IdC; pide un aumento continuo de la financiación pública y privada específica para soluciones innovadoras que reduzcan el consumo de energía, incluido el diseño ecológico de software; pide la elaboración de normas sobre medición del uso de recursos por parte de la infraestructura digital a nivel de la Unión, basadas en las mejores prácticas; se muestra preocupado por la crisis mundial de los microprocesadores y acoge favorablemente, a este respecto, la propuesta de la Comisión de una Ley de Chips con el fin de reducir la actual dependencia de la Unión de proveedores externos; advierte, no obstante, de los riesgos futuros del exceso de capacidad en el mercado y recomienda que se estudie detenidamente el ciclo de inversión;

176.  Destaca que la infraestructura funcional y rápida para la IA debe basarse en una conectividad digital de alta velocidad justa y segura, lo que requiere el despliegue de la 5G en todas las zonas urbanas para 2030, así como un acceso amplio a redes de banda ancha ultrarrápida y una política del espectro con condiciones de licencia que garanticen la previsibilidad, fomenten las inversiones a largo plazo y no distorsionen la competencia; insta a los Estados miembros a que sigan aplicando la caja de herramientas para la 5G; pide que se ponga en práctica la Directiva de reducción de costes de la banda ancha (40) para facilitar el despliegue de la red; pide a la Comisión que lleve a cabo evaluaciones de impacto ambiental de la 5G; destaca la importancia de luchar contra la propagación de desinformación relacionada con las redes 5G con una estrategia de comunicación de la Unión; señala, a este respecto, que un debate amplio e inclusivo contribuirá en última instancia a generar confianza entre los ciudadanos en cuanto a las acciones encaminadas al desarrollo continuo de las redes móviles;

177.  Pide a la Comisión que establezca calendarios para los Estados miembros, las ciudades, las regiones y la industria, y que mejore los procesos de aprobación administrativa de la 5G; pide que, en las regiones en las que el despliegue sea realizado por el sector público, se pongan a disposición más fondos para llevar la conectividad de alta velocidad a comunidades remotas y contribuir a reducir la brecha digital; pide apoyo para los proyectos de banda ancha y conectividad en el marco financiero plurianual, con un acceso más fácil para las autoridades locales a fin de evitar la infrautilización de los fondos públicos;

178.  Pide a la Comisión que evalúe la interacción entre la IA y la próxima ola de infraestructuras digitales, permitiendo a Europa tomar la delantera en las redes de próxima generación, incluida la 6G;

179.  Pide una estrategia clara para el despliegue de la red de fibra óptica y la implantación de la banda ancha en las zonas rurales, que también es clave para las tecnologías que requieren muchos datos, como la IA; pide, a este respecto, un mayor apoyo al Banco Europeo de Inversiones a los proyectos de conectividad en las zonas rurales;

180.  Subraya que la importante inversión necesaria para el despliegue de la red y un despliegue rápido para lograr los ambiciosos objetivos establecidos por la Brújula Digital requerirá acuerdos de uso compartido de infraestructuras, que también son clave para promover la sostenibilidad y reducir el consumo de energía; recalca que estos esfuerzos se hallan en sus inicios y que es necesario seguir expandiéndolos;

ii. Sostenibilidad

181.  Insta a la Unión a que tome la iniciativa para que las infraestructuras digitales verdes sean neutras desde el punto de vista climático y eficientes desde el punto de vista energético para 2030 de conformidad con los objetivos del Acuerdo de París, y se integren en el programa político del Pacto Verde Europeo, también mediante la evaluación del impacto medioambiental de los despliegues a gran escala de sistemas basados en la IA, teniendo en cuenta el aumento de las necesidades energéticas del desarrollo y el uso de la IA; pide una acción multilateral mundial coordinada para utilizar la IA en la lucha contra el cambio climático y la degradación del medio ambiente y ecológica, así como la pérdida de biodiversidad;

182.  Insta al uso de la IA para controlar el consumo de energía en los municipios y desarrollar medidas de eficiencia energética;

183.  Reconoce la gran cantidad de datos y recursos que necesitan algunas aplicaciones de IA y sus impactos en el medio ambiente; recuerda que, para que la IA europea sea sostenible y respetuosa con el medio ambiente, se deben diseñar, desarrollar y desplegar sistemas de IA encaminados a lograr la neutralidad climática y una economía circular;

184.  Pide a la Comisión que incentive el uso de centros de datos eficientes desde el punto de vista energético que puedan apoyar la neutralidad en carbono;

185.  Recalca que la actual falta de intercambio de información de los centros de datos imposibilita adoptar una acción pública adecuada y tener una visión general comparativa del comportamiento medioambiental de los centros de datos; pide un aumento significativo del número de evaluaciones de impacto ambiental realizadas sobre el desarrollo de la IA; pide que se elaboren requisitos para garantizar que se dispone de pruebas adecuadas para medir la huella medioambiental de las aplicaciones de IA a gran escala; señala la necesidad de normas y directrices claras para las evaluaciones de impacto ambiental de la IA, incluidas evaluaciones del ciclo de vida con múltiples criterios; pide un acceso abierto a los indicadores clave de rendimiento de los centros de datos, la elaboración de normas de la Unión y la creación de etiquetas de la Unión de computación ecológica en la nube;

186.  Pide un plan de economía circular para las tecnologías digitales y la IA, y hace hincapié en que la Unión debe garantizar una cadena sólida de reciclado de las TIC;

187.  Recomienda fomentar el uso de soluciones basadas en IA, de conformidad con la doble transición ecológica y digital en todos los sectores, con el fin de coordinar normas sostenibles para las empresas y de facilitar la supervisión de la eficiencia energética y la recopilación de información sobre las emisiones y los ciclos de vida de los productos;

188.  Pide a la Comisión que ponga en marcha concursos y misiones para soluciones de IA que atajen problemas medioambientales específicos, y que refuerce este componente en Horizonte Europa y el programa Europa Digital; recuerda que los proyectos relacionados con el potencial de la IA para abordar los retos medioambientales deben llevarse a cabo sobre la base de la investigación y la innovación responsables y éticas;

189.  Pide a la Comisión que desarrolle criterios medioambientales y condicione la asignación de presupuesto, financiación y procedimientos de contratación pública de la Unión para la IA a su comportamiento medioambiental y su contribución al bien público;

190.  Pide a la Comisión que fomente las ciudades inteligentes, incluidos los edificios inteligentes, las redes inteligentes, los vehículos conectados, las plataformas de movilidad, los servicios públicos y la logística; apoya el desarrollo de una recopilación común de mejores prácticas para proyectos y aplicaciones; subraya que las ciudades inteligentes requieren una buena cooperación entre los gobiernos estatales y locales, así como entre sus agencias y entidades privadas;

191.  Recalca la necesidad de definir principios para garantizar que puedan integrarse los datos climáticos y de sostenibilidad pertinentes al crear nuevos espacios de datos sobre sostenibilidad;

192.  Pide a la Comisión que coopere con los Estados miembros y el sector privado a la hora de crear y apoyar instalaciones de ensayo en que se puedan probar aplicaciones de IA por lo que respecta a su desempeño en materia de sostenibilidad, y que ofrezca orientaciones sobre cómo mejorar la huella medioambiental de estas aplicaciones; insta a que se adapten de las instalaciones de ensayo existentes para que se centren en casos de uso en la producción circular;

193.  Pide a la Comisión que promueva las infraestructuras de transporte sostenibles que utilicen IA con el fin de reducir la contaminación y fomentar la adaptabilidad a las necesidades de los usuarios;

d) Ecosistema de excelencia

i. Talento

194.  Pide a la Comisión que cree un marco de capacidades en materia de IA para los ciudadanos, basado en el marco de competencias digitales, para brindar a los ciudadanos, los trabajadores y las empresas oportunidades de formación y aprendizaje pertinentes en materia de IA y mejorar el intercambio de conocimientos y mejores prácticas, así como la alfabetización en materia de medios de comunicación y de datos tanto a escala de la Unión como nacional; pide a la Comisión que avance rápidamente en la creación de dicho marco de competencias basándose en los sistemas educativos existentes en materia de IA; recomienda la creación de espacio europeo de datos sobre las capacidades de IA que apoye la formación europea en materia de capacidades a escala sectorial y regional en todos los Estados miembros; recalca que la adquisición y la enseñanza de capacidades digitales y de IA deben resultar accesibles para todas las personas, en particular las mujeres y los grupos vulnerables; insta a la Comisión y a los Estados miembros a que apoyen los cursos gratuitos en línea que mejoran la formación básica en IA;

195.  Insta a que se invierta en investigación para entender mejor las tendencias estructurales relacionadas con la IA en el mercado laboral, incluidas las capacidades para las que existe una mayor demanda o las que pueden escasear en el futuro, con el fin de tener esto en cuenta en los planes de transición de los trabajadores;

196.  Constata con preocupación la falta de medidas dirigidas y sistemáticas en la formación profesional de adultos; pide a la Comisión y a los Estados miembros que desarrollen políticas que incluyan una inversión adecuada en el reciclaje profesional y la mejora de las capacidades de la mano de obra, incluida la transmisión de información a los ciudadanos sobre el funcionamiento de los algoritmos y su impacto en la vida cotidiana; pide que se preste especial atención a quienes hayan perdido su empleo o corran el riesgo de perderlo debido a la transición digital, con el objetivo de prepararlos para trabajar con tecnologías relacionadas con la IA y las TIC; pide a la Comisión que incentive las alianzas multilaterales en materia de capacidades e invierta en ellas para poner a prueba las mejores prácticas; recomienda realizar un seguimiento de la creación de empleos de calidad vinculados con la IA en la Unión;

197.  Destaca que las brechas digitales existentes solo se pueden reducir con medidas específicas e inclusivas tanto para mujeres como para personas de edad avanzada y pide, por tanto, inversiones sustanciales en medidas educativas y de mejora de capacidades específicas a fin de reducir dichas brechas digitales; pide a la Comisión y a los Estados miembros que fomenten una cultura y unas condiciones de trabajo igualitarias entre hombres y mujeres a este respecto;

198.  Pide a la Comisión que promueva la igualdad de género en las empresas que trabajan en actividades relacionadas con la IA y las TIC, también a través de la financiación de proyectos dirigidos por mujeres en el sector digital y la promoción de la participación de un número mínimo de investigadoras en proyectos relacionados con la IA y las TIC;

199.  Recalca la necesidad de abordar la escasez de talento garantizando el crecimiento, la atracción y la retención de los mejores talentos; insta a la Comisión a que persevere en su objetivo de tener 20 000 000 de especialistas en TIC empleados en la Unión; hace hincapié en que, con el fin de retener los mejores talentos en el ámbito de la IA y de evitar la fuga de cerebros, la Unión debe permitir unos salarios competitivos, unas mejores condiciones de trabajo, la cooperación transfronteriza y una infraestructura competitiva;

200.  Hace hincapié en el valor añadido de contar con un marco de la Unión simplificado y racionalizado para atraer talento internacional del sector tecnológico, con el fin de permitir el flujo de talento y la movilidad dentro de la Unión y desde el extranjero, de mejorar al acceso del talento internacional al mercado laboral de la Unión y de atraer trabajadores y estudiantes bajo demanda; recalca que se necesitan nuevas herramientas y legislación innovadoras para ayudar a poner en contacto a los empleadores con posibles trabajadores de TIC, abordar las carencias del mercado laboral y facilitar el reconocimiento de cualificaciones internacionales y capacidades; recomienda crear una plataforma de reserva de talento y de conexión de la Unión que sirva como ventanilla única para el talento internacional que desee solicitar empleo en la Unión, así como para los empleadores que busquen potenciales empleados en el extranjero; pide a la Comisión que amplíe el ámbito de aplicación de la tarjeta azul de la Unión para garantizar que Europa sigue abierta al talento mundial;

201.  Pide a la Comisión que aborde el aumento de la demanda de trabajo a distancia a través de las fronteras de los Estados miembros para permitir a los empleados de la Unión e internacionales trabajar a distancia en un Estado miembro distinto de aquel en el que residen; recomienda, en este contexto, que se lleve a cabo una revisión exhaustiva de las trabas legislativas y de otro tipo al trabajo a distancia, y que estas se aborden en propuestas legislativas posteriores;

202.  Hace hincapié en la necesidad de reforzar la cohesión de la innovación entre las regiones y los Estados miembros de la Unión, ya que el talento puede estar distribuido de manera desigual;

203.  Pide a la Comisión y a los Estados miembros que garanticen la protección adecuada de los derechos y el bienestar de los trabajadores, como la no discriminación, la intimidad, la autonomía y la dignidad humana en el uso de la IA y en la gestión algorítmica, también con respecto a las prácticas de vigilancia indebida; subraya que, a la hora de utilizar la IA en el trabajo, los empleadores deben ser transparentes en cuanto a la forma en que se utiliza y a su influencia en las condiciones laborales, y destaca que los trabajadores deben ser siempre informados y consultados antes de utilizar dispositivos y prácticas basados en la IA; destaca que los algoritmos siempre deben estar sujetos a la supervisión humana y que sus decisiones deben ser responsables, impugnables y, si procede, reversibles; cree que se debe impulsar la formación de los desarrolladores de algoritmos en cuestiones relativas a la ética, la transparencia y la no discriminación;

204.  Pide una estrategia europea para un uso seguro de la IA en lo que respecta a los niños, que esté diseñada para informar a los niños acerca de la interacción con la IA con el fin de protegerlos de los riesgos y los posibles daños;

205.  Pide a los Estados miembros que hagan de las capacidades y la alfabetización digitales un componente de la educación básica y el aprendizaje permanente; pide un sistema educativo en materia de IA de alto rendimiento que fomente la alfabetización, las capacidades y la resiliencia digitales desde una edad temprana, comenzando en la educación primaria; hace hincapié en que el desarrollo de planes de estudios eficaces para la educación digital requiere voluntad política, recursos suficientes e investigación científica; pide a la Comisión que promueva la introducción de cursos de competencias computacionales y de IA en todas las escuelas, universidades e instituciones educativas europeas; recalca que dicho desarrollo de capacidades es necesario en la misma medida en la educación de adultos que en la educación primaria y secundaria; solicita una iniciativa política global y coherente de la Comisión y de los Estados miembros sobre las capacidades y la educación en materia de IA a escala de la Unión, así como una iniciativa legislativa sobre la IA en el lugar de trabajo;

206.  Llama la atención sobre la necesidad de programas universitarios multidisciplinarios que se centren en las capacidades digitales y de IA, también en materia de salud, y de centros de investigación interdisciplinarios; cree que también se debe poner énfasis en itinerarios hacia la educación superior para especializarse en la IA (por ejemplo, másteres y doctorados y estudios a tiempo parcial);

207.  Pide a los Estados miembros que prioricen el desarrollo de métodos de enseñanza y planes de estudios innovadores en los ámbitos de las CTIM y la programación, en particular para reforzar la calidad de las matemáticas y el análisis estadístico con el fin de comprender los algoritmos de IA; pide a la Comisión y a los Estados miembros que promuevan las disciplinas académicas de CTIM para aumentar el número de estudiantes en estos ámbitos; destaca que otras disciplinas que interactúan con las disciplinas de CTIM también serán fundamental para promover las capacidades digitales;

208.  Anima a los Estados miembros a promover la participación de las mujeres en estudios y actividades profesionales relacionados con los ámbitos de las CTIM, las TIC y la IA en aras de la igualdad de género, también mediante la definición de un objetivo para la participación de las mujeres investigadoras en proyectos relacionados con las CTIM y la IA;

209.  Resalta que la educación digital también debe sensibilizar sobre los elementos de la vida cotidiana que podrían verse afectados por el aprendizaje automático, incluidos los motores de recomendación, la publicidad dirigida, los algoritmos de las redes sociales y las ultrafalsificaciones; destaca que la resiliencia digital requiere una educación adicional sobre los medios de comunicación para ayudar a contextualizar nuevas capacidades digitales y de IA, por lo que pide apoyo y respaldo para los cursos nuevos y ya existentes de accesibles de alfabetización en materia de IA para todos los ciudadanos;

210.  Pide medidas para garantizar que todas las instalaciones educativas cuenten con acceso a la banda ancha, así como con una sólida infraestructura de aprendizaje digital; subraya la necesidad de dotar a las universidades europeas y a sus redes de los recursos informáticos adecuados necesarios para formar modelos de IA, que son cada vez más caros; recalca la necesidad de garantizar que los profesores tengan las capacidades y las herramientas de IA necesarias; pide una mayor atención a la formación técnica para los profesores y el desarrollo de herramientas de enseñanza y de aprendizaje innovadoras;

211.  Pide inversiones en iniciativas de capacidades de codificación para jóvenes para fomentar capacidades y cualificaciones de alto nivel en el ámbito de la IA de los jóvenes, incluidas academias de codificación, programas de escuelas de verano y becas específicas para la IA; opina que se deben seguir expandiendo las prácticas «Oportunidad Digital» de la Unión a la formación profesional;

ii. Investigación

212.  Pide que la Unión aumente la inversión en investigación en IA y otras tecnologías clave, como la robótica, la computación cuántica, la microelectrónica, el IdC, la nanotecnología y la impresión 3D; pide a la Comisión que desarrolle y mantenga una hoja de ruta de investigación estratégica europea para la IA que trate los principales retos interdisciplinarios en los que la IA puede ser parte de la solución; subraya que las inversiones deben dirigirse a casos de uso que probablemente aumenten las soluciones sostenibles y el bienestar, y la inclusión en la sociedad;

213.  Anima a todos los Estados miembros a destinar una parte mayor de su PIB a la investigación sobre tecnologías digitales; insta a que se siga reforzando el programa Horizonte Europa, en particular su asociación para la IA, los datos y la robótica y el Consejo Europeo de Innovación; insta a que se amplíe el programa Europa Digital y considera que debe incrementarse la financiación asignada de 7 600 millones de euros;

214.  Recalca la necesidad de priorizar la investigación a escala de la Unión en el ámbito de la IA; pide a la Comisión que simplifique la estructura de la financiación de la investigación, incluidos los requisitos y los procesos para la solicitud de becas; subraya la necesidad de mejorar la calidad y la coherencia de las revisiones de las propuestas y de aumentar la previsibilidad de los instrumentos de financiación y su calendario para apoyar la planificación a largo plazo, utilizando la hoja de ruta europea de la investigación en IA; pide a la Comisión que financie más aplicaciones en el ámbito de la IA combinando diferentes instrumentos, como el Consejo Europeo de Investigación, las acciones Marie Skłodowska-Curie, el Consejo Europeo de Innovación y el Instituto Europeo de Innovación y Tecnología;

215.  Pide a la Comisión y a los Estados miembros que den prioridad a la financiación de la investigación en IA que se centre en una IA sostenible y socialmente responsable, contribuyendo así a encontrar soluciones que protejan y fomenten los derechos fundamentales, y que no financien programas que supongan un riesgo inaceptable para estos derechos, lo que abarca la financiación de sistemas de vigilancia masiva, sistemas de puntuación social y otros sistemas que puedan tener efectos sociales negativos, así como las tecnologías que contribuyan al daño medioambiental;

216.  Anima a que se creen más puestos docentes en materia de IA en las universidades europeas, así como que se establezcan salarios adecuados para la investigación en IA y se proporcionen más fondos públicos para formar y retener adecuadamente a la generación actual y próxima de investigadores y talento y evitar la fuga de cerebros; destaca la necesidad de reducir los obstáculos burocráticos a los que se enfrentan los investigadores universitarios para acceder fácilmente a los fondos y pide a la Comisión que proporcione herramientas para aumentar la interconectividad digital entre universidades dentro de los Estados miembros y entre ellos; insta al desarrollo de redes transversales para la IA en todas las universidades e instituciones de investigación europeas y el sector privado, así como a centros de investigación multidisciplinarios específicos de la IA;

217.  Recomienda que las universidades refuercen la financiación de proyectos de investigación aplicada en los que se tengan en cuenta las dimensiones de la IA;

218.  Pide a la Comisión que mejore la transferencia de conocimientos entre el ámbito de la investigación sobre la IA y la sociedad mediante la creación de redes empresariales y puntos de contacto con profesionales del Derecho y asesores empresariales en la universidad, así como de paneles de ciudadanos y plataformas de ciencia y sociedad, y mediante la implicación del público en la elaboración de los programas de investigación sobre la IA; subraya la importancia de que exista una transición fluida del mundo académico a la industria y el valor añadido de la proximidad entre ambos ámbitos para que los ecosistemas y los centros industriales de la IA tengan éxito y sean dinámicos;

219.  Subraya que, en la Unión, es necesario acelerar las transferencias de conocimientos de la investigación y la ciencia a las aplicaciones de la IA en la industria y el sector público; celebra la creación de una asociación público-privada específica para la IA; pide a la Comisión que cree centros europeos de datos de IA, desarrollados conjuntamente con la industria y la sociedad civil; destaca la importancia de los centros de ensayo para la IA; se refiere en concreto a la Empresa Común de Informática de Alto Rendimiento, la Empresa Común para las Tecnologías Digitales Clave y la Empresa Común para las Redes y los Sistemas Inteligentes;

220.  Pide la creación de centros de referencia para la IA en el marco de Horizonte Europa, que se basen en las redes existentes y futuras de centros regionales de excelencia de IA, con el objetivo de forjar una alianza de organizaciones de investigación europeas fuertes que compartan una hoja de ruta común para apoyar la excelencia de la investigación básica y aplicada, armonizar los esfuerzos nacionales en materia de IA, fomentar la innovación y las inversiones, atraer y retener el talento del ámbito de la IA en Europa, y crear sinergias y economías de escala; considera que el concepto de los centros de referencia para la IA puede atraer a los mejores y más brillantes cerebros del extranjero, así como una importante inversión privada a Europa;

221.  Añade que se debe proporcionar financiación suficiente para los centros de referencia para la IA, en cooperación con otras instituciones de investigación y la industria; destaca los beneficios de unos entornos de pruebas reglamentarios bien delimitados para probar productos, servicios y enfoques de la IA en un entorno real controlado antes de introducirlos en el mercado;

222.  Señala que la designación de los centros europeos de innovación digital en el marco del programa Europa Digital es otro paso importante en la creación de un ecosistema de excelencia de la IA basado en agrupaciones universidad-empresa; critica, sin embargo, que los criterios para su designación sigan siendo ambiguos y que esto haga que difieran en cuanto a sus capacidades y desarrollo, y que no esté clara la interrelación con otros centros digitales designados por el Instituto Europeo de Innovación y Tecnología y los designados en el marco del Horizonte Europa; sugiere, en consecuencia, que se necesitan más coordinación y esfuerzos presupuestarios, así como la creación de una agrupación general de cooperación de centros descentralizados de IA basada en un marco de conocimientos jurídicos especializados, datos, financiación e incentivos a escala de la Unión; celebra las iniciativas de la Comisión para establecer redes de empresas emergentes en toda la Unión y fuera de ella, como Startup Europe y Startup Europe Mediterranean, con el fin de promover las oportunidades de intercambios de ideas, negocios y creación de redes;

223.  Propone que se amplíen y se armonicen las iniciativas existentes, como el Laboratorio europeo de aprendizaje y sistemas inteligentes y la Confederación de laboratorios para la investigación sobre inteligencia artificial en Europa, y proyectos emblemáticos, como HumanE-AI-Net y AI4EU, con el fin de promover objetivos y proyectos de investigación y desarrollo ambiciosos, colaborativos y a escala de la Unión;

e) Ecosistema de confianza

i. La sociedad y la IA

224.  Propone que, en el marco la formación propuesta en materia de IA, la Unión y sus Estados miembros creen campañas de concienciación, que incluyan debates públicos a nivel local, como medio adicional para llegar a los ciudadanos, informarlos y capacitarlos para que comprendan mejor las oportunidades, los riesgos y las repercusiones sociales, jurídicas y éticas de la IA, a fin de seguir contribuyendo a la fiabilidad y la democratización de la IA; expresa su convencimiento de que esto, junto con la creación de un marco jurídico claro y sólido sobre la IA fiable centrada en el ser humano, contribuiría a reducir las preocupaciones de los ciudadanos que pudieran asociarse al uso generalizado de la IA en Europa;

225.  Pide a la Unión que garantice que el desarrollo, el despliegue y el uso de la IA respeten plenamente los principios democráticos y los derechos fundamentales y cumplan el Derecho de manera que puedan combatir los mecanismos de vigilancia y no interfieran indebidamente en las elecciones ni contribuyan a la difusión de desinformación;

226.  Destaca que los gobiernos y las empresas solo deben desplegar y adquirir sistemas de IA fiables que estén diseñados, cuando proceda, para defender los derechos de los trabajadores y promover una educación de calidad y la alfabetización digital, y que no aumenten la brecha de género o la discriminación al impedir la igualdad de oportunidades para todos;

227.  Apoya la modificación de las leyes de protección de los consumidores como otra forma de generar confianza en la IA, por ejemplo, otorgando a los consumidores el derecho a saber si están interactuando con un agente de IA, lo que les permitiría solicitar la revisión humana de las decisiones de la IA, y dándoles medios para combatir la vigilancia comercial o la fijación de precios personalizada;

228.  Subraya que la introducción de determinadas tecnologías de IA en el lugar de trabajo, como las que utilizan los datos de los trabajadores, debe realizarse en consulta con los representantes de los trabajadores y los interlocutores sociales; señala que los trabajadores y sus representantes deben poder solicitar a los empleadores información sobre los datos que se recogen, el lugar en que se almacenan, la forma en que se tratan y las salvaguardias que existen para protegerlos;

229.  Pide a la Unión que garantice que los sistemas de IA reflejen su diversidad cultural y su multilingüismo para evitar los prejuicios y la discriminación; destaca que, para hacer frente al sesgo en los sistemas de IA, es necesario promover la diversidad en los equipos que desarrollan y aplican las aplicaciones específicas de la IA y evalúan sus riesgos; subraya la necesidad de que se utilicen datos desglosados por género para evaluar los algoritmos de IA y de que el análisis de género forme parte de todas las evaluaciones de riesgo de la IA;

230.  Subraya la importancia de una investigación y un seguimiento continuos de los efectos de la IA en diversos aspectos de la sociedad, tanto a escala nacional como de la Unión; propone que Eurostat y otras agencias de la Unión participen en estas actividades;

231.  Destaca que, sobre la base de los resultados del sistema de seguimiento, podría considerarse la posibilidad de crear un fondo europeo de transición para ayudar a gestionar, por ejemplo, la pérdida de puestos de trabajo en sectores vulnerables o en todas las regiones;

ii. Administración electrónica

232.  Pide a los Estados miembros que cumplan la Declaración de Tallin sobre la administración electrónica y establezcan mecanismos para prestar servicios públicos digitales sin fronteras, interoperables, personalizados, fáciles de usar y de extremo a extremo, basados en la IA, a todos los ciudadanos en todos los niveles de la administración pública; opina que el objetivo debe ser establecer el número de personas que utilizan los servicios de administración electrónica basados en la IA en los próximos cinco años, aunque se debe seguir manteniendo la interacción humana; recuerda que los fondos del Mecanismo de Recuperación y Resiliencia y los planes nacionales de recuperación y resiliencia desempeñarán un papel clave a este respecto; pide a los organismos públicos que apoyen y desarrollen la IA en el sector público; acoge con satisfacción la revisión del Reglamento eIDAS (41) y su papel en el impulso de la prestación de servicios públicos digitales; subraya que no se debe dejar a nadie atrás y que se deben seguir ofreciendo alternativas fuera de línea;

233.  Pide a la Comisión que renueve el plan de acción sobre administración electrónica y cree sinergias con el programa Europa Digital para apoyar a las administraciones públicas en la adopción de la IA en consonancia con la estrategia europea de software de código abierto;

234.  Destaca que la administración electrónica desempeña un papel importante en el desarrollo de la economía de los datos y la innovación digital en el mercado único digital; señala que la colaboración y el intercambio de buenas prácticas en todas las administraciones públicas y de manera transfronteriza son vitales para la implantación de la administración electrónica en toda la Unión; pide que se normalicen y simplifiquen los procedimientos de la administración pública para lograr intercambios más eficientes entre los Estados miembros de la Unión y todos los niveles de la administración;

235.  Señala que se necesitan expertos cualificados para el desarrollo de servicios en línea de alta calidad; subraya la necesidad de aumentar las políticas de contratación y formación de los gobiernos para las personas con capacidades digitales y con conocimiento de la IA;

236.  Pide que se acelere la puesta en marcha de la pasarela digital única y que se promueva el desarrollo de plataformas interoperables que ofrezcan servicios transfronterizos en la Unión, al mismo tiempo que se cumplen las normas de seguridad comunes en todos los Estados miembros; recalca que se debe considerar la posible ampliación del conjunto limitado de servicios actualmente incluido en el Reglamento (UE) 2018/1724 (42) relativo a la creación de una pasarela digital única;

237.  Insta a que las plataformas de consulta pública de las instituciones de la Unión y de los Estados miembros aumenten la participación y el acceso a la información digital; recomienda invertir en mejoras para la facilidad de uso y la accesibilidad, por ejemplo, mediante la publicación de resúmenes e información en varias lenguas, así como en la comercialización y las acciones de divulgación específicas para las plataformas digitales de participación pública;

238.  Recomienda intensificar los diálogos interactivos y personales con los ciudadanos de la Unión mediante consultas en línea con los ciudadanos, foros de diálogo con las partes interesadas o funcionalidades digitales para comentar la legislación y las iniciativas de la Unión;

iii. Sanidad electrónica

239.  Pide un diseño centrado en el ser humano y un enfoque empírico para la IA en el ámbito de la salud que se centre en una asistencia sanitaria personalizada, centrada en el paciente, rentable y de gran calidad, desarrollada en estrecha cooperación con los profesionales de la salud y los pacientes, manteniendo la intervención humana en la supervisión y la toma de decisiones; insta a priorizar la financiación, a establecer objetivos estratégicos, a fomentar la cooperación y a adoptar las aplicaciones de la IA en el sector de la saludo, ya que se trata de un sector crítico en el que las oportunidades que ofrece la IA pueden aportar enormes beneficios a la salud y el bienestar de los ciudadanos, siempre y cuando los riesgos inherentes se gestionen de forma adecuada;

240.  Destaca que la adopción de la IA en los entornos sanitarios debe promoverse como una herramienta para ayudar a los profesionales sanitarios y reducir su carga, permitiéndoles así centrarse en sus tareas clínicas, y no como un sustituto de los profesionales sanitarios o como un agente independiente dentro de los sistemas sanitarios; subraya la necesidad de garantizar un nivel de calidad, seguridad y protección en pie de igualdad con los procesos de aprobación reglamentaria de los medicamentos, las vacunas y los productos sanitarios; pide que se establezca un método similar al de los ensayos clínicos para comprobar la idoneidad y supervisar el despliegue de la IA en entornos clínicos; considera que sería beneficioso evaluar qué servicios sanitarios pueden ser automatizados de forma ética y responsable;

241.  Considera que la igualdad de acceso a la asistencia sanitaria como principio debe extenderse a las aplicaciones de la IA relacionadas con la salud, incluidos los sistemas para la detección de enfermedades, la gestión de afecciones crónicas, la prestación de servicios sanitarios y el descubrimiento de fármacos; hace hincapié en la necesidad de adoptar medidas adecuadas para hacer frente a los riesgos para la salud relacionados con la brecha digital, el sesgo algorítmico, la discriminación y la marginación de las personas vulnerables o las minorías culturales, que tienen un acceso limitado a la asistencia sanitaria;

242.  Recuerda la posición del Parlamento de que no se debe permitir que las compañías de seguros o cualquier otro proveedor de servicios con derecho a acceder a la información almacenada en las aplicaciones de sanidad electrónica utilicen esos datos con el fin de discriminar en la fijación de precios;

243.  Expresa su convencimiento de que los proyectos e iniciativas actuales de la Unión, como el programa UEproSalud, los espacios europeos de datos sanitarios y la Plataforma Europea para el Registro de Enfermedades Raras, son pasos en la dirección correcta, ya que permiten a los Estados miembros poner en común los recursos, aumentar la cooperación beneficiosa entre los sistemas sanitarios y permitir el intercambio seguro y protegido de datos de alta calidad para la investigación y la innovación;

244.  Pide el anclaje jurídico y el posicionamiento adecuados de un marco para la IA en la sanidad a escala de la Unión; subraya que muchos niveles de riesgo van evolucionando a medida que pasa el tiempo por medio de los avances de las tecnologías de IA;

245.  Destaca la necesidad de una mayor orientación sobre el tratamiento de los datos sanitarios en virtud del RGPD, con el fin de aprovechar todo el potencial de la IA en beneficio de las personas, respetando al mismo tiempo los derechos fundamentales; pide a la Comisión una armonización más rápida y adecuada de las normas que rigen el tratamiento, incluido el intercambio, el anonimato y la interoperabilidad de los datos sanitarios en todos los Estados miembros;

246.  Pide a la Comisión que promueva la integración de normas éticas en todas las fases del desarrollo, el diseño y el uso de las aplicaciones de IA; subraya la necesidad de promover una mayor investigación sobre los métodos y los sesgos integrados en un sistema de IA entrenado, a fin de evitar conclusiones poco éticas y discriminatorias cuando se aplique a datos de salud humana; recomienda la creación de un código de conducta europeo para el tratamiento de datos sanitarios en plena conformidad con el RGPD;

247.  Pide a la Comisión que estudie la posibilidad de presentar una iniciativa relativa a los neuroderechos, con el objetivo de proteger el cerebro humano contra la injerencia, la manipulación y el control por parte de la neurotecnología impulsada por la IA; anima a la Comisión a que defienda una agenda de neuroderechos a nivel de las Naciones Unidas con el fin de incluir estos derechos en la Declaración Universal de Derechos Humanos, concretamente en lo que respecta a los derechos a la identidad, al libre albedrío, a la privacidad mental, a la igualdad de acceso a los avances en materia de aumento del cerebro y a la protección frente al sesgo algorítmico;

248.  Pide a la Comisión que estudie la posibilidad de establecer un marco jurídico para las consultas médicas en línea;

249.  Destaca la necesidad de adoptar medidas que promuevan la igualdad de acceso a la asistencia sanitaria y mejoren la adopción de soluciones de IA por parte de los proveedores de asistencia sanitaria;

250.  Pide a la Comisión que apoye la creación de un mecanismo de cooperación en este contexto y el funcionamiento de un espacio europeo de datos sanitarios para fomentar la puesta en común de los datos sanitarios y apoyar el desarrollo de los historiales médicos electrónicos de conformidad con las disposiciones legales y reglamentarias aplicables; insta a que se mejore la calidad de los datos disponibles para cada ciudadano de la Unión permitiendo que las herramientas digitales funcionen correctamente (por ejemplo, sobre la base de algoritmos de autoaprendizaje o análisis de macrodatos); recomienda que los datos almacenados de conformidad con el RGPD estén disponibles para investigaciones posteriores, así como para el desarrollo de nuevos fármacos y tratamientos individualizados;

251.  Subraya que la formación de los profesionales de la salud debe incluir competencias digitales y de IA, así como conocimientos sobre la legislación de la Unión en materia de protección de datos y el tratamiento de datos sensibles, incluida la promoción de la anonimización de los datos;

252.  Pide que se formulen orientaciones sobre la aplicabilidad de los marcos de responsabilidad y los regímenes de aprobación armonizados para las aplicaciones médicas basadas en la IA y los medicamentos desarrollados o probados mediante el uso de la IA y el aprendizaje automático; recalca que los daños resultantes de una asignación insuficiente de recursos o de la falta de oferta asistencial por medio de sistemas de recomendación de IA en el sector de la atención sanitaria deben abordarse en cualquier futura reforma reglamentaria; destaca que es necesario establecer mejores prácticas, normas y criterios apropiados para certificar y aprobar las aplicaciones sanitarias en función de los riesgos de responsabilidad que conlleven;

253.  Pide a la Comisión que proporcione y utilice modelos predictivos centrados en las personas para las pandemias, que incluyan la recopilación de diversos conjuntos de datos en tiempo real para fundamentar la toma de decisiones;

f) Estrategia industrial

i. Planificación estratégica e inversiones

254.  Está convencido de que la Unión debería situar la IA y la economía de los datos en el centro de una ambiciosa estrategia industrial, con el objetivo de capacitar a las empresas y los empresarios innovadores para que compitan por las mejores innovaciones tecnológicas y de modelos de negocio en Europa y en el mundo y para reforzar la autonomía estratégica abierta de la Unión, estableciendo al mismo tiempo normas jurídicas, éticas, tecnológicas y de seguridad sólidas para todos los sistemas y componentes de la IA destinados a ser utilizados en el mercado único de la Unión;

255.  Anima a la Comisión a que utilice el análisis de macrodatos basado en la IA para ayudar a realizar pruebas de resistencia para evaluar la resiliencia de las cadenas de valor y cartografiar las dependencias;

256.  Insta a la Comisión a que lleve a cabo un análisis exhaustivo de fortalezas y debilidades para determinar las vulnerabilidades de la Unión, identificar los ámbitos críticos y las dependencias de alto riesgo, establecer expectativas técnicas y económicas realistas con respecto a la IA y evaluar los efectos en todos los sectores de la industria europea; subraya que, con este fin, la Comisión debe cooperar con las partes interesadas pertinentes;

257.  Sugiere que la Unión debería, sobre la base de este análisis, formular y adoptar una estrategia industrial a largo plazo para la IA, con una visión clara para los próximos diez años como ampliación de la Brújula Digital; explica que esta estrategia debe complementarse con un sistema de seguimiento con indicadores clave de rendimiento y actualizaciones anuales; subraya, no obstante, la necesidad de consolidar y racionalizar el gran número de iniciativas individuales que ha puesto en marcha la Comisión para apoyar a la industria de la IA en la Unión, para luego incorporarlas a esta nueva estrategia industrial para la IA;

258.  Pide a la Comisión que estudie la forma de complementar la estrategia industrial global por medio de inversiones públicas específicas; señala, no obstante, que los programas de inversión excesiva y no dirigida para tecnologías complejas pueden, en algunos casos, distorsionar la asignación eficiente del capital y dar lugar a inversiones bloqueadas; destaca, en este contexto, que capacitar a las empresas, los emprendedores y los investigadores para desarrollar y comercializar soluciones tecnológicas de IA basadas en empresas privadas es una parte fundamental de la estrategia industrial de la Unión, en particular a través de la aplicación de unas condiciones de competencia equitativas y la culminación del mercado único digital y de la unión de los mercados de capitales; sugiere que se facilite el acceso a la financiación, especialmente a los instrumentos de financiación de riesgo, en particular para la financiación en fases iniciales; opina que el porcentaje de recursos dedicados a la IA en el marco de InvestEU y del programa Europa Digital debe revisarse y, en su caso, aumentarse significativamente;

259.  Destaca la necesidad de aplicar rápidamente el marco de la Unión recientemente adoptado para el control de las inversiones extranjeras directas (43) y el Reglamento recientemente revisado sobre el régimen de la Unión de control de las exportaciones de productos de doble uso (44); afirma que la IA, así como la robótica y otras infraestructuras digitales, deben considerarse un sector crítico; señala que la protección de los derechos de propiedad intelectual y la salida de tecnologías críticas deben ser objeto de una aplicación más estricta;

260.  Subraya que es crucial que Europa se dote de una infraestructura digital adecuada; acoge con satisfacción iniciativas como la iniciativa europea en materia de procesadores, la recientemente propuesta Ley de Chips y la Empresa Común de Informática de Alto Rendimiento Europea;

ii. Las pymes y las empresas emergentes

261.  Propone que se preste apoyo a escala gubernamental y de la Unión a las empresas emergentes de IA por medio del acceso a capital privado y a trabajadores cualificados, la capacidad de obtener conjuntos de datos de alta calidad para entrenar a los algoritmos y la capacidad de expandirse a través de las fronteras de los Estados miembros; subraya, además, que un instrumento de política pública muy eficaz para apoyar la economía de las empresas emergentes es la aplicación efectiva de la legislación en materia de competencia para evitar los abusos del poder dominante en el mercado y contrarrestar los obstáculos a la entrada en este; subraya, en este sentido, que la Unión debe ampliar sus esfuerzos para ofrecer a las pymes y a las empresas emergentes vías y servicios de desarrollo; opina que esto también podría incluir la introducción de un sistema de facilitadores que ponga en contacto a empresas orientadas a la IA con experiencia con empresas más pequeñas que deseen aplicar la tecnología; pone de relieve que la imposibilidad de las empresas emergentes y los empresarios de costearse equipos jurídicos de gran tamaño a menudo supone una barrera para la entrada en entornos normativos complejos; subraya la necesidad de que las pymes tengan acceso a apoyo jurídico y técnico específico; subraya, asimismo, la necesidad de fomentar asociaciones en las que puedan cooperar las empresas impulsadas por la IA y las que se incorporan al mercado; insta a la Comisión y a los Estados miembros a que proporcionen un mejor asesoramiento y un apoyo más concreto a través de redes, centros digitales, formadores en materia de IA, tutoría empresarial, visitas in situ y consultorios jurídicos; subraya la importancia de los programas de intercambio interpersonal, como Erasmus para Jóvenes Emprendedores, y señala que estos programas deben desarrollarse y fomentarse en mayor medida;

262.  Propone aliviar la carga administrativa para las pymes y las empresas emergentes en el ámbito de la IA, por ejemplo, racionalizando las obligaciones de notificación, información o documentación, y proporcionando orientaciones sobre las normas comunes de Derecho civil procesal que deben adoptarse a escala nacional; pide la rápida aplicación de la pasarela digital única para establecer un portal en línea único de la Unión en diferentes lenguas que contenga todos los procedimientos y trámites necesarios para operar en otro país de la Unión; destaca que todas las ventanillas únicas establecidas a nivel nacional deben ser fácilmente accesibles a través de la pasarela digital única y deben proporcionar información y ofrecer servicios administrativos en los Estados miembros, en particular en lo que respecta a las normas sobre el IVA y la información sobre los requisitos para la prestación de servicios, utilizando una terminología accesible y con plena disponibilidad, con personal de asistencia formado que proporcione un apoyo eficaz y fácil de usar;

263.  Señala que entre las posibles formas en las que los Estados miembros de la Unión pueden apoyar a las pymes y a las empresas emergentes figuran las siguientes: desgravaciones fiscales para la investigación exhaustiva, un mejor acceso a las capacidades informáticas y a conjuntos de datos de alta calidad y apoyo a la exploración tecnológica y a la educación, la formación y el reciclaje profesional en materia de IA para los empleados;

264.  Subraya que las pymes y las empresas emergentes en el ámbito de la IA necesitan un mejor acceso a la contratación pública; insta a la Comisión a que rediseñe los procedimientos de solicitud para las licitaciones públicas y la financiación de programas de la Unión para que las empresas emergentes y las pymes tengan una oportunidad justa de obtener proyectos de contratación pública y subvenciones de investigación y desarrollo; recuerda, en este sentido, los exitosos programas GovTech que han apoyado la participación de las pequeñas empresas en la contratación pública digital; pone de relieve que también deben fomentarse los sistemas de opciones sobre acciones para las empresas emergentes de IA en toda Europa;

iii. Entorno internacional

265.  Señala que la Unión debería dar ejemplo y forjar una sólida alianza tecnológica internacional basada en valores fundamentales, colaborando con socios afines para establecer normas reglamentarias comunes, beneficiarse de las mejores prácticas en los ámbitos de los derechos de la IA, los derechos de privacidad, los flujos de datos y las normas de competencia, y dar respuesta a las vulnerabilidades estratégicas aprovechando los activos de cada uno y poniendo en común los recursos en los ámbitos en los que sea mutuamente beneficioso hacerlo; subraya que la Unión también debe apoyar activamente el refuerzo de la cooperación internacional en materia de IA ética, fiable y centrada en el ser humano en los foros multilaterales y bilaterales pertinentes, por ejemplo, en el marco de las Naciones Unidas, la OCDE, el Consejo de Europa, la Organización Mundial del Comercio, el Foro Económico Mundial y el G-20; acoge con satisfacción, en particular, el establecimiento del Consejo UE-EE. UU. de Comercio y Tecnología, que considera la cooperación en materia de normas de IA como una prioridad clave y sostiene que, habida cuenta de su potencial estratégico, el Consejo de Comercio y Tecnología debe reforzarse mediante una dimensión interparlamentaria, con la participación del Parlamento Europeo y el Congreso de los Estados Unidos;

266.  Sugiere que se establezca también un grupo de trabajo transatlántico específico sobre IA, que incluya a representantes gubernamentales, de las organizaciones de normalización, del sector privado y de la sociedad civil, para trabajar en normas y directrices éticas comunes para la IA; propone la creación de una plataforma a largo plazo para el intercambio en materia de IA y otras cuestiones digitales y comerciales importantes sobre la base del actual Consejo de Comercio y Tecnología, junto con otros socios afines;

267.  Subraya que la Unión debe promover un uso socialmente responsable y ético de la IA y cooperar con los organismos internacionales de normalización para seguir mejorando las normas sobre ética, seguridad, fiabilidad, interoperabilidad y seguridad; acoge con satisfacción las recientes iniciativas de normalización puestas en marcha por agentes como el Comité Técnico Mixto de la Organización Internacional de Normalización y la Comisión Electrotécnica Internacional con el objetivo de armonizar a escala mundial los diferentes códigos de IA; señala, asimismo, que Europa debe promover y desarrollar normas, en particular en los ámbitos de la fabricación inteligente, el Internet de las cosas, la robótica y los análisis de datos; propone que se ofrezca un mejor apoyo a los académicos, la sociedad civil y las pymes para que participen en los foros de normalización;

268.  Apoya la iniciativa de comercio electrónico de la Organización Mundial del Comercio para desarrollar una política inclusiva, de alto nivel, comercialmente significativa, basada en la evidencia y específica para abordar mejor los obstáculos al comercio digital; subraya que el acuerdo debe reflejar también los principios de la buena gobernanza y proporcionar a los Gobiernos la capacidad de contrarrestar el proteccionismo digital, protegiendo y promoviendo al mismo tiempo la confianza de los consumidores y creando un valor real para la economía mundial;

269.  Propone que la Comisión siga abordando las barreras comerciales injustificadas, en particular las barreras no arancelarias o las restricciones de acceso al mercado para las empresas europeas de IA en terceros países; subraya que las políticas comercial, de vecindad y de desarrollo también deberían utilizarse activamente para dar forma al debate internacional sobre la IA y promover los principios éticos europeos en materia de IA;

g) Seguridad

i. La IA y la aplicación de la ley

270.  Subraya la importancia de que los servicios encargados de la aplicación de las leyes tengan la capacidad de determinar y contrarrestar las actividades delictivas con la ayuda de la tecnología de IA;

271.  Subraya la posibilidad de que el uso indebido de la IA en la aplicación de la ley resulte perjudicial, en particular dando lugar a una discriminación automatizada y a un trato ilegal de los ciudadanos, ofreciendo al mismo tiempo pocas vías de recurso; insta a los Estados miembros a que apliquen requisitos de supervisión humana significativos y garanticen vías de recurso para quienes sean objeto de decisiones tomadas por la IA;

272.  Propone que la Unión participe en los enfoques de Derecho indicativo establecidos por el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia, que ha desarrollado herramientas operativas sobre la IA y ha empezado a colaborar con Interpol, sirviendo de foro único para el diálogo y la cooperación sobre IA entre los servicios encargados de la aplicación de las leyes, la industria, el mundo académico y la sociedad civil, en plena conformidad con el acervo de la Unión en materia de protección de datos y privacidad;

273.  Toma nota del papel de Europol en el desarrollo, la formación y la validación de herramientas de IA para luchar contra la delincuencia organizada, el terrorismo y la ciberdelincuencia en colaboración con el Supervisor Europeo de Protección de Datos y en el pleno respeto de los valores fundamentales de la Unión, en particular la no discriminación y la presunción de inocencia;

274.  Pide a la Comisión que refuerce los recursos financieros y humanos del Centro Europeo de Innovación para la Seguridad Interior; acoge con satisfacción los esfuerzos de Eurojust, la Agencia de los Derechos Fundamentales de la Unión Europea y Europol para desarrollar un conjunto de herramientas basadas en principios universales de responsabilidad para el uso de la IA por parte de los profesionales de la justicia y la seguridad interior (el marco AP4AI); pide a la Comisión que dote de un apoyo financiero específico a esta iniciativa para promover las normas de responsabilidad y los valores de la Unión en el ámbito de la IA;

ii. Ciberseguridad

275.  Pide a los Estados miembros que mejoren la cooperación en el ámbito de la ciberseguridad a escala europea para que la Unión y los Estados miembros puedan poner en común los recursos de forma más adecuada, coordinar y racionalizar más eficazmente las políticas nacionales de ciberseguridad, aumentar aún más la creación de capacidades y la sensibilización en materia de ciberseguridad, y proporcionar rápidamente conocimientos y asistencia técnica en materia de ciberseguridad a las pymes, así como a otros sectores más tradicionales;

276.  Anima a la Unión a que asuma el liderazgo a la hora de desarrollar una criptografía fuerte y otras normas de seguridad que hagan posible la confianza en los sistemas de IA y su interoperabilidad; subraya que, para crear una convergencia internacional en el ámbito de la supervisión de los riesgos de las TIC, las normas internacionales existentes deben servir de basarse y tenerse en cuenta todo lo posible;

277.  Propone la introducción de requisitos horizontales de ciberseguridad basados en la legislación vigente y, cuando proceda, en nuevos actos legislativos horizontales, a fin de evitar la fragmentación y garantizar un enfoque coherente en materia de ciberseguridad en todos los grupos de productos; señala que los productos de IA en el mercado único digital que lleven el marcado CE podrían, en el futuro, ser garantía tanto de un alto nivel de seguridad física como de un nivel de resiliencia cibernética adecuado al riesgo y señalar el cumplimiento de la legislación pertinente de la Unión;

278.  Propone a los Estados miembros que incentiven los requisitos de ciberseguridad para los sistemas de IA a través de las políticas de contratación pública, en particular haciendo obligatorios determinados principios éticos, de protección y de seguridad para la adquisición de aplicaciones de IA, en particular en los sectores críticos;

279.  Pide que la Agencia de la Unión Europea para la Ciberseguridad (ENISA) lleve a cabo evaluaciones sectoriales de riesgos en materia de seguridad, comenzando por los sectores, tanto públicos como privados, que se dedican a los usos más sensibles y de mayor riesgo de la IA, y con mayor potencial de impacto negativo en la salud humana, la protección, la seguridad y los derechos fundamentales; subraya que la ENISA, junto con el Centro Europeo de Competencia en Ciberseguridad y la Red de Centros Nacionales de Coordinación, debería evaluar los incidentes de ciberseguridad con el objetivo de detectar las lagunas y las nuevas vulnerabilidades, y asesorar a las instituciones de la Unión de manera oportuna sobre las medidas correctivas adecuadas;

280.  Anima a las empresas que utilizan, desarrollan o despliegan sistemas basados en IA activas en el mercado único digital a que desarrollen una estrategia de ciberseguridad clara y evaluada de forma independiente, basada en su situación individual de riesgo; alienta la inclusión de los sistemas de IA en la modelización de las amenazas y la gestión de los riesgos de seguridad; sugiere que la Comisión, ENISA y las autoridades nacionales apoyen este proceso;

281.  Afirma que los requisitos de ciberseguridad para los productos de IA deben abarcar todo su ciclo de vida; subraya que también debe quedar claro que cada empresa de la cadena de suministro debe desempeñar su papel para contribuir a la creación de productos de IA resilientes; señala que los nuevos requisitos deben basarse en el riesgo asociado al grupo de productos específico y en el grado de influencia en el nivel de riesgo, a fin de evitar cargas desproporcionadas para las pymes y las empresas emergentes;

282.  Propone que las iniciativas existentes en algunos Estados miembros, como el catálogo de criterios de cumplimiento de los servicios en la nube de IA de Alemania o el programa de certificación de la IA de Malta, se tengan en cuenta para el desarrollo de un sistema de certificación a escala de la Unión para una IA fiable;

iii. Ciberdefensa

283.  Insta a los Estados miembros a que lleven a cabo una política activa de ciberdiplomacia europea denunciando y atribuyendo los ciberataques que se produzcan en el extranjero, incluidos los impulsados por la IA, aprovechando al mismo tiempo todo el conjunto de instrumentos de diplomacia de la Unión; acoge con satisfacción que el conjunto de ciberinstrumentos de la Unión incluya la cancelación de la ayuda financiera y sanciones contra aquellos países o representantes que se dediquen a actividades cibernéticas maliciosas o realicen ataques híbridos, incluidas las campañas de desinformación, o que promuevan los ciberdelitos; reconoce que, hasta cierto punto, la ciberdefensa impulsada por la IA es más eficaz si también contiene algunos medios y medidas ofensivos, siempre que su uso sea conforme con el Derecho internacional;

284.  Sugiere, además, que se refuercen las capacidades de ciberseguridad de la Agencia Europea de Defensa, en particular mediante el uso de sistemas basados en IA para apoyar una reacción coordinada y rápida frente a los ciberataques; recomienda que se supervise la aplicación de las políticas de ciberdefensa en cada Estado miembro y se evalúe la asignación de los recursos pertinentes dentro de la Unión;

285.  Destaca la necesidad de analizar el impacto de la IA en la seguridad europea y de formular recomendaciones sobre cómo abordar los nuevos retos en materia de seguridad a escala de la Unión, en cooperación con los Estados miembros, el sector privado, los investigadores, los científicos y la sociedad civil;

286.  Insta a los Estados miembros a que adopten medidas para recompensar el descubrimiento de vulnerabilidades y apoyar las auditorías de productos, sistemas y procesos basados en la IA;

iv. El uso militar de la IA

287.  Señala que todo uso de IA militar debe estar sujeto a estrictos mecanismos de control y supervisión humana, a principios éticos y al pleno respeto de los derechos humanos y el Derecho humanitario internacionales; señala, además, que la Unión debe trabajar con sus socios afines en un marco internacional para la investigación, el desarrollo y el uso seguros de armamento asistido por IA que refuerce el Derecho internacional humanitario, también en el contexto del Derecho aplicable a los conflictos armados; recuerda las normas y los principios internacionales en vigor, como la proporcionalidad, que deben respetarse al desarrollar y utilizar nuevas tecnologías militares;

288.  Señala que las tecnologías basadas en la IA son un componente cada vez más importante de los equipamientos y las estrategias militares; subraya que los usos exclusivamente militares y de seguridad nacional de la IA deben tratarse como estrictamente distintos de los casos de uso civil; recuerda que las cuestiones relacionadas con las tecnologías emergentes en el ámbito militar, en particular las cuestiones relacionadas con la IA, se tratan en el Grupo de Expertos Gubernamentales sobre las tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales, que cuenta con representación de los Estados miembros de la Unión;

289.  Acoge con satisfacción la futura Brújula Estratégica de la Unión, que debe proporcionar un marco y un cierto nivel de ambición para abordar los aspectos de seguridad y defensa de la IA; recuerda que la Cooperación Estructurada Permanente en el marco de la política común de seguridad y defensa y el Fondo Europeo de Defensa permitirán a los Estados miembros y a la Unión mejorar las inversiones, las capacidades y la interoperabilidad en el ámbito de las nuevas tecnologías, incluida la IA;

290.  Afirma que la Unión debe considerar la IA como un componente crucial de la soberanía tecnológica europea;

291.  Concluye que los Estados miembros deberían seguir formando a su personal militar para garantizar que disponga de las competencias digitales necesarias para utilizar la IA en los sistemas de control, operativos y de comunicación; acoge favorablemente el enfoque del Fondo Europeo de Defensa sobre los sistemas de armas autónomos letales y su artículo 10, apartado 6; subraya la importancia del Fondo Europeo de Defensa para apoyar la cooperación transfronteriza entre los países de la Unión en la investigación militar de la IA, el desarrollo de tecnologías de defensa de vanguardia y la construcción de la infraestructura necesaria, a saber, centros de datos con fuertes capacidades cibernéticas;

292.  Pide al Consejo que adopte una posición común sobre los sistemas de armas autónomos que garantice un control humano significativo sobre sus funciones esenciales; insiste en que se pongan en marcha negociaciones a escala internacional para establecer un instrumento jurídicamente vinculante que prohíba los sistemas de armas completamente autónomos; afirma que un acuerdo internacional de este tipo debería determinar que todas las armas letales de IA estén sujetas a una supervisión y un control humanos significativos, de modo que los seres humanos permanezcan informados y, en última instancia, sean responsables de la decisión de seleccionar un objetivo y emprender una acción letal;

293.  Pide una cooperación más estrecha con la OTAN en el ámbito de la ciberdefensa y pide a los aliados de la OTAN que apoyen los esfuerzos multilaterales para regular el uso militar de la IA;

5.Conclusión: es necesario actuar urgentemente

294.  Considera que la transformación digital en curso, en la que la IA desempeña un papel clave, ha desencadenado una competencia mundial por el liderazgo tecnológico; destaca que, hasta la fecha, la Unión se ha quedado rezagada, por lo que las futuras normas tecnológicas corren el riesgo de desarrollarse sin suficientes contribuciones de la Unión, a menudo por parte de agentes no democráticos, lo que supone un reto para la estabilidad política y la competitividad económica; llega a la conclusión de que la Unión debe actuar como un organismo mundial de normalización en materia de IA;

295.  Destaca que la IA, aunque a menudo se presenta como una amenaza imprevisible, puede ser un poderoso instrumento digital y un punto de inflexión en muchos aspectos importantes, por ejemplo, ofreciendo productos y servicios innovadores, aumentando las posibilidades de elección de los consumidores y haciendo que los procesos de producción sean más eficientes; señala que la adopción de tecnologías de IA reporta beneficios y oportunidades claros para el conjunto de la sociedad, en particular en los ámbitos de la asistencia sanitaria, la sostenibilidad, la seguridad y la competitividad; señala que, al mismo tiempo, las tecnologías de IA corren el riesgo de reducir la intervención humana y sustituir la autonomía humana; destaca que tanto los beneficios como los riesgos deben guiar e informar la regulación y la comunicación pública sobre IA;

296.  Destaca que la Unión tiene potencial para configurar el debate internacional sobre la IA y desarrollar reglas y normas comunes líderes a escala mundial, promoviendo un enfoque de la IA centrado en el ser humano, fiable y sostenible, en plena consonancia con los derechos fundamentales; pone de relieve, no obstante, que la oportunidad de consolidar un enfoque europeo tan distintivo de la IA en el panorama internacional requiere una acción rápida, razón por la cual la Unión necesita acordar pronto una estrategia conjunta en materia de IA y un marco regulador equilibrado; subraya que la configuración de normas y estándares tecnológicos internacionales requiere una coordinación y una cooperación más estrechas con socios democráticos afines;

297.  Destaca que, en la actualidad, la Unión aún está lejos de cumplir su aspiración de ser competitiva en el ámbito de la IA a escala mundial; hace hincapié, en este contexto, en la importancia de proporcionar reglas y normas armonizadas, seguridad jurídica y unas condiciones de competencia equitativas para fomentar la adopción de la IA y la innovación, en particular mediante la eliminación de las barreras administrativas innecesarias para las empresas emergentes, las pymes y la sociedad civil; reconoce que un cambio radical de esta magnitud afecta de manera diferente a varios sectores de la sociedad y hace hincapié en que la transición digital debe respetar plenamente los derechos fundamentales; pide a la Comisión, a los Estados miembros y al Parlamento, incluidas sus comisiones competentes, que hagan un seguimiento de las recomendaciones formuladas en la hoja de ruta de la Unión para la IA;

298.  Pide un entorno normativo para la IA que proporcione una gobernanza eficaz y garantice la protección de los derechos fundamentales, facilitando al mismo tiempo un acceso competitivo a los mercados digitales para todos los agentes sea cual sea su tamaño, a fin de promover la innovación y el crecimiento económico en beneficio de todos; subraya que una economía de los datos competitiva, accesible y justa, basada en normas comunes, es un requisito previo para el desarrollo y la formación adecuados de la IA; señala, en este contexto, el riesgo de que la concentración del mercado en la economía de los datos se extienda a la economía de las aplicaciones de IA;

299.  Concluye que para avanzar con respecto a las ambiciones digitales de la Unión en ámbitos como la IA se requiere un grado mucho mayor de integración y armonización en el mercado único digital, a fin de promover el intercambio transfronterizo y garantizar que se apliquen las mismas reglas y normas en toda la Unión; subraya, en este sentido, que las instituciones de la Unión también tienen que luchar contra los abusos de poder en el mercado para igualar las condiciones;

300.  Concluye que deben tomarse las medidas necesarias para garantizar que la transición digital promueva y no obstaculice la transición ecológica; concluye que los sistemas de IA requieren una infraestructura y una conectividad sólidas; subraya que la infraestructura digital en consonancia con el Pacto Verde se dirigirá a todos los sectores y cadenas de valor, y debe seguir los principios de una economía circular; subraya, no obstante, que la IA no será funcional sin el despliegue adecuado de infraestructura digital, incluida la banda ancha, la fibra los nodos de proximidad y la 5G; destaca la importancia de mitigar el aumento del consumo de energía y el uso de recursos para lograr una infraestructura digital climáticamente neutra de aquí a 2030;

301.  Pone de relieve que el rápido progreso tecnológico introducido por la IA también afectará a los medios de subsistencia de todos aquellos que no posean las capacidades para adaptarse lo suficientemente rápido a estas nuevas tecnologías; señala que la mejora de las capacidades y el reciclaje profesional pueden ayudar a abordar muchas de las preocupaciones socioeconómicas resultantes, pero subraya que estas repercusiones también deben abordarse en el contexto de los sistemas de bienestar social, las infraestructuras urbanas y rurales y los procesos democráticos; concluye que, para fomentar la adopción de las innovaciones en materia de IA, aumentar la aceptación de las aplicaciones basadas en la IA y no dejar a nadie atrás, es necesario proporcionar a las personas los medios para adquirir competencias digitales; destaca que, para aumentar la alfabetización y la resiliencia digitales, la educación basada en tecnologías de la información y de las comunicaciones y en ciencias, tecnologías, ingenierías y matemáticas debe comenzar en una etapa temprana y seguir siendo accesible a lo largo de todas las etapas de la vida; considera que las iniciativas destinadas a crear ecosistemas de IA de excelencia, atraer a talentos en el ámbito de IA a la Unión y contrarrestar la fuga de cerebros son de vital importancia;

302.  Destaca la importancia de abordar los retos que plantea la IA a los derechos fundamentales, permitiendo así que la IA se convierta efectivamente en un instrumento al servicio de las personas y la sociedad y que persiga el bien común y el interés general; concluye que, para generar confianza en la IA entre los ciudadanos, sus derechos fundamentales deben protegerse en todos los aspectos de la vida, también en el contexto del uso de la IA en la esfera pública y en el lugar de trabajo; hace hincapié, en particular, en la necesidad de reflejar los derechos, los objetivos y los intereses de las mujeres y las comunidades minoritarias en la transición digital; destaca que los servicios públicos y sus estructuras administrativas deben dar ejemplo; destaca que la Unión debe acelerar la adopción de los sistemas basados en la IA y la administración electrónica para facilitar el uso seguro de la IA en las administraciones públicas; destaca, además, que la IA puede desbloquear nuevas soluciones en el sector sanitario si los riesgos se gestionan adecuadamente y si el principio de acceso equitativo a la asistencia sanitaria se extiende plenamente a las aplicaciones de IA relacionadas con la salud;

303.  Concluye que la estrategia de la Unión en materia de IA no debe pasar por alto las consideraciones y preocupaciones militares y de seguridad que surgen con el despliegue global de las tecnologías de IA; subraya que es necesario intensificar la cooperación internacional con socios afines para proteger los derechos fundamentales y, al mismo tiempo, cooperar para minimizar las nuevas amenazas tecnológicas;

304.  Encarga a su presidenta que transmita la presente Resolución al Consejo y a la Comisión.

——————————————–

(1)          DO L 123 de 12.5.2016, p. 1.

(2)          DO C 132 de 24.3.2022, p. 102.

(3)          Textos Aprobados, P9_TA(2021)0504.

(4)          DO L 119 de 4.5.2016, p. 1.

(5)          DO L 166 de 11.5.2021, p. 1.

(6)          DO L 170 de 12.5.2021, p. 1.

(7)          DO L 303 de 28.11.2018, p. 59.

(8)          DO L 170 de 12.5.2021, p. 149.

(9)          DO L 136 de 22.5.2019, p. 1.

(10)       DO L 256 de 19.7.2021, p. 3.

(11)       DO C 288 de 31.8.2017, p. 1.

(12)       DO C 252 de 18.7.2018, p. 239.

(13)       DO C 307 de 30.8.2018, p. 163.

(14)       DO C 132 de 24.3.2022, p. 45.

(15)       DO C 433 de 23.12.2019, p. 86.

(16)       DO C 449 de 23.12.2020, p. 37.

(17)       DO C 294 de 23.7.2021, p. 14.

(18)       DO C 404 de 6.10.2021, p. 107.

(19)       DO C 404 de 6.10.2021, p. 129.

(20)       DO C 404 de 6.10.2021, p. 63.

(21)       DO C 456 de 10.11.2021, p. 34.

(22)       DO C 15 de 12.1.2022, p. 204.

(23)       DO C 494 de 8.12.2021, p. 37.

(24)       DO C 15 de 12.1.2022, p. 28.

(25)       DO C 132 de 24.3.2022, p. 17.

(26)       Roberts, M., Driggs, D., Thorpe, M. y otros: «Common pitfall and recommendations for use machines learning to detected and prognosticate for COVID-19 using chest radiographs and CT scans», Nature Machine Intelligence, 3, pp. 199-217, 15 de marzo de 2021.

(27)       Estudio de DG IPOL, «Opportunities of Artificial Intelligence» (Oportunidades de la inteligencia artificial), junio de 2020.

(28)       Documento de trabajo de AIDA, «Artificial Intelligence and the Green Deal» (Inteligencia artificial y el Pacto Verde), marzo de 2021.

(29)       Comunicación de la Comisión, de 18 de noviembre de 2021, titulada «Una política de competencia adaptada a los nuevos retos» (COM(2021)0713).

(30)       Acemoglu, D. y otros: AI and Jobs: Evidence from Online Vacancies, Oficina Nacional de Investigación Económica, diciembre de 2020.

(31)       Comunicación de la Comisión, de 9 de marzo de 2021, titulada «Brújula Digital 2030: el enfoque de Europa para el Decenio Digital» (COM(2021)0118).

(32)       Comisión Europea, Plan coordinado sobre la inteligencia artificial (COM(2018)0795).

(33)       Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206).

(34)       Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones – Fomentar un planteamiento europeo en materia de inteligencia artificial (COM(2021)0205).

(35)       Datos correspondientes a 2018.

(36)       Koerner, K.: (How) will the EU become an AI superstar? [(¿Cómo) se convertirá la UE en una superestrella de la IA?] Deutsche Bank, marzo de 2020.

(37)       DO L 316 de 14.11.2012, p. 12.

(38)       Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(39)       Directiva (UE) 2019/1024 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativa a los datos abiertos y la reutilización de la información del sector público (DO L 172 de 26.6.2019, p. 56).

(40)       Directiva 2014/61/UE del Parlamento Europeo y del Consejo, de 15 de mayo de 2014, relativa a medidas para reducir el coste del despliegue de las redes de comunicaciones electrónicas de alta velocidad (DO L 155 de 23.5.2014, p. 1).

(41)       Reglamento (UE) n.º 910/2014 del Parlamento Europeo y del Consejo de 23 de julio de 2014 relativo a la identificación electrónica y los servicios de confianza para las transacciones electrónicas en el mercado interior y por el que se deroga la Directiva 1999/93/CE (DO L 257 de 28.8.2014, p. 73).

(42)       DO L 295 de 21.11.2018, p. 1.

(43)       DO L 79 I de 21.3.2019, p. 1.

(44)       DO L 206 de 11.6.2021, p. 1.

20Ene/24

Recomendación de la UNESCO, de noviembre de 2021

RECOMENDACIÓN SOBRE LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL

PREÁMBULO

La Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París del 9 al 24 de noviembre de 2021, en su 41ª reunión,

Reconociendo las repercusiones positivas y negativas profundas y dinámicas de la inteligencia artificial (IA) en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, en particular en la mente humana, debido en parte a las nuevas formas en que su utilización influye en el pensamiento, las interacciones y la adopción de decisiones de los seres humanos y afecta a la educación, las ciencias sociales y humanas, las ciencias exactas y naturales, la cultura y la comunicación y la información,

Recordando que, con arreglo a su Constitución, la UNESCO se propone contribuir a la paz y a la seguridad estrechando, mediante la educación, la ciencia, la cultura y la comunicación y la información, la colaboración entre las naciones, a fin de asegurar el respeto universal a la justicia, a la ley, a los derechos humanos y a las libertades fundamentales que se reconocen a todos los pueblos del mundo,

Convencida de que la Recomendación que aquí se presenta, en su calidad de instrumento normativo elaborado mediante un enfoque mundial, basado en el derecho internacional y centrado en la dignidad humana y los derechos humanos, así como en la igualdad de género, la justicia social y económica y el desarrollo, el bienestar físico y mental, la diversidad, la interconexión, la inclusión y la protección del medio ambiente y de los ecosistemas, puede dar una orientación responsable a las tecnologías de la IA,

Guiada por los propósitos y principios de la Carta de las Naciones Unidas,

Considerando que las tecnologías de la IA pueden ser de gran utilidad para la humanidad y que todos los países pueden beneficiarse de ellas, pero que también suscitan preocupaciones éticas fundamentales, por ejemplo, en relación con los sesgos que pueden incorporar y exacerbar, lo que puede llegar a provocar discriminación, desigualdad, brechas digitales y exclusión y suponer una amenaza para la diversidad cultural, social y biológica, así como generar divisiones sociales o económicas; la necesidad de transparencia e inteligibilidad del funcionamiento de los algoritmos y los datos con los que han sido entrenados; y su posible impacto en, entre otros, la dignidad humana, los derechos humanos y las libertades fundamentales, la igualdad de género, la democracia, los procesos sociales, económicos, políticos y culturales, las prácticas científicas y de ingeniería, el bienestar animal y el medio ambiente y los ecosistemas,

Reconociendo también que las tecnologías de la IA pueden agravar las divisiones y desigualdades existentes en el mundo, dentro de los países y entre ellos, y que es preciso defender la justicia, la confianza y la equidad para que ningún país y ninguna persona se queden atrás, ya sea mediante el acceso equitativo a las tecnologías de la IA y el disfrute de los beneficios que aportan o mediante la protección contra sus consecuencias negativas, reconociendo al mismo tiempo las diferentes circunstancias de los distintos países y respetando el deseo de algunas personas de no participar en todos los avances tecnológicos,

Consciente de que todos los países se enfrentan a una aceleración del uso de las tecnologías de la información y la comunicación y las tecnologías de la IA, así como a una necesidad cada vez mayor de alfabetización mediática e informacional, y de que la economía digital presenta importantes desafíos sociales, económicos y ambientales y ofrece oportunidades de compartir los beneficios, especialmente para los países de ingreso mediano bajo, incluidos, entre otros, los países menos adelantados (PMA), los países en desarrollo sin litoral (PDSL) y los pequeños Estados insulares en desarrollo (PEID), que requieren el reconocimiento, la protección y la promoción de las culturas, los valores y los conocimientos endógenos a fin de desarrollar economías digitales sostenibles,

Reconociendo además que las tecnologías de la IA pueden ser beneficiosas para el medio ambiente y los ecosistemas y que, para que esos beneficios se materialicen, no deberían pasarse por alto, sino tenerse en cuenta, los posibles daños y las repercusiones negativas que pueden ocasionar en el medio ambiente y los ecosistemas,

Observando que el hecho de tener en cuenta los riesgos y las preocupaciones éticas no debería obstaculizar la innovación y el desarrollo, sino más bien ofrecer nuevas oportunidades y estimular una investigación y una innovación realizadas de manera ética que afiancen las tecnologías de la IA en los derechos humanos y las libertades fundamentales, los valores, los principios y la reflexión moral y ética,

Recordando también que en noviembre de 2019 aprobó, en su 40ª reunión, la resolución 40 C/37, en la que encargó a la Directora General que “[preparara] un instrumento normativo internacional sobre la ética de la inteligencia artificial (IA) en forma de recomendación”, que se le presentaría en su 41ª reunión en 2021,

Reconociendo que el desarrollo de las tecnologías de la IA requiere un incremento proporcional de la educación en materia de datos y de la alfabetización mediática e informacional, así como el acceso a fuentes de información independientes, pluralistas y fidedignas, en particular en el marco de los esfuerzos destinados a atenuar los riesgos de información errónea, desinformación y discurso de odio, así como los daños causados por el uso indebido de los datos personales,

Observando también que el marco normativo para las tecnologías de la IA y sus implicaciones sociales se fundamenta en los marcos jurídicos internacionales y nacionales, los derechos humanos y las libertades fundamentales, la ética, la necesidad de acceder a los datos, la información y los conocimientos, la libertad de investigación e innovación y el bienestar de los seres humanos, del medio ambiente y de los ecosistemas, y conecta los valores y principios éticos con los retos y oportunidades vinculados a las tecnologías de la IA, sobre la base de un entendimiento común y unos objetivos compartidos,

Reconociendo también que los valores y principios éticos pueden ayudar a elaborar y aplicar medidas de política y normas jurídicas basadas en los derechos, proporcionando orientación con miras al rápido desarrollo tecnológico,

Convencida también de que las normas éticas aceptadas mundialmente para las tecnologías de la IA, que respetan plenamente el derecho internacional, en particular el derecho de los derechos humanos, pueden desempeñar una función esencial en la elaboración de normas relacionadas con la IA en todo el mundo,

Teniendo presentes la Declaración Universal de Derechos Humanos (1948), los instrumentos del marco internacional de derechos humanos, entre ellos la Convención sobre el Estatuto de los Refugiados (1951), el Convenio sobre la Discriminación (Empleo y Ocupación) (1958), la Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial (1965), el Pacto Internacional de Derechos Civiles y Políticos (1966), el Pacto Internacional de Derechos Económicos, Sociales y Culturales (1966), la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (1979), la Convención sobre los Derechos del Niño (1989), la Convención sobre los Derechos de las Personas con Discapacidad (2006), la Convención relativa a la Lucha contra las Discriminaciones en la Esfera de la Enseñanza (1960) y la Convención sobre la Protección y Promoción de la Diversidad de las Expresiones Culturales (2005), así como cualesquiera otros instrumentos, recomendaciones y declaraciones internacionales pertinentes,

Tomando nota de la Declaración sobre el Derecho al Desarrollo (1986); de la Declaración sobre las Responsabilidades de las Generaciones Actuales para con las Generaciones Futuras (1997); de la Declaración Universal sobre Bioética y Derechos Humanos (2005); de la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (2007); de la resolución de la Asamblea General de las Naciones Unidas sobre el examen de la Cumbre Mundial sobre la Sociedad de la Información (A/RES/70/125) (2015); de la resolución de la Asamblea General de las Naciones Unidas titulada “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible” (A/RES/70/1) (2015); de la Recomendación relativa a la Preservación del Patrimonio Documental, comprendido el Patrimonio Digital, y el Acceso al mismo (2015); de la Declaración de Principios Éticos en relación con el Cambio Climático (2017); de la Recomendación sobre la Ciencia y los Investigadores Científicos (2017); de los indicadores sobre la universalidad de Internet (aprobados en 2018 por el Programa Internacional para el Desarrollo de la Comunicación de la UNESCO), incluidos los principios ROAM (aprobados por la Conferencia General de la UNESCO en 2015); de la resolución del Consejo de Derechos Humanos sobre “El derecho a la privacidad en la era digital” (A/HRC/RES/42/15) (2019); y de la resolución del Consejo de Derechos Humanos titulada “Las tecnologías digitales nuevas y emergentes y los derechos humanos” (A/HRC/RES/41/11) (2019),

Haciendo hincapié en que debe prestarse atención específica a los países de ingreso mediano bajo, incluidos, entre otros, los PMA, los PDSL y los PEID, ya que, aunque tienen su propia capacidad, han estado insuficientemente representados en el debate sobre la ética de la IA, lo que suscita la preocupación de que se descuiden los conocimientos locales, el pluralismo cultural, los sistemas de valores y las exigencias de equidad mundial para gestionar las repercusiones positivas y negativas de las tecnologías de la IA,

Consciente también de que existen numerosas políticas en el plano nacional, así como otros marcos e iniciativas elaborados por las entidades pertinentes de las Naciones Unidas, por organizaciones intergubernamentales, incluidas organizaciones regionales, así como las del sector privado, y por organizaciones profesionales, organizaciones no gubernamentales y de la comunidad científica, relacionados con la ética y la regulación de las tecnologías de la IA,

Convencida además de que las tecnologías de la IA pueden aportar importantes beneficios, pero que su consecución también puede hacer aumentar la tensión en lo que respecta a la innovación, el acceso asimétrico a los conocimientos y las tecnologías, en particular la insuficiente educación digital y cívica que limita la capacidad del público para participar en los temas relacionados con la IA, así como las barreras al acceso a la información y las brechas en cuanto a las capacidades humanas e institucionales, los obstáculos al acceso a la innovación tecnológica y la falta de infraestructura física y digital y de marcos reguladores adecuados, en particular los relativos a los datos, problemas todos ellos que deben ser abordados,

Subrayando que es necesario fortalecer la cooperación y la solidaridad mundiales, en particular mediante el multilateralismo, para facilitar el acceso equitativo a las tecnologías de la IA y hacer frente a los desafíos que estas plantean en culturas y sistemas éticos diversos e interconectados, para reducir la posibilidad de usos indebidos, para aprovechar todo el potencial que la IA puede aportar, especialmente en el ámbito del desarrollo, y para garantizar que las estrategias nacionales en materia de IA se guíen por principios éticos,

Teniendo plenamente en cuenta que el rápido desarrollo de las tecnologías de la IA complica su aplicación y gobernanza éticas, así como el respeto y la protección de la diversidad cultural, y puede perturbar las normas y los valores éticos locales y regionales,

1. Aprueba, en este día veintitrés de noviembre de dos mil veintiuno, la presente Recomendación sobre la Ética de la Inteligencia Artificial;

2. Recomienda que los Estados Miembros apliquen, de manera voluntaria, las disposiciones de la presente Recomendación mediante la adopción de las medidas adecuadas, en particular las medidas legislativas o de otra índole que puedan ser necesarias, de acuerdo con la práctica constitucional y las estructuras de gobierno de cada Estado, con el fin de dar efecto en sus respectivas jurisdicciones a los principios y normas enunciados en la Recomendación, de conformidad con el derecho internacional, incluido el derecho internacional de los derechos humanos;

3. Recomienda también a los Estados Miembros que hagan partícipes a todas las partes interesadas, incluidas las empresas, para asegurarse de que desempeñan sus respectivas funciones en la aplicación de la presente Recomendación y que señalen la Recomendación a la atención de las autoridades, organismos, organizaciones universitarias y de investigación, instituciones y organizaciones de los sectores público, privado y de la sociedad civil que participan en las tecnologías de la IA, para que el desarrollo y la utilización de esas tecnologías se guíen tanto por una investigación científica sólida como por un análisis y una evaluación éticos.

I. ÁMBITO DE APLICACIÓN

1. La presente Recomendación trata de las cuestiones éticas relacionadas con el ámbito de la inteligencia artificial en la medida en que competen al mandato de la UNESCO. Aborda la ética de la IA como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación y la orientación normativas de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños y apoyándose en la ética de la ciencia y la tecnología.

2. La presente Recomendación no pretende proporcionar una única definición de la IA, ya que tal definición tendría que cambiar con el tiempo en función de los avances tecnológicos. Su objetivo es más bien abordar las características de los sistemas de IA que tienen una importancia ética central. Por tanto, la presente Recomendación considera los sistemas de IA sistemas capaces de procesar datos e información de una manera que se asemeja a un comportamiento inteligente, y abarca generalmente aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control. Tres elementos ocupan un lugar central en este enfoque:

a) los sistemas de IA son tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diferentes grados de autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones. Pueden incluir varios métodos, como, por ejemplo, aunque no exclusivamente:

i) el aprendizaje automático, incluido el aprendizaje profundo y el aprendizaje de refuerzo;

ii) el razonamiento automático, incluidas la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización.

Los sistemas de IA pueden utilizarse en los sistemas ciberfísicos, incluidos la Internet de las cosas, los sistemas robóticos, la robótica social y las interfaces entre seres humanos y ordenadores, que comportan el control, la percepción, el procesamiento de los datos recogidos por sensores y el funcionamiento de los actuadores en el entorno en que operan los sistemas de IA;                         

b) las cuestiones éticas relativas a los sistemas de IA atañen a todas las etapas del ciclo de vida de estos sistemas, que aquí se entiende que van desde la investigación, la concepción y el desarrollo hasta el despliegue y la utilización, pasando por el mantenimiento, el funcionamiento, la comercialización, la financiación, el seguimiento y la evaluación, la validación, el fin de la utilización, el desmontaje y la terminación. Además, los actores de la IA pueden definirse como todo actor que participe en al menos una etapa del ciclo de vida del sistema de IA y pueden ser tanto personas físicas como jurídicas, por ejemplo, investigadores, programadores, ingenieros, especialistas en datos, usuarios finales, empresas, universidades y entidades públicas y privadas, entre otros;

c) los sistemas de IA plantean nuevos tipos de cuestiones éticas que incluyen, aunque no exclusivamente, su impacto en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación. Además, surgen nuevos desafíos éticos por el potencial de los algoritmos de la IA para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos. Algunas de estas cuestiones tienen que ver con la capacidad de los sistemas de IA para realizar tareas que antes solo podían hacer los seres vivos y que, en algunos casos, incluso se limitaban solo a los seres humanos. Estas características otorgan a los sistemas de IA una función nueva y determinante en las prácticas y la sociedad humanas, así como en su relación con el medio ambiente y los ecosistemas, creando un nuevo contexto para que los niños y los jóvenes crezcan, desarrollen una comprensión del mundo y de sí mismos, comprendan críticamente los medios de comunicación y la información y aprendan a tomar decisiones. A largo plazo, los sistemas de IA podrían disputar al ser humano el sentido especial de la experiencia y la capacidad de actuar que le son propios, lo que plantearía nuevas inquietudes sobre la autocomprensión, la interacción social, cultural y ambiental, la autonomía, la capacidad de actuar, el valor y la dignidad del ser humano, entre otras.

3. En la presente Recomendación se presta especial atención a las repercusiones éticas más amplias de los sistemas de IA en las principales esferas de competencia de la UNESCO ―la educación, la ciencia, la cultura y la comunicación y la información―, examinadas en el estudio preliminar sobre la ética de la inteligencia artificial elaborado en 2019 por la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO:

a) la educación, porque vivir en sociedades en proceso de digitalización exige nuevas prácticas educativas, una reflexión ética, un pensamiento crítico, prácticas de concepción responsables y nuevas competencias, dadas las implicaciones para el mercado laboral, la empleabilidad y la participación cívica;

b) la ciencia, en el sentido más amplio, que abarca todos los ámbitos académicos desde las ciencias exactas y naturales y las ciencias médicas hasta las ciencias sociales y humanas, ya que las tecnologías de la IA aportan nuevas capacidades y enfoques de investigación, influyen en nuestra concepción de la comprensión y la explicación científicas y crean una nueva base para la adopción de decisiones;

c) la identidad y la diversidad culturales, ya que las tecnologías de la IA pueden enriquecer las industrias culturales y creativas, pero también pueden dar lugar a una mayor concentración de la oferta de contenidos, los datos, los mercados y los ingresos de la cultura en manos de unos pocos actores, lo que puede tener consecuencias negativas para la diversidad y el pluralismo de las lenguas, los medios de comunicación, las expresiones culturales, la participación y la igualdad;

d) la comunicación y la información, ya que las tecnologías de la IA desempeñan una función cada vez más importante en el procesamiento, la estructuración y el suministro de información; las cuestiones del periodismo automatizado y del suministro algorítmico de noticias y la moderación y la conservación de contenidos en los medios sociales y los buscadores son solo algunos ejemplos que plantean cuestiones relacionadas con el acceso a la información, la desinformación, la información errónea, el discurso de odio, la aparición de nuevas formas de narrativa social, la discriminación, la libertad de expresión, la privacidad y la alfabetización mediática e informacional, entre otras.

4. La presente Recomendación se dirige a los Estados Miembros, tanto en su calidad de actores de la IA como de autoridades responsables de la elaboración de marcos jurídicos y reguladores a lo largo de todo el ciclo de vida de los sistemas de IA, así como de la promoción de la responsabilidad empresarial. También proporciona orientación ética a todos los actores de la IA, incluidos los sectores público y privado, al sentar las bases para una evaluación del impacto ético de los sistemas de IA a lo largo de su ciclo de vida.

II. FINES Y OBJETIVOS

5. La presente Recomendación tiene por objeto servir de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, así como para prevenir daños. Aspira también a estimular la utilización de los sistemas de IA con fines pacíficos.

6. Además de los marcos éticos relativos a la IA existentes en todo el mundo, la presente Recomendación pretende aportar un instrumento normativo aceptado mundialmente que no solo se centre en la articulación de valores y principios, sino también en su aplicación práctica, mediante recomendaciones de política concretas, haciendo especial hincapié en la inclusión, las cuestiones de igualdad de género y la protección del medio ambiente y los ecosistemas.

7. Dado que la complejidad de las cuestiones éticas que rodean a la IA exige la cooperación de múltiples partes interesadas en los diversos niveles y sectores de las comunidades internacionales, regionales y nacionales, la presente Recomendación tiene por objeto permitir que las partes interesadas asuman una responsabilidad compartida basada en un diálogo mundial e intercultural.

8. Los objetivos de la presente Recomendación son los siguientes:

a) proporcionar un marco universal de valores, principios y acciones para orientar a los Estados en la formulación de sus leyes, políticas u otros instrumentos relativos a la IA, de conformidad con el derecho internacional;

b) orientar las acciones de las personas, los grupos, las comunidades, las instituciones y las empresas del sector privado a fin de asegurar la incorporación de la ética en todas las etapas del ciclo de vida de los sistemas de IA;

c) proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana y la igualdad, incluida la igualdad de género; salvaguardar los intereses de las generaciones presentes y futuras; preservar el medio ambiente, la biodiversidad y los ecosistemas; y respetar la diversidad cultural en todas las etapas del ciclo de vida de los sistemas de IA;

d) fomentar el diálogo multidisciplinario y pluralista entre múltiples partes interesadas y la concertación sobre cuestiones éticas relacionadas con los sistemas de IA;

e) promover el acceso equitativo a los avances y los conocimientos en el ámbito de la IA y el aprovechamiento compartido de los beneficios, prestando especial atención a las necesidades y contribuciones de los países de ingreso mediano bajo, incluidos los PMA, los PDSL y los PEID.

III. VALORES Y PRINCIPIOS

9. Los valores y principios que figuran a continuación deberían ser respetados por todos los actores durante el ciclo de vida de los sistemas de IA, en primer lugar, y, cuando resulte necesario y conveniente, ser promovidos mediante modificaciones de las leyes, los reglamentos y las directrices empresariales existentes y la elaboración de otros nuevos. Todo ello debe ajustarse al derecho internacional, en particular la Carta de las Naciones Unidas y las obligaciones de los Estados Miembros en materia de derechos humanos, y estar en consonancia con los objetivos de sostenibilidad social, política, ambiental, educativa, científica y económica acordados internacionalmente, como los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

10. Los valores desempeñan una importante función como ideales que motivan la orientación de las medidas de política y las normas jurídicas. Mientras que el conjunto de valores que se enuncian a continuación inspira, por tanto, un comportamiento deseable y representa los fundamentos de los principios, los principios, por su parte, revelan los valores subyacentes de manera más concreta, de modo que estos últimos puedan aplicarse más fácilmente en las declaraciones de política y las acciones.

11. Si bien todos los valores y principios que se enuncian a continuación son deseables en sí mismos, en cualquier contexto práctico, puede haber tensiones entre ellos. En cualquier situación, será necesaria una evaluación del contexto para gestionar estas posibles tensiones, teniendo en cuenta el principio de proporcionalidad y de conformidad con los derechos humanos y las libertades fundamentales. En todos los casos, toda posible limitación de los derechos humanos y las libertades fundamentales ha de tener una base jurídica y ser razonable, necesaria y proporcional, así como conforme a las obligaciones de los Estados con arreglo al derecho internacional. Para elegir de manera juiciosa entre esas posibilidades, será necesario por lo general colaborar con una amplia gama de partes interesadas apropiadas, haciendo uso del diálogo social, así como de la deliberación ética, la diligencia debida y la evaluación del impacto.

12. La fiabilidad y la integridad del ciclo de vida de los sistemas de IA son esenciales para velar por que las tecnologías de la IA estén al servicio del bien de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, y encarnen los valores y principios enunciados en la presente Recomendación. Las personas deberían tener buenas razones para confiar en que los sistemas de IA pueden aportar beneficios individuales y compartidos, al tiempo que se adoptan medidas adecuadas para atenuar los riesgos. Un requisito esencial para la fiabilidad es que, a lo largo de su ciclo de vida, los sistemas de IA estén sujetos a un seguimiento exhaustivo por las partes interesadas pertinentes, según corresponda. Dado que la fiabilidad resulta de la aplicación de los principios expuestos en este documento, todas las medidas políticas propuestas en la presente Recomendación están dirigidas a promover la fiabilidad en todas las etapas del ciclo de vida de los sistemas de IA.

III. 1 VALORES

Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana

13. La dignidad inviolable e intrínseca de cada ser humano constituye la base del sistema universal, indivisible, inalienable, interdependiente e interrelacionado de derechos humanos y libertades fundamentales. Por consiguiente, el respeto, la protección y la promoción de la dignidad humana y de los derechos establecidos por el derecho internacional, en particular el derecho internacional de los derechos humanos, son esenciales a lo largo del ciclo de vida de los sistemas de IA. La dignidad humana tiene que ver con el reconocimiento del valor intrínseco e igual de cada ser humano, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

14. Ningún ser humano ni comunidad humana debería sufrir daños o sometimiento, ya sean de carácter físico, económico, social, político, cultural o mental, durante ninguna etapa del ciclo de vida de los sistemas de IA. A lo largo de su ciclo de vida, los sistemas de IA deberían mejorar la calidad de vida de los seres humanos, dejando a las personas o los grupos la tarea de definir el concepto de “calidad de vida”, siempre que como resultado de esa definición no se produzca ninguna violación o abuso de los derechos humanos y las libertades fundamentales ni de la dignidad de las personas.

15. Las personas pueden interactuar con los sistemas de IA a lo largo de su ciclo de vida y recibir su asistencia, por ejemplo, para el cuidado de las personas vulnerables o en situación de vulnerabilidad, incluidos, entre otros, los niños, las personas de edad, las personas con discapacidad o los enfermos. En el marco de esas interacciones, las personas nunca deberían ser cosificadas, su dignidad no debería ser menoscabada de ninguna otra manera, y sus derechos humanos y libertades fundamentales nunca deberían ser objeto de violación o abusos.

16. Los derechos humanos y las libertades fundamentales han de ser respetados, protegidos y promovidos a lo largo del ciclo de vida de los sistemas de IA. Los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnicas y las universidades deben respetar los instrumentos y marcos de derechos humanos en sus intervenciones en los procesos que rodean el ciclo de vida de los sistemas de IA. Es necesario que las nuevas tecnologías proporcionen nuevos medios para promover, defender y ejercer los derechos humanos, y no para vulnerarlos.

Prosperidad del medio ambiente y los ecosistemas

17. La prosperidad del medio ambiente y los ecosistemas debería ser reconocida, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Además, el medio ambiente y los ecosistemas son una necesidad existencial para que la humanidad y los demás seres vivos puedan disfrutar de los beneficios derivados de los avances de la IA.

18. Todos los actores que participan en el ciclo de vida de los sistemas de IA deben respetar el derecho internacional y las leyes, normas y prácticas nacionales aplicables, como la precaución, concebidas para la protección y la restauración del medio ambiente y los ecosistemas y para el desarrollo sostenible. Deberían reducir el impacto ambiental de los sistemas de IA, en particular, aunque no exclusivamente, su huella de carbono, para asegurar la minimización del cambio climático y los factores de riesgo ambiental, y prevenir la explotación, la utilización y la transformación no sostenibles de los recursos naturales que contribuyen al deterioro del medio ambiente y a la degradación de los ecosistemas.

Garantizar la diversidad y la inclusión

19. El respeto, la protección y la promoción de la diversidad y la inclusión deberían garantizarse a lo largo del ciclo de vida de los sistemas de IA, de conformidad con el derecho internacional, en particular el derecho de los derechos humanos. Para ello se podría promover la participación activa de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

20. La diversidad de las elecciones de estilo de vida, creencias, opiniones, expresiones o experiencias personales, incluida la utilización opcional de sistemas de IA y la concepción conjunta de estas arquitecturas, no debería restringirse durante ninguna etapa del ciclo de vida de dichos sistemas.

21. Además, habría que esforzarse, principalmente mediante la cooperación internacional, por paliar la falta de infraestructura, educación y competencias tecnológicas necesarias, así como de marcos jurídicos, que afecta a algunas comunidades, en particular en los países de ingreso mediano bajo, los PMA, los PDSL y los PEID, y no aprovecharse nunca de esa situación.

Vivir en sociedades pacíficas, justas e interconectadas

22. Los actores de la IA deberían propiciar sociedades pacíficas y justas, sobre la base de un futuro interconectado en beneficio de todos, compatibles con los derechos humanos y las libertades fundamentales, y participar en su construcción. El valor de vivir en sociedades pacíficas y justas apunta al potencial de los sistemas de IA para contribuir a lo largo de su ciclo de vida a la interconexión de todas las criaturas vivas entre sí y con el medio natural.

23. La noción de interconexión de los seres humanos se basa en el conocimiento de que cada uno de ellos pertenece a un todo más amplio, que prospera cuando todas las partes que lo constituyen pueden progresar. Vivir en sociedades pacíficas, justas e interconectadas requiere un vínculo orgánico, inmediato y no calculado de solidaridad, caracterizado por una búsqueda permanente de relaciones pacíficas, tendentes al cuidado de los demás y del medio natural en el sentido más amplio del término.

24. Este valor exige que se promuevan la paz, la inclusión y la justicia, la equidad y la interconexión durante el ciclo de vida de los sistemas de IA, en la medida en que los procesos de dicho ciclo de vida no deberían segregar ni cosificar a los seres humanos y las comunidades ni mermar su libertad, su autonomía de decisión y su seguridad, así como tampoco dividir y enfrentar entre sí a las personas y los grupos ni amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio natural.

III. 2 PRINCIPIOS

Proporcionalidad e inocuidad

25. Debería reconocerse que las tecnologías de la IA no garantizan necesariamente, por sí mismas, la prosperidad de los seres humanos ni del medio ambiente y los ecosistemas. Además, ninguno de los procesos relacionados con el ciclo de vida de los sistemas de IA podrá ir más allá de lo necesario para lograr propósitos u objetivos legítimos, y esos procesos deberían ser adecuados al contexto. En caso de que pueda producirse cualquier daño para los seres humanos, los derechos humanos y las libertades fundamentales, las comunidades y la sociedad en general, o para el medio ambiente y los ecosistemas, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca.

26. La decisión de utilizar sistemas de IA y la elección del método de IA deberían justificarse de las siguientes maneras:

a) el método de IA elegido debería ser adecuado y proporcional para lograr un objetivo legítimo determinado;

b) el método de IA elegido no debería vulnerar los valores fundamentales enunciados en el presente documento, en particular, su utilización no debe constituir una violación o un abuso de los derechos humanos; y

c) el método de IA elegido debería ser adecuado al contexto y basarse en fundamentos científicos rigurosos. En los casos en que se entienda que las decisiones tienen un impacto irreversible o difícil de revertir o que pueden implicar decisiones de vida o muerte, la decisión final debería ser adoptada por un ser humano. En particular, los sistemas de IA no deberían utilizarse con fines de calificación social o vigilancia masiva.

Seguridad y protección

27. Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y deberían tenerse en cuenta, prevenirse y eliminarse a lo largo del ciclo de vida de los sistemas de IA para garantizar la seguridad y la protección de los seres humanos, del medio ambiente y de los ecosistemas. La seguridad y la protección de la IA se propiciarán mediante el desarrollo de marcos de acceso a los datos que sean sostenibles, respeten la privacidad y fomenten un mejor entrenamiento y validación de los modelos de IA que utilicen datos de calidad.

Equidad y no discriminación

28. Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, de conformidad con el derecho internacional. Ello supone adoptar un enfoque inclusivo para garantizar que los beneficios de las tecnologías de la IA estén disponibles y sean accesibles para todos, teniendo en cuenta las necesidades específicas de los diferentes grupos de edad, los sistemas culturales, los diferentes grupos lingüísticos, las personas con discapacidad, las niñas y las mujeres y las personas desfavorecidas, marginadas y vulnerables o en situación de vulnerabilidad. Los Estados Miembros deberían esforzarse por promover un acceso inclusivo para todos, incluidas las comunidades locales, a sistemas de IA con contenidos y servicios adaptados al contexto local, y respetando el multilingüismo y la diversidad cultural. Los Estados Miembros deberían esforzarse por reducir las brechas digitales y garantizar el acceso inclusivo al desarrollo de la IA y la participación en él. En el plano nacional, los Estados Miembros deberían promover la equidad entre las zonas rurales y urbanas y entre todas las personas, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo, en lo que respecta al acceso al ciclo de vida de los sistemas de IA y la participación en él. En el plano internacional, los países más avanzados tecnológicamente tienen la responsabilidad de ser solidarios con los menos avanzados para garantizar que los beneficios de las tecnologías de la IA se compartan de manera que, para estos últimos, el acceso al ciclo de vida de los sistemas de IA y la participación en él contribuyan a un orden mundial más equitativo en lo que respecta a la información, la comunicación, la cultura, la educación, la investigación y la estabilidad socioeconómica y política.

29. Los actores de la IA deberían hacer todo lo razonablemente posible por reducir al mínimo y evitar reforzar o perpetuar aplicaciones y resultados discriminatorios o sesgados a lo largo del ciclo de vida de los sistemas de IA, a fin de garantizar la equidad de dichos sistemas. Debería disponerse de un recurso efectivo contra la discriminación y la determinación algorítmica sesgada.

30. Además, es necesario abordar las brechas digital y de conocimientos dentro de los países y entre ellos a lo largo del ciclo de vida de los sistemas de IA, en particular en lo que respecta al acceso y la calidad del acceso a la tecnología y los datos, de conformidad con los marcos jurídicos nacionales, regionales e internacionales pertinentes, así como en lo referente a la conectividad, los conocimientos y las competencias y a la participación significativa de las comunidades afectadas, de manera que todas las personas sean tratadas equitativamente.

Sostenibilidad

31. El desarrollo de sociedades sostenibles depende del logro de un complejo conjunto de objetivos relacionados con distintas dimensiones humanas, sociales, culturales, económicas y ambientales. La llegada de las tecnologías de la IA puede beneficiar los objetivos de sostenibilidad o dificultar su consecución, dependiendo de la forma en que se apliquen en países con diferentes niveles de desarrollo. Por consiguiente, la evaluación continua de los efectos humanos, sociales, culturales, económicos y ambientales de las tecnologías de la IA debería llevarse a cabo con pleno conocimiento de las repercusiones de dichas tecnologías en la sostenibilidad como un conjunto de metas en constante evolución en toda una serie de dimensiones, como las que se definen actualmente en los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

Derecho a la intimidad y protección de datos

32. La privacidad, que constituye un derecho esencial para la protección de la dignidad, la autonomía y la capacidad de actuar de los seres humanos, debe ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Es importante que los datos para los sistemas de IA se recopilen, utilicen, compartan, archiven y supriman de forma coherente con el derecho internacional y acorde con los valores y principios enunciados en la presente Recomendación, respetando al mismo tiempo los marcos jurídicos nacionales, regionales e internacionales pertinentes.

33. Deberían establecerse en los planos nacional o internacional, de acuerdo con un enfoque de múltiples partes interesadas, marcos de protección de datos y mecanismos de gobernanza adecuados, protegidos por los sistemas judiciales y aplicados a lo largo del ciclo de vida de los sistemas de IA. Los marcos de protección de datos y todo mecanismo conexo deberían tomar como referencia los principios y normas internacionales de protección de datos relativos a la recopilación, la utilización y la divulgación de datos personales y al ejercicio de sus derechos por parte de los interesados, garantizando al mismo tiempo un objetivo legítimo y una base jurídica válida para el tratamiento de los datos personales, incluido el consentimiento informado.

34. Los sistemas algorítmicos requieren evaluaciones adecuadas del impacto en la privacidad, que incluyan también consideraciones sociales y éticas de su utilización y un empleo innovador del enfoque de privacidad desde la etapa de concepción. Los actores de la IA deben asumir la responsabilidad de la concepción y la aplicación de los sistemas de IA de manera que se garantice la protección de la información personal durante todo el ciclo de vida del sistema de IA.

Supervisión y decisión humanas

35. Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recurso relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes. La supervisión humana se refiere, por tanto, no solo a la supervisión humana individual, sino también a la supervisión pública inclusiva, según corresponda.

36. Puede ocurrir que, en algunas ocasiones, los seres humanos decidan depender de los sistemas de IA por razones de eficacia, pero la decisión de ceder el control en contextos limitados seguirá recayendo en los seres humanos, ya que estos pueden recurrir a los sistemas de IA en la adopción de decisiones y en la ejecución de tareas, pero un sistema de IA nunca podrá reemplazar la responsabilidad final de los seres humanos y su obligación de rendir cuentas. Por regla general, las decisiones de vida o muerte no deberían cederse a los sistemas de IA.

Transparencia y explicabilidad

37. La transparencia y la explicabilidad de los sistemas de IA suelen ser condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos. La transparencia es necesaria para que los regímenes nacionales e internacionales pertinentes en materia de responsabilidad funcionen eficazmente. La falta de transparencia también podría mermar la posibilidad de impugnar eficazmente las decisiones basadas en resultados producidos por los sistemas de IA y, por lo tanto, podría vulnerar el derecho a un juicio imparcial y a un recurso efectivo, y limita los ámbitos en los que estos sistemas pueden utilizarse legalmente.

38. Si bien hay que hacer todo lo posible por aumentar la transparencia y la explicabilidad de los sistemas de IA, incluidos los que tienen un efecto extraterritorial, a lo largo de su ciclo de vida para respaldar la gobernanza democrática, el grado de transparencia y explicabilidad debería ser siempre adecuado al contexto y al efecto, ya que puede ser necesario encontrar un equilibrio entre la transparencia y la explicabilidad y otros principios como la privacidad, la seguridad y la protección. Las personas deberían estar plenamente informadas cuando una decisión se basa en algoritmos de IA o se toma a partir de ellos, en particular cuando afecta a su seguridad o a sus derechos humanos; en esas circunstancias, deberían tener la oportunidad de solicitar explicaciones e información al actor de la IA o a las instituciones del sector público correspondientes. Además, las personas deberían poder conocer los motivos por los que se ha tomado una decisión que afecta a sus derechos y libertades y tener la posibilidad de presentar alegaciones a un miembro del personal de la empresa del sector privado o de la institución del sector público habilitado para revisar y enmendar la decisión. Los actores de la IA deberían informar a los usuarios cuando un producto o servicio se proporcione directamente o con la ayuda de sistemas de IA de manera adecuada y oportuna.

39. Desde un punto de vista sociotécnico, una mayor transparencia contribuye a crear sociedades más pacíficas, justas, democráticas e inclusivas. Posibilita un escrutinio público que puede reducir la corrupción y la discriminación, y también puede ayudar a detectar y prevenir los efectos negativos sobre los derechos humanos. La transparencia tiene como objetivo proporcionar información adecuada a los respectivos destinatarios para permitir su comprensión y fomentar la confianza. En el caso específico de los sistemas de IA, la transparencia puede permitir a las personas comprender cómo se implementa cada etapa de un sistema de IA, en función del contexto y la sensibilidad del sistema en cuestión. También puede proporcionar información sobre los factores que influyen en una predicción o decisión específicas, y sobre la existencia o no de garantías adecuadas (como medidas de seguridad o de equidad). En los casos de amenazas graves con repercusiones adversas para los derechos humanos, la transparencia puede requerir también que se compartan códigos o conjuntos de datos.

40. La explicabilidad supone hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos. La explicabilidad de los sistemas de IA también se refiere a la inteligibilidad de la entrada, salida y funcionamiento de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas. Así pues, la explicabilidad está estrechamente relacionada con la transparencia, ya que los resultados y los subprocesos que conducen a ellos deberían aspirar a ser comprensibles y trazables, apropiados al contexto. Los actores de la IA deberían comprometerse a velar por que los algoritmos desarrollados sean explicables. En el caso de las aplicaciones de IA cuyo impacto en el usuario final no es temporal, fácilmente reversible o de bajo riesgo, debería garantizarse que se proporcione una explicación satisfactoria con toda decisión que haya dado lugar a la acción tomada, a fin de que el resultado se considere transparente.

41. La transparencia y la explicabilidad están estrechamente relacionadas con las medidas adecuadas de responsabilidad y rendición de cuentas, así como con la fiabilidad de los sistemas de IA.

Responsabilidad y rendición de cuentas

42. Los actores de la IA y los Estados Miembros deberían respetar, proteger y promover los derechos humanos y las libertades fundamentales, y deberían también fomentar la protección del medio ambiente y los ecosistemas, asumiendo su responsabilidad ética y jurídica respectiva, de conformidad con el derecho nacional e internacional, en particular las obligaciones de los Estados Miembros en materia de derechos humanos, y con las directrices éticas establecidas durante todo el ciclo de vida de los sistemas de IA, incluso con respecto a los actores de la IA dentro de su territorio y bajo su control efectivos. La responsabilidad ética y la obligación de rendir cuentas de las decisiones y las acciones basadas de alguna manera en un sistema de IA siempre deberían ser atribuibles, en última instancia, a los actores de la IA conforme a la función que tengan en el ciclo de vida del sistema de IA.

43. Deberían elaborarse mecanismos adecuados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluso en lo que se refiere a la protección de los denunciantes de irregularidades, para garantizar la rendición de cuentas respecto de los sistemas de IA y de su impacto a lo largo de su ciclo de vida. Dispositivos tanto técnicos como institucionales deberían garantizar la auditabilidad y la trazabilidad (del funcionamiento) de los sistemas de IA, en particular para intentar solucionar cualquier conflicto con las normas relativas a los derechos humanos y las amenazas al bienestar del medio ambiente y los ecosistemas.

Sensibilización y educación

44. La sensibilización y la comprensión del público respecto de las tecnologías de la IA y el valor de los datos deberían promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación en materia de ética de la IA, la alfabetización mediática e informacional y la capacitación dirigida conjuntamente por los gobiernos, las organizaciones intergubernamentales, la sociedad civil, las universidades, los medios de comunicación, los dirigentes comunitarios y el sector privado, y teniendo en cuenta la diversidad lingüística, social y cultural existente, a fin de garantizar una participación pública efectiva, de modo que todos los miembros de la sociedad puedan adoptar decisiones informadas sobre su utilización de los sistemas de IA y estén protegidos de influencias indebidas.

45. El aprendizaje sobre el impacto de los sistemas de IA debería incluir el aprendizaje sobre los derechos humanos y las libertades fundamentales, a través de ellos y para ellos, lo que significa que el enfoque y la comprensión de los sistemas de IA deberían basarse en el impacto de estos sistemas en los derechos humanos y el acceso a esos derechos, así como en el medio ambiente y los ecosistemas.

Gobernanza y colaboración adaptativas y de múltiples partes interesadas

46. En la utilización de datos deben respetarse el derecho internacional y la soberanía nacional. Esto significa que los Estados, en cumplimiento del derecho internacional, pueden regular los datos generados dentro de sus territorios o que pasan por ellos y adoptar medidas para la regulación efectiva de los datos, en particular su protección, sobre la base del respeto del derecho a la privacidad, de conformidad con el derecho internacional y otras normas relativas a los derechos humanos.

47. La participación de las diferentes partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para garantizar enfoques inclusivos de la gobernanza de la IA, de modo que los beneficios puedan ser compartidos por todos, y para contribuir al desarrollo sostenible. Entre las partes interesadas figuran, entre otros, los gobiernos, las organizaciones intergubernamentales, la comunidad técnica, la sociedad civil, los investigadores y los círculos universitarios, los medios de comunicación, los responsables de la educación, los encargados de formular políticas, las empresas del sector privado, las instituciones de derechos humanos y los organismos de fomento de la igualdad, los órganos de vigilancia de la lucha contra la discriminación y los grupos de jóvenes y niños. Convendría adoptar normas abiertas y garantizar la interoperabilidad para facilitar la colaboración. Deberían adoptarse medidas para tener en cuenta los cambios en las tecnologías y la aparición de nuevos grupos de partes interesadas y para permitir una participación significativa de las personas, las comunidades y los grupos marginados y, si procede, en el caso de los pueblos indígenas, el respeto de su autonomía en la gestión de sus datos.  

IV. ÁMBITOS DE ACCIÓN POLÍTICA

48. Las acciones políticas que se describen en los siguientes ámbitos de actuación ponen en práctica los valores y principios enunciados en la presente Recomendación. La principal acción consiste en que los Estados Miembros establezcan medidas eficaces, por ejemplo marcos o mecanismos normativos, y velen por que otras partes interesadas, como las empresas del sector privado, las instituciones universitarias y de investigación y la sociedad civil, se adhieran a ellas, sobre todo alentando a todas las partes interesadas a que elaboren instrumentos de evaluación del impacto en los derechos humanos, el estado de derecho, la democracia y la ética, así como instrumentos de diligencia debida, de conformidad con las orientaciones, incluidos los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. El proceso de elaboración de esas políticas o mecanismos debería incluir a todas las partes interesadas y tener en cuenta las circunstancias y prioridades de cada Estado Miembro.

La UNESCO puede ser un asociado y apoyar a los Estados Miembros en la elaboración, así como en el seguimiento y la evaluación, de los mecanismos de política.

49. La UNESCO reconoce que los Estados Miembros se encontrarán en diferentes estadios de preparación para aplicar la presente Recomendación, desde los puntos de vista científico, tecnológico, económico, educativo, jurídico, regulador, de infraestructura, social y cultural, entre otros. Cabe señalar que, aquí, el “estadio de preparación” es un estado dinámico. Por consiguiente, a fin de posibilitar la aplicación efectiva de la presente Recomendación, la UNESCO:

1) elaborará una metodología de evaluación del estadio de preparación para ayudar a los Estados Miembros interesados a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones; y

2) garantizará el apoyo a los Estados Miembros interesados en lo que respecta a la elaboración de una metodología de la UNESCO para la evaluación del impacto ético de las tecnologías de la IA y el intercambio de mejores prácticas, directrices de evaluación y otros mecanismos y trabajo analítico.

ÁMBITO DE ACTUACIÓN 1: EVALUACIÓN DEL IMPACTO ÉTICO

50. Los Estados Miembros deberían establecer marcos de evaluación del impacto, como evaluaciones del impacto ético, para determinar y analizar los beneficios, los problemas y los riesgos de los sistemas de IA, así como medidas adecuadas de prevención, atenuación y seguimiento de los riesgos, entre otros mecanismos de garantía. Esas evaluaciones del impacto deberían revelar las repercusiones en los derechos humanos y las libertades fundamentales, en particular, aunque no exclusivamente, los derechos de las personas marginadas y vulnerables o en situación de vulnerabilidad, los derechos laborales, el medio ambiente y los ecosistemas, así como las consecuencias éticas y sociales, y facilitar la participación ciudadana, de conformidad con los valores y principios enunciados en la presente Recomendación.

51. Los Estados Miembros y las empresas del sector privado deberían desarrollar mecanismos de diligencia debida y supervisión para determinar, prevenir y atenuar los riesgos y rendir cuentas de la forma en que abordan el impacto de los sistemas de IA en el respeto de los derechos humanos, el estado de derecho y las sociedades inclusivas. Los Estados Miembros deberían también poder evaluar los efectos socioeconómicos de los sistemas de IA en la pobreza y velar por que la brecha entre los ricos y los pobres, así como la brecha digital entre los países y dentro de ellos, no aumenten con la adopción masiva de tecnologías de la IA en la actualidad y en el futuro. Para ello, en particular, deberían aplicarse protocolos de transparencia ejecutables, que correspondan al acceso a la información, incluida la información de interés público en poder de entidades privadas. Los Estados Miembros, las empresas del sector privado y la sociedad civil deberían investigar los efectos sociológicos y psicológicos de las recomendaciones basadas en la IA sobre los seres humanos en lo que respecta a su autonomía de decisión. Los sistemas de IA considerados riesgos potenciales para los derechos humanos deberían ser ampliamente probados por los actores de la IA, incluso en condiciones reales si es necesario, en el marco de la evaluación del impacto ético, antes de sacarlos al mercado.

52. Los Estados Miembros y las empresas deberían aplicar medidas adecuadas para vigilar todas las etapas del ciclo de vida de los sistemas de IA en el marco de la evaluación del impacto ético, incluidos el funcionamiento de los algoritmos utilizados para la adopción de decisiones, los datos y los actores de la IA que participan en el proceso, especialmente en los servicios públicos y en los casos en que se necesita una interacción directa con el usuario final. Las obligaciones de los Estados Miembros en materia de derechos humanos deberían formar parte de los aspectos éticos de las evaluaciones de los sistemas de IA.

53. Los gobiernos deberían adoptar un marco regulador que establezca un procedimiento para que las autoridades públicas, en particular, lleven a cabo evaluaciones del impacto ético de los sistemas de IA a fin de anticipar las repercusiones, atenuar los riesgos, evitar las consecuencias perjudiciales, facilitar la participación de los ciudadanos y hacer frente a los desafíos sociales. La evaluación también debería establecer mecanismos de supervisión adecuados, como la auditabilidad, la trazabilidad y la explicabilidad, que permitan evaluar los algoritmos, los datos y los procesos de concepción, así como incluir un examen externo de los sistemas de IA. Las evaluaciones del impacto ético deberían ser transparentes y abiertas al público, cuando proceda. También deberían ser multidisciplinarias, multiculturales, pluralistas e inclusivas y contar con múltiples partes interesadas. Se debería exigir a las autoridades públicas que supervisen los sistemas de IA que hayan implantado o desplegado, mediante la introducción de mecanismos e instrumentos adecuados.

ÁMBITO DE ACTUACIÓN 2: GOBERNANZA Y ADMINISTRACIÓN ÉTICAS

54. Los Estados Miembros deberían velar por que los mecanismos de gobernanza de la IA sean inclusivos, transparentes, multidisciplinarios y multilaterales (lo que incluye la posibilidad de atenuar y reparar daños más allá de las fronteras) y cuenten con múltiples partes interesadas. En particular, la gobernanza debería incluir aspectos de previsión y dispositivos eficaces de protección, seguimiento de los efectos, aplicación y reparación.

55. Los Estados Miembros deberían velar por que se investiguen y reparen los daños causados mediante sistemas de IA, estableciendo mecanismos de aplicación estrictos y medidas correctivas, a fin de asegurarse de que los derechos humanos, las libertades fundamentales y el estado de derecho son respetados en el mundo digital y en el mundo físico. Entre esos mecanismos y medidas deberían figurar mecanismos de reparación aportados por empresas de los sectores público y privado. Con ese fin, debería promoverse la auditabilidad y la trazabilidad de los sistemas de IA. Además, los Estados Miembros deberían reforzar sus capacidades institucionales para cumplir con este compromiso y deberían colaborar con investigadores y otras partes interesadas para investigar, prevenir y minimizar todo uso potencialmente malicioso de los sistemas de IA.

56. Se alienta a los Estados Miembros a que elaboren estrategias nacionales y regionales en materia de IA y consideren la posibilidad de adoptar formas de gobernanza “blanda”, por ejemplo, un mecanismo de certificación para los sistemas de IA y el reconocimiento mutuo de su certificación, con arreglo a la sensibilidad del ámbito de aplicación y al impacto previsto en los derechos humanos, el medio ambiente y los ecosistemas, así como otras consideraciones éticas establecidas en la presente Recomendación. Dicho mecanismo podría incluir diferentes niveles de auditoría de los sistemas, los datos y el cumplimiento de las directrices éticas y de los requisitos de procedimiento teniendo en cuenta los aspectos éticos. Al mismo tiempo, no debería obstaculizar la innovación ni poner en situación de desventaja a las pequeñas y medianas empresas o las empresas incipientes, la sociedad civil y las organizaciones científicas y de investigación como resultado de una carga administrativa excesiva. Ese mecanismo también debería incluir un componente de seguimiento periódico para garantizar la solidez del sistema de IA y el mantenimiento de su integridad y su cumplimiento de las directrices éticas durante todo su ciclo de vida, exigiendo una nueva certificación si fuera necesario.

57. Los Estados Miembros y las autoridades públicas deberían realizar una autoevaluación transparente de los sistemas de IA existentes y propuestos, en la cual se debería analizar, en particular, si la adopción de la IA es apropiada y, en caso afirmativo, realizar una nueva evaluación para establecer cuál es el método adecuado, así como una evaluación para determinar si dicha adopción daría lugar a violaciones o abusos de las obligaciones de los Estados Miembros en materia de derechos humanos y, si así fuera, prohibir su utilización.

58. Los Estados Miembros deberían alentar a las entidades públicas, las empresas del sector privado y las organizaciones de la sociedad civil a que incorporen a diferentes partes interesadas a su gobernanza en materia de IA y consideren la posibilidad de añadir una función de responsable independiente de la ética de la IA o algún otro mecanismo para supervisar las actividades relacionadas con la evaluación del impacto ético, las auditorías y el seguimiento continuo, así como para garantizar la orientación ética de los sistemas de IA. Se alienta a los Estados Miembros, las empresas del sector privado y las organizaciones de la sociedad civil a que, con el respaldo de la UNESCO, creen una red de responsables independientes de la ética de la IA para apoyar este proceso en los planos nacional, regional e internacional.

59. Los Estados Miembros deberían fomentar el desarrollo y la accesibilidad de un ecosistema digital para el desarrollo ético e inclusivo de los sistemas de IA en el plano nacional, en particular con miras a reducir las diferencias de acceso durante el ciclo de vida de los sistemas de IA, contribuyendo al mismo tiempo a la colaboración internacional. Ese ecosistema incluiría, en particular, tecnologías e infraestructuras digitales y mecanismos para compartir los conocimientos en materia de IA, según proceda.

60. Los Estados Miembros deberían establecer mecanismos, en colaboración con las organizaciones internacionales, las empresas transnacionales, las instituciones universitarias y la sociedad civil, para garantizar la participación activa de todos los Estados Miembros, especialmente los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, en los debates internacionales sobre la gobernanza de la IA. Esto puede hacerse mediante la provisión de fondos, garantizando la participación regional en condiciones de igualdad, o mediante cualquier otro mecanismo. Además, para velar por que los foros sobre la IA sean inclusivos, los Estados Miembros deberían facilitar los desplazamientos de los actores de la IA dentro y fuera de su territorio, especialmente los de los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, para que puedan participar en esos foros.

61. Las modificaciones de la legislación nacional existente o la elaboración de una nueva legislación nacional en materia de sistemas de IA deben ajustarse a las obligaciones de los Estados Miembros en materia de derechos humanos y promover los derechos humanos y las libertades fundamentales a lo largo del ciclo de vida de esos sistemas. La promoción de los derechos humanos y las libertades fundamentales también debería adoptar la forma de iniciativas de gobernanza, buenos ejemplos de prácticas de colaboración en relación con los sistemas de IA y directrices técnicas y metodológicas nacionales e internacionales a medida que avancen las tecnologías de la IA. En sus prácticas relativas a los sistemas de IA, diversos sectores, incluido el privado, deben respetar, proteger y promover los derechos humanos y las libertades fundamentales utilizando los instrumentos existentes y nuevos en combinación con la presente Recomendación.

62. Los Estados Miembros que adquieran sistemas de IA para casos de utilización sensible en materia de derechos humanos, como la aplicación de la ley, la asistencia social, el empleo, los medios de comunicación y los proveedores de información, la atención de la salud y el sistema judicial independiente, deberían prever mecanismos para vigilar el impacto social y económico de dichos sistemas mediante autoridades de supervisión adecuadas, como autoridades independientes de protección de datos, una supervisión sectorial y organismos públicos encargados de la supervisión.

63. Los Estados Miembros deberían reforzar la capacidad del poder judicial para adoptar decisiones relacionadas con los sistemas de IA en el marco del estado de derecho y de conformidad con el derecho y las normas internacionales, en particular en lo que respecta a la utilización de los sistemas de IA en sus deliberaciones, velando al mismo tiempo por que se respete el principio de la supervisión humana. En caso de que los sistemas de IA sean utilizados por el poder judicial, se necesitan suficientes salvaguardias para garantizar, entre otras cosas, la protección de los derechos humanos fundamentales, el estado de derecho, la independencia judicial y el principio de supervisión humana, así como para asegurar un desarrollo y una utilización de los sistemas de IA en el poder judicial que sean fiables, orientados al interés público y centrados en el ser humano.

64. Los Estados Miembros deberían velar por que los gobiernos y las organizaciones multilaterales desempeñen una función de liderazgo para garantizar la seguridad y la protección de los sistemas de IA, con la participación de múltiples partes interesadas. En concreto, los Estados Miembros, las organizaciones internacionales y otros órganos pertinentes deberían elaborar normas internacionales que describan niveles de seguridad y transparencia mensurables y comprobables, de modo que se puedan evaluar objetivamente los sistemas y determinar los niveles de cumplimiento. Además, los Estados Miembros y las empresas deberían apoyar continuamente la investigación estratégica sobre los posibles riesgos de seguridad y protección de las tecnologías de la IA y deberían alentar la investigación sobre la transparencia y la explicabilidad, la inclusión y los conocimientos de esas tecnologías asignando fondos adicionales a esas esferas para diferentes ámbitos y en diferentes niveles, como el lenguaje técnico y natural.

65. Los Estados Miembros deberían aplicar políticas destinadas a garantizar que las acciones de los actores de la IA se ajusten al derecho, las normas y los principios internacionales de derechos humanos durante todo el ciclo de vida de los sistemas de IA, tomando plenamente en consideración al mismo tiempo las diversidades culturales y sociales existentes, en particular las costumbres locales y las tradiciones religiosas, con el debido respeto a la primacía y la universalidad de los derechos humanos.

66. Los Estados Miembros deberían establecer mecanismos para exigir a los actores de la IA que revelen y combatan toda clase de estereotipos en los resultados de los sistemas y datos de IA, ya sean deliberados o por negligencia, y que velen por que los conjuntos de datos de entrenamiento para los sistemas de IA no fomenten las desigualdades culturales, económicas o sociales, los prejuicios, la propagación de desinformación y de información falsa y la vulneración de la libertad de expresión y del acceso a la información. Debería prestarse especial atención a las regiones donde los datos son escasos.

67. Los Estados Miembros deberían aplicar políticas para promover y aumentar la diversidad y la inclusión en los equipos de desarrollo de la IA y los conjuntos de datos de entrenamiento, de modo que estos sean un reflejo de su población, así como para velar por la igualdad de acceso a las tecnologías de la IA y sus beneficios, en particular para los grupos marginados, tanto de zonas rurales como urbanas.

68. Los Estados Miembros deberían elaborar, examinar y adaptar, según proceda, marcos reguladores para alcanzar la rendición de cuentas y la responsabilidad por el contenido y los resultados de los sistemas de IA en las diferentes etapas de su ciclo de vida. Cuando sea necesario, los Estados Miembros deberían introducir marcos de responsabilidad o aclarar la interpretación de los marcos existentes para garantizar la atribución de la responsabilidad por los resultados y el funcionamiento de los sistemas de IA. Además, al elaborar los marcos reguladores, los Estados Miembros deberían tener en cuenta, en particular, que la  

responsabilidad y la rendición de cuentas deben recaer siempre en última instancia en personas físicas o jurídicas y que no se debe otorgar personalidad jurídica a los propios sistemas de IA. Para lograrlo, esos marcos reguladores deberían ajustarse al principio de la supervisión humana y establecer un enfoque global centrado en los actores de la IA y los procesos tecnológicos que intervienen en las diferentes etapas del ciclo de vida de los sistemas de IA.

69. A fin de establecer normas cuando no las haya, o de adaptar los marcos jurídicos existentes, los Estados Miembros deberían contar con todos los actores de la IA (incluidos, entre otros, investigadores, representantes de la sociedad civil y de los organismos encargados de hacer cumplir la ley, aseguradores, inversores, fabricantes, ingenieros, abogados y usuarios). Las normas pueden evolucionar hasta convertirse en mejores prácticas, leyes y reglamentos. Se alienta además a los Estados Miembros a que utilicen mecanismos como los prototipos de políticas y los entornos de pruebas reguladores para acelerar la formulación de leyes, reglamentos y políticas, incluidas sus revisiones periódicas, acordes con el rápido desarrollo de las nuevas tecnologías y garantizar que las leyes y los reglamentos se puedan poner a prueba en un entorno seguro antes de su aprobación oficial. Los Estados Miembros deberían apoyar a los gobiernos locales en la formulación de políticas, reglamentos y leyes locales que estén en consonancia con los marcos jurídicos nacionales e internacionales.

70. Los Estados Miembros deberían establecer requisitos claros de transparencia y explicabilidad de los sistemas de IA para ayudar a garantizar la fiabilidad de dichos sistemas durante todo su ciclo de vida. Esos requisitos deberían abarcar la concepción y la aplicación de mecanismos de evaluación del impacto que tengan en cuenta la naturaleza del ámbito de aplicación, la utilización prevista, los destinatarios y la viabilidad de cada sistema de IA en particular.

ÁMBITO DE ACTUACIÓN 3: POLÍTICA DE DATOS

71. Los Estados Miembros deberían procurar elaborar estrategias de gobernanza de datos que garanticen la evaluación continua de la calidad de los datos de entrenamiento para los sistemas de IA, en particular la idoneidad de los procesos de recopilación y selección de datos, y que prevean medidas adecuadas de seguridad y protección de los datos, así como mecanismos de retroalimentación para aprender de los errores y compartir las mejores prácticas entre todos los actores de la IA.

72. Los Estados Miembros deberían establecer salvaguardias adecuadas para proteger el derecho a la privacidad, de conformidad con el derecho internacional, en particular respondiendo a preocupaciones como la vigilancia. Los Estados Miembros deberían, entre otras medidas, adoptar o aplicar marcos legislativos que proporcionen una protección adecuada, conforme al derecho internacional. Los Estados Miembros deberían alentar enérgicamente a todos los actores de la IA, incluidas las empresas, a que cumplan las normas internacionales vigentes y, en particular, a que realicen evaluaciones adecuadas del impacto en la privacidad, como parte de las evaluaciones del impacto ético, que tengan en cuenta las repercusiones socioeconómicas más amplias del tratamiento previsto de los datos, y a que apliquen el principio de protección de la privacidad desde la concepción de sus sistemas. La privacidad debería ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA.

73. Los Estados Miembros deberían velar por que las personas conserven sus derechos sobre sus datos personales y estén protegidas por un marco que prevea, en particular: la transparencia; salvaguardias adecuadas para el tratamiento de datos sensibles; un nivel adecuado de protección de los datos; planes y mecanismos de rendición de cuentas eficaces y significativos; el pleno disfrute de los derechos de los interesados y la posibilidad de acceder a los datos personales en los sistemas de IA y de borrarlos, excepto en determinadas circunstancias, de conformidad con el derecho internacional; un nivel adecuado de protección que cumpla plenamente la legislación en materia de protección de datos cuando estos se utilicen con fines comerciales —por ejemplo, para permitir la publicidad con fines específicos— o sean transferidos al extranjero; y una supervisión eficaz e independiente en el marco de un mecanismo de gobernanza de los datos que permita a las personas mantener el control de sus datos personales y promueva los beneficios de la libre circulación de información a nivel internacional, incluido el acceso a los datos.

74. Los Estados Miembros deberían establecer sus políticas de datos o marcos equivalentes, o reforzar las políticas y marcos existentes, para garantizar la seguridad total de los datos personales y los datos sensibles que, de ser divulgados, puedan causar daños, lesiones o dificultades excepcionales a las personas. Cabe citar como ejemplos los datos relativos a infracciones, procesos penales y condenas, así como a las medidas de seguridad conexas; los datos biométricos, genéticos y de salud; y los datos personales como los relativos a la raza, el color, la ascendencia, el género, la edad, el idioma, la religión, las opiniones políticas, el origen nacional, étnico o social, la condición económica o social de nacimiento, la discapacidad o cualquier otra característica.

75. Los Estados Miembros deberían promover los datos abiertos. A este respecto, los Estados Miembros deberían considerar la posibilidad de revisar sus políticas y marcos reguladores, particularmente en lo que respecta al acceso a la información y el gobierno abierto, para reflejar los requisitos específicos de la IA y promover mecanismos, como repositorios abiertos de datos y códigos fuente públicos o de financiación pública y fideicomisos de datos, a fin de apoyar el intercambio seguro, equitativo, legal y ético de datos, entre otros.

76. Los Estados Miembros deberían promover y facilitar el uso de conjuntos de datos sólidos y de calidad para el entrenamiento, el desarrollo y la utilización de los sistemas de IA y ejercer vigilancia al supervisar su recopilación y utilización. Esto podría suponer, si es posible y factible, invertir en la creación de conjuntos de datos de excelencia, incluidos conjuntos de datos abiertos y fiables, que sean diversos, establecidos sobre una base jurídica válida, en particular con el consentimiento de los interesados, cuando así lo exija la ley. Debería alentarse la elaboración de normas para anotar los conjuntos de datos, incluido el desglose de datos por género y otros criterios, de manera que pueda determinarse fácilmente cómo se recopila un conjunto de datos y qué propiedades tiene.

77. Como también se sugiere en el informe del Panel de Alto Nivel sobre la Cooperación Digital del Secretario General de las Naciones Unidas, los Estados Miembros, con el apoyo de las Naciones Unidas y la UNESCO, deberían adoptar un enfoque de patrimonio digital común respecto a los datos, cuando proceda, aumentar la interoperabilidad de los instrumentos y conjuntos de datos, así como las interfaces de los sistemas que albergan datos, y alentar a las empresas del sector privado a que compartan con todas las partes interesadas los datos que recopilan, en beneficio de la investigación, la innovación o el interés público, según proceda. También deberían promover las iniciativas públicas y privadas para crear plataformas de colaboración destinadas a compartir datos de calidad en espacios de datos fiables y seguros.

ÁMBITO DE ACTUACIÓN 4: DESARROLLO Y COOPERACIÓN INTERNACIONAL

78. Los Estados Miembros y las empresas transnacionales deberían dar prioridad a la ética de la IA, incluyendo debates sobre cuestiones éticas relacionadas con la IA en los foros internacionales, intergubernamentales y de múltiples partes interesadas pertinentes.

79. Los Estados Miembros deberían velar por que la utilización de la IA en esferas relacionadas con el desarrollo, como la educación, la ciencia, la cultura, la comunicación y la información, la atención sanitaria, la agricultura y el suministro de alimentos, el medio ambiente, la gestión de recursos naturales y de infraestructuras y la planificación y el crecimiento económicos, entre otras, respete los valores y principios enunciados en la presente Recomendación.

80. Los Estados Miembros deberían procurar, por conducto de organizaciones internacionales, establecer plataformas de cooperación internacional en el ámbito de la IA para el desarrollo, en particular aportando competencias técnicas, financiación, datos, conocimientos del sector e infraestructura y facilitando la colaboración entre múltiples partes interesadas para hacer frente a los problemas complejos en materia de desarrollo, especialmente para los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID.

81. Los Estados Miembros deberían procurar promover la colaboración internacional en materia de investigación e innovación en IA, especialmente en centros y redes de investigación e innovación que promuevan una mayor participación y liderazgo de los investigadores procedentes de países de ingreso mediano bajo y otros países, en particular de PMA, PDSL y PEID.

82. Los Estados Miembros deberían promover las investigaciones sobre la ética de la IA recurriendo a organizaciones internacionales e instituciones de investigación, así como a empresas transnacionales, que puedan servir de base para la utilización ética de los sistemas de IA por entidades públicas y privadas, incluidas las investigaciones sobre la aplicabilidad de marcos éticos específicos en culturas y contextos concretos y sobre las posibilidades de elaborar soluciones tecnológicamente viables de conformidad con esos marcos.

83. Los Estados Miembros deberían alentar la cooperación y la colaboración internacionales en el ámbito de la IA para salvar las divisiones geotecnológicas. Deberían realizarse intercambios y consultas de carácter tecnológico entre los Estados Miembros y su población, entre los sectores público y privado y entre los países más y menos avanzados tecnológicamente, respetando plenamente el derecho internacional.

ÁMBITO DE ACTUACIÓN 5: MEDIO AMBIENTE Y ECOSISTEMAS

84. Los Estados Miembros y las empresas deberían evaluar el impacto ambiental directo e indirecto de los sistemas de IA a lo largo de su ciclo de vida, en particular, aunque no exclusivamente, su huella de carbono, su consumo de energía y el impacto ambiental de la extracción de las materias primas necesarias para la fabricación de tecnologías de la IA, y reducir el impacto ambiental de los sistemas de IA y las infraestructuras de datos. Los Estados Miembros deberían asegurar el cumplimiento de las leyes, políticas y prácticas ambientales por parte de todos los actores de la IA.

85. Los Estados Miembros deberían establecer incentivos, cuando sea necesario y apropiado, para garantizar la elaboración y adopción de soluciones basadas en los derechos y en la ética de la IA en favor de la resiliencia ante el riesgo de desastres; la vigilancia, protección y regeneración del medio ambiente y los ecosistemas; y la preservación del planeta. Esos sistemas de IA deberían contar, durante todo su ciclo de vida, con la participación de las comunidades locales e indígenas y apoyar enfoques del tipo de economía circular y modalidades de consumo y producción sostenibles. Por ejemplo, los sistemas de IA podrían utilizarse, cuando sea necesario y apropiado, para:

a) apoyar la protección, el seguimiento y la gestión de los recursos naturales;

b) apoyar la predicción, la prevención, el control y la atenuación de los problemas relacionados con el clima;

c) favorecer un ecosistema alimentario más eficiente y sostenible;

d) contribuir a acelerar el acceso a la energía sostenible y su adopción a gran escala;

e) facilitar y promover la incorporación de infraestructuras sostenibles, modelos empresariales sostenibles y financiación sostenible al servicio del desarrollo sostenible;  

f) detectar los contaminantes o prever los niveles de contaminación y, de ese modo, ayudar a las partes interesadas pertinentes a definir, planificar y poner en marcha intervenciones específicas para prevenir y reducir la contaminación y la exposición.

86. Al elegir un método de IA, dada la gran necesidad potencial de datos o recursos de algunos de ellos y su consiguiente impacto en el medio ambiente, los Estados Miembros deberían velar por que los actores de la IA, de conformidad con el principio de proporcionalidad, favorezcan los métodos de IA eficientes en cuanto a datos, energía y recursos. Deberían establecerse requisitos destinados a garantizar que se disponga de pruebas adecuadas para demostrar que una aplicación de IA tendrá el efecto deseado, o que dicha aplicación cuenta con garantías que permitan justificar su utilización. Si esto no es posible, deberá privilegiarse el principio de precaución y, en los casos en que haya impactos negativos desproporcionados en el medio ambiente, no debería utilizarse la IA.

ÁMBITO DE ACTUACIÓN 6: GÉNERO

87. Los Estados Miembros deberían velar por que se optimice plenamente el potencial de las tecnologías digitales y la inteligencia artificial para contribuir a lograr la igualdad de género, y han de asegurarse de que no se conculquen los derechos humanos y las libertades fundamentales de las niñas y las mujeres, ni su seguridad e integridad, en ninguna etapa del ciclo de vida de los sistemas de IA. Además, la evaluación del impacto ético debería incluir una perspectiva transversal de género.

88. Los Estados Miembros deberían asignar fondos específicos de sus presupuestos públicos a la financiación de planes con perspectiva de género, velar por que las políticas digitales nacionales incluyan un plan de acción en materia de género y elaborar políticas pertinentes, por ejemplo, sobre la educación laboral, destinadas a apoyar a las niñas y las mujeres para que no queden excluidas de la economía digital impulsada por la IA. Deberían considerarse y realizarse inversiones especiales para ofrecer programas específicos y un lenguaje que respete la igualdad de género, a fin de ampliar las oportunidades de participación de las niñas y las mujeres en la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), incluidas las disciplinas relacionadas con las tecnologías de la información y la comunicación (TIC), y mejorar la preparación, la empleabilidad, el desarrollo de las perspectivas de carrera en condiciones de igualdad y el crecimiento profesional de las niñas y las mujeres.

89. Los Estados Miembros deberían velar por que se aproveche el potencial de los sistemas de IA para impulsar el logro de la igualdad de género. Deberían asegurarse de que estas tecnologías no exacerben las ya amplias brechas que existen entre los géneros en varios ámbitos del mundo analógico, sino que, al contrario, las eliminen. Entre estas brechas cabe citar la disparidad salarial entre hombres y mujeres; su representación desigual en ciertas profesiones y actividades; la falta de representación en los puestos directivos superiores, las juntas directivas o los equipos de investigación en el campo de la IA; la brecha educativa; las desigualdades en el acceso, la adopción, la utilización y la asequibilidad de la tecnología digital y de la IA; y la distribución desigual del trabajo no remunerado y de las responsabilidades de cuidado en nuestras sociedades.

90. Los Estados Miembros deberían velar por que los estereotipos de género y los sesgos discriminatorios no se trasladen a los sistemas de IA, sino que se detecten y corrijan de manera proactiva. Es preciso esforzarse por evitar el efecto negativo combinado de las brechas tecnológicas para lograr la igualdad de género y prevenir la violencia contra las niñas y las mujeres, así como contra los grupos insuficientemente representados, que puede manifestarse en forma de hostigamiento, acoso o trata, incluso en línea.

91. Los Estados Miembros deberían alentar la iniciativa empresarial, la participación y el compromiso de las mujeres en todas las etapas del ciclo de vida de los sistemas de IA, ofreciendo y promoviendo incentivos económicos y reguladores, entre otros estímulos y planes de apoyo, así como políticas encaminadas a lograr una participación equilibrada de hombres y mujeres en la investigación en IA en las universidades y la representación de género en los puestos directivos superiores, las juntas directivas y los equipos de investigación de las empresas digitales y de IA. Los Estados Miembros deberían garantizar que los fondos públicos (para innovación, investigación y tecnologías) se destinen a programas y empresas inclusivos, con un claro equilibrio de género, y que se alienten igualmente los fondos privados mediante principios de acción afirmativa. Deberían elaborarse y aplicarse políticas que favorezcan los entornos libres de acoso, alentando al mismo tiempo la transferencia de las mejores prácticas sobre la forma de promover la diversidad durante el ciclo de vida de los sistemas de IA.

92. Los Estados Miembros deberían promover la diversidad de género en la investigación en IA en el mundo universitario y la industria, ofreciendo incentivos a las niñas y las mujeres para que se incorporen a este campo, estableciendo mecanismos para luchar contra los estereotipos de género y el acoso en la comunidad de investigadores en IA y alentando a las entidades universitarias y privadas a que compartan las mejores prácticas sobre la forma de potenciar la diversidad de género.

93. La UNESCO puede ayudar a compilar un repositorio de mejores prácticas para incentivar la participación de las niñas, las mujeres y los grupos insuficientemente representados en todas las etapas del ciclo de vida de los sistemas de IA.

ÁMBITO DE ACTUACIÓN 7: CULTURA

94. Se alienta a los Estados Miembros a que incorporen sistemas de IA, cuando proceda, a la preservación, el enriquecimiento, la comprensión, la promoción, la gestión y la accesibilidad del patrimonio cultural material, documental e inmaterial, incluidas las lenguas en peligro y las lenguas y conocimientos indígenas, por ejemplo, introduciendo o actualizando programas educativos relacionados con la aplicación de los sistemas de IA en esas esferas, cuando sea apropiado, y asegurando un enfoque participativo, dirigidos a las instituciones y al público.

95. Se alienta a los Estados Miembros a que examinen y aborden las repercusiones de los sistemas de IA en la cultura, especialmente de las aplicaciones de procesamiento del lenguaje natural (PLN), como la traducción automática y los asistentes de voz, en los matices del lenguaje y la expresión humanos. Esas evaluaciones deberían contribuir a la elaboración y aplicación de estrategias que maximicen los beneficios de esos sistemas reduciendo las desigualdades culturales y mejorando la comprensión humana, así como haciendo frente a las repercusiones negativas, como una menor utilización, que podría conducir a la desaparición de lenguas en peligro, dialectos locales y variaciones tonales y culturales asociadas con el lenguaje y la expresión humanos.

96. Los Estados Miembros deberían promover la educación en IA y la capacitación digital de los artistas y los profesionales creativos, a fin de que puedan evaluar la idoneidad de las tecnologías de la IA para utilizarlas en su profesión y contribuir a la concepción y aplicación de tecnologías de la IA adecuadas, ya que estas tecnologías se emplean actualmente para crear, producir, distribuir, difundir y consumir una variedad de bienes y servicios culturales, teniendo en cuenta la importancia de preservar el patrimonio cultural, la diversidad y la libertad artística.

97. Los Estados Miembros deberían promover el conocimiento y la evaluación de los instrumentos de IA entre las industrias culturales locales y las pequeñas y medianas empresas que trabajan en el ámbito de la cultura, a fin de evitar el riesgo de concentración en el mercado cultural.

98. Los Estados Miembros deberían contar con las empresas tecnológicas y otras partes interesadas para promover una oferta diversa de expresiones culturales y un acceso plural a ellas y, en particular, para garantizar que la recomendación algorítmica aumente la notoriedad de los contenidos locales y la posibilidad de descubrirlos.

99. Los Estados Miembros deberían promover nuevas investigaciones en la intersección entre la IA y la propiedad intelectual, por ejemplo, para determinar si hay que proteger con derechos de propiedad intelectual las obras creadas mediante tecnologías de la IA y la manera de hacerlo. Los Estados Miembros también deberían evaluar cómo afectan las tecnologías de la IA a los derechos o los intereses de los titulares de derechos de propiedad intelectual cuyas obras se utilizan para investigar, desarrollar, entrenar o implantar aplicaciones de IA.

100. Los Estados Miembros deberían alentar a los museos, las galerías, las bibliotecas y los archivos de ámbito nacional a que utilicen sistemas de IA para realzar sus colecciones y enriquecer sus bibliotecas, bases de datos y bases de conocimientos, ofreciendo al mismo tiempo acceso a sus usuarios.

ÁMBITO DE ACTUACIÓN 8: EDUCACIÓN E INVESTIGACIÓN

101. Los Estados Miembros deberían colaborar con organizaciones internacionales, instituciones educativas y entidades privadas y no gubernamentales para impartir al público de todos los países, a todos los niveles, conocimientos adecuados en materia de IA, a fin de empoderar a la población y reducir las brechas digitales y las desigualdades en el acceso a la tecnología digital resultantes de la adopción a gran escala de sistemas de IA.

102. Los Estados Miembros deberían promover la adquisición de “competencias previas” para la educación en materia de IA, como la alfabetización básica, la aritmética elemental, las competencias digitales y de codificación y la alfabetización mediática e informacional, así como el pensamiento crítico y creativo, el trabajo en equipo, la comunicación, las aptitudes socioemocionales y las competencias en materia de ética de la IA, especialmente en los países y en las regiones o zonas dentro de los países en que existen lagunas notables en la enseñanza de esas competencias.

103. Los Estados Miembros deberían promover programas generales de sensibilización sobre los avances de la IA, en particular sobre los datos y las oportunidades que ofrecen y los retos que plantean las tecnologías de la IA, el impacto de los sistemas de IA en los derechos humanos, incluidos los derechos de los niños, y sus repercusiones. Estos programas deberían ser accesibles tanto a los grupos técnicos como a los no técnicos.

104. Los Estados Miembros deberían alentar las iniciativas de investigación sobre la utilización responsable y ética de las tecnologías de la IA en la enseñanza, la formación de docentes y el aprendizaje electrónico, entre otras cuestiones, a fin de aumentar las oportunidades y atenuar los problemas y los riesgos existentes en este ámbito. Esas iniciativas deberían ir acompañadas de una evaluación adecuada de la calidad de la educación y de las repercusiones que la utilización de las tecnologías de la IA tiene para los educandos y los docentes. Los Estados Miembros deberían también velar por que las tecnologías de la IA empoderen a los educandos y los docentes y mejoren su experiencia, teniendo presente que los aspectos relacionales y sociales y el valor de las formas tradicionales de educación son fundamentales en las relaciones entre docentes y educandos y entre los propios educandos y deberían tenerse en cuenta al examinar la adopción de las tecnologías de la IA en la educación. Los sistemas de IA utilizados en el aprendizaje deberían estar sujetos a requisitos estrictos en materia de supervisión, evaluación de las capacidades o predicción de los comportamientos de los educandos. La IA debería apoyar el proceso de aprendizaje sin reducir las capacidades cognitivas y sin recabar información sensible, respetando las normas pertinentes en materia de protección de los datos personales. Los datos facilitados para adquirir conocimientos, recopilados durante las interacciones del educando con el sistema de IA, no deben ser objeto de uso indebido, apropiación indebida o explotación delictiva, incluidos los fines comerciales.

105. Los Estados Miembros deberían promover la participación y el liderazgo de las niñas y las mujeres, las personas de diversos orígenes étnicos y culturas, las personas con discapacidad, las personas marginadas y vulnerables o en situación de vulnerabilidad y las minorías, así como de todas aquellas personas que no gocen plenamente de los beneficios de la inclusión digital, en los programas de educación en materia de IA en todos los niveles, así como el seguimiento y el intercambio con otros Estados Miembros de las mejores prácticas en este ámbito.

106. Los Estados Miembros deberían elaborar, de conformidad con sus tradiciones y programas de educación nacionales, planes de estudios sobre la ética de la IA para todos los niveles y promover la colaboración cruzada entre la enseñanza de competencias técnicas de IA y los aspectos humanísticos, éticos y sociales de la educación en IA. Deberían elaborarse cursos en línea y recursos digitales de enseñanza de la ética de la IA en las lenguas locales, incluidas las lenguas indígenas, y tenerse en cuenta la diversidad de los entornos, velando especialmente por la accesibilidad de los formatos para las personas con discapacidad.

107. Los Estados Miembros deberían promover y apoyar las investigaciones sobre la IA, en particular las investigaciones sobre la ética de la IA, por ejemplo mediante inversiones en este tipo de investigaciones o creando incentivos para que los sectores público y privado inviertan en este ámbito, reconociendo que las investigaciones contribuyen de manera significativa al desarrollo y la mejora ulteriores de las tecnologías de la IA con miras a promover el derecho internacional y los valores y principios enunciados en la presente Recomendación. Los Estados Miembros también deberían promover públicamente las mejores prácticas de los investigadores y las empresas que desarrollan la IA de forma ética y cooperar con ellos.

108. Los Estados Miembros deberían velar por que los investigadores en IA reciban formación en ética de la investigación y exigirles que tengan en cuenta consideraciones éticas en sus concepciones, productos y publicaciones, especialmente en los análisis de los conjuntos de datos que utilizan, la forma en que estos se anotan y la calidad y el alcance de los resultados, así como las posibles aplicaciones.

109. Los Estados Miembros deberían alentar a las empresas del sector privado a que faciliten el acceso de la comunidad científica a sus datos para la investigación, especialmente en los países de ingreso mediano bajo, en particular en los PMA, los PDSL y los PEID. Este acceso debería ser conforme a las normas pertinentes en materia de respeto de la privacidad y protección de datos.

110. Para asegurar una evaluación crítica de las investigaciones en IA y un seguimiento adecuado de los posibles usos indebidos o efectos adversos, los Estados Miembros deberían velar por que cualquier evolución futura relacionada con las tecnologías de la IA se base en investigaciones científicas rigurosas e independientes y promover la investigación interdisciplinaria en IA mediante la inclusión de disciplinas distintas de la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), como los estudios culturales, la educación, la ética, las relaciones internacionales, el derecho, la lingüística, la filosofía, las ciencias políticas, la sociología y la psicología.

111. Reconociendo que las tecnologías de la IA ofrecen grandes oportunidades para contribuir al avance de los conocimientos y las prácticas científicos, especialmente en las disciplinas tradicionalmente basadas en modelos, los Estados Miembros deberían alentar a las comunidades científicas a ser conscientes de los beneficios, los límites y los riesgos de su utilización, por ejemplo, intentando garantizar que las conclusiones extraídas de los enfoques, modelos y tratamientos basados en los datos sean sólidas y consistentes. Además, los Estados Miembros deberían celebrar y apoyar la función de la comunidad científica en la contribución a las políticas y en la concienciación respecto de los puntos fuertes y débiles de las tecnologías de la IA.  

AMBITO DE ACTUACIÓN 9: COMUNICACIÓN E INFORMACIÓN

112. Los Estados Miembros deberían utilizar los sistemas de IA para mejorar el acceso a la información y el conocimiento. Para ello, pueden, por ejemplo, apoyar a los investigadores, las universidades, los periodistas, el público en general y los desarrolladores, a fin de mejorar la libertad de expresión, las libertades académicas y científicas y el acceso a la información, así como aumentar la divulgación proactiva de los datos y la información oficiales.

113. Los Estados Miembros deberían garantizar que los actores de la IA respeten y promuevan la libertad de expresión y el acceso a la información en lo que respecta a la generación, moderación y conservación automáticas de contenidos. Marcos adecuados, incluso reglamentarios, deberían propiciar la transparencia de los operadores de comunicación e información en línea, velar por que los usuarios tengan acceso a puntos de vista diversos y prever procesos de notificación rápida a los usuarios sobre los motivos de la eliminación u otro tratamiento de los contenidos, así como mecanismos de recurso que permitan a los usuarios solicitar reparación.

114. Los Estados Miembros deberían invertir en competencias digitales y de alfabetización mediática e informacional y promoverlas, a fin de reforzar el pensamiento crítico y las competencias necesarias para comprender el uso y las implicaciones de los sistemas de IA, con miras a atenuar y contrarrestar la desinformación, la información errónea y el discurso de odio. Una mejor comprensión y evaluación de los efectos tanto positivos como potencialmente perjudiciales de los sistemas de recomendación debería formar parte de esos esfuerzos.

115. Los Estados Miembros deberían crear entornos propicios para que los medios de comunicación tengan los derechos y recursos necesarios para informar eficazmente sobre las ventajas y los inconvenientes de los sistemas de IA, y también alentar a los medios de comunicación a que hagan un uso ético de estos sistemas en su trabajo.

ÁMBITO DE ACTUACIÓN 10: ECONOMÍA Y TRABAJO

116. Los Estados Miembros deberían evaluar y abordar el impacto de los sistemas de IA en los mercados de trabajo y sus consecuencias en las necesidades educativas en todos los países y, más concretamente, en los países cuya economía requiere mucha mano de obra. Para ello puede ser preciso introducir una gama más amplia de competencias “básicas” e interdisciplinarias en todos los niveles educativos, a fin de dar a los trabajadores actuales y a las nuevas generaciones una oportunidad equitativa de encontrar empleo en un mercado en rápida evolución y para asegurar que sean conscientes de los aspectos éticos de los sistemas de IA. Junto a las competencias técnicas especializadas, así como a las tareas poco especializadas, deberían enseñarse competencias como “aprender a aprender”, comunicación, pensamiento crítico, trabajo en equipo, empatía y la capacidad de transferir los conocimientos propios a diversos ámbitos. Es fundamental actuar con transparencia con respecto a las competencias de las que existe demanda y actualizar los planes de estudios en torno a ellas.

117. Los Estados Miembros deberían apoyar los acuerdos de colaboración entre los gobiernos, las instituciones universitarias, las instituciones de enseñanza y formación profesional, la industria, las organizaciones de trabajadores y la sociedad civil a fin de reducir la brecha en cuanto a las competencias exigidas para adecuar los programas y estrategias de capacitación a las futuras implicaciones del trabajo y a las necesidades de la industria, incluidas las pequeñas y medianas empresas. Deberían promoverse enfoques de enseñanza y aprendizaje de la IA basados en proyectos, facilitando las asociaciones de colaboración entre las instituciones públicas, las empresas del sector privado, las universidades y los centros de investigación.

118. Los Estados Miembros deberían colaborar con empresas del sector privado, organizaciones de la sociedad civil y otras partes interesadas, incluidos trabajadores y sindicatos, para garantizar una transición equitativa a los empleados en situación de riesgo. Esto supone poner en marcha programas de perfeccionamiento y reconversión profesional, encontrar mecanismos eficaces para retener a los empleados durante esos periodos de transición y explorar programas de protección social para aquellos que no puedan reconvertirse. Los Estados Miembros deberían elaborar y aplicar programas para analizar los problemas detectados y darles respuesta, entre los que podrían figurar el perfeccionamiento y la reconversión profesional, el fortalecimiento de la protección social, la aplicación de políticas e intervenciones sectoriales proactivas y la introducción de ventajas fiscales y nuevas formas de tributación. Los Estados Miembros deberían garantizar que haya suficiente financiación pública para apoyar estos programas. Las reglamentaciones pertinentes, como los regímenes fiscales, deberían examinarse cuidadosamente y modificarse, si es necesario, para contrarrestar las consecuencias del desempleo causado por la automatización basada en la IA.

119. Los Estados Miembros deberían alentar y apoyar a los investigadores para que analicen el impacto de los sistemas de IA en el entorno laboral local con miras a anticipar las tendencias y los desafíos futuros. Estos estudios deberían tener un enfoque interdisciplinario y examinar el impacto de los sistemas de IA en los sectores económico, social y geográfico, así como en las interacciones entre seres humanos y robots y entre los propios seres humanos, a fin de asesorar sobre las mejores prácticas de reconversión y reasignación profesionales.

120. Los Estados Miembros deberían adoptar las medidas adecuadas para garantizar la competitividad de los mercados y la protección de los consumidores, considerando posibles medidas y mecanismos en los planos nacional, regional e internacional, a fin de impedir los abusos de posición dominante en el mercado, incluidos los monopolios, en relación con los sistemas de IA durante su ciclo de vida, ya se trate de datos, investigación, tecnología o mercados. Los Estados Miembros deberían prevenir las desigualdades resultantes, evaluar los mercados correspondientes y promover mercados competitivos. Se debería prestar la debida atención a los países de ingreso mediano bajo, en particular a los PMA, los PDSL y los PEID, que están más expuestos y son más vulnerables a la posibilidad de que se produzcan abusos de posición dominante en el mercado, como consecuencia de la falta de infraestructuras, capacidad humana y reglamentación, entre otros factores. Los actores de la IA que desarrollen sistemas de IA en países que hayan establecido o adoptado normas éticas en materia de IA deberían respetar estas normas cuando exporten estos productos, desarrollen sus sistemas de IA o los apliquen en países donde no existan dichas normas, respetando al mismo tiempo el derecho internacional y las leyes, normas y prácticas nacionales aplicables de estos países.

ÁMBITO DE ACTUACIÓN 11: SALUD Y BIENESTAR SOCIAL

121. Los Estados Miembros deberían esforzarse por emplear sistemas eficaces de IA para mejorar la salud humana y proteger el derecho a la vida, en particular atenuando los brotes de enfermedades, al tiempo que desarrollan y mantienen la solidaridad internacional para hacer frente a los riesgos e incertidumbres relacionados con la salud en el plano mundial, y garantizar que su despliegue de sistemas de IA en el ámbito de la atención de la salud sea conforme al derecho internacional y a sus obligaciones en materia de derechos humanos. Los Estados Miembros deberían velar por que los actores que participan en los sistemas de IA relacionados con la atención de la salud tengan en cuenta la importancia de las relaciones del paciente con su familia y con el personal sanitario.

122. Los Estados Miembros deberían garantizar que el desarrollo y el despliegue de los sistemas de IA relacionados con la salud en general y con la salud mental en particular —prestando la debida atención a los niños y los jóvenes— estén regulados, de modo que esos sistemas sean seguros, eficaces, eficientes y probados desde el punto de vista científico y médico y faciliten la innovación y el progreso médico con base empírica. Además, en el ámbito conexo de las intervenciones de salud digital, se alienta encarecidamente a los Estados Miembros a que hagan participar activamente a los pacientes y sus representantes en todas las etapas pertinentes del desarrollo del sistema.

123. Los Estados Miembros deberían prestar particular atención a la regulación de las soluciones de predicción, detección y tratamiento médicos en las aplicaciones de la IA, mediante:

a) la supervisión para minimizar y atenuar los sesgos;

b) la inclusión del profesional, el paciente, el cuidador o el usuario del servicio en el equipo en calidad de “experto en la materia” en todas las etapas pertinentes al elaborar los algoritmos;

c) una debida atención a la privacidad, dado que quizá sea necesaria una vigilancia médica, y el cumplimiento de todos los requisitos nacionales e internacionales pertinentes en materia de protección de datos;

d) mecanismos eficaces para que las personas cuyos datos personales se están analizando sepan de la utilización y el análisis de sus datos y den su consentimiento informado al respecto, sin impedir el acceso a la atención de la salud;

e) la garantía de que el cuidado humano y la decisión final sobre el diagnóstico y el tratamiento correspondan siempre a seres humanos, reconociendo al mismo tiempo que los sistemas de IA también pueden ayudarlos en su trabajo;

f) el examen, cuando sea necesario, de los sistemas de IA por un comité de investigación ética antes de su uso clínico.

124. Los Estados Miembros deberían realizar investigaciones sobre los efectos y la regulación de los posibles daños de los sistemas de IA para la salud mental, tales como un aumento de la depresión, la ansiedad, el aislamiento social, el desarrollo de adicciones, el tráfico, la radicalización y la información errónea, entre otros.

125. Los Estados Miembros deberían elaborar directrices sobre las interacciones entre seres humanos y robots y sus repercusiones en las relaciones entre seres humanos, basadas en la investigación y orientadas al desarrollo futuro de robots, y prestando especial atención a la salud mental y física de los seres humanos. Debería prestarse particular atención al uso de robots en la atención de la salud, en la atención a las personas de edad y las personas con discapacidad y en el ámbito de la educación, así como a los robots para uso infantil y para usos lúdicos, conversacionales y de compañía para niños y adultos. Además, deberían utilizarse las tecnologías de la IA para mejorar la seguridad y el uso ergonómico de los robots, en particular en entornos de trabajo en los que intervienen robots y seres humanos. Debería prestarse especial atención a la posibilidad de utilizar la IA para manipular los sesgos cognitivos humanos y hacer un mal uso de ellos.

126. Los Estados Miembros deberían velar por que las interacciones entre seres humanos y robots se ajusten a los mismos valores y principios que se aplican a cualquier otro sistema de IA, lo que incluye los derechos humanos y las libertades fundamentales, la promoción de la diversidad y la protección de las personas vulnerables o en situación de vulnerabilidad. Las cuestiones éticas relativas a los sistemas basados en la IA utilizados en las neurotecnologías y las interfaces cerebro-ordenador deberían tenerse en cuenta a fin de preservar la dignidad y la autonomía humanas.

127. Los Estados Miembros deberían velar por que los usuarios puedan determinar fácilmente si interactúan con un ser vivo o con un sistema de IA que imita las características humanas o animales y puedan rechazar eficazmente dicha interacción y solicitar la intervención humana.  

128. Los Estados Miembros deberían aplicar políticas de sensibilización sobre la antropomorfización de las tecnologías de la IA y las tecnologías que reconocen e imitan las emociones humanas, especialmente en el lenguaje utilizado para referirse a ellas, y evaluar las manifestaciones, las implicaciones éticas y las posibles limitaciones de esa antropomorfización, en particular en el contexto de la interacción entre robots y seres humanos y, especialmente, cuando se trate de niños.

129. Los Estados Miembros deberían alentar y promover la investigación colaborativa sobre los efectos de la interacción a largo plazo de las personas con los sistemas de IA, prestando especial atención a las consecuencias psicológicas y cognitivas que estos sistemas pueden tener en los niños y los jóvenes. Para ello deberían utilizarse múltiples normas, principios, protocolos, enfoques disciplinarios y un análisis de la modificación de las conductas y los hábitos, así como una cuidadosa evaluación de los impactos culturales y sociales posteriores. Además, los Estados Miembros deberían alentar la investigación sobre el efecto de las tecnologías de la IA en el desempeño del sistema sanitario y los resultados en materia de salud.

130. Los Estados Miembros, así como todas las partes interesadas, deberían establecer mecanismos para hacer participar de manera significativa a los niños y los jóvenes en las conversaciones, los debates y la adopción de decisiones sobre las repercusiones de los sistemas de IA en sus vidas y su futuro.

V. SEGUIMIENTO Y EVALUACIÓN

131. Los Estados Miembros, de acuerdo con sus circunstancias, estructuras de gobierno y disposiciones constitucionales específicas, deberían velar por el seguimiento y la evaluación de las políticas, los programas y los mecanismos relativos a la ética de la IA de forma creíble y transparente mediante una combinación de enfoques cuantitativos y cualitativos. La UNESCO puede contribuir a apoyar a los Estados Miembros mediante:

a) la elaboración de una metodología de la UNESCO de evaluación del impacto ético de las tecnologías de la IA basada en una investigación científica rigurosa y fundamentada en el derecho internacional de los derechos humanos, orientaciones para su aplicación en todas las etapas del ciclo de vida de los sistemas de IA y materiales de desarrollo de las capacidades para apoyar la labor de los Estados Miembros dirigida a capacitar a funcionarios públicos, responsables de formular políticas y otros actores pertinentes de la IA en la metodología de la evaluación del impacto ético;

b) la elaboración de una metodología de la UNESCO de evaluación del estadio de preparación para ayudar a los Estados Miembros a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones;

c) la elaboración de una metodología de la UNESCO para evaluar ex ante y ex post la eficacia y la eficiencia de las políticas y los incentivos relacionados con la ética de la IA con respecto a objetivos definidos;

d) el fortalecimiento del análisis, basado en investigaciones y pruebas, de las políticas relativas a la ética de la IA y la presentación de informes a este respecto;

e) la recopilación y difusión de información sobre los avances y las innovaciones, informes de investigación, publicaciones científicas, datos y estadísticas relativos a las políticas sobre la ética de la IA, en particular mediante las iniciativas existentes, a fin de apoyar el intercambio de mejores prácticas y el aprendizaje mutuo y de impulsar la aplicación de la presente Recomendación.  

132. Los procesos de seguimiento y evaluación deberían asegurar una amplia participación de todas las partes interesadas, entre ellas, aunque no exclusivamente, las personas vulnerables o en situación de vulnerabilidad. Se debería garantizar la diversidad social, cultural y de género, con miras a mejorar los procesos de aprendizaje y fortalecer los nexos entre las conclusiones, la adopción de decisiones, la transparencia y la rendición de cuentas sobre los resultados.

133. A fin de promover las mejores políticas y prácticas relacionadas con la ética de la IA, deberían elaborarse instrumentos e indicadores adecuados para evaluar su eficacia y eficiencia en función de normas, prioridades y objetivos acordados, incluidos objetivos específicos para las personas pertenecientes a poblaciones desfavorecidas y marginadas y personas vulnerables o en situación de vulnerabilidad, así como el impacto de los sistemas de IA en los planos individual y social. El seguimiento y la evaluación del impacto de los sistemas de IA y de las políticas y prácticas conexas relativas a la ética de la IA deberían realizarse de manera continua y sistemática proporcionalmente a los riesgos correspondientes. Este proceso debería basarse en marcos acordados internacionalmente e ir acompañado de evaluaciones de instituciones, proveedores y programas públicos y privados, incluidas autoevaluaciones, así como de estudios de seguimiento y la elaboración de conjuntos de indicadores. La recopilación y el procesamiento de datos deberían realizarse de conformidad con el derecho internacional, la legislación nacional en materia de protección y confidencialidad de datos y los valores y principios enunciados en la presente Recomendación.

134. En particular, los Estados Miembros podrían considerar posibles mecanismos de seguimiento y evaluación, como una comisión de ética, un observatorio de ética de la IA, un repositorio que abarque el desarrollo ético y conforme a los derechos humanos de los sistemas de IA, o contribuciones a las iniciativas existentes para reforzar la conformidad a los principios éticos en todas las esferas de competencia de la UNESCO, un mecanismo de intercambio de experiencias, entornos de pruebas reguladores de la IA y una guía de evaluación para que todos los actores de la IA determinen en qué medida cumplen las recomendaciones de actuación mencionadas en el presente documento.

VI. UTILIZACIÓN Y APLICACIÓN DE LA PRESENTE RECOMENDACIÓN

135. Los Estados Miembros y todas las demás partes interesadas que se indican en la presente Recomendación deberían respetar, promover y proteger los valores, principios y normas éticos relativos a la IA que se establecen en esta Recomendación y adoptar todas las medidas posibles para dar efecto a sus recomendaciones de actuación.

136. Los Estados Miembros deberían esforzarse por ampliar y complementar su propia acción en lo que respecta a la presente Recomendación, cooperando con todas las organizaciones gubernamentales y no gubernamentales nacionales e internacionales pertinentes, así como con las empresas transnacionales y las organizaciones científicas, cuyas actividades correspondan al ámbito de aplicación y a los objetivos de la presente Recomendación. La elaboración de una metodología de la UNESCO de evaluación del impacto ético y el establecimiento de comisiones nacionales de ética de la IA pueden ser instrumentos importantes a este respecto.

VII. PROMOCIÓN DE LA PRESENTE RECOMENDACIÓN

137. La UNESCO tiene la vocación de ser el principal organismo de las Naciones Unidas encargado de promover y difundir la presente Recomendación y, en consecuencia, trabajará en colaboración con otras entidades pertinentes de las Naciones Unidas, respetando al mismo tiempo su mandato y evitando la duplicación de esfuerzos.

138. La UNESCO, incluidos algunos de sus órganos, como la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST), el Comité Internacional de Bioética (CIB) y el Comité Intergubernamental de Bioética (CIGB), trabajará también en colaboración con otras organizaciones gubernamentales y no gubernamentales internacionales, regionales y subregionales.

139. Aunque en la UNESCO el mandato de promover y proteger es competencia de los gobiernos y los organismos intergubernamentales, la sociedad civil desempeñará una función importante en la defensa de los intereses del sector público y, por lo tanto, la UNESCO debe garantizar y promover su legitimidad.

VIII. DISPOSICIONES FINALES

140. La presente Recomendación debe entenderse como un todo, y los valores y principios fundamentales deben considerarse complementarios y relacionados entre sí.

141. Ninguna disposición de la presente Recomendación podrá interpretarse como si reemplazara, modificara o menoscabara de cualquier otra manera las obligaciones o los derechos de los Estados con arreglo al derecho internacional o como si autorizara a un Estado, otro agente político, económico o social, grupo o individuo a emprender actividades o realizar actos que sean contrarios a los derechos humanos, las libertades fundamentales, la dignidad humana y el respeto del medio ambiente y los ecosistemas, tanto vivos como no vivos.

16Ene/24

Resolución del Parlamento Europeo, de 20 de octubre de 2020

Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL))

(2021/C 404/05)

El Parlamento Europeo,

— Visto el artículo 225 del Tratado de Funcionamiento de la Unión Europea,

— Vistos los artículos 114 y 169 del Tratado de Funcionamiento de la Unión Europea,

— Vista la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (1),

— Vista la Directiva 2005/29/CE del Parlamento Europeo y del Consejo, de 11 de mayo de 2005, relativa a las prácticas comerciales desleales de las empresas en sus relaciones con los consumidores en el mercado interior («Directiva sobre las prácticas comerciales desleales») (2) y la Directiva 2011/83/UE del Parlamento Europeo y del Consejo, de 25 de octubre de 2011, sobre los derechos de los consumidores (3), así como otras normas de protección del consumidor,

— Visto el Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios (4),

— Visto el Reglamento (UE) 2018/1488 del Consejo, de 28 de septiembre de 2018, por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea (5),

— Vista la Directiva (UE) 2019/770 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales (6),

— Vistos el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación y las directrices para la mejora de la legislación (7),

— Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 6 de junio de 2018, por el que se establece el programa Europa Digital para el período 2021-2027 (COM(2018)0434),

— Vista la Comunicación de la Comisión, de 25 de abril de 2018, titulada «Inteligencia artificial para Europa» (COM(2018)0237),

— Vista la Comunicación de la Comisión, de 7 de diciembre de 2018, titulada «Plan coordinado sobre la inteligencia artificial» (COM(2018)0795),

— Vista la Comunicación de la Comisión, de 8 de abril de 2019, titulada «Generar confianza en la inteligencia artificial centrada en el ser humano» (COM(2019)0168),

— Visto el Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, de 19 de febrero de 2020, sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica (COM(2020)0064),

— Visto el Libro Blanco de la Comisión, de 19 de febrero de 2020, sobre la inteligencia artificial

— un enfoque europeo orientado a la excelencia y la confianza (COM(2020)0065),

— Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (8),

— Vista su Resolución, de 1 de junio de 2017, sobre la digitalización de la industria europea (9),

— Vista su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos (10),

— Vista su Resolución, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica (11),

— Vista su Resolución, de 12 de febrero de 2020, sobre los procesos automatizados de toma de decisiones: garantizar la protección de los consumidores y la libre circulación de bienes y servicios (12),

— Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Directrices éticas para una IA fiable»,

— Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Una definición de la inteligencia artificial: principales capacidades y disciplinas científicas»,

— Visto el informe, de 26 de junio de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Recomendaciones estratégicas y de inversión para una IA fiable»,

— Visto el informe, de 21 de noviembre de 2019, del Grupo de expertos sobre responsabilidad y nuevas tecnologías

 —Formación sobre nuevas tecnologías, titulado «Liability for artificial intelligence and other emerging digital technologies» (Responsabilidad civil sobre inteligencia artificial y otras tecnologías digitales emergentes),

— Visto el estudio de evaluación del valor añadido europeo realizado por el Servicio de Estudios Parlamentarios (EPRS) titulado «Civil liability regime for artificial intelligence: European added value assessment» (Régimen de responsabilidad civil en materia de inteligencia artificial: valor añadido europeo) (13),

— Vista el documento informativo de STOA del Servicio de Estudios del Parlamento Europeo, de junio de 2016, sobre reflexiones éticas y jurídicas en materia de robótica (14),

— Visto el estudio de la Dirección General de Políticas Interiores del Parlamento Europeo, de octubre de 2016, para la Comisión de Asuntos Jurídicos, sobre normas de Derecho civil europeo en materia de robótica (15),

— Vistos los artículos 47 y 54 de su Reglamento interno,

— Vistas las opiniones de la Comisión de Mercado Interior y Protección del Consumidor y de la Comisión de Transportes y Turismo,

— Visto el informe de la Comisión de Asuntos Jurídicos (A9-0178/2020),

A. Considerando que el concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño o perjuicio tenga derecho a reclamar y recibir una indemnización a quien se haya demostrado que es responsable de dicho daño o perjuicio y, por otra parte, proporciona incentivos económicos para que las personas físicas o jurídicas eviten en primer lugar causar daños o perjuicios o consideren en su comportamiento el riesgo de tener que pagar una indemnización;

B. Considerando que cualquier marco jurídico en materia de responsabilidad civil orientado al futuro debe infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales, a fin de lograr un equilibrio entre la protección eficaz y equitativa de las potenciales víctimas de daños o perjuicios y, al mismo tiempo, ofrecer un margen de maniobra suficiente para posibilitar a las empresas, y en particular a las pequeñas y medianas empresas, el desarrollo de nuevas tecnologías, productos o servicios; que esto ayudará a generar confianza ya crear estabilidad para la inversión; que, en última instancia, el objetivo de cualquier marco de responsabilidad civil debe ser ofrecer seguridad jurídica a todas las partes, ya sea el productor, el operador, la persona afectada o cualquier otro tercero;

C. Considerando que el ordenamiento jurídico de un Estado miembro puede modular sus normas sobre responsabilidad civil para determinados agentes o hacerlas más estrictas para determinadas actividades; que la responsabilidad objetiva significa que una parte puede ser considerada responsable pese a la ausencia de culpa; que, en muchas legislaciones nacionales en materia de responsabilidad civil, la parte demandada es considerada objetivamente responsable si un riesgo que dicha parte haya creado para el público, por ejemplo, mediante automóviles o actividades peligrosas, o un riesgo que no pueda controlar, como el originado por animales, resulta en un daño o perjuicio;

D. Considerando que cualquier legislación futura de la Unión que tenga por objeto la atribución expresa de responsabilidad en lo que se refiere a sistemas de inteligencia artificial (IA) debe ir precedida de un análisis y una consulta con los Estados miembros sobre el cumplimiento de condiciones económicas, jurídicas y sociales por parte del acto legislativo propuesto;

E. Considerando que la cuestión de un régimen de responsabilidad civil en materia de IA debe someterse a un amplio debate público que tenga en cuenta todos los intereses en juego, en particular los aspectos éticos, jurídicos, económicos y sociales, a fin de evitar las confusiones y los temores injustificados que esa tecnología pueda causar entre los ciudadanos; que el estudio cuidadoso de las consecuencias de cualquier nuevo marco normativo para todos los agentes en una evaluación de impacto debe ser un requisito previo para adoptar nuevas medidas legislativas;

F. Considerando que el concepto de sistemas de IA comprende un amplio grupo de tecnologías distintas, incluidos la simple estadística, el aprendizaje automático y el aprendizaje profundo;

G. Considerando que la utilización del término «toma de decisiones automatizada» podría evitar la posible ambigüedad del término IA; que la «toma de decisiones automatizada» implica que un usuario delegue inicialmente una decisión, en su totalidad o en parte, en una entidad mediante la utilización de un programa informático o de un servicio; que dicha entidad, a su vez, utiliza modelos de toma de decisiones ejecutados automáticamente para llevar a cabo una acción en nombre de un usuario o para informar las decisiones del usuario a la hora de realizar una acción;

H. Considerando que ciertos sistemas de IA presentan importantes retos jurídicos para el actual marco de responsabilidad civil y podrían dar lugar a situaciones en las que su opacidad podría hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al sistema de IA o qué código, entrada o datos han provocado en última instancia el funcionamiento lesivo; que este factor podría dificultar la identificación de la relación entre el daño o perjuicio y el comportamiento que lo causa, con el resultado de que las víctimas podrían no recibir una indemnización adecuada;

I. Considerando que los retos jurídicos se derivan también de la conectividad entre un sistema de IA y otros sistemas ya sean o no de IA, su dependencia de los datos externos, su vulnerabilidad frente a las violaciones de la ciberseguridad y el diseño de sistemas de IA cada vez más autónomos que usan, entre otras, técnicas de aprendizaje automático y de aprendizaje profundo;

J. Considerando que unas normas éticas firmes para los sistemas de IA combinadas con procedimientos de indemnización sólidos y justos pueden ayudar a abordar estos retos jurídicos y eliminar el riesgo de que los usuarios se muestren reticentes a aceptar la tecnología emergente; que un procedimiento de indemnización justo supone que cada persona que sufra un daño causado por sistemas de IA o que sufra un menoscabo al patrimonio causado por sistemas de IA debe tener el mismo nivel de protección que en aquellos casos en que no haya implicación de un sistema de IA; que el usuario necesita estar seguro de que el posible perjuicio causado por sistemas que utilicen IA está cubierto por un seguro adecuado y de que existe una vía jurídica definida para el resarcimiento;

K. Considerando que la seguridad jurídica es también una condición esencial para el desarrollo dinámico y la innovación de la tecnología basada en la IA, en particular para las empresas emergentes, las microempresas y las pequeñas y medianas empresas, así como para su aplicación práctica en la vida cotidiana; que el papel fundamental de las empresas emergentes, las microempresas y las pequeñas y medianas empresas, en especial en la economía europea, justifica un enfoque estrictamente proporcionado que les permita desarrollarse e innovar;

L. Considerando que la diversidad de los sistemas de IA y la amplia gama de riesgos que la tecnología plantea dificultan los esfuerzos para hallar una solución única adecuada para todo el espectro de riesgos; que, a este respecto, debe adoptarse un enfoque en el que se utilicen experimentos, proyectos piloto y espacios limitados regulatorios para elaborar soluciones proporcionadas y con base empírica que aborden situaciones y sectores específicos cuando sea necesario;

Introducción

1. Considera que el reto relacionado con la introducción de sistemas de IA en la sociedad, el lugar de trabajo y la economía es una de las cuestiones más importantes de la agenda política actual; que las tecnologías basadas en la IA podrían y deberían procurar mejorar nuestras vidas en casi todos los sectores, desde la esfera personal (por ejemplo, sector de los transportes, educación personalizada, asistencia a personas vulnerables, programas de preparación física y concesión de créditos) al entorno de trabajo (por ejemplo, reducción de tareas tediosas y repetitivas) y a los retos mundiales (por ejemplo, la emergencia climática, la asistencia sanitaria, la nutrición y la logística);

2. Cree firmemente que, para aprovechar eficazmente las ventajas e impedir posibles malos usos de los sistemas de IA, así como para evitar la fragmentación normativa en la Unión, es fundamental una legislación uniforme, basada en principios y preparada para el futuro en toda la Unión para todos los sistemas de IA; opina que, si bien son preferibles reglamentaciones sectoriales específicas para la amplia gama de posibles aplicaciones, parece necesario contar con un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la Unión y proteger eficazmente nuestros valores europeos y los derechos de los ciudadanos;

3. Afirma que el mercado único digital necesita una armonización plena puesto que el ámbito digital se caracteriza por una rápida dinámica transfronteriza y flujos de datos internacionales; considera que la Unión solo alcanzará los objetivos de mantener su soberanía digital y de impulsar la innovación digital en Europa con normas coherentes y comunes en consonancia con una cultura de innovación;

4. Observa que la carrera mundial de la IA ya está en marcha y que la Unión debe asumir el liderazgo en ella explotando su potencial científico y tecnológico; hace especial hincapié en que el desarrollo de tecnología no debe socavar la protección de los usuarios contra el perjuicio que puedan causar dispositivos y sistemas que utilicen IA; alienta la promoción de las normas de la Unión en materia de responsabilidad civil a escala internacional;

5. Cree firmemente que las nuevas normas comunes para los sistemas de IA solo deben adoptar la forma de un reglamento; considera que la cuestión de la responsabilidad civil en caso de daño o perjuicio causado por un sistema de IA es uno de los aspectos clave que deben abordarse en este contexto;

Responsabilidad civil e inteligencia artificial

6. Cree que no es necesaria una revisión completa de los regímenes de responsabilidad civil que funcionan bien, pero que, no obstante, la complejidad, la conectividad, la opacidad, la vulnerabilidad, la capacidad de ser modificados mediante actualizaciones, la capacidad de autoaprendizaje y la autonomía potencial de los sistemas de IA, así como la multitud de agentes involucrados representan un reto importante para la eficacia de las disposiciones del marco de responsabilidad civil de la Unión y nacional; considera que es necesario realizar adaptaciones específicas y coordinadas de los regímenes de responsabilidad civil para evitar situaciones en las que personas que sufran un daño o un menoscabo a su patrimonio acaben sin indemnización;

7. Observa que todas las actividades, dispositivos o procesos físicos o virtuales gobernados por sistemas de IA pueden ser técnicamente la causa directa o indirecta de un daño o un perjuicio, pero casi siempre son el resultado de que alguien ha construido o desplegado los sistemas o interferido en ellos; observa, a este respecto, que no es necesario atribuir personalidad jurídica a los sistemas de IA; opina que la opacidad, la conectividad y la autonomía de los sistemas de IA podrían dificultar o incluso imposibilitar en la práctica la trazabilidad de acciones perjudiciales específicas de los sistemas de IA hasta una intervención humana específica o decisiones de diseño; recuerda que, de conformidad con conceptos de responsabilidad civil ampliamente aceptados, se puede eludir, no obstante, este obstáculo haciendo responsables a las diferentes personas de toda la cadena de valor que crean, mantienen o controlan el riesgo asociado al sistema de IA;

8. Considera que la Directiva sobre responsabilidad por los daños causados por productos defectuosos ha demostrado ser, durante más de treinta años, un medio eficaz para obtener una indemnización por un daño causado por un producto defectuoso, pero que, no obstante, debe revisarse para adaptarla al mundo digital y abordar los retos que plantean las tecnologías digitales emergentes, para así garantizar un elevado nivel de protección efectiva de los consumidores y de seguridad jurídica para los consumidores y las empresas, a la vez que se evitan elevados costes y riesgos para las pymes y las empresas emergentes; insta a la Comisión a que evalúe si la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe transformarse en un reglamento, a que aclare la definición de «productos», determinando para ello si el contenido digital y los servicios digitales entran dentro de su ámbito de aplicación, y a que considere la posibilidad de adaptar conceptos como «daño», «defecto» y «productor»; opina que, en aras de la seguridad jurídica en toda la Unión, tras la revisión de la Directiva, el concepto de «productor» debe incluir a fabricantes, desarrolladores, programadores, prestadores de servicios y operadores finales; pide a la Comisión que considere la posibilidad de revertir las normas que rigen la carga de la prueba para los daños ocasionados por las tecnologías digitales emergentes en casos claramente definidos y tras una adecuada evaluación; señala la importancia de garantizar que el acto de la Unión actualizado se limite a problemas claramente identificados para los que ya existen soluciones viables y, al mismo tiempo, permita la inclusión de futuros avances tecnológicos, incluidos los avances basados en programas informáticos libres y de código abierto; señala que la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe seguir utilizándose en relación con las reclamaciones por responsabilidad civil contra el productor de un sistema de IA defectuoso, cuando el sistema de IA cumpla los requisitos para ser considerado un producto con arreglo a dicha Directiva; subraya que cualquier actualización del marco de responsabilidad por los productos debe ir de la mano de la actualización de la Directiva 2001/95/CE del Parlamento Europeo y del Consejo, de 3 de diciembre de 2001, relativa a la seguridad general de los productos (16), a fin de garantizar que los sistemas de IA incorporen los principios de seguridad y protección desde el diseño;

9. Considera que la legislación vigente de los Estados miembros en materia de responsabilidad subjetiva ofrece, en la mayoría de los casos, un nivel de protección suficiente a las personas que sufren perjuicios causados por un tercero interferidor como un pirata informático o a las personas que sufren menoscabo al patrimonio por ese tercero, ya que esta interferencia por regla general constituye una acción de responsabilidad civil subjetiva; observa que solo en casos específicos, incluidos aquellos en los que el tercero no sea rastreable o sea insolvente, parece necesario añadir normas en materia de responsabilidad civil para complementar la legislación nacional en materia de responsabilidad civil existente;

10. Considera, por consiguiente, que el presente informe debe centrarse en las reclamaciones por responsabilidad civil contra el operador de un sistema de IA; afirma que la responsabilidad civil del operador se justifica por el hecho de que controla un riesgo asociado al sistema de IA, comparable al del propietario de un automóvil; considera que, debido a la complejidad y conectividad de un sistema de IA, el operador será, en muchos casos, el primer punto de contacto visible para la persona afectada;

Responsabilidad civil del operador

11. Opina que las normas en materia de responsabilidad civil que afecten al operador deben cubrir todas las operaciones de los sistemas de IA, independientemente de dónde se lleve a cabo la operación y de que esta sea física o virtual; observa que las operaciones en espacios públicos que exponen a muchas personas a un riesgo constituyen, sin embargo, casos que requieren una consideración más profunda; considera que a menudo las víctimas potenciales de daños o perjuicios no son conscientes de la operación y no suelen disponer de derechos a reclamar por responsabilidad contractual contra el operador; señala que, si se produce un daño o perjuicio, esas personas solo tendrían una pretensión por responsabilidad subjetiva y podrían tener dificultades para demostrar la culpa del operador del sistema de IA, por lo que podrían fracasar las correspondientes demandas por responsabilidad civil;

12. Considera adecuado que por «operador» se entienda tanto al operador final como al operador inicial, siempre que a este último no se le aplique la Directiva sobre responsabilidad por los daños causados por productos defectuosos; señala que por «operador final» debe entenderse la persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento; afirma que por «operador inicial» debe entenderse la persona física o jurídica que define, de forma continuada, las características de la tecnología, proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA; considera que por «ejercicio del control» se entiende cualquier acción del operador que influya en el funcionamiento del sistema de IA y, por consiguiente, en la medida en que expone a terceros a sus potenciales riesgos; considera que esas acciones podrían afectar al funcionamiento de un sistema de IA desde el inicio al fin, al determinar la entrada, la salida o los resultados, o podrían cambiar las funciones o procesos específicos dentro del sistema de IA;

13. Señala que podrían darse situaciones en las que haya más de un operador, por ejemplo, un operador final y un operador inicial; considera que, en ese caso, todos los operadores deben ser responsables civiles solidarios, aunque teniendo al mismo tiempo derecho a reclamar en la vía de regreso unos de otros de forma proporcional; opina que los porcentajes de responsabilidad deben venir determinados por los respectivos niveles de control que tengan los operadores sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA; considera que debe mejorarse la trazabilidad de los productos con el fin de identificar mejor a los que intervienen en las distintas fases;

Normas en materia de responsabilidad civil diferentes para riesgos diferentes

14. Reconoce que el tipo de sistema de IA sobre el que el operador ejerce control es un factor determinante en lo que respecta a la responsabilidad; observa que un sistema de IA que conlleve un alto riesgo inherente y actúe de manera autónoma potencialmente pone en peligro en mucha mayor medida al público en general; considera que, habida cuenta de los retos jurídicos que plantean los sistemas de IA para los regímenes de responsabilidad civil existentes, parece razonable establecer un régimen común de responsabilidad objetiva para los sistemas de IA autónomos de alto riesgo; subraya que este enfoque basado en el riesgo, que puede incluir varios niveles de riesgo, debe basarse en criterios claros y una definición adecuada de «alto riesgo», así como ofrecer seguridad jurídica;

15. Cree que un sistema de IA presenta un alto riesgo cuando su funcionamiento autónomo conlleva un potencial significativo de causar daño a una o más personas, de forma aleatoria y yendo más allá de lo que cabe esperar razonablemente; considera que, a la hora de determinar si un sistema de IA es de alto riesgo, también debe tenerse en cuenta el sector en el que cabe esperar que surjan riesgos importantes y la naturaleza de las actividades realizadas; considera que la magnitud del potencial depende de la relación entre la gravedad del posible daño, la probabilidad de que el riesgo cause un daño o un perjuicio y el modo en que se utiliza el sistema de IA;

16. Recomienda que todos los sistemas de IA de alto riesgo se enumeren de forma exhaustiva en un anexo del Reglamento propuesto; reconoce que, dado el rápido desarrollo tecnológico y los conocimientos técnicos necesarios, la Comisión debe revisar dicho anexo sin demoras injustificadas y, a más tardar, cada seis meses y, en caso necesario, modificarlo mediante un acto delegado; cree que la Comisión debe cooperar estrechamente con un comité permanente de nueva creación, similar al Comité Permanente sobre Precursores o al Comité Técnico sobre Vehículos de Motor ya existentes, que incluyen a expertos nacionales de los Estados miembros y a las partes interesadas; considera que la composición equilibrada del Grupo de expertos de alto nivel sobre la inteligencia artificial podría servir de ejemplo para la formación del grupo de partes interesadas, con la suma de expertos en ética, antropólogos, sociólogos y especialistas en salud mental; opina también que el Parlamento Europeo debe nombrar expertos consultivos para asesorar al comité permanente de nueva creación;

17. Señala que el desarrollo de tecnologías basadas en la IA es muy dinámico y está en continua aceleración; subraya que, a fin de garantizar una protección adecuada a los usuarios, se necesita un enfoque acelerado para analizar los potenciales riesgos de nuevos dispositivos y sistemas que utilicen los sistemas de IA que surjan en el mercado europeo; recomienda una simplificación en la mayor medida posible de todos los procedimientos en este sentido; propone, además, que la evaluación por parte de la Comisión de si un sistema de IA presenta un alto riesgo debe comenzar al mismo tiempo que la evaluación de la seguridad de los productos a fin de evitar una situación en la que un sistema de IA de alto riesgo ya esté aprobado para su comercialización pero aún no esté clasificado como de alto riesgo y, por tanto, funcione sin cobertura de seguro obligatoria;

18. Señala que la Comisión debe evaluar de qué manera la autoridad investigadora podría acceder a los datos recogidos, registrados o almacenados en sistemas de IA de alto riesgo y hacer uso de ellos a efectos de recabar pruebas en caso de daño o perjuicio causado por dicho sistema, y cómo podría mejorarse la trazabilidad y auditabilidad de dichos datos, teniendo en cuenta al mismo tiempo los derechos fundamentales y el derecho a la intimidad;

19. Afirma que, en consonancia con los sistemas de responsabilidad objetiva de los Estados miembros, la propuesta de Reglamento debe ser de aplicación a las violaciones de derechos importantes, jurídicamente protegidos, a la vida, la salud, la integridad física y la propiedad, y establecer los importes y el alcance de la indemnización, así como el plazo de prescripción; opina que el Reglamento propuesto debe incluir también los daños inmateriales significativos que den lugar a una pérdida económica comprobable por encima de un umbral, armonizado en el Derecho de la Unión en materia de responsabilidad civil, que equilibre el acceso a la justicia de las personas afectadas y los intereses de otras personas interesadas; insta a la Comisión a que revalúe y ajuste en el Derecho de la Unión los umbrales relativos a los daños y perjuicios; considera que la Comisión debe analizar en profundidad las tradiciones jurídicas de todos los Estados miembros y sus legislaciones nacionales vigentes que conceden una indemnización por daños inmateriales, a fin de evaluar si la inclusión de los daños inmateriales en actos legislativos específicos sobre IA es necesaria y si contradice el marco jurídico vigente de la Unión o socava el Derecho nacional de los Estados miembros;

20. Precisa que todas las actividades, dispositivos o procesos gobernados por sistemas de IA que ocasionen un daño o perjuicio pero no estén incluidos en el anexo del Reglamento propuesto deben seguir estando sujetos a la responsabilidad subjetiva; cree, no obstante, que la persona afectada debe poder acogerse a una presunción de culpa del operador, quien debe poder quedar eximido de culpa demostrando que ha observado el deber de diligencia;

21. Considera que un sistema de IA que aún no haya sido evaluado por la Comisión y el comité permanente de nueva creación y que, por lo tanto, todavía no esté clasificado como de alto riesgo ni incluido en la lista que figura en el anexo del Reglamento propuesto, debe, no obstante, quedar sujeto, como excepción al sistema previsto en el apartado 20, a una responsabilidad objetiva si ha causado incidentes reiterados que den lugar a un daño o un perjuicio grave; señala que, de ser ese el caso, la Comisión también debe evaluar, sin demora indebida, la necesidad de revisar dicho anexo para añadir el sistema de IA en cuestión a la lista; opina que, si, a raíz de dicha evaluación, la Comisión decide incluir dicho sistema de IA en la lista, dicha inclusión debe tener efecto retroactivo a partir del momento del primer incidente probado causado por dicho sistema que haya ocasionado un daño o un perjuicio grave;

22. Pide a la Comisión que evalúe la necesidad de disposiciones jurídicas a escala de la Unión en materia de contratos para evitar la inclusión de cláusulas contractuales de exención de la responsabilidad, también en las relaciones entre empresas y entre empresas y la administración;

Seguros y sistemas de IA

23. Considera que la cobertura de la responsabilidad civil es uno de los factores clave que define el éxito de las nuevas tecnologías, productos y servicios; observa que una cobertura de la responsabilidad civil adecuada es también esencial para garantizar que el público pueda confiar en la nueva tecnología, a pesar de las posibilidades de sufrir un daño o de hacer frente a demandas judiciales por parte de las personas afectadas; observa, al mismo tiempo, que este sistema regulador se centra en la necesidad de explotar y potenciar las ventajas de los sistemas de IA, a la vez que se establecen sólidas salvaguardias;

24. Opina que, sobre la base del potencial significativo para causar un daño o un perjuicio y teniendo en cuenta la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así como al control de la obligación de asegurar esta responsabilidad (17), todos los operadores de sistemas de IA de alto riesgo enumerados en el anexo del Reglamento propuesto deben ser titulares de un seguro de responsabilidad civil; considera que ese régimen de seguro obligatorio para los sistemas de IA de alto riesgo debe cubrir los importes y el alcance de la indemnización establecidos por el Reglamento propuesto; es consciente de que actualmente dicha tecnología es todavía muy inusual, ya que presupone un alto grado de toma de decisiones autónoma, y de que, por consiguiente, los debates actuales están orientados sobre todo al futuro; cree, no obstante, que la incertidumbre relacionada con los riesgos no debe hacer que las primas de seguro sean prohibitivamente elevadas y convertirse así en un obstáculo para la investigación y la innovación;

25. Cree que un mecanismo de indemnización a escala de la Unión, financiado con fondos públicos, no es la manera adecuada de colmar posibles lagunas en materia de seguros; considera que la falta de datos sobre los riesgos asociados a los sistemas de IA, unida a la incertidumbre sobre su evolución en el futuro, dificulta al sector de los seguros elaborar productos de seguro nuevos o adaptados; considera que es probable que dejar el desarrollo de un seguro obligatorio plenamente al mercado resulte en un enfoque de «talla única» con primas desproporcionadamente elevadas y los incentivos equivocados, alentando a los operadores a optar por el seguro más barato en lugar de por la mejor cobertura, lo que podría convertirse en un obstáculo para la investigación y la innovación; considera que la Comisión debe colaborar estrechamente con el sector de los seguros para estudiar la forma de poder utilizar datos y modelos innovadores para crear pólizas de seguro que ofrezcan una cobertura adecuada a un precio asequible;

Aspectos finales

26. Pide a la Comisión que le someta, sobre la base del artículo 225 del Tratado de Funcionamiento de la Unión Europea, una propuesta de Reglamento sobre la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial, siguiendo las recomendaciones que se recogen en el anexo;

27. Considera que la propuesta solicitada carece de repercusiones financieras;

28. Encarga a su presidente que transmita la presente Resolución y las recomendaciones que se recogen en el anexo a la Comisión y al Consejo.

ANEXO A LA RESOLUCIÓN:

RECOMENDACIONES DETALLADAS PARA LA ELABORACIÓN DE UN REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO RELATIVO A LA RESPONSABILIDAD CIVIL POR EL FUNCIONAMIENTO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL

A. PRINCIPIOS Y OBJETIVOS DE LA PROPUESTA SOLICITADA

El presente informe aborda un aspecto importante de la digitalización que viene configurado por las actividades transfronterizas, la competencia mundial y consideraciones sociales básicas. Los siguientes principios deben servir de orientación:

1. Un mercado único digital genuino requiere una armonización completa mediante un reglamento.

2. Los nuevos retos jurídicos que plantea el desarrollo de sistemas de inteligencia artificial (IA) deben abordarse estableciendo la máxima seguridad jurídica a lo largo de la cadena de responsabilidad, en particular para el productor, el operador, la persona afectada y cualquier otro tercero.

3. No debe haber una sobrerregulación y debe evitarse la carga burocrática, ya que, de lo contrario, se obstaculizaría la innovación europea en materia de IA, especialmente en caso de que la tecnología, los productos o los servicios sean desarrollados por pymes o empresas emergentes.

4. Las normas de responsabilidad civil para la IA deben tratar de lograr un equilibrio entre la protección del público, por una parte, y los incentivos empresariales para invertir en innovación, especialmente en sistemas de IA, por otra.

5. En lugar de sustituir los regímenes de responsabilidad civil existentes, que funcionan correctamente, deben realizar algunos ajustes necesarios mediante la introducción de ideas nuevas y orientadas al futuro.

6. La futura propuesta de Reglamento y la Directiva sobre responsabilidad por los daños causados por productos defectuosos constituyen los dos pilares de un marco común de responsabilidad civil para los sistemas de IA y requieren una estrecha coordinación y concertación entre todos los agentes políticos, a nivel nacional y de la Unión.

7. Los ciudadanos deben tener derecho al mismo nivel de protección y de derechos, independientemente de si el daño es causado por un sistema de IA o no, o de si tiene lugar física o virtualmente, de tal forma que aumente su confianza en la nueva tecnología.

8. En la futura propuesta de Reglamento deben tenerse en cuenta tanto el daño material como el daño inmaterial. Sobre la base, entre otros documentos, de su Informe de 19 de febrero de 2020 sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica, se pide a la Comisión Europea que analice en profundidad las tradiciones jurídicas de todos los Estados miembros, así como las disposiciones legislativas vigentes que conceden una indemnización por daños inmateriales, a fin de evaluar si la inclusión de los daños inmateriales en la futura propuesta de Reglamento es jurídicamente sólida y necesaria desde el punto de vista de la persona afectada. De acuerdo con la información actualmente disponible, el Parlamento considera que debe incluirse el daño inmaterial significativo si la persona afectada sufre una pérdida económica apreciable, es decir, una pérdida económica comprobable.

B. TEXTO DE LA PROPUESTA SOLICITADA

Propuesta de REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial

EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea, en particular, su artículo 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo (1),

De conformidad con el procedimiento legislativo ordinario (2),

Considerando lo siguiente:

(1) El concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño o perjuicio tenga derecho a reclamar una indemnización a quien se haya considerado responsable de dicho daño o perjuicio y, por otra parte, proporciona incentivos económicos para que las personas eviten en primer lugar causar daños o perjuicios. Cualquier marco en materia de responsabilidad civil debe aspirar a infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales emergentes, como la inteligencia artificial (IA), el internet de las cosas o la robótica, a fin de lograr un equilibrio entre la protección eficaz de las potenciales víctimas de un daño o un perjuicio y, al mismo tiempo, ofrecer un margen de maniobra suficiente para posibilitar el desarrollo de nuevas tecnologías, productos o servicios.

(2) En particular al principio del ciclo de vida de los nuevos productos y servicios, tras haber sido probados previamente, existe cierto nivel de riesgo para el usuario, así como para terceras personas, de que algo no funcione correctamente. Este proceso de prueba y error también es, al mismo tiempo, un factor clave para el progreso técnico, sin el cual la mayor parte de nuestras tecnologías no existirían. Hasta ahora, los riesgos asociados a nuevos productos y servicios se han visto atenuados adecuadamente por la sólida legislación en materia de seguridad de los productos y las normas sobre responsabilidad civil.

(3) El auge de la IA plantea, sin embargo, un reto importante para los actuales marcos de responsabilidad civil. La utilización de sistemas de IA en nuestra vida cotidiana lleva a situaciones en las que su opacidad (el elemento «caja negra») y el gran número de agentes que intervienen en su ciclo de vida podrían hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al uso del sistema de IA en cuestión o qué código o entrada ha provocado en última instancia el funcionamiento lesivo. Esta dificultad se ve agravada por la conectividad entre un sistema de IA y otros sistemas ya sean o no de IA, por su dependencia de los datos externos, por su vulnerabilidad frente a las violaciones de la ciberseguridad y por la creciente autonomía de los sistemas de IA debido a las capacidades de aprendizaje automático y de aprendizaje profundo. Además de estas características complejas y las posibles vulnerabilidades, los sistemas de IA también podrían utilizarse para causar daños graves, por ejemplo, poniendo en peligro la dignidad humana y los valores y libertades europeos mediante el seguimiento de las personas contra su voluntad, la introducción de sistemas de crédito social o la toma de decisiones sesgadas en materia de seguro de enfermedad, concesión de crédito, autos judiciales, contratación o empleo o mediante la construcción de sistemas armamentísticos autónomos letales.

(4) Es importante señalar que las ventajas del despliegue de sistemas de IA compensarán con creces sus desventajas. Ayudarán a combatir el cambio climático de manera más eficaz, a mejorar los exámenes médicos y las condiciones de trabajo, a integrar mejor a las personas con discapacidad y las personas mayores en la sociedad y a ofrecer cursos de educación a medida para todo tipo de estudiantes. Para aprovechar las distintas oportunidades tecnológicas e impulsar la confianza de los ciudadanos en el uso de los sistemas de IA, al mismo tiempo que se evitan situaciones perjudiciales, la mejor manera de avanzar son unas normas éticas firmes combinadas con procedimientos de indemnización justos y sólidos.

(5) También es necesario un régimen de responsabilidad civil adecuado para contrarrestar la infracción de las normas de seguridad. No obstante, el régimen de responsabilidad civil establecido en el presente Reglamento debe tener en cuenta todos los intereses en juego. El estudio cuidadoso de las consecuencias de cualquier nuevo marco normativo  para las pequeñas y medianas empresas (pymes) y las empresas emergentes es un requisito previo a la adopción de cualquier nueva medida legislativa. El papel fundamental que esas empresas desempeñan en la economía europea justifica un enfoque estrictamente proporcionado para permitirles desarrollarse e innovar. Por otra parte, las víctimas de daños o perjuicios causados por sistemas de IA deben tener derecho a resarcimiento y a la plena indemnización de los daños o perjuicios que hayan sufrido.

(6) Cualquier cambio necesario del marco jurídico vigente debe comenzar con la aclaración de que los sistemas de IA no tienen personalidad jurídica ni conciencia humana, y que su única función es servir a la humanidad. Muchos sistemas de IA tampoco son tan diferentes de otras tecnologías basadas, a veces, en programas informáticos aún más complejos. En última instancia, la gran mayoría de los sistemas de IA se utiliza para efectuar tareas triviales, sin riesgo o con riesgos mínimos para la sociedad. La utilización del término «toma de decisiones automatizada» podría evitar la posible ambigüedad del término IA. Ese término describe una situación en la que un usuario delega inicialmente una decisión, en su totalidad o en parte, en una entidad mediante un programa informático o un servicio. Esa entidad, a su vez, utiliza modelos de toma de decisiones ejecutados automáticamente para llevar a cabo una acción en nombre de un usuario o para informar la decisión del usuario a la hora de realizar una acción;

(7) Sin embargo, existen también sistemas de IA que se desarrollan y despliegan de manera crítica y se basan en tecnologías como redes neuronales y procesos de aprendizaje profundo. Su opacidad y autonomía podrían dificultar la trazabilidad de acciones específicas hasta decisiones humanas específicas en su diseño o en su funcionamiento. Un operador de un sistema de IA de este tipo podría, por ejemplo, argumentar que la actividad, el dispositivo o el proceso físico o virtual que causa el daño o perjuicio se encontraba fuera de su control debido a que fue causado por un funcionamiento autónomo de su sistema de IA. Además, el mero funcionamiento de un sistema de IA autónomo no debe constituir un motivo suficiente para admitir una demanda por responsabilidad civil. Por consiguiente, puede haber casos de responsabilidad civil en los que la atribución de la responsabilidad puede ser injusta o ineficiente, o en los que una persona que sufra un daño o perjuicio causado por un sistema de IA no pueda demostrar la culpa del productor, de un tercero interferidor o del operador y acabe sin indemnización alguna.

(8) No obstante, debe quedar siempre claro que la persona que cree el sistema de IA, lo mantenga, lo controle o interfiera en él debe ser responsable del daño o perjuicio que cause la actividad, el dispositivo o el proceso. Esto se desprende de conceptos de justicia en materia de responsabilidad civil ampliamente aceptados y de carácter general en virtud de los cuales la persona que crea o mantiene un riesgo para el público es responsable si dicho riesgo causa un daño o un perjuicio y, por lo tanto, debe minimizar ex ante o indemnizar ex post dicho riesgo. Por consiguiente, el auge de los sistemas de IA no implica la necesidad de revisar completamente las normas en materia de responsabilidad civil en toda la Unión. Unos ajustes concretos de la legislación vigente y la introducción de nuevas disposiciones bien ponderadas y orientadas serían suficientes para hacer frente a los retos que plantea la IA, a fin de evitar la fragmentación normativa y garantizar la armonización de la legislación en materia de responsabilidad civil en toda la Unión en relación con la IA.

(9) La Directiva 85/374/CEE del Consejo sobre responsabilidad por los daños causados por productos defectuosos (3) ha demostrado ser durante más de treinta años un medio eficaz para obtener una indemnización por los perjuicios causados por un producto defectuoso. Por lo tanto, también debe utilizarse en relación con las reclamaciones por responsabilidad civil presentadas contra el productor de un sistema de IA defectuoso por una parte que sufra un daño o perjuicio. En consonancia con los principios de mejora de la legislación de la Unión, todo ajuste legislativo necesario debe debatirse durante la revisión necesaria de dicha Directiva. La legislación vigente de los Estados miembros en materia de responsabilidad subjetiva también ofrece, en la mayoría de los casos, un nivel de protección suficiente a las personas que sufren un daño o un perjuicio causado por un tercero interferidor, ya que esta interferencia por regla general constituye una acción de responsabilidad subjetiva en la que el tercero utiliza el sistema de IA para causar daños. Por consiguiente, el presente Reglamento debe centrarse en las reclamaciones contra el operador de un sistema de IA.

(10) En el marco del presente Reglamento, la responsabilidad civil del operador se basa en el hecho de que ejerce un grado de control sobre un riesgo asociado al funcionamiento y la operación de un sistema de IA, comparable al del propietario de un vehículo. Cuanto mayor sea el grado de sofisticación y de autonomía de un sistema, mayor será el impacto de la definición y la alteración de los algoritmos, por ejemplo a través de actualizaciones constantes. Dado

que a menudo podría considerarse, de manera significativa, que hay más de una persona «operando» el sistema de IA, con arreglo al presente Reglamento el término «operador» debe entenderse que comprende tanto al operador final como al final. Aunque en general el operador final parece ser la persona que decide «principalmente» el uso del sistema de IA, el operador inicial podría, de hecho, tener un grado de control más elevado sobre los riesgos operativos. Si el operador inicial también tiene la condición de «productor» en el sentido del artículo 3 de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, debe aplicársele dicha Directiva. Si solo hay un operador y dicho operador es también el productor del sistema de IA, el presente Reglamento debe prevalecer sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos.

(11) Si un usuario, es decir, la persona que utiliza el sistema de IA, está involucrado en el incidente que causa el daño, solo debe ser considerado responsable en virtud del presente Reglamento si el usuario también tiene la condición de operador. En caso contrario, el grado de contribución manifiestamente imprudente o dolosa del usuario al riesgo podría conducir a la responsabilidad subjetiva del usuario ante el demandante. Los derechos del consumidor aplicables del usuario no deben verse afectados.

(12) El presente Reglamento debe permitir a la persona afectada presentar demandas por responsabilidad civil a lo largo de la cadena de responsabilidad y de todo el ciclo de vida de un sistema de IA. También debe abarcar todos los sistemas de IA, independientemente del lugar de operación y de si esta es de carácter físico o virtual. Sin embargo, la mayoría de las demandas por responsabilidad civil en virtud del presente Reglamento deben abordar casos de responsabilidad ante terceros en los que un sistema de IA funciona en un espacio público y expone a numerosas personas a un riesgo. En este tipo de situaciones, las personas afectadas a menudo no estarán al tanto del sistema de IA que se utiliza ni tendrán una relación contractual o jurídica con el operador. Por consiguiente, la utilización del sistema de IA los coloca en una situación en la que, en caso de daño o perjuicio, solo pueden pretender reclamar la responsabilidad subjetiva del operador del sistema de IA, al tiempo que se enfrentan a graves dificultades para demostrar la culpa del operador.

(13) El tipo de sistema de IA sobre el que el operador ejerce el control es un factor determinante. Un sistema de IA que implique un alto riesgo puede poner en peligro al usuario o al público en un grado mucho más elevado y de manera aleatoria y yendo más allá de lo que cabe esperar razonablemente. Esto significa que, al inicio del funcionamiento autónomo del sistema de IA, la mayoría de las personas potencialmente afectadas no son ni conocidas ni identificables (por ejemplo, las personas que se encuentren en una plaza pública o en una casa vecina), a diferencia de lo que ocurre en el caso del funcionamiento de un sistema de IA en el que participan personas concretas, que han dado regularmente su consentimiento previo para su despliegue, por ejemplo, una intervención quirúrgica en un hospital o una demostración comercial en una tienda pequeña. La definición de la importancia del potencial de un sistema de IA de alto riesgo de causar daños o perjuicios depende de la interacción entre la finalidad de uso para la que se comercializa el sistema de IA, la forma en que se usa el sistema de IA, la gravedad del daño o perjuicio potencial, el grado de autonomía de la toma de decisiones que puede resultar en daños y de la probabilidad de que el riesgo se materialice. El grado de gravedad debe determinarse sobre la base de factores relevantes como la magnitud del daño potencial resultante del funcionamiento en las personas afectadas, incluido, en particular, el efecto en los derechos fundamentales, el número de personas afectadas, el valor total del posible perjuicio y el daño a la sociedad en su conjunto. La probabilidad del daño o perjuicio debe determinarse sobre la base de factores relevantes como el papel de los cálculos algorítmicos en el proceso de toma de decisiones, la complejidad de la decisión y la reversibilidad de los efectos. En última instancia, la forma de uso debe depender de factores relevantes como el contexto y el sector en el que opera el sistema de IA, si puede tener efectos jurídicos o fácticos sobre derechos importantes de la persona afectada jurídicamente protegidos y de si los efectos pueden evitarse razonablemente.

(14) En un anexo al Reglamento presente deben enumerarse exhaustivamente todos los sistemas de IA de alto riesgo. Habida cuenta de la rápida evolución técnica y del mercado a escala mundial, así como de los conocimientos técnicos que se necesitan para una revisión adecuada de los sistemas de IA, deben delegarse en la Comisión poderes para adoptar actos delegados con arreglo al artículo 290 del Tratado de Funcionamiento de la Unión Europea con el fin de modificar el presente Reglamento en lo que se refiere a los tipos de sistemas de IA que entrañan un alto riesgo y los sectores críticos en los que se usan. Sobre la base de las definiciones y disposiciones recogidas en el presente Reglamento, la Comisión debe revisar el anexo en el plazo más breve posible y, en todo caso cada seis meses y, si procede, modificarlo mediante actos delegados. La evaluación por parte de la Comisión de si un sistema de IA presenta un riesgo elevado debe comenzar al mismo tiempo que la evaluación de la seguridad de los productos a fin de evitar una situación en la que un sistema de IA de alto riesgo ya esté aprobado para su comercialización pero aún no esté clasificado como de alto riesgo y, por tanto, funcione sin cobertura de seguro obligatoria. Para que las empresas y los organismos de investigación dispongan de seguridad suficiente en términos de planificación e inversión, los cambios en los sectores críticos solo deben realizarse cada doce meses. Debe instarse a los operadores a que informen a la Comisión de si están trabajando en una nueva tecnología, productos o servicios que se inscriban en uno de los sectores críticos existentes previstos en el anexo y que posteriormente podrían clasificarse como sistema de IA de alto riesgo.

(15) Reviste especial importancia que la Comisión lleve a cabo consultas periódicas adecuadas con todas las partes interesadas pertinentes durante la fase preparatoria, en particular con expertos, y que esas consultas se realicen de conformidad con los principios establecidos en el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación (4). La Comisión debe ser apoyada en su revisión periódica por un comité permanente denominado «Comité técnico — sistemas de IA de alto riesgo» (TCRAI, por sus siglas en inglés), de conformidad con el presente Reglamento. Este comité permanente debe incluir representantes de los Estados miembros, así como una selección equilibrada de las partes interesadas, incluidas asociaciones de consumidores, asociaciones que representan a las personas afectadas, representantes de empresas de distintos sectores y tamaños, así como investigadores y científicos. En particular, a fin de garantizar una participación equitativa en la preparación de los actos delegados, el Parlamento Europeo y el Consejo reciben toda la documentación al mismo tiempo que los expertos de los Estados miembros, y sus expertos tienen acceso sistemáticamente a las reuniones de los grupos de expertos de la Comisión y del Comité mencionado anteriormente que se ocupen de la preparación de actos delegados.

(16) El presente Reglamento debe cubrir los daños o perjuicios a la vida, la salud, la integridad física, la propiedad y los daños morales significativos que den lugar a una pérdida económica comprobable por encima de un umbral, armonizado en el Derecho de la Unión en materia de responsabilidad civil, que equilibre el acceso a la justicia de las personas afectadas con los intereses de otras personas implicadas. La Comisión debe reevaluar y ajustar en el Derecho de la Unión los umbrales relativos a los perjuicios. Por daño moral significativo debe entenderse un daño como consecuencia del cual la persona afectada sufre un perjuicio considerable, un menoscabo objetivo y demostrable de sus intereses personales y una pérdida económica calculada teniendo en cuenta, por ejemplo, las cifras medias anuales de ingresos anteriores y otras circunstancias pertinentes. El presente Reglamento también debe determinar el importe y el alcance de la indemnización, así como el plazo de prescripción para presentar demandas en materia de responsabilidad civil. El presente Reglamento debe establecer un límite máximo de indemnización significativamente inferior que el recogido en la Directiva sobre responsabilidad por los daños causados por productos defectuosos, ya que el Reglamento solo se refiere al daño o perjuicio de una sola persona resultante de una única utilización de un sistema de IA, mientras que dicha Directiva se refiere a una serie de productos o, incluso, a una línea de productos con el mismo defecto.

(17) Todas las actividades, dispositivos o procesos físicos o virtuales gobernados por los sistemas de IA que no se incluyan en la lista del anexo del presente Reglamento como sistemas de IA de alto riesgo deben seguir estando sujetos a la responsabilidad subjetiva, a menos que estén en vigor leyes nacionales o legislación en materia de protección de los consumidores más estrictas. Deben seguir aplicándose las legislaciones nacionales de los Estados miembros, incluida cualquier jurisprudencia pertinente, en relación con el importe y el alcance de la indemnización, así como el plazo de prescripción. No obstante, una persona que sufra un daño o perjuicio causado por un sistema de IA y que no se incluya en la lista como sistema de IA de alto riesgo debe acogerse a la presunción de culpa del operador.

(18) La diligencia debida que cabe esperar de un operador debe ser acorde con i) la naturaleza del sistema de IA; ii) el derecho jurídicamente protegido potencialmente afectado; iii) el daño o perjuicio potencial que podría causar el sistema de IA; y iv) la probabilidad de dicho perjuicio. Por consiguiente, debe tenerse en cuenta que el operador podría tener un conocimiento limitado de los algoritmos y datos utilizados en el sistema de IA. Se debe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él al seleccionar un sistema de IA adecuado si ha seleccionado un sistema de IA que ha sido certificado conforme a un sistema similar al sistema de etiquetado voluntario previsto por la Comisión (5). Se debe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él durante el funcionamiento del sistema de IA, si el operador puede demostrar que ha supervisado real y periódicamente el sistema de IA durante su funcionamiento y si ha informado al fabricante sobre posibles irregularidades durante el mismo. Se debe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él en lo que se refiere al mantenimiento de la fiabilidad operativa si ha instalado todas las actualizaciones disponibles proporcionadas por el productor del sistema de IA. Dado que el grado de sofisticación de los operadores puede variar en función de si son meros consumidores o profesionales, los deberes de diligencia deben adaptarse en consecuencia.

(19) Para que el operador pueda demostrar que no es responsable o para permitir que la persona afectada pueda demostrar la existencia de culpa, los productores han de tener el deber de colaborar con las dos partes interesadas, también mediante la facilitación de información bien documentada. Tanto los productores establecidos en la Unión como fuera de ella deben tener, además, la obligación de designar a un representante en materia de responsabilidad civil de la IA en la Unión como punto de contacto para responder a todas las solicitudes de los operadores, de modo similar a los delegados de protección de datos de conformidad con el artículo 37 del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo (6), a los representantes del fabricante definidos en el artículo 3, punto 41, del Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo (7), o al representante autorizado mencionado en el artículo 4, apartado 2, y en el artículo 5 del Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo (8).

(20) El legislador debe tener en cuenta los riesgos en materia de responsabilidad civil relacionados con los sistemas de IA durante todo su ciclo de vida, desde el desarrollo, pasando por su uso hasta el fin de su vida útil, incluida la gestión de residuos y del reciclado. La inclusión de sistemas de IA en un producto o servicio representa un riesgo financiero para las empresas y, por consiguiente, va a tener un fuerte impacto en la capacidad y las opciones de las pymes, así como de las empresas emergentes, en materia de seguros y de financiación de sus proyectos de investigación ydesarrollo basados en nuevas tecnologías. El objetivo de la responsabilidad civil, por lo tanto, no es solo salvaguardar importantes derechos de las personas que están jurídicamente protegidos sino también determinar si las empresas, en particular las pymes y las empresas emergentes, son capaces de reunir capital, innovar, investigar y, en última instancia, ofrecer productos y servicios nuevos, así como si los clientes confían en esos productos y servicios y están dispuestos a usarlos a pesar de los riesgos potenciales y de las demandas judiciales que se presenten en relación con dichos productos o servicios.

(21) El seguro puede garantizar que las víctimas perciban una indemnización efectiva y mutualizar los riesgos de todas las personas aseguradas. Uno de los factores en los que las compañías de seguros basan su oferta de productos y servicios de seguros es la evaluación de riesgos basada en el acceso a datos históricos suficientes en relación con las reclamaciones. Un acceso deficiente a datos de calidad elevada o una cantidad insuficiente de este tipo de datos podría ser una de las razones por las que en un principio resulta difícil crear productos de seguro para las tecnologías nuevas y emergentes. Sin embargo, un mayor acceso y la optimización del uso de los datos generados por las nuevas tecnologías, combinados con la obligación de facilitar información bien documentada, aumentaría la capacidad de las aseguradoras para modelar el riesgo emergente y fomentar el desarrollo de una cobertura más innovadora.

(22) Debido a la ausencia de datos históricos sobre las reclamaciones, debe investigarse cómo y en qué condiciones es asegurable la responsabilidad, con vistas a establecer un vínculo entre el seguro y el producto y no con la persona responsable. Ya existen productos de seguro que se desarrollan por ámbito y cobertura a medida que se desarrolla la tecnología. Numerosas compañías de seguros se especializan en determinados segmentos del mercado (por ejemplo, las pymes) o en brindar cobertura a determinados tipos de productos (por ejemplo, los aparatos eléctricos), lo que significa que, por lo general, el asegurado tendrá a su disposición un producto de seguro. Sin embargo, es difícil concebir una solución de «talla única» y el mercado de los seguros necesitará tiempo para adaptarse. La Comisión debe colaborar estrechamente con el mercado de los seguros para desarrollar productos de seguro innovadores que podrían colmar esa laguna en la materia. En casos excepcionales, como en el caso de que se produzcan daños colectivos, en los que la indemnización exceda de modo significativo los importes máximos establecidos en el presente Reglamento, debe alentarse a los Estados miembros a crear un fondo especial de indemnización para un período de tiempo limitado que responda a las necesidades específicas de esos casos. También podrían crearse fondos especiales de indemnización para cubrir aquellos casos excepcionales en los que un sistema de IA, que aún no esté clasificado como sistema de IA de alto riesgo y que, por tanto, todavía no está asegurado, cause daños o perjuicios. A fin de garantizar la seguridad jurídica y cumplir la obligación de informar a todas las personas potencialmente afectadas, la existencia del fondo especial de indemnización, así como las condiciones para acogerse a él, deben hacerse públicas de manera clara y exhaustiva.

(23) Reviste gran importancia que los posibles cambios al presente Reglamento que se introduzcan en el futuro vayan acompañados de la necesaria revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos a fin de revisarla de manera integral y coherente y garantizar los derechos y obligaciones de todas las partes interesadas a lo largo de la cadena de responsabilidad civil. La introducción de un nuevo régimen de responsabilidad civil en relación con el operador de sistemas de la IA requiere que las disposiciones del presente Reglamento y la revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos se coordinen estrechamente, tanto en términos de fondo como de enfoque, de modo que, juntas, constituyan un marco de responsabilidad civil coherente para los sistemas de IA, que equilibre los intereses del productor, del operador, del consumidor y de la persona afectada en lo que respecta al riesgo de responsabilidad civil y los regímenes de indemnización relevantes. Por lo tanto, adaptar y racionalizar las definiciones de sistemas de IA, operador final e inicial, productor, defecto, producto y servicio en todas las disposiciones legislativas parece necesario y debe contemplarse al mismo tiempo.

(24) Los objetivos que persigue el presente Reglamento, a saber, la adopción de un enfoque orientado hacia el futuro y unificado a escala de la Unión que establezca normas europeas comunes para los ciudadanos y empresas europeos y que garantice la coherencia de los derechos y la seguridad jurídica en el conjunto de la Unión, a fin de evitar la fragmentación del mercado único digital, lo que obstaculizaría el objetivo de mantener la soberanía digital, de fomentar la innovación digital en Europa y de garantizar un nivel elevado de protección de los derechos de los ciudadanos y los consumidores, exigen una armonización plena de los regímenes de responsabilidad civil aplicables a los sistemas de IA. Los Estados miembros no pueden lograr los objetivos perseguidos en la medida adecuada, debido a la velocidad de los cambios de carácter tecnológico, al desarrollo transfronterizo así como al uso de los sistemas de IA y, en última instancia, a los enfoques legislativos contradictorios en el conjunto de la Unión, sino que, debido a la dimensión o a los efectos de la acción, esos objetivos pueden lograrse mejor a escala de la Unión, esta puede adoptar medidas, de conformidad con el principio de subsidiariedad establecido en el artículo 5 del Tratado de la Unión Europea. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, el presente Reglamento no excede de lo necesario para alcanzar dichos objetivos,

HAN ADOPTADO EL PRESENTE REGLAMENTO:

CAPÍTULO I. DISPOSICIONES GENERALES

Artículo 1. Objeto

El presente Reglamento establece normas en relación con las demandas por responsabilidad civil de las personas físicas y jurídicas contra los operadores de sistemas de IA.

Artículo 2. Ámbito de aplicación

1. El presente Reglamento se aplica en el territorio de la Unión a aquellos casos en que una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA haya causado daños o perjuicios a la vida, la salud, la integridad física de una persona física y los bienes de una persona física o jurídica, o bien haya causado daños morales considerables que den lugar a una pérdida económica comprobable.

2. Todo acuerdo celebrado entre un operador de un sistema de IA y una persona física o jurídica que sufra un daño o perjuicio como consecuencia de un sistema de IA, que eluda o limite los derechos y obligaciones establecidos en el presente Reglamento, celebrado bien antes o después de haberse causado el daño o perjuicio, será considerado nulo por lo que respecta a los derechos y obligaciones estipulados en virtud del presente Reglamento.

3. El presente Reglamento se entiende sin perjuicio de cualquier otra demanda en materia de responsabilidad civil derivada de las relaciones contractuales, así como de la normativa sobre responsabilidad por los daños causados por productos defectuosos, la protección de los consumidores, la lucha contra la discriminación y la protección laboral y del medio ambiente, entre el operador y la persona física o jurídica que haya sufrido un daño o perjuicio a causa del sistema de IA y de que se pueda presentar contra el operador de conformidad con el Derecho de la Unión o nacional

Artículo 3. Definiciones

A efectos del presente Reglamento, se entenderá por:

a) «sistema de inteligencia artificial»: todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la actuación, con cierto grado de autonomía, para lograr objetivos específicos;

b) «autónomo»: todo sistema de inteligencia artificial que funciona interpretando determinados datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté limitado y orientado a cumplir el objetivo que se le haya asignado y otras decisiones pertinentes de diseño tomadas por su desarrollador;

c) «alto riesgo»: el potencial significativo en un sistema de IA que funciona de forma autónoma para causar daños o perjuicios a una o más personas de manera aleatoria y que excede lo que cabe esperar razonablemente; la magnitud del potencial depende de la relación entre la gravedad del posible daño o perjuicio, el grado de autonomía de la toma de decisiones, la probabilidad de que el riesgo se materialice y el modo y el contexto en que se utiliza el sistema de IA;

d) «operador»: tanto el operador final como el inicial, siempre que la responsabilidad civil de este último no esté ya cubierta por la Directiva 85/374/CEE;

e) «operador final»: toda persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento;

f) «operador inicial»: toda persona física o jurídica que define, de forma continuada, las características de la tecnología y proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA;

g) «control»: toda acción de un operador que influya en el funcionamiento de un sistema de IA y, por consiguiente, la medida en que el operador expone a terceros a los potenciales riesgos asociados a la operación y al funcionamiento del sistema de IA; esa acción puede afectar al funcionamiento en cualquier fase al determinar la entrada, la salida o resultados o pueden cambiar funciones o procesos específicos dentro del sistema de IA; el grado en que estos aspectos del funcionamiento del sistema de IA están determinados por la acción depende del nivel de influencia que el operador tenga sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA;

h) «persona afectada»: toda persona que sufre daños o perjuicios por una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA, y que no sea su operador;

i) «daño o perjuicio»: impacto adverso que afecta a la vida, la salud, la integridad física de una persona física, los bienes de una persona física o jurídica o bien que produce daños morales significativos que resultan en una pérdida económica comprobable;

j) «productor»: el productor tal como se define en el artículo 3 de la Directiva 85/374/CEE.

CAPÍTULO II. SISTEMAS DE IA DE ALTO RIESGO

Artículo 4. Responsabilidad objetiva de los sistemas de IA de alto riesgo

1. El operador de un sistema de IA de alto riesgo será objetivamente responsable de cualquier daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA.

2. En el anexo al presente Reglamento se enumerarán todos los sistemas de IA de alto riesgo y los sectores críticos en los que se utilizan. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 13 bis para modificar la lista exhaustiva:

a) mediante la inclusión de nuevos tipos de sistemas de IA de alto riesgo y de los sectores críticos en los que se han desplegado;

b) suprimiendo los tipos de sistemas de IA que ya no se considera que presentan un alto riesgo; o

c) modificando los sectores críticos para los sistemas de IA de alto riesgo existentes. Todo acto delegado por el que se modifique el anexo entrará en vigor seis meses después de su adopción. Al determinar la inclusión en el anexo de nuevos sistemas de IA de alto riesgo o sectores críticos mediante actos delegados, la Comisión tendrá plenamente en cuenta los criterios establecidos en el presente Reglamento, en particular los recogidos en el artículo 3, letra c).

3. Los operadores de un sistema de IA de alto riesgo no podrán eludir su responsabilidad civil alegando que actuaron con la diligencia debida o que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA. Los operadores no serán responsables si el daño o perjuicio ha sido provocado por un caso de fuerza mayor.

4. El operador final de un sistema de IA de alto riesgo garantizará que las operaciones de dicho sistema de IA estén cubiertas por un seguro de responsabilidad civil adecuado en relación con los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento. El operador inicial garantizará que sus servicios estén cubiertos por un seguro de responsabilidad empresarial o de responsabilidad civil de productos adecuado en relación con los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento. Si se considera que los regímenes de seguro obligatorio del operador final o inicial ya vigentes con arreglo a otra legislación de la Unión o nacional o los fondos voluntarios existentes de seguros de empresas cubren el funcionamiento del sistema de IA o el servicio prestado, la obligación de suscribir un seguro en relación con el sistema de IA o el servicio prestado con arreglo al presente Reglamento se considerará cumplida siempre que el correspondiente seguro obligatorio existente o los fondos voluntarios existentes de seguros de empresas cubran los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento.

5. El presente Reglamento prevalecerá sobre los regímenes nacionales de responsabilidad civil en caso de clasificación divergente por responsabilidad objetiva de los sistemas de IA.

Artículo 5. Importe de la indemnización

1. Un operador de un sistema de IA de alto riesgo que haya sido considerado responsable de un daño o perjuicio con arreglo al presente Reglamento indemnizará:

a) hasta un importe máximo de dos millones de euros en caso de fallecimiento o de daños causados a la salud o a la integridad física de una persona afectada como resultado del funcionamiento de un sistema de IA de alto riesgo;

b) hasta un importe máximo de un millón de euros en caso de daños morales significativos que resulten en una pérdida económica comprobable o en daños a bienes, también cuando distintos bienes propiedad de una persona afectada resulten dañados como resultado de un único funcionamiento de un único sistema de IA de alto riesgo; cuando la persona afectada también disponga de un derecho a reclamar por responsabilidad contractual contra el operador, no se abonará ninguna indemnización en virtud del presente Reglamento si el importe total de los perjuicios materiales o el daño moral es de un valor inferior a [500 euros] (9).

2. Cuando la indemnización combinada que deba abonarse a varias personas que sufran daños o perjuicios causados por el mismo funcionamiento de un mismo sistema de IA de alto riesgo supere los importes totales máximos previstos en el apartado 1, los importes que deban abonarse a cada persona se reducirán proporcionalmente de forma que la indemnización combinada no supere los importes máximos establecidos en el apartado 1.

Artículo 6. Alcance de la indemnización

1. Dentro de los límites para el importe establecidos en el artículo 5, apartado 1, letra a), la indemnización que abonará el operador considerado responsable en caso de daños físicos seguidos de la muerte de la persona afectada se calculará sobre la base de los costes del tratamiento médico que haya seguido la persona afectada antes de su muerte, así como del perjuicio económico sufrido antes del fallecimiento como consecuencia del cese o la reducción de la capacidad de generar ingresos o el aumento de sus necesidades mientras durase el daño antes del fallecimiento. El operador será además responsable de reembolsar los gastos funerarios de la persona afectada fallecida a la parte responsable de sufragar dichos gastos.

Si en el momento del incidente que causó el daño que condujo a su muerte, la persona afectada mantenía una relación con un tercero y tenía la obligación jurídica de asistir a ese tercero, el operador responsable indemnizará al tercero mediante el pago de una pensión alimenticia proporcional a la que la persona afectada se habría visto obligada a pagar, durante un período equivalente a la esperanza de vida media de una persona de su edad y teniendo en cuenta su estado general. El operador también indemnizará al tercero si, en el momento del incidente que provocó la muerte, el tercero había sido concebido, pero todavía no había nacido.

2. Dentro de los límites para el importe establecidos en el artículo 5, apartado 1, letra b), la indemnización que pagará el operador considerado responsable en caso de daño para la salud o para la integridad física de la persona afectada incluirá el reembolso de los gastos del tratamiento médico correspondiente, así como el pago del perjuicio económico sufrido por la persona afectada como consecuencia de la suspensión temporal, la reducción o el cese definitivo de su capacidad de generar ingresos o del aumento consiguiente de sus necesidades acreditado mediante certificado médico.

Artículo 7. Plazo de prescripción

1. Las demandas por responsabilidad civil presentadas de conformidad con lo dispuesto en el artículo 4, apartado 1, relativas a daños a la vida, la salud o la integridad física estarán sujetas a un plazo de prescripción especial de treinta años a partir de la fecha en que se produjo el daño.

2. Las demandas por responsabilidad civil presentadas de conformidad con lo dispuesto en el artículo 4, apartado 1, relativas a perjuicios materiales o daños morales considerables que resulten en una pérdida económica comprobable estarán sujetas a un plazo de prescripción especial de:

a) diez años a partir de la fecha en que se produjo el menoscabo a los bienes o la pérdida económica comprobable resultante del daño moral significativo, respectivamente, o

b) treinta años a partir de la fecha en que tuvo lugar la operación del sistema de IA de alto riesgo que causó posteriormente el menoscabo a los bienes o el daño moral.

De los plazos contemplados en el párrafo primero, será aplicable aquel que venza antes.

3. El presente artículo se entenderá sin perjuicio de la legislación nacional que regule la suspensión o la interrupción de los plazos de prescripción.

CAPÍTULO III. OTROS SISTEMAS DE IA

Artículo 8. Responsabilidad subjetiva para otros sistemas de IA

1. El operador de un sistema de IA que no constituya un sistema de IA de alto riesgo, tal y como se define en el artículo 3, letra c), y en el artículo 4, apartado 2, y que, en consecuencia, no figure en el anexo del presente Reglamento, estará sujeto a responsabilidad subjetiva respecto de todo daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernados por el sistema de IA.

2. El operador no será responsable si puede demostrar que no tuvo culpa en el daño o perjuicio causado, basándose en uno de los siguientes motivos:

a) el sistema de IA se activó sin su conocimiento, al tiempo que se tomaron todas las medidas razonables y necesarias para evitar dicha activación fuera del control del operador, o

b) se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA adecuado para las tareas y las capacidades pertinentes, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles.

El operador no podrá eludir su responsabilidad alegando que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA. El operador no será responsable si el daño o perjuicio ha sido provocado por un caso de fuerza mayor.

3. Cuando el daño o perjuicio haya sido causado por un tercero que haya interferido en el sistema de IA por medio de una modificación de su funcionamiento o sus efectos, el operador será, no obstante, responsable del pago de una indemnización en caso de que dicho tercero esté ilocalizable o sea insolvente.

4. A petición del operador o de la persona afectada, el productor de un sistema de IA tendrá la obligación de cooperar con ellos y de facilitarles información en la medida que lo justifique la relevancia de la demanda, a fin de permitir que se determinen las responsabilidades.

Artículo 9. Disposiciones nacionales sobre indemnización y plazo de prescripción

Las demandas por responsabilidad civil presentadas de conformidad con el artículo 8, apartado 1, estarán sujetas, en relación con los plazos de prescripción, así como con los importes y el alcance de la indemnización, a la legislación del Estado miembro en el que se haya producido el daño o perjuicio.

CAPÍTULO IV. IMPUTACIÓN DE LA RESPONSABILIDAD CIVIL

Artículo 10. Negligencia concurrente

1. Si el daño o perjuicio es causado por una actividad física o virtual, un dispositivo o un proceso gobernados por un sistema de IA o por la actuación de una persona afectada o de una persona de la que la persona afectada sea responsable, el alcance de la responsabilidad civil del operador con arreglo al presente Reglamento se reducirá en consecuencia. El operador no será responsable si la persona afectada o la persona de la que esta es responsable es la única a la que se le puede achacar el daño o perjuicio causado.

2. Un operador considerado responsable podrá utilizar los datos generados por el sistema de IA para demostrar la negligencia concurrente de la persona afectada, de conformidad con el Reglamento (UE) 2016/679 y otras leyes en materia de protección de datos relevantes. La persona afectada también podrá usar esos datos con fines probatorios o aclaratorios en la demanda por responsabilidad civil.

Artículo 11. Responsabilidad solidaria

En caso de que haya más de un operador de un sistema de IA, estos serán responsables solidarios. Si un operador final es también el productor del sistema de IA, el presente Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos. Si el operador inicial también tiene la condición de productor en el sentido del artículo 3 de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, deberá aplicársele dicha Directiva. Si solo hay un operador y dicho operador es también el productor del sistema de IA, el presente Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos.

Artículo 12. Indemnización por la vía de regreso

1. El operador no estará facultado para ejercitar una acción en la vía de regreso a menos que a la persona afectada se le haya abonado la totalidad de la indemnización a la que esa persona tenga derecho a recibir en virtud del presente Reglamento.

2. El operador que sea considerado responsable solidario con otros operadores en relación con una persona afectada y haya indemnizado íntegramente a esa persona afectada, de conformidad con el artículo 4, apartado 1, o el artículo 8, apartado 1, podrá recuperar parte de la indemnización de otros operadores, en proporción a su responsabilidad.

Los porcentajes de responsabilidad se basarán en los respectivos niveles de control por parte de los operadores sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA. Si no puede obtenerse de un operador responsable solidariamente la contribución que le sea atribuible, el déficit será asumido por los demás operadores. En la medida en que un operador solidariamente responsable indemnice a la persona afectada y solicite un ajuste de los anticipos a los demás operadores responsables, el operador quedará subrogado en el crédito de la persona afectada frente a los demás operadores. No se invocará la subrogación de créditos en perjuicio de la demanda inicial.

3. En caso de que el operador de un sistema de IA defectuoso indemnice íntegramente a la persona afectada por daños o perjuicios con arreglo a lo dispuesto en el artículo 4, apartado 1, o en el artículo 8, apartado 1, del presente Reglamento, podrá ejercitar una acción de resarcimiento frente al productor del sistema de IA defectuoso de conformidad con la Directiva 85/374/CEE y las disposiciones nacionales en materia de responsabilidad por los daños causados por productos defectuosos.

4. En caso de que el asegurador del operador indemnice a la persona afectada por daños o perjuicios con arreglo a lo dispuesto en el artículo 4, apartado 1, o en el artículo 8, apartado 1, el asegurador del operador se subrogará en el crédito que la persona afectada tenga frente a otra persona por responsabilidad civil por el mismo daño hasta el importe con el que el asegurador del operador haya indemnizado a la persona afectada.

CAPÍTULO V. DISPOSICIONES FINALES

Artículo 13. Ejercicio de la delegación

1. Se otorgan a la Comisión los poderes para adoptar actos delegados en las condiciones establecidas en el presente artículo.

2. Los poderes para adoptar actos delegados mencionados en el artículo 4, apartado 2, se otorgan a la Comisión por un período de cinco años a partir de [fecha de aplicación del presente Reglamento].

3. La delegación de poderes mencionada en el artículo 4, apartado 2, podrá ser revocada en cualquier momento por el Parlamento Europeo o por el Consejo. La decisión de revocación pondrá término a la delegación de los poderes que en ella se especifiquen. La decisión surtirá efecto el día siguiente al de su publicación en el Diario Oficial de la Unión Europea o en una fecha posterior indicada en ella. No afectará a la validez de los actos delegados que ya estén en vigor.

4. Antes de la adopción de un acto delegado, la Comisión consultará al Comité técnico permanente — sistemas de IA de alto riesgo (Comité TCRAI), de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación.

5. Tan pronto como la Comisión adopte un acto delegado lo notificará simultáneamente al Parlamento Europeo y al Consejo.

6. Los actos delegados adoptados en virtud del artículo 4, apartado 2, entrarán en vigor únicamente si, en un plazo de dos meses a partir de su notificación al Parlamento Europeo y al Consejo, ninguna de estas instituciones formula objeciones o si, antes del vencimiento de dicho plazo, ambas informan a la Comisión de que no las formularán. El plazo se prorrogará dos meses a iniciativa del Parlamento Europeo o del Consejo.

Artículo 14. Revisión

A más tardar el 1 de enero de 202X [tres años después de la fecha de aplicación del presente Reglamento], y posteriormente cada tres años, la Comisión presentará al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo un informe detallado en el que se revise el presente Reglamento a la luz del desarrollo ulterior de la inteligencia artificial.

Al elaborar el informe a que se refiere el párrafo primero, la Comisión solicitará la información pertinente a los Estados miembros sobre la jurisprudencia, los acuerdos judiciales y las estadísticas sobre accidentes, tales como el número de accidentes, los daños sufridos, las aplicaciones de IA involucradas o las indemnizaciones abonadas por las compañías de seguros, así como una evaluación de la cantidad de demandas presentadas por las personas afectadas, ya sea de forma individual o colectiva, y de los plazos dentro de los cuales se tramitaron esas demandas en los tribunales.

El informe de la Comisión irá acompañado, en su caso, de propuestas legislativas destinadas a suplir las lagunas identificadas en el informe.

Artículo 15. Entrada en vigor

El presente Reglamento entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea. Será aplicable a partir del 1 de enero de 202X.

El presente Reglamento será obligatorio en todos sus elementos y directamente aplicable en cada Estado miembro.

Hecho en ,

Por el Parlamento Europeo, El Presidente

Por el Consejo, El Presidente

—————————————–

(1) DO L 210 de 7.8.1985, p. 29.

(2) DO L 149 de 11.6.2005, p. 22.

(3) DO L 304 de 22.11.2011, p. 64.

(4) DO L 117 de 5.5.2017, p. 1.

(5) DO L 252 de 8.10.2018, p. 1.

(6) DO L 136 de 22.5.2019, p. 1.

(7) DO L 123 de 12.5.2016, p. 1.

(8) DO C 252 de 18.7.2018, p. 239.

(9) DO C 307 de 30.8.2018, p. 163.

(10) DO C 433 de 23.12.2019, p. 86.

(11) Textos Aprobados, P8_TA(2019)0081.

(12) Textos Aprobados, P9_TA(2020)0032.

(13) https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654178/EPRS_STU(2020)654178_EN.pdf

(14) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf

(15) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf

(16) DO L 11 de 15.1.2002, p. 4.

(17) DO L 263 de 7.10.2009, p. 11.

———————————–

(1) DO…

(2) DO…

(3) Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(4) DO L 123 de 12.5.2016, p. 1.

(5) Véase la página 24 del Libro Blanco de la Comisión, de 19 de febrero de 2020, titulado «Inteligencia artificial — Un enfoque europeo orientado a la excelencia y la confianza» (COM(2020)0065).

(6) Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (DO L 119 de 4.5.2016, p. 1).

(7) Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo, de 30 de mayo de 2018, sobre la homologación y la vigilancia del mercado de los vehículos de motor y sus remolques y de los sistemas, los componentes y las unidades técnicas independientes destinados a dichos vehículos, por el que se modifican los Reglamentos (CE) nº 715/2007 y (CE) nº 595/2009 y por el que se deroga la Directiva 2007/46/CE (DO L 151 de 14.6.2018, p. 1).

(8) Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativo a la vigilancia del mercado y la conformidad de los productos y por el que se modifican la Directiva 2004/42/CE y los Reglamentos (CE) nº 765/2008 y (UE) nº 305/2011 (DO L 169 de 25.6.2019, p. 1).

(9) Pendiente de revisión por parte de la Comisión Europea tal y como se establece en el apartado 19 de la resolución.

23Nov/23
Proyecto de Ley

Proyecto de ley nº 059 de 8 de agosto de 2023

Proyecto de ley nº 059 de 8 de agosto de 2023, cuyo propósito es emitir los lineamientos de uso de la inteligencia artificial (IA) en el país o el desarrollo de estas herramientas tecnológicas

Proyecto de Ley nº 059, 2023 SENADO, “Por medio de la cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de Inteligencia Artificial y se dictan otras disposiciones”.

El Congreso de Colombia, DECRETA:

TÍTULO I. DISPOSICIONES PRELIMINARES

ARTÍCULO l. OBJETO.

La presente ley tiene por objeto establecer los lineamientos de política pública para el desarrollo, uso e implementación de la Inteligencia Artificial.

ARTÍCULO 2. DEFINICIONES.

Para efectos de interpretación de la presente ley se establecen las siguientes definiciones:

DATO:

Información dispuesta para análisis y desarrollo de algoritmos.

INTELIGENCIA ARTIFICIAL:

Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones  comparables  a  las  que  realiza  la  mente  humana, como  el aprendizaje o el razonamiento lógico.

ARTÍCULO 3. PRINCIPIOS.

Para efectos de interpretación y aplicación de la presente ley se establecen los siguientes principios:

AUTORIDAD HUMANA:

Toda decisión o dato de Inteligencia Artificial es auditable, revisable y controvertible por la decisión humana.

BIEN COMÚN:

El uso, desarrollo e implementación de la Inteligencia Artificial no podrá tener como objetivo diferente el del bien común.

COOPERACIÓN:

Las investigaciones en Inteligencia Artificial propenderán por la cooperación en materia de prevención del riesgo.

DISEÑO SEGURO:

En todas las etapas de diseño y desarrollo de Inteligencia Artificial se deberán prever los efectos dañinos debiéndose abstener la implementación por evidencia de riesgo e inseguridad.

PREVALENCIA DE LA INTELIGENCIA HUMANA:

Prevalecerá la decisión humana sobre los resultados que se establezca por medio de la Inteligencia Artificial.

INVESTIGACIÓN PREVENTIVA:

Las investigaciones en inteligencia artificial en todo momento deberán contar con desarrollos paralelos de prevención de riesgos.

ARTÍCULO 4. COMISIÓN DE TRATAMIENTO DE DATOS Y DESARROLLOS CON INTELIGENCIA ARTIFICIAL.

Créase una Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial, sin personería jurídica, que se conformará por:

1.            El ministro de Ciencia, Tecnología e Innovación

2.            El ministro de las Tecnologías de la Información y las Comunicaciones.

3.            El Procurador General de la Nación

4.            El director del Departamento Administrativo de Planeación Nacional.

5.            Un representante de las universidades, el cual deberá contar con acreditación en alta calidad y acreditación institucional internacional.

ARTÍCULO 5. FUNCIONES DE LA COMISIÓN DE TRATAMIENTO DE DATOS Y DESARROLLOS CON INTELIGENCIA ARTIFICIAL.

La Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial tendrá las siguientes funciones:

1.            Avalar las solicitudes institucionales sobre desarrollos e implementación de Inteligencia Artificial.

2.            Proyectar y divulga los reglamentos técnicos para el uso, desarrollo e implementación de la Inteligencia Artificial.

3.            Asesorar al Congreso de la República en las iniciativas relacionadas con Inteligencia Artificial.

4.            Proponer iniciativas tecnológicas de Inteligencia Artificial en la gestión pública.

5.            Proponer   iniciativas   tecnológicas de Inteligencia   Artificial   para   el   desarrollo económico, social y ambiental.

6.            Darse su propio reglamento.

TÍTULO II. DE LA POLÍTICA SOBRE CRECIMIENTO INVLUSIVO, DESARROLLO SOSTENIBLE Y BIENESTAR

ARTÍCULO 6. INTELIGENCIA ARTIFICIAL PARA EL CRECIMIENTO INCLUSIVO.

Las entidades del orden nacional y local que desarrollen políticas de crecimiento y productividad y que implementen la incorporación de Inteligencia Artificial deberán incluir frente a las metas de desarrollo económico, metas de desarrollo social.

ARTÍCULO 7. INTELIGENCIA ARTIFICIAL EN MATERIA DE CAMBIO CLIMÁTICO:

El Gobierno Nacional por medio del Ministerio de Ambiente y Desarrollo Sostenible deberá reglamentar los requerimientos técnicos necesarios para implementar la inteligencia artificial en aras de la eficiencia energética, control de deforestación, movilidad amigable con el ambiente e incluirlo como instrumento planificación y gestión conforme los términos de que trata la ley 1931 de 2018.

ARTÍCULO  8. INTELIGENCIA ARTIFICIAL EN EL SISTEMA NACIONAL DE CAMBIO CLIMÁTICO:

El Gobierno Nacional, por medio del Ministerio de Ambiente y Desarrollo Sostenible incorporará en el Sistema Nacional de Cambio Climático la Inteligencia Artificial como instrumento para gestionar la mitigación de gases efecto invernadero y la adaptación al cambio climático.

TÍTULO III. DE LA POLÍTICA SOBRE LOS VALORES CENTRADOS EN EL SER HUMANO Y EQUIDAD

ARTÍCULO 9. PREVALENCIA DE LA INTELIGENCIA HUMANA SOBRE LA INTELIGENCIA ARTIFICIAL.

Las políticas del orden nacional o local para el uso, desarrollo e implementación de la inteligencia artificial deberán tener como propósito el bien común y la ‘Satisfacción de las necesidades propias del ser humano preservando en todo aspecto la prevalencia de la inteligencia humana sobre la inteligencia artificial.

ARTÍCULO 10. PRESERVACIÓN DEL SER HUMANO y su ENTORNO AMBIENTAL.

Las políticas del orden nacional o local para el uso, desarrollo e implementación de la inteligencia artificial deberán tener como propósito la preservación del ser humano y su entorno ambiental para la detección temprana de epidemias, diagnósticos de salubridad y desarrollo de medicamentos. Los desarrollos de Inteligencia Artificial podrán ser declarados de utilidad pública e interés social.

ARTÍCULO 11. IGUALDAD EN EL DATO:

Las políticas del orden nacional o local para el uso de los datos por parte de la Inteligencia Artificial no pueden permitir que se generen resultados que resulten como actos discriminatorios, por lo cual se deberá garantizar la igualdad de trato e igualdad de oportunidades.

Parágrafo: la búsqueda de información por vía de Inteligencia Artificial que incida en restricciones de la libre competencia será sancionada por la Superintendencia de Industria y Comercio.

TÍTULO IV. DE LA POLÍTICA EN TRANSPARENCIA Y EXPLICABILIDAD

ARTÍCULO 12. CONOCIMIENTO DEL uso DE DATOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, implementación y desarrollo de la Inteligencia Artificial tienen la obligación de informar expresamente a los titulares de los datos usados en el tratamiento que se les está otorgando a los mismos y los resultados obtenidos.

PARÁGRAFO: Los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial deberán comunicar a los titulares de los datos que los mismos están interactuando con un sistema de IA y la manera en que lo está haciendo.

Los titulares de los datos y sus herederos adquieren el derecho irrenunciable a eliminar el dato en cualquier momento. Para tal fin, los responsables que implementen y desarrollen Inteligencia Artificial deberán eliminar el dato dentro de los cinco (05) días hábiles siguientes a la solicitud de su titular.

ARTÍCULO 13. COMPRENSIÓN DEL USO DE DATOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, implementación y desarrollo de la Inteligencia Artificial tienen la obligación de informar expresamente a los titulares el manejo que se les está dando a sus datos y los resultados obtenidos utilizando herramientas de comprensión especiales y atendiendo un nivel de inclusión conforme las características particulares de la persona y sus condiciones especiales.

ARTÍCULO 14. EXPLICABILIDAD.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, implementación y desarrollo de la Inteligencia Artificial tienen la obligación de garantizar que se conocen las causas que dan lugar a las decisiones, resultados o predicciones de los algoritmos obtenidos por la inteligencia humana.

TÍTULO V. DE LA POLÍTICA PARA LA ROBUSTEZ, SEGURIDAD Y PROTECCIÓNJ

ARTÍCULO 15. DIRECCIÓN Y CONTROL.

Las políticas del orden nacional o local deberán establecer que los sistemas de Inteligencia Artificial contarán con dirección, supervisión, auditorÍa y control de inteligencia humana capacitada y responsable.

ARTÍCULO 16. CIBERSEGURIDAD.

Las políticas del orden nacional o local deberán establecer que los asuntos de ciberseguridad que impliquen el uso, implementación y desarrollo de inteligencia artificial deberán ser avalados por la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial.

ARTÍCULO 17. INSTRUMENTO DE SEGURIDAD NACIONAL.

Las políticas del orden nacional o local deberán establecer que los asuntos que impliquen el uso, implementación y desarrollo de inteligencia artificial no podrán utilizarse como instrumento armamentista a menos que sea para asuntos de seguridad nacional.

ARTÍCULO 18. DISEÑO SEGURO.

Las políticas del orden nacional o local deberán establecer que el uso, implementación y desarrollo de Inteligencia Artificial deberá realizarse bajo el principio de diseño seguro, en el cual se deberán tener en cuenta efectos sociales, patrimoniales, laborales, económicos, ambientales, comerciales, políticos, y todos aquellos que tengan incidencia o generen riesgo en los seres humanos.

ARTÍCULO 19. PRUEBA PREVIA.

Las políticas del orden nacional o local deberán establecer que los responsables en el manejo de la Inteligencia Artificial deberán garantizar, previa implementación de la Inteligencia Artificial, pruebas previas que garanticen la no generación de daños y la previsión de riesgos.

ARTÍCULO 20. SEGURIDAD DE LA INFORMACIÓN.

Las políticas del orden nacional o [ocal deberán establecer que los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial deberán garantizar la seguridad de la información respetando en todo momento que no se vulnere el derecho a la intimidad y privacidad de las personas.

ARTÍCULO 21. VERACIDAD DEL DATO y DE LOS RESULTADOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial están obligados a realizar controles sobre la veracidad de los datos analizados y de los resultados que genere el sistema.

TÍTULO VI. DE LA POLÍTICA DE RESPONSABILIDAD

CAPÍTULO I. PROTECCIÓN DE DATOS

ARTÍCULO 22. PROTECCIÓN DE DATOS GENERALES.

Las políticas del orden nacional o local deberán establecer que los datos que sirvan para alimentar cualquier desarrollo de Inteligencia Artificial deberán contar con la autorización expresa de su titular y de los terceros que pudieran verse afectados.

PARÁGRAFO: la monetización de los datos usados por medio de inteligencia artificial cuyo beneficio se obtenga por el uso y análisis de la información suministrada por el titular de la información le permitirá a este exigir y reclamar, a manera de contraprestación, los réditos obtenidos sin su consentimiento más la indemnización de perjuicios.

ARTÍCULO 23. PROTECCIÓN DE DATOS PERSONALÍSIMOS.

Las políticas del orden nacional o local deberán establecer que los datos personalísimos como la voz, rasgos faciales, huellas digitales, ADN y otros que pertenezcan al cuerpo de un ser humano y que sirvan para alimentar cualquier desarrollo de Inteligencia Artificial deberá contar con la autorización expresa de su titular. Esta autorización deberá ser notificada al titular informando regularmente el uso de la información.

PARÁGRAFO. Le corresponde al responsable de la Inteligencia Artificial para la protección de datos personalísimos renovar la autorización de que trata el presente artículo de manera· trimestral.

ARTÍCULO 24. RESERVA LEGAL.

Las políticas del orden nacional o local deberán establecer que los datos generales y personalísimos usados en Inteligencia Artificial tienen reserva legal, por lo cual solamente podrán ser usados con autorización expresa de su titular.

ARTÍCULO 25. USO DE DATOS PERSONALÍSIMOS.

Las políticas del orden nacional o local deberán establecer que los datos personalísimos usados en Inteligencia Artificial no podrán ser usados con ánimo de lucro sin el consentimiento del titular de la información.

ARTÍCULO 26. EXCLUSIÓN DE DATOS.

Las políticas del orden nacional o local deberán establecer que las personas titulares de datos que sean usados para efectos de desarrollos de Inteligencia Artificial podrán exigir la eliminación de sus datos en cualquier momento. Por lo anterior, el responsable. del uso y manejo de la Inteligencia Artificial tendrá cinco (05) días para efectos eliminar el dato y notificar a su titular su cumplimiento.

ARTÍCULO 27. ANONIMIZACIÓN DE DATOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso de datos utilizados para la Inteligencia Artificial deberán garantizar la anonimización de la información de carácter particular.

CAPÍTULO II. RÉGIMEN DE RESPONSABILIDAD

ARTÍCULO  28. RÉGIMEN DE RESPONSABILIDAD EXTRACONTRACTUAL: 

Las políticas del orden nacional deberán establecer que)os responsables en el uso, manejo e implementación de Inteligencia Artificial están sometidos al régimen de responsabilidad objetiva y deberán garantizar por medio de garantías la reparación de perjuicios materiales e inmateriales. 

ARTÍCULO 29. RÉGIMEN DE RESPONSABILIDAD CONTRACTUAL:

Las políticas del orden nacional o local deberán establecer que las partes de un contrato estatal, en donde se haga uso de Inteligencia Artificial deberán pactar los riesgos  que impliquen el uso frente a los eventuales daños o perjuicios que se generen como consecuencia de su implementación.

ARTÍCULO 30. REGISTROS NACIONAL DE INTELIGENCIA ARTIFICIAL.

Lo desarrollos de Inteligencia Artificial deberán ser registrados ante el Ministerio de Ciencia, Tecnología e Innovación previo cumplimiento de los requisitos técnicos y jurídicos que para, el efecto determine la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial.

ARTÍCULO 31. CÓDIGO DE ÉTICA

Los responsables del uso, desarrollo e implementación de Inteligencia Artificial deberán radicar ante la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial un Código de Ética en el que se establezcan los responsables por los daños que se generen, garantizando el cumplimiento, de la presente ley.

TÍTULO VII. DISPOSICIONES FINALES

VIGENCIA Y DEROGATORIA

ARTÍCULO 32. VIGENCIA Y DEROGATORIA.

La presente ley rige a partir de la fecha de su promulgación y deroga las disposiciones que le sean contrarias.

Fdo.  Juan Carlos Garcés Rojas y Juan Diego Echevarría Sánchez, Senador

SENADO DE LAL REPÚBLICA

Secretaría General (Art. 139 y ss. Ley 5ª de 1992)

El día 01 del mes agosto de 2023 se radicó en este despacho el proyecto de ley nº 059 Acto legislativo nº          , con todos y cada uno de los requisitos constitucionales y legales por H.S. Juan Diego Echevarría Sánchez, Juan Carlos Garcés Rojas

SECRETARIO GENERAL

EXPOSICIÓN DE MOTIVOS

l.  CONSIDERACIONES GENERALES

Las iniciativas legislativas por medio de las cuales se establecen políticas públicas han sido desarrolladas en el ordenamiento jurídico colombiano. Ejemplo de éstas se encuentran la ley 1988 de 2019, por medio de la cual se establece la política pública para vendedores informales; la ley 1804 de 2016, por medio de la cual se establece la política de Estado para el Desarrollo Integral de la Primera Infancia de Cero a Siempre; la ley 1953 de 2019, por medio del cual se establece la política pública de prevención de la infertilidad; la ley 1641 de 2013, por medio de la cual se establece la política pública social para habitantes de la calle, entre otras.

El derecho no es ajeno a las nuevas tecnologías. La implementación de TIC en ámbitos relacionados con la administración pública, comercio electrónico, servicios, open gov, inclusión, y otros más, conforme se aprecia al estudiar a JAIRO BECERRA (1), revisten una serie de escenarios en donde la IA se encuentra abriendo espacios en los cuales se desconoce el rumbo, y, por ende, de sus efectos positivos y negativos

Así las cosas, y teniendo en cuenta que se considera necesario iniciar un proceso de regulación sobre la inteligencia artificial, un primer paso correspondería a la adopción de las políticas públicas frente a este tema.

Alemania, conforme lo señala RAFAEL TORRES MUÑOZ (2), se encuentra estableciendo políticas públicas para efectos de desarrollos en robótica e Inteligencia Artificial. Para dicho efecto ha iniciado avances en el uso de vehículos autónomos, la implementación de normas éticas en la IA. Adicionalmente, señala este autor que “no debe extrañar que, los países más avanzados en el desarrollo de tecnología robótica -Alemania en particular, creadora del concepto “Industria 4.0”, en el hemisferio occidental y Japón en el Oriental- sean pioneros en el desarrollo de políticas públicas basadas en investigación de vanguardia, que salvaguarden el derecho al trabajo, al bienestar y la seguridad de los seres humanos. En tanto que la Unión

Europea y Estados Unidos de Norteamérica (EE.UU.) dada su conformación multiestatal, se encuentran aún en una fase de organización, definición de responsabilidades y coberturas.”.

Las políticas públicas adquieren vigencia en la implementación de la Inteligencia Artificial, puesto que se constituye en una herramienta que establece las reglas de aplicación y prevención, dados los efectos que se le ha atribuido a esta tecnología.

2.  INTELIGENCIA ARTIFICIAL

La REAL ACADÉMIA ESPAÑOLA (3) ha definido a la inteligencia artificial como una “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.”. Esta definición se adopta para los efectos del presente proyecto.

Uno de los primeros planteamientos es establecer la oportunidad de reglamentar la Inteligencia Artificial desde un marco jurídico. Algunos teóricos consideran que no es oportuno establecerla hasta que se cuente con un desarrollo generalizado de la misma; mientras que otros, como lo hace ELON MUSK, conforme los recuerda OREN ETZIONI (4), señalan que debe hacerse antes de que sea demasiado tarde.

En el Foro Económico de Davos se abrió el espacio para determinar la necesidad de reglamentación de la Inteligencia Artificial. Allí se explicó que organismos internacionales trabajan en la materia por cuanto justifican que la necesidad de regular este tema se genera para obtener modelos confiables, conforme fue explicado por el periódico PORTAFOLI0 (5). Allí mismo, se hace evidente la posición que tienen importantes actores en el sector, como IBM Colombia, quien con la explicación que diera Catalina Rengifo, y quien es la responsable de Asuntos Gubernamentales para IBM, señalara que: “Una eventual regulación tendría muchas aplicaciones en el país, considerando que actualmente existe una alta implementación de la Inteligencia Artificial (IA) tanto en Colombia, como en el resto del mundo. Estamos frente a un tema vital. Los sistemas de Inteligencia Artificial deben ser transparentes y explicables, y debe haber un equilibrio entre la regulación y la autorregulación” (6).

Frente al tema de la regulación y autorregulación, son varias las posiciones y más en una materia que se encuentra en constante desarrollo. Por ello se ha considera la improcedencia de establecer reglas fuertes que no coincidan a la par con los desarrollos tecnológicos e informáticos. Un ejemplo de ello son las propuestas que se han derivado en otros escenarios como el de las redes sociales a las cuales se les ha señalado ser parte de una responsabilidad social digital bajo un esquema de soft law (7). Lo anterior, es importante resaltarlo para efectos de entender que este proyecto al soportarse en un enfoque de políticas públicas generales permitirá que los desarrollos de la IA tengan un objetivo político sin limitar sus procesos evolutivos.

Otro aspecto que sería objeto de análisis para verificar la regulación de la Inteligencia Artificial correspondería a los eventuales riesgos que la misma podría generar. Al respecto, MAX TEGMARK (8), profesor de física e investigador de Inteligencia Artificial avizora una serie de peligros en la Inteligencia artificial, como el control por parte de unos sobre la misma y que su uso pueda ser impulsado en todo el planeta, a manera de ejemplo, un dictador, en donde las máquinas le obedecen.

Una reflexión importante sobre la inteligencia artificial es la que hace el profesor MAX TEGMARK (9) cuando señala: “No debemos pensar en qué pasará, sino que debemos empezar preguntando qué es lo que queremos que pase.” Por ello se plantean, a manera de ejemplo, escenarios de análisis preventivos, como el que correspondería al desaparecimiento del empleos y profesiones.

Para MARÍA J. SANTOS G. (10) debe existir una nueva regulación que preserve la autenticidad, seguridad y protección de la raza humana que involucren cuestiones éticas entendiendo que “[n]o se trata de regular la tecnología sino de regular la sociedad para que siga siendo para los humanos como ellos decidan.”.

El PLAN NACIONAL DE DESARROLL0 (11) estableció en el art. 147 la transformación Digital Pública estableciendo en el numeral 6 la priorización de tecnologías emergentes de la cuarta revolución industrial teniendo como modelo la inteligencia artificial (Al). Sobre este mandato debe recordarse que Colombia además se adhirió a los acuerdos sobre Inteligencia Artificial por ser parte de los países de la OCDE. Por este motivo, el gobierno nacional suscribió la recomendación del Consejo de la OCDE conforme lo manifestó el Ministerio de las TIC. (12)

La OCDE (13) estableció recomendaciones para la implementación de la Inteligencia Artificial. Para ello ha establecido los siguientes principios:

PRINCIPIO

Crecimiento inclusivo, desarrollo sostenible y bienestar

Valores centrados en el ser humano y equidad

Transparencia y explicabilidad

Robustez, seriedad y protección

Responsabilidad

Los princ1p1os expuestos fueron tenidos en cuenta en el articulado con el fin de implementarlos en el ordenamiento jurídico colombiano por medio de políticas públicas. A su vez, se tuvieron en cuenta las recomendaciones de la OCDE (14). A saber:

“Facilitar  la inversión  pública y privada  en  investigación y desarrollo  para estimular  la innovación en una IA confiable.

Fomentar  los ecosistemas  de IA  accesibles  con  infraestructura  y tecnologías  digitales y mecanismos para compartir datos y conocimientos.

Asegurar un entorno de políticas que abra el camino para el despliegue de sistemas IA confiables.

Capacitar a las personas con las habilidades para la IA y apoyar a los trabajadores para una transición justa.

Cooperar a través de las fronteras y los sectores para avanzar en la administración responsable de IA confiable.”.

La dogmática de la inteligencia artificial ha usado en algunos escenarios el concepto de la persona electrónica, la cual fue estudiada en la presente investigación. Dicho escenario fue desvirtuado del presente proyecto por cuanto se consideró que generaba riesgos en cuanto a la imposibilidad de asignar responsabilidades por efectos de reparación de daños. Este asunto abrió la puerta para determinar si este concepto adquiría una naturaleza jurídica diferente a las asignadas a la persona jurídica, o, por el contrario, debía tener una regulación especial dadas las semejanzas y diferencias que le atribuyen con ocasión de una inteligencia no humana. Por ello, reconocerle vida jurídica a la persona electrónica implica una nueva categoría de sujeto de derechos que genera riesgos al desconocerse los efectos que pudieran generarse de las decisiones de IA. Asimilar la existencia jurídica de una persona electrónica implica a su vez, diseñar un esquema en donde igualmente se desarrollen escenarios jurídicos que diseñen los efectos por la muerte o desaparición de esta ficción. Así, por ejemplo, sí la persona humana, al considerarse cadáver, aún es reconocida para efectos jurídicos como sujeto de responsabilidad jurídica por vía derechos y deberes, conforme lo recuerda LUIS GERMÁN ORTEGA RUIZ (15) al señalar que “al cadáver humano [cuando] se le reconoce el principio de la dignidad, implica una protección al fuero moral y físico, desde el derecho al respeto, honra, buen nombre, un derecho al descanso eterno y esto se ha consolidado, por ejemplo, en los delitos del irrespeto a cadáveres, o la prohibición de despojo, el hurto de cadáveres y en conjunto con temas que ha revisado la Corte Constitucional; frente a las exhumaciones, es decir, el rito de sepultura, la última morada del cadáver etc.”. Este aspecto es relevante para determinar sí la persona electrónica podría considerarse como sujeto de derechos, y, a su vez, de obligaciones. Sobre este asunto, el, proyecto de ley decidió no desarrollar esta figura bajo el ámbito de ser considerada como sujeto de derechos y deberes, trasladando la responsabilidad jurídica a los responsables en el uso, desarrollo e implementación de la inteligencia artificial, abarcando de esta manera, actores directos e indirectos bajo la categoría de persona jurídica  o natural que tengan la capacidad jurídica  de responder como sujeto de derecho y obligaciones.

La Inteligencia Artificial se encuentra en el orden del día de para su desarrollo constitucional en aras de establecer un marco teleológico que aspire a su uso para los fines esenciales del bien común. De allí que sea necesario recordar a JUAN FRANCISCO SÁNCHEZ BARRILA0 16 cuando explica que el derecho constitucional no puede negar la Inteligencia Artificial. Por tal razón expone posiciones como la de Esteve Pardo, Sánchez Barrilao, Muñoz Machado en las que enseña la posibilidad de adoptar conceptos jurídicos mutables con la tecnología. Ese escenario se plantea en este proyecto al adoptarse bajo los postulados de políticas públicas. Por otro lado,  se señala como eje un enfoque apriorístico, el cual busca plantear anticipadamente escenarios generales que permiten a futura determinar los efectos por el uso e implementación de la IA en aras de evitar que ésta pueda ir en contravía de principios y derechos de protección constitucional.          

LUIS GERMÁN ORTEGA RUIZ (17) concluyó que “La implementación de la Inteligencia Artificial (IA) en el derecho es factible como medio  o instrumento para la toma de decisiones jurídicas, pero no encuentra cabida como operador jurídico que remplace la inteligencia humana para decidir en derecho aquellos casos del orden cualitativo. Lo anterior, sin perjuicio de poder usarse en materia de decisiones cuantitativas pero revisables por la inteligencia   humana.”.

El presente proyecto fue tramitado bajo el número 21/2020 Cámara pero fue retirado por sus autores conforme a una reunión realizada con diferentes instituciones públicas para efectos de recibir por parte de estas diferentes propuestas para enriquecer el proyecto y darle nuevo trámite. Fue nuevamente radicado con el número 253-2022 Senado pero por tránsito legislativo fue archivado.

En cumplimiento de lo ordenado por el artículo 291 de la ley 5 de 1992 se considera que no existe circunstancia de impedimento por parte de los congresistas al no evidenciarse un beneficio particular, actual y directo con relación a las disposiciones que pretenden establecer el  presente  proyecto   de  ley,  por   ser  una   reforma   general,   abstracta   e  impersonal.

Adicionalmente, porque la ley 2003 determinó que no hay conflicto de ‘interés cuando el congresista participe, discuta, vote un proyecto de ley que otorgue beneficios o cargos de carácter general, es decir cuando el interés del congresista coincide o se fusione con los intereses de los electores. Lo anterior, sin desconocer la posibilidad de la objeción de conciencia y asuntos que son de conocimiento del fuero interno de los congresistas.

Con lo anteriormente expuesto, se presenta el presente proyecto de ley con el fin de abrir el debate democrático y adoptar las decisiones legislativas y políticas que pretendan desarrollar la Inteligencia Artificial en Colombia.

SENADO DE LAL REPÚBLICA

Secretaría General (Art. 139 y ss. Ley 5ª de 1992)

El día 01 del mes agosto de 2023 se radicó en este despacho el proyecto de ley nº 059 Acto legislativo nº          , con todos y cada uno de los requisitos constitucionales y legales por H.S. Juan Diego Echevarría Sánchez, Juan Carlos Garcés Rojas

SECRETARIO GENERAL

(1) BECERRA, JAIRO. [ET AL]. El derecho y las tecnologías de la información y la comunicación (TIC) /. Bogotá: Universidad Católica de Colombia, 2015.  Disponible en: https://publicaciones.ucatolica.edu.co/pdf/el-derecho-y-1as-tecno1ogias-de-la­ informacion-y-la-comunicacion.pdf

(2) TORRES, RAFAEL. Políticas Públicas para la Robótica y la Inteligencia Artificial. Biblioteca del Congreso Nacional de Chile. Disponible              en: https://obtienearchivo.bcn.cl/obtienearchivo?id=repositorio/I 0221 /26982/1 /Politicas Publicas_para_la_Robotica y_la Inteligencia Artificial.pdf

(3)  REAL ACADEMIA  ESPAÑOLA.  Disponible  en: [https://dle.rae.es/inteligencia#2DxmhCT].

(4) ETZIONI, OREN. ¿Cómo regular la inteligencia artificial? Septiembre 6 de 2017. The New York Times. Disponible en: [https://www.nytin1es.com/es/20 17/09/06/espanol/opinion/inteligencia-artificial-reglas-regulacion.html].

(5) PORTAFOLIO, El país se alista ante la tarea de regular la inteligencia artificial. 31 de enero de 2020. Disponible en: [https://www.portafolio.co/tendencias/el-pais-se-alista-ante-la-tarea-de-regular-la-inteligencia-artificial-537664].

(6) PORTAFOLIO, El país se alista ante la tarea de regular la inteligencia artificial. 31 de enero de 2020. Disponible en: [https://www.portafolio.co/tendencias/el-pais-se-alista-ante-la-tarea-de-regular-la-inteligencia-artificial-537664].

(7) ORTEGA, L. (2020). Facebook: derechos afectados y aspectos jurídicos de la red social. Revista Jurídicas, 17 (I), 165-186. DO!: 10.17151/jurid.2020.17. l.9. Disponible en: http://juridicas.ucaldas.edu.co/downloads/Juridicas 17(1) 9.pdf https://orcid.org/0000-0003-2957-5839

(8) REVISTA SEMANA, Inteligencia Artificial, ¿Oportunidad o amenaza? 24 de febrero de  020. Disponible en: [https://ww\v.semanacom/educacion/articulo/inteligencia-artificial-oportunidad-o-amenaza/6533601.

(9) PORTAFOLIO, Los peligros que traería la inteligencia artificial para la humanidad. 1 1 de febrero de 2020. Disponible en: [https://www.portafolio.co/tendencias/los-peli2Ios-de-la-inteligencia-artificial-537954].

(10) GONZÁLEZ, MARÍA JOSÉ SANTOS. “Regulación legal de la robótica y la inteligencia artificial: retos de futuro= Legal regulation of robotics and artificial intelligence: future challenges.” Revista Jurídica de la Universidad de León 4 (201 7): Pág. 28, 25-50. Disponible en: [http://revpubli.unileon.es/index.php/juridica/article/view/5285].

(11) REPÚBLlCA DE COLOMBIA, ley I955 de 2019. DIARIO OFICIAL. AÑO CLV N. 50964, 25 MAYO DE 2019, PAG. l. Disponible en: [http://www.suin-juriscol.gov.co/viewDocument.asp?ruta=Leyes/30036488].

(12) REPÚBLICA DE COLOMBIA, MINISTERIO DE LAS TIC, Colombia se adhiere a acuerdo sobre Inteligencias Artificial ante los países de la OCDE. Mayo 22 de 2019. Disponible en: [https://www.mintic.gov.co/portal/inicio/Sala-de­ Prensa/Noticias/100683:Colombia-se-adhiere-a-acuerdo-sobre-Inteligencia-Artificial-ante-los-paises-de-la-OCDE].

(13) ORGANIZACIÓN DE COOPERACIÓN Y DESARROLLO ECONÓMICOS, OCDE, Recomendación del Consejo de Inteligencia Artificial, Adoptado el: 21/05/20 I 9,              Disponible en: [https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449].

(14) República de Colombia, Ministerio de las TIC, Colombia se adhiere a acuerdo sobre Inteligencias Artificial ante los países de             la OCDE. Mayo 22 de 2019. Disponible en https://www.mintic.Gov.co/portal/inicio/Sala-de- Prensa/Noticias/1006 83:Colombia-se-adhiere-a-acuerdo-sobre-inteligencia-Artificial-ante-los-paises-de-Ia-OCD E15 ÜRTEGA-RUIZ, LUIS GERMÁN Y DUCUARA MOLINA, S. A. (2019). El cadáver humano y su incidencia jurídica. Revista Verba luris, 14 (42).        pp. 73-98. Disponible en: https://revistas.unilibre.edu.co/index.php/verbaiuris/article/download/5660/5272          httos://orcid.org/0000-0003-29

23Nov/23
Proyecto de Ley

Proyecto de ley nº 091 de 9 de agosto de 2023

Proyecto de ley nº 091 de 9 de agosto de 2023, mediante la cual se establece el deber de información para el uso responsable de la Inteligencia Artificial en Colombia y se dictan otras disposiciones

Bogotá D.C, 9 de agosto de 2023

Doctor, GREGORIO ELJACH PACHECO

Secretario General Senado de la República Ciudad

Asunto: Radicación de proyecto de ley “Mediante la cual se establece el deber de información para el uso responsable de la Inteligencia Artificial en Colombia y se dictan otras disposiciones”

Respetado secretario general,

En mi calidad de Senador de la República y en uso de las atribuciones que me han sido conferidas constitucional y legalmente, me permito respetuosamente radicar el proyecto de ley de referencia y, en consecuencia, le solicitamos se sirva dar inicio al trámite legislativo respectivo.

Cordialmente,

PEDRO H. FLOREZ PORRAS

Senador de la República

SANDRA RAMÍREZ LOBO SILVA

Senadora de la República

SANDRA YANET JAIMES CRUZ

Senadora de la República

JULIO ALBERTO ELÍAS VIDAL

Senador de la República

SOLEDAD TAMAYO TAMAYO

Senadora de la República

GUSTAVO ADOLFO MORENO HURTADO

Senador de la República

Proyecto de Ley nº 059 de 2023 Senado

“Mediante la cual se establece el deber de información .para el uso responsable de la Inteligencia Artificial en Colombia y se dictan otras disposiciones”.

El Congreso de Colombia

DECRETA

CAPÍTULO 1. DISPOSICIONES GENERALES

Artículo l. Objeto.

La presente ley tiene por objeto establecer un uso responsable de las Inteligencias Artificiales en Colombia, dentro de los parámetros éticos y legales que garanticen seguridad, transparencia, igualdad y equidad.

Artículo 2. Definiciones.

a)         Inteligencia Artificial: Se refiere a la tecnología capaz de replicar, mediante algoritmos, los procesos de pensamiento humanos.

b)         Inteligencia Artificial Generativa: Se refiere a un tipo de tecnología de inteligencia artificial capaz de producir diversos tipos de contenido, incluidos, pero no limitados a textos, imágenes, audio y datos sintéticos.

Artículo 3. Deber de información.

Las personas jurídicas o naturales que realicen cualquier tipo de actividad económica o académica mediante el uso o intermediación de una Inteligencia Artificial Generativa, tendrán el deber de informar que Inteligencia Artificial fue utilizada y especificar para que fue utilizada, esta información deberá estar siempre visible y disponible y ser accesible e identificable.

Artículo 4. Marco Ético.

El Gobierno Nacional diseñará un marco ético transversal para guiar el desarrollo, implementación y evaluación de sistemas de inteligencia artificial generativas que operen y se implementen en el país.

Parágrafo. Este marco Ético deberá ser diseñado en un término no mayor a seis (6) meses a partir de la entrada en vigencia de la presente ley y deberá ser sometido a revisión y actualización cada tres (3) meses a partir de su promulgación.

Parágrafo 2. La revisión y actualización periódica de la que trata el presente artículo deberá ser realizada por una comisión conformada por el Ministro (a) de Ciencia, Tecnología e Innovación o su delegado, el Ministro(a) de las Tecnologías de la Información y las Comunicaciones o su delegado, el Ministerio(a) de Comercio, Industria y Turismo o su delegado, y cualquier otra instancia gubernamental o académica competente.

Artículo 5. Estudio e Investigación.

El Gobierno Nacional incentivará y fortalecerá la formulación de programas educativos y creación de grupos de investigación universitarios encaminados a la investigación y desarrollo de Inteligencia Artificial.

Artículo 6. Jornadas de capacitaciones.

En un plazo no mayor a seis (6) a partir de la entrada en vigencia de la presente Ley, el Gobierno Nacional diseñará e implementará jornadas de capacitación en el uso de Inteligencias Artificiales, con el fin de preparar a la ciudadanía y desarrollar sus capacidades para adaptarse a las emergentes tecnologías.

Artículo 7. Plan de Acción.

El Gobierno Nacional, a través del Ministerio de Tecnologías de la Información y Comunicaciones, el Ministerio de Ciencia, Tecnología e Innovación, el Ministerio de. Comercio, Industria y Turismo, y cualquier otra instancia gubernamental o académica competente, diseñará un plan de acción para la regulación del uso responsable de la Inteligencia Artificial en Colombia en un plazo no mayor a un (1) año, contado a partir de su entrada en vigencia de la presente Ley. Este plan de acción será un documento orientador que establecerá las bases en materia de necesidad y prioridad de la regulación para estas emergentes tecnologías.

Parágrafo. Este plan de acción deberá tener en cuenta el diagnóstico y las recomendaciones formuladas por el Consejo Internacional de Inteligencia Artificial para Colombia, así como guiarse de estándares internacionales en la materia.

Artículo 8. Cooperación Internacional.

El Gobierno Nacional deberá incentivar la cooperación internacional con sectores públicos y privados, cuya finalidad sea el estudio, investigación, desarrollo e innovación en materia de inteligencia artificial, en procura de mantener las capacidades técnicas de las instituciones administrativas nacionales en la materia.

Artículo 9. Vigencia y derogatorias.

La presente Ley rige a partir de su publicación y deroga las disposiciones que le sean contrarias.

Cordialmente,

PEDRO H. FLOREZ PORRAS

Senador de la República

SANDRA RAMIREZ LOBO SILVA

Senadora de la República

SANDRA YANETH JAIMES CRUZ

Senadora de la República

JULIO ALBERTO ELÍAS VIDAL

Senador de la República

SOLEDAD TAMAYO TAMAYO

Senadora de la República

GUSTAVO ADOLFO  MORENO HURTADO

Senador de la República.

Secretaría Genenal (Art. 139 y ss Ley 5ª de 1.992)

El día   0 9 del mes Agoto del año 2023,

se radicó en este despacho el proyecto de ley nº 091. Acto Legislativo nº   ,con todos y cada uno de los requisitos constitucionales y legales por Pedro H. Flores P., Sandra Ramírez Silva, Sandra Janeth Jaimes, Julio A. Elías Vidal, Soledad Tamayo, Gustavo A. Moreno Hurtado  

SECRETARÍA GENERAL

EXPOSICIÓN DE MOTIVOS OBJETO DEL PROYECTO DE LEY

El objeto del presente proyecto de ley es establecer las bases para que las Inteligencias Artificiales en Colombia sean utilizadas de manera responsable y dentro de los parámetros éticos y legales que garanticen seguridad, transparencia, igualdad y equidad para sus usuarios y los colombianos.

JUSTIFICACIÓN

La Inteligencia Artificial (IA) hace parte fundamental de la revolución industrial que está viviendo el mundo en la actualidad y si bien estamos, como país, en un momento muy temprano para hablar de regulaciones y leyes que encasillen el uso de estas nuevas tecnologías, si estamos a tiempo para definir un marcos y empezar a desarrollar la bases institucionales, investigativas y culturales para una transición amena y una adaptación rápida a estas emergentes innovaciones que están aquí para quedarse.

Como bien se menciona en el acápite anterior, se está en un momento muy temprano para plantear regulaciones estrictas a la Inteligencia Artificial (IA), para ello sería necesario primero analizar los impactos y necesidades que traerán estas tecnologías, es por ello que el presente proyecto de ley tiene un enfoque preparativo y de planeación para garantizar un uso seguro, ético y responsable de esta tecnología en beneficio de la sociedad.

La IA está avanzando rápidamente y tiene el potencial de tener un impacto significativo en diversos aspectos de la vida cotidiana. La preparación temprana puede ayudar a estar listos como país para afrontar los desafíos y aprovechar las oportunidades que esta tecnología presenta. Algunas de las razones que justifican esta necesidad son:

l.          Seguridad y privacidad: La IA puede tener implicaciones significativas en la seguridad y privacidad de los datos. Regularla ayuda a proteger la. información personal y a evitar posibles ataques cibernéticos o el mal uso de la tecnología.

2.         Discriminación y sesgo: Los sistemas de IA puede verse afectados por sesgos inherentes en los datos con los que se entrenan. Esto puede conducir a decisiones discriminatorias o injustas, especialmente en aplicaciones como la selección de personal o en el ámbito judicial. La regulación busca mitigar estos riesgos y promover la equidad.

3.         Transparencia: La TA a menudo funciona como una caja negra, lo que significa que los procesos internos que lleva a cabo para llegar a sus conclusiones pueden ser difíciles de entender. La regulación puede exigir que los sistemas de IA sean transparentes y que puedan explicar sus decisiones, lo que es especialmente importante en aplicaciones críticas como la atención médica y la toma de decisiones en entornos sensibles.

4.         Responsabilidad: La regulación puede establecer la responsabilidad de las empresas y organizaciones que desarrollan y utilizan sistemas de IA. Esto garantiza que se puedan identificar y abordar las consecuencias negativas de los errores o mal funcionamiento de estos sistemas.

5.         Protección del consumidor: La regulación busca salvaguardar a los usuarios y consumidores de posibles abusos o prácticas engañosas relacionadas con la IA.

6.         Competencia justa: La regulación puede ayudar a prevenir prácticas monopolísticas o anticompetitivas en el desarrollo y despliegue de la  IA, permitiendo un ecosistema más justo y abierto.

Esta ley es necesaria ya que, si la Inteligencia Artificial no se regula adecuadamente, con normas precipitadas y sin un plan de acción y una infraestructura clara, pueden surgir varios riesgos significativos que afecten negativamente a al país y a la población colombiana. Algunos de estos riesgos incluyen: discriminación, violaciones de privacidad, desplazamiento laboral y riesgos éticos y morales.

Es evidente que la IA y la automatización avanzada pueden reemplazar o modificar significativamente muchos puestos de trabajo, lo que podría conducir al desempleo masivo y a la desigualdad económica si no se implementan medidas de mitigación adecuadas, las cuales deben ser previstas y analizadas dentro del contexto nacional y determinadas claramente en un plan de acción nacional.

Es importante destacar que la eventual regulación de la IA debe ser equilibrada, evitando restricciones excesivas que puedan frenar la innovación, pero también asegurándose de proteger los derechos y la seguridad de las personas. Un enfoque colaborativo, flexible y basado en principios éticos sólidos es fundamental para abordar los desafíos y aprovechar los beneficios de la IA de manera responsable.

La regulación de la IA también ha sido objeto de debate. Algunos argumentan que las regulaciones podrían restringir la innovación y el desarrollo de la IA. Además, la velocidad del avance tecnológico puede superar la capacidad de las regulaciones para mantenerse al día, es por ello que se reitera nuevamente que el enfoque de esta ley no es regular ni restringir de ninguna manera estas tecnologías, por el contrario, su espíritu va encaminado a la convivencia y en limpiar el camino para que la implementación y la transición tecnología del país sea lo más equilibrada y harmónica posible, tanto para las tecnologías como para la población colombiana.

En conclusión, la regulación de la Inteligencia Artificial es un desafío complejo, multifacético, multisectorial, y debe hacerse con responsabilidad y con todo el conocimiento técnico disponible, con referentes académicos e internacionales claros y con una ruta de implementación estudiada, esto debido a la amplia gama de aplicaciones y tecnologías involucradas y por la cantidad de aspectos que toca esta transformación tecnológica mundial.

Es por lo anterior que esta ley plantea la necesidad de un plan de acción que no solo realice en diagnostico fundamental de lo que necesita el país en esta materia y entre los temas fundamentales que debe tratar se encuentran: transparencia (tanto de lo producido por estas tecnologías como de la adquisición informática), mitigación de riesgos, protección de la privacidad y los datos, seguridad y ciberseguridad, rendición de cuentas, evaluación y certificación, colaboración internacional y fomento de la innovación responsable.

Lo anterior deberá ser diseñado con la participación de múltiples sectores tanto académicos como científicos, y estructurado de una manera integral que garantice su flexibilidad y adaptabilidad ante los constantes avances tecnológicos, lo que ayer parecía un futuro distante hoy es nuestro presente y el país necesita contar .con las herramientas para adaptarse a este nuevo mundo que está más cerca de lo que podemos imaginar.

MARCO NORMATIVO

CONPES 3920 -Plan Nacional de Explotación de Datos (Big Data). Define la política de explotación de datos (big data) y aborda cuatro ejes estructurales:

1) Generación de datos digitales,

2) cultura de protección y aprovechamiento de datos,

3) capital humano para la explotación de datos y

4) Marco jurídico, ético e institucional, que busca habilitar la generación de valor y reforzar la protección de los individuos en el contexto de disponibilidad y explotación masiva de datos.

Esta política tiene una gran relevancia como condición habilitante para el avance de la IA en el país porque los datos son un insumo clave para una de las ramas de desarrollo de soluciones basadas en aprendizaje automático.

CONPES 3975 – Política Nacional para La Transformación Digital e Inteligencia Artificial. Este documento orientador de fecha 8 de noviembre de 2019, formula una política nacional para la transformación digital e inteligencia artificial. Esta política tiene como objetivo potenciar la generación de valor social y económico en el país a través del uso estratégico de tecnologías digitales en el sector público y el sector privado, para impulsar la productividad y favorecer el bienestar de los ciudadanos, así como generar los habilitadores transversales para la transformación digital sectorial, de manera que Colombia pueda aprovechar las oportunidades y enfrentar los retos relacionados con la Cuarta Revolución Industrial.

En 2020 se presentó un documento para discusión denominado “Marco Ético para La Inteligencia Artificial en Colombia”, de la Consejería Presidencial para Asuntos Económicos y Transformación Digital, elaborado con la asesoría técnica de La Corporación Andina de Fomento, el cual tuvo como finalidad iniciar esta discusión ética sobre los usos de la inteligencia artificial en Colombia y el mundo, y presenta recomendaciones para ser adoptadas en la eventual formulación de una política de este tipo.

Igualmente, en este documento CONPES se reconoció que uno de los principales fenómenos que debía enfrentar el país, en materia de Inteligencia Artificial era el de las asimetrías de información entre diferentes actores tanto al interior del país como internacionalmente. Esto justificó la creación de una Misión de Expertos en Inteligencia Artificial, la cual reunió periódicamente a un grupo de expertos para evaluar las diferentes dimensiones de Inteligencia Artificial y producir recomendaciones en el corto, mediano y largo plazo.

CONPES 4023 – Política para la Reactivación, la Repotenciación y el Crecimiento Sostenible e Incluyente: Nuevo Compromiso por el Futuro de Colombia. Documento con fecha 11 de febrero de 2021, cuyo enfoque es la reactivación y crecimiento de la economía tras la pandemia por COVID-19, donde entre otros aspectos, se establece que las entidades públicas tienen una capacidad baja para el aprovechamiento de datos, y se evidencia la necesidad de un grupo de gobernanza de datos. Adicionalmente se plantea la necesidad de mejorar las capacidades técnicas del país en la materia, recurriendo a la cooperación internacional como una alternativa realista.

REFERENTES INTERNACIONALES

l.         Reglamento General de Protección de Datos (GDPR) – Unión Europea: Aunque no se enfoca específicamente en la regulación de la IA, el GDPR establece normas estrictas sobre la protección de datos personales, incluyendo aquellos utilizados por sistemas de IA, lo que afecta directamente el desarrollo y uso de tecnologías de IA en la región.

2.         Ley de Protección del Consumidor de Algoritmos – Nueva York, EE. UU.: Esta ley, aprobada en 2021, requiere que los proveedores de servicios financieros utilicen explicabilidad en los algoritmos utilizados para tomar decisiones relacionadas con créditos, préstamos y seguros.

3.         Ley de Transparencia en los Sistemas de Inteligencia Artificial – California, EE. UU.: Aprobada en 2019, esta ley establece requisitos para que los fabricantes de robots autónomos y sistemas de IA divulguen información sobre cómo se utilizan los datos recopilados y cómo se toman las decisiones.

4.         Marco Ético y de Seguridad para la Inteligencia Artificial – Canadá: En 2019, Canadá publicó un marco que establece principios y guías para el desarrollo ético y seguro de la IA en el país.

5.         Principios de IA del Gobierno de Singapur: Singapur ha publicado un conjunto de principios éticos para el uso de la IA, con un enfoque en la transparencia, la responsabilidad y la justicia.

6.         Ley sobre las Bases de Datos Biométricos – India: La Corte Suprema de India dictaminó en 2018 que el uso de datos biométricos, incluyendo tecnologías de reconocimiento facial, solo se puede utilizar para fines específicos y legítimos, protegiendo así la privacidad de los ciudadanos.

7.         Estrategia Nacional de IA – Emiratos Árabes. Unidos: El país ha lanzado una estrategia nacional para la IA con el objetivo de mejorar la eficiencia gubernamental y fomentar la innovación en sectores como el transporte y la salud.

Cordialmente,

PEDRO H. FLOREZ PORRAS

Senador de la República

SANDRA RAMIREZ LOBO SILVA

Senadora de la República

SANDRA YANETH JAIMES CRUZ

Senadora de la República

JULIO ALBERTO ELÍAS VIDAL

Senador de la República

SOLEDAD TAMAYO TAMAYO

Senadora de la República

GUSTAVO ADOLFO  MORENO HURTADO

Senador de la República.

Secretaría General (Art. 139 y ss Ley 5ª de 1.992)

El día 09 del mes Agoto del año 2023, se radicó en este despacho el proyecto de ley nº 91. Acto Legislativo nº   ,con todos y cada uno de los requisitos constitucionales y legales por Pedro H. Flores P., Sandra Ramírez Silva, Sandra Janeth Jaimes, Julio A. Elías Vidal, Soledad Tamayo, Gustavo A. Moreno Hurtado  

SECRETARÍA GENERAL

01Jul/23

Número 29, primer semestre 2023

ISSN 1989-5852

Título clave: Revista informática jurídica

Título abreviado: Rev. inform. jurid.

    1. Almanza Casola, Gonzalo Rafael
    2. Atencio Yero, Dinalvis
    3. Coquilo António, Neves
    4. González Olivera, Reynaldo Marcelo
    5. Guilherme Jackson, Dinis
    6. Hechavarría Derronselet, Yoendris
    7. Martínez, Cristina
    8. Reinaldo Filho, Demócrito
    9. Rivero de la Rosa, Ildefons0
    10. Rondón Aguilar, Amaury

Introducción

En este vigésimo noveno número de la Revista, aparecen artículos de colaboradores por orden alfabético.

Un agradecimiento especial a los 10 colaboradores que han aportado sus artículos para hacer posible la publicación semestral de esta revista, que lleva 14 años y medio.

Un cordial saludo para todos y gracias por vuestra colaboración.

José Cuervo Álvarez

Almanza Casola, Gonzalo Rafael

Endereço: Rua Padre Fidalgo
INSTITUICIÓN: Instituto Superior Politécnico de Bié

Concepción Teórica-Metodológica, para el aprendizaje del inglés como lengua extranjera en el Instituto Superior Politécnico de Bié (Trabajo en colaboración don Dinis Guilherme Jackson y Neves Coquilo António) (29 de mayo de 2023)

Atencio Yero, Dinalvis

Licenciado en Educación en la especialidad de informática, profesor de la ESBU “Pedro de Cespedes del Castillo”, municipio Media Luna, Granma, [email protected]

Software para la aplicación de las operaciones aritméticas en la resolución de problemas para Ingenieros (30 de junio de 2023) (Trabajo en colaboración con Ildefonso Rivero de la Rosa y Amaury Rondón Aguilar)

Coquilo António, Neves

Professor Assistente. Chefe do Departamento de Linguas Instituto Superior Politécnico do Bié, Angola. Endereço: La Instituiçao a que o autor pertenece; Antiga Universidade José Eduardo dos Santos. (Escola Superior Politécnico do Bié) Actual Instituto Superior Politécnico do Bié, localizada na rua Padre Fidalgo.

Concepción Teórica-Metodológica, para el aprendizaje del inglés como lengua extranjera en el Instituto Superior Politécnico de Bié (Trabajo en colaboración don Dinis Guilherme Jackson y Gonzalo Rafael Almanza Casola) (29 de mayo de 2023)

O aproveitamento económico das nações mundiais através da covid-19, numa perspectiva angolana (29 de junio de 2023)

González Olivera, Reynaldo Marcelo

 Licenciado en Educación en la especialidad Educación Laboral-Informática. Profesor Instructor. Departamento de Informática. Universidad de Granma. Sede Blas Roca Calderío, Manzanillo 87510 Granma, Cuba [email protected] y [email protected]

Software educativo “Aprende y Dibuja” una alternativa para contribuir al aprendizaje del Dibujo Técnico en la Secundaria Básica (30 de enero de 2023) (Trabajo en colaboración con Lic. Yoendris Hechevarria Derronselet)

Sitio web: “Redes Informática” para favorecer el aprendizaje del contenido redes informáticas en el nivel educativo preuniversitario (19 de abril de 2023) 

Guilherme Jackson, Dinis

Endereço: Rua Padre Fidalgo
E-mail: [email protected];
INSTITUICIÓN: Instituto Superior Politécnico de Bié

Concepción Teórica-Metodológica, para el aprendizaje del inglés como lengua extranjera en el Instituto Superior Politécnico de Bié (Trabajo en colaboración don Neves Coquilo António y Gonzalo Rafael Almanza Casola) (29 de mayo de 2023)

Hechavarría Derronselet, Yoendris

Licenciado en Educación Laboral. Profesor Asistente del departamento Educación Laboral-Informática de la Universidad de Granma Sede “Blas Roca Calderío”

Software educativo “Aprende y Dibuja” una alternativa para contribuir al aprendizaje del Dibujo Técnico en la Secundaria Básica (30 de enero de 2023) (Trabajo en colaboración con Lic. Reynaldo Marcelo González Olivera)

Martínez, Cristina

Departamento Legal. Áudea Seguridad de la Información.

Las investigaciones a OpenAI, propietaria de ChatGPT, en la Unión Europea, pero también en España (22 de junio de 2023)

Reinaldo Filho, Demócrito

The author is a Judge of the Court of Justice of Pernambuco/Brazil. He holds a doctorate in law. He was founder and President of the Brazilian Institute of Informatics Policy and Law.

Contact information:
Phone: 55-81-992783498 (whatsapp)
e-mail: [email protected]
URL: https://www.tjpe.jus.br/web/tribunal-de-justica/drrf

O fenômeno do chatgpt desperta a necesidade da Regulamentação da Inteligência Artificial (9 de marzo de 2023)

The ChatGPT phenomenon sparks the need for AI regulation (2 de abril de 2023)

O ChatGPT é um sistema de inteligência Artificial de “Alto Risco” (2 de abril de 2023)

O Markets in Crypto-Assets (MiCA): a proposta europeia para regular o mercado de criptoativos (16 de mayo de 2023)

Rivero de la Rosa, Ildefons0

Licenciado en Educación en la especialidad de Matemáticas. Máster en ciencia de la educación y profesor auxiliar de la carrera Ingeniería Agrónoma, CUM Media Luna, Universidad de Granma [email protected]

Software para la aplicación de las operaciones aritméticas en la resolución de problemas para Ingenieros (30 de marzo de 2023) (Trabajo en colaboración con Amaury Rondón Aguilar y Dinalvis Atencio Yero)

Rondón Aguilar, Amaury

Licenciado en Matemática, profesor asistente de la Ingeniería Agrónoma, CUM Media Luna, Universidad de Granma, Cuba, [email protected]

Software para la aplicación de las operaciones aritméticas en la resolución de problemas para Ingenieros (30 de marzo de 2023) (Trabajo en colaboración con Ildefonso Rivero de la Rosa y Dinalvis Atencio Yero)

30Jun/21

COM 2021/206 FINAL

COM 2021/206 FINAL. Proposal for a regulation of the European Parliament and of the Council Laying Down harmonised rules on Artificial Intelligence (Artificial Inteligence Act) and amending certain union legislative Acts.

Brussels, 21.4.2021

COM(2021) 206 final 2021/0106 (COD)

Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS

1. CONTEXT OF THE PROPOSAL

1.1. Reasons for and objectives of the proposal

This explanatory memorandum accompanies the proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Artificial Intelligence (AI) is a fast evolving family of technologies that can bring a wide array of economic and societal benefits across the entire spectrum of industries and social activities. By improving prediction, optimising operations and resource allocation, and personalising service delivery, the use of artificial intelligence can support socially and environmentally beneficial outcomes and provide key competitive advantages to companies and the European economy. Such action is especially needed in high-impact sectors, including climate change, environment and health, the public sector, finance, mobility, home affairs and agriculture. However, the same elements and techniques that power the socio-economic benefits of AI can also bring about new risks or negative consequences for individuals or the society. In light of the speed of technological change and possible challenges, the EU is committed to strive for a balanced approach. It is in the Union interest to preserve the EU’s technological leadership and to ensure that Europeans can benefit from new technologies developed and functioning according to Union values, fundamental rights and principles.

This proposal delivers on the political commitment by President von der Leyen, who announced in her political guidelines for the 2019-2024 Commission “A Union that strives for more” (1), that the Commission would put forward legislation for a coordinated European approach on the human and ethical implications of AI. Following on that announcement, on 19 February 2020 the Commission published the White Paper on AI – A European approach to excellence and trust (2). The White Paper sets out policy options on how to achieve the twin objective of promoting the uptake of AI and of addressing the risks associated with certain uses of such technology. This proposal aims to implement the second objective for the development of an ecosystem of trust by proposing a legal framework for trustworthy AI. The proposal is based on EU values and fundamental rights and aims to give people and other users the confidence to embrace AI-based solutions, while encouraging businesses to develop them. AI should be a tool for people and be a force for good in society with the ultimate aim of increasing human well-being. Rules for AI available in the Union market or otherwise affecting people in the Union should therefore be human centric, so that people can trust that the technology is used in a way that is safe and compliant with the law, including the respect of fundamental rights. Following the publication of the White Paper, the Commission launched a broad stakeholder consultation, which was met with a great interest by a large number of stakeholders who were largely supportive of regulatory intervention to address the challenges and concerns raised by the increasing use of AI.

The proposal also responds to explicit requests from the European Parliament (EP) and the European Council, which have repeatedly expressed calls for legislative action to ensure a well-functioning internal market for artificial intelligence systems (‘AI systems’) where both benefits and risks of AI are adequately addressed at Union level. It supports the objective of the Union being a global leader in the development of secure, trustworthy and ethical artificial intelligence as stated by the European Council (3) and ensures the protection of ethical principles as specifically requested by the European Parliament (4).

In 2017, the European Council called for a ‘sense of urgency to address emerging trends’ including ‘issues such as artificial intelligence …, while at the same time ensuring a high level of data protection, digital rights and ethical standards’ (5). In its 2019 Conclusions on the Coordinated Plan on the development and use of artificial intelligence Made in Europe (6), the Council further highlighted the importance of ensuring that European citizens’ rights are fully respected and called for a review of the existing relevant legislation to make it fit for purpose for the new opportunities and challenges raised by AI. The European Council has also called for a clear determination of the AI applications that should be considered high-risk (7).

The most recent Conclusions from 21 October 2020 further called for addressing the opacity, complexity, bias, a certain degree of unpredictability and partially autonomous behaviour of certain AI systems, to ensure their compatibility with fundamental rights and to facilitate the enforcement of legal rules (8).

The European Parliament has also undertaken a considerable amount of work in the area of AI. In October 2020, it adopted a number of resolutions related to AI, including on ethics (9), liability (10) and copyright (11). In 2021, those were followed by resolutions on AI in criminal matters (12) and in education, culture and the audio-visual sector (13). The EP Resolution on a Framework of Ethical Aspects of Artificial Intelligence, Robotics and Related Technologies specifically recommends to the Commission to propose legislative action to harness the opportunities and benefits of AI, but also to ensure protection of ethical principles. The resolution includes a text of the legislative proposal for a regulation on ethical principles for the development, deployment and use of AI, robotics and related technologies. In accordance with the political commitment made by President von der Leyen in her Political Guidelines as regards resolutions adopted by the European Parliament under Article 225 TFEU, this proposal takes into account the aforementioned resolution of the European Parliament in full respect of proportionality, subsidiarity and better law making principles.

Against this political context, the Commission puts forward the proposed regulatory framework on Artificial Intelligence with the following specific objectives:

• ensure that AI systems placed on the Union market and used are safe and respect existing law on fundamental rights and Union values;

• ensure legal certainty to facilitate investment and innovation in AI;

• enhance governance and effective enforcement of existing law on fundamental rights and safety requirements applicable to AI systems;

• facilitate the development of a single market for lawful, safe and trustworthy AI applications and prevent market fragmentation.

To achieve those objectives, this proposal presents a balanced and proportionate horizontal regulatory approach to AI that is limited to the minimum necessary requirements to address the risks and problems linked to AI, without unduly constraining or hindering technological development or otherwise disproportionately increasing the cost of placing AI solutions on the market. The proposal sets a robust and flexible legal framework. On the one hand, it is comprehensive and future-proof in its fundamental regulatory choices, including the principle-based requirements that AI systems should comply with. On the other hand, it puts in place a proportionate regulatory system centred on a well-defined risk-based regulatory approach that does not create unnecessary restrictions to trade, whereby legal intervention is tailored to those concrete situations where there is a justified cause for concern or where such concern can reasonably be anticipated in the near future. At the same time, the legal framework includes flexible mechanisms that enable it to be dynamically adapted as the technology evolves and new concerning situations emerge.

The proposal sets harmonised rules for the development, placement on the market and use of AI systems in the Union following a proportionate risk-based approach. It proposes a single future-proof definition of AI. Certain particularly harmful AI practices are prohibited as contravening Union values, while specific restrictions and safeguards are proposed in relation to certain uses of remote biometric identification systems for the purpose of law enforcement. The proposal lays down a solid risk methodology to define “high-risk” AI systems that pose significant risks to the health and safety or fundamental rights of persons. Those AI systems will have to comply with a set of horizontal mandatory requirements for trustworthy AI and follow conformity assessment procedures before those systems can be placed on the Union market. Predictable, proportionate and clear obligations are also placed on providers and users of those systems to ensure safety and respect of existing legislation protecting fundamental rights throughout the whole AI systems’ lifecycle. For some specific AI systems, only minimum transparency obligations are proposed, in particular when chatbots or ‘deep fakes’ are used.

The proposed rules will be enforced through a governance system at Member States level, building on already existing structures, and a cooperation mechanism at Union level with the establishment of a European Artificial Intelligence Board. Additional measures are also proposed to support innovation, in particular through AI regulatory sandboxes and other measures to reduce the regulatory burden and to support Small and Medium-Sized Enterprises (‘SMEs’) and start-ups.

1.2. Consistency with existing policy provisions in the policy area

The horizontal nature of the proposal requires full consistency with existing Union legislation applicable to sectors where high-risk AI systems are already used or likely to be used in the near future.

Consistency is also ensured with the EU Charter of Fundamental Rights and the existing secondary Union legislation on data protection, consumer protection, non-discrimination and gender equality. The proposal is without prejudice and complements the General Data Protection Regulation (Regulation (EU) 2016/679) and the Law Enforcement Directive (Directive (EU) 2016/680) with a set of harmonised rules applicable to the design, development and use of certain high-risk AI systems and restrictions on certain uses of remote biometric identification systems. Furthermore, the proposal complements existing Union law on non-discrimination with specific requirements that aim to minimise the risk of algorithmic discrimination, in particular in relation to the design and the quality of data sets used for the development of AI systems complemented with obligations for testing, risk management, documentation and human oversight throughout the AI systems’ lifecycle. The proposal is without prejudice to the application of Union competition law.

As regards high-risk AI systems which are safety components of products, this proposal will be integrated into the existing sectoral safety legislation to ensure consistency, avoid duplications and minimise additional burdens. In particular, as regards high-risk AI systems related to products covered by the New Legislative Framework (NLF) legislation (e.g. machinery, medical devices, toys), the requirements for AI systems set out in this proposal will be checked as part of the existing conformity assessment procedures under the relevant NLF legislation. With regard to the interplay of requirements, while the safety risks specific to AI systems are meant to be covered by the requirements of this proposal, NLF legislation aims at ensuring the overall safety of the final product and therefore may contain specific requirements regarding the safe integration of an AI system into the final product. The proposal for a Machinery Regulation, which is adopted on the same day as this proposal fully reflects this approach. As regards high-risk AI systems related to products covered by relevant Old Approach legislation (e.g. aviation, cars), this proposal would not directly apply. However, the ex-ante essential requirements for high-risk AI systems set out in this proposal will have to be taken into account when adopting relevant implementing or delegated legislation under those acts.

As regards AI systems provided or used by regulated credit institutions, the authorities responsible for the supervision of the Union’s financial services legislation should be designated as competent authorities for supervising the requirements in this proposal to ensure a coherent enforcement of the obligations under this proposal and the Union’s financial services legislation where AI systems are to some extent implicitly regulated in relation to the internal governance system of credit institutions. To further enhance consistency, the conformity assessment procedure and some of the providers’ procedural obligations under this proposal are integrated into the procedures under Directive 2013/36/EU on access to the activity of credit institutions and the prudential supervisión (14).

This proposal is also consistent with the applicable Union legislation on services, including on intermediary services regulated by the e-Commerce Directive 2000/31/EC (15) and the Commission’s recent proposal for the Digital Services Act (DSA) (16).

In relation to AI systems that are components of large-scale IT systems in the Area of Freedom, Security and Justice managed by the European Union Agency for the Operational Management of Large-Scale IT Systems (eu-LISA), the proposal will not apply to those AI systems that have been placed on the market or put into service before one year has elapsed from the date of application of this Regulation, unless the replacement or amendment of those legal acts leads to a significant change in the design or intended purpose of the AI system or AI systems concerned.

1.3. Consistency with other Union policies

The proposal is part of a wider comprehensive package of measures that address problems posed by the development and use of AI, as examined in the White Paper on AI. Consistency and complementarity is therefore ensured with other ongoing or planned initiatives of the Commission that also aim to address those problems, including the revision of sectoral product legislation (e.g. the Machinery Directive, the General Product Safety Directive) and initiatives that address liability issues related to new technologies, including AI systems. Those initiatives will build on and complement this proposal in order to bring legal clarity and foster the development of an ecosystem of trust in AI in Europe.

The proposal is also coherent with the Commission’s overall digital strategy in its contribution to promoting technology that works for people, one of the three main pillars of the policy orientation and objectives announced in the Communication ‘Shaping Europe’s digital future’ (17). It lays down a coherent, effective and proportionate framework to ensure AI is developed in ways that respect people’s rights and earn their trust, making Europe fit for the digital age and turning the next ten years into the Digital Decade (18).

Furthermore, the promotion of AI-driven innovation is closely linked to the Data Governance Act (19), the Open Data Directive (20) and other initiatives under the EU strategy for data (21), which will establish trusted mechanisms and services for the re-use, sharing and pooling of data that are essential for the development of data-driven AI models of high quality.

The proposal also strengthens significantly the Union’s role to help shape global norms and standards and promote trustworthy AI that is consistent with Union values and interests. It provides the Union with a powerful basis to engage further with its external partners, including third countries, and at international fora on issues relating to AI.

2. LEGAL BASIS, SUBSIDIARITY AND PROPORTIONALITY

2.1. Legal basis

The legal basis for the proposal is in the first place Article 114 of the Treaty on the Functioning of the European Union (TFEU), which provides for the adoption of measures to ensure the establishment and functioning of the internal market.

This proposal constitutes a core part of the EU digital single market strategy. The primary objective of this proposal is to ensure the proper functioning of the internal market by setting harmonised rules in particular on the development, placing on the Union market and the use of products and services making use of AI technologies or provided as stand-alone AI systems. Some Member States are already considering national rules to ensure that AI is safe and is developed and used in compliance with fundamental rights obligations. This will likely lead to two main problems: i) a fragmentation of the internal market on essential elements regarding in particular the requirements for the AI products and services, their marketing, their use, the liability and the supervision by public authorities, and ii) the substantial diminishment of legal certainty for both providers and users of AI systems on how existing and new rules will apply to those systems in the Union. Given the wide circulation of products and services across borders, these two problems can be best solved through EU harmonizing legislation.

Indeed, the proposal defines common mandatory requirements applicable to the design and development of certain AI systems before they are placed on the market that will be further operationalised through harmonised technical standards. The proposal also addresses the situation after AI systems have been placed on the market by harmonising the way in which ex-post controls are conducted.

In addition, considering that this proposal contains certain specific rules on the protection of individuals with regard to the processing of personal data, notably restrictions of the use of AI systems for ‘real-time’ remote biometric identification in publicly accessible spaces for the purpose of law enforcement, it is appropriate to base this regulation, in as far as those specific rules are concerned, on Article 16 of the TFEU.

2.2. Subsidiarity (for non-exclusive competence)

The nature of AI, which often relies on large and varied datasets and which may be embedded in any product or service circulating freely within the internal market, entails that the objectives of this proposal cannot be effectively achieved by Member States alone. Furthermore, an emerging patchwork of potentially divergent national rules will hamper the seamless circulation of products and services related to AI systems across the EU and will be ineffective in ensuring the safety and protection of fundamental rights and Union values across the different Member States. National approaches in addressing the problems will only create additional legal uncertainty and barriers, and will slow market uptake of AI.

The objectives of this proposal can be better achieved at Union level to avoid a further fragmentation of the Single Market into potentially contradictory national frameworks preventing the free circulation of goods and services embedding AI. A solid European regulatory framework for trustworthy AI will also ensure a level playing field and protect all people, while strengthening Europe’s competitiveness and industrial basis in AI. Only common action at Union level can also protect the Union’s digital sovereignty and leverage its tools and regulatory powers to shape global rules and standards.

2.3. Proportionality

The proposal builds on existing legal frameworks and is proportionate and necessary to achieve its objectives, since it follows a risk-based approach and imposes regulatory burdens only when an AI system is likely to pose high risks to fundamental rights and safety. For other, non-high-risk AI systems, only very limited transparency obligations are imposed, for example in terms of the provision of information to flag the use of an AI system when interacting with humans. For high-risk AI systems, the requirements of high quality data, documentation and traceability, transparency, human oversight, accuracy and robustness, are strictly necessary to mitigate the risks to fundamental rights and safety posed by AI and that are not covered by other existing legal frameworks. Harmonised standards and supporting guidance and compliance tools will assist providers and users in complying with the requirements laid down by the proposal and minimise their costs. The costs incurred by operators are proportionate to the objectives achieved and the economic and reputational benefits that operators can expect from this proposal.

2.4. Choice of the instrument

The choice of a regulation as a legal instrument is justified by the need for a uniform application of the new rules, such as definition of AI, the prohibition of certain harmful AI-enabled practices and the classification of certain AI systems. The direct applicability of a Regulation, in accordance with Article 288 TFEU, will reduce legal fragmentation and facilitate the development of a single market for lawful, safe and trustworthy AI systems. It will do so, in particular, by introducing a harmonised set of core requirements with regard to AI systems classified as high-risk and obligations for providers and users of those systems, improving the protection of fundamental rights and providing legal certainty for operators and consumers alike.

At the same time, the provisions of the regulation are not overly prescriptive and leave room for different levels of Member State action for elements that do not undermine the objectives of the initiative, in particular the internal organisation of the market surveillance system and the uptake of measures to foster innovation.

3. RESULTS OF EX-POST EVALUATIONS, STAKEHOLDER CONSULTATIONS AND IMPACT ASSESSMENTS

3.1. Stakeholder consultation

This proposal is the result of extensive consultation with all major stakeholders, in which the general principles and minimum standards for consultation of interested parties by the Commission were applied.

An online public consultation was launched on 19 February 2020 along with the publication of the White Paper on Artificial Intelligence and ran until 14 June 2020. The objective of that consultation was to collect views and opinions on the White Paper. It targeted all interested stakeholders from the public and private sectors, including governments, local authorities, commercial and non-commercial organisations, social partners, experts, academics and citizens. After analysing all the responses received, the Commission published a summary outcome and the individual responses on its website (22).

In total, 1215 contributions were received, of which 352 were from companies or business organisations/associations, 406 from individuals (92%individuals from EU ), 152 on behalf of academic/research institutions, and 73 from public authorities. Civil society’s voices were represented by 160 respondents (among which 9 consumers’ organisations, 129 non-governmental organisations and 22 trade unions), 72 respondents contributed as ‘others’. Of the 352 business and industry representatives, 222 were companies and business representatives, 41.5% of which were micro, small and medium-sized enterprises. The rest were business associations. Overall, 84% of business and industry replies came from the EU-27. Depending on the question, between 81 and 598 of the respondents used the free text option to insert comments. Over 450 position papers were submitted through the EU Survey website, either in addition to questionnaire answers (over 400) or as stand-alone contributions (over 50).

Overall, there is a general agreement amongst stakeholders on a need for action. A large majority of stakeholders agree that legislative gaps exist or that new legislation is needed. However, several stakeholders warn the Commission to avoid duplication, conflicting obligations and overregulation. There were many comments underlining the importance of a technology neutral and proportionate regulatory framework.

Stakeholders mostly requested a narrow, clear and precise definition for AI. Stakeholders also highlighted that besides the clarification of the term of AI, it is important to define ‘risk’, ‘high-risk’, ‘low-risk’, ‘remote biometric identification’ and ‘harm’.

Most of the respondents are explicitly in favour of the risk-based approach. Using a risk-based framework was considered a better option than blanket regulation of all AI systems. The types of risks and threats should be based on a sector-by-sector and case-by-case approach. Risks also should be calculated taking into account the impact on rights and safety.

Regulatory sandboxes could be very useful for the promotion of AI and are welcomed by certain stakeholders, especially the Business Associations.

Among those who formulated their opinion on the enforcement models, more than 50%, especially from the business associations, were in favour of a combination of an ex-ante risk self-assessment and an ex-post enforcement for high-risk AI systems.

3.2. Collection and use of expertise

The proposal builds on two years of analysis and close involvement of stakeholders, including academics, businesses, social partners, non-governmental organisations, Member States and citizens. The preparatory work started in 2018 with the setting up of a High-Level Expert Group on AI (HLEG) which had an inclusive and broad composition of 52 well-known experts tasked to advise the Commission on the implementation of the Commission’s Strategy on Artificial Intelligence. In April 2019, the Commission supported (23) the key requirements set out in the HLEG ethics guidelines for Trustworthy AI (24), which had been revised to take into account more than 500 submissions from stakeholders. The key requirements reflect a widespread and common approach, as evidenced by a plethora of ethical codes and principles developed by many private and public organisations in Europe and beyond, that AI development and use should be guided by certain essential value-oriented principles. The Assessment List for Trustworthy Artificial Intelligence (ALTAI) (25) made those requirements operational in a piloting process with over 350 organisations.

In addition, the AI Alliance (26) was formed as a platform for approximately 4000 stakeholders to debate the technological and societal implications of AI, culminating in a yearly AI Assembly.

The White Paper on AI further developed this inclusive approach, inciting comments from more than 1250 stakeholders, including over 450 additional position papers. As a result, the Commission published an Inception Impact Assessment, which in turn attracted more than 130 comments (27). Additional stakeholder workshops and events were also organised the results of which support the analysis in the impact assessment and the policy choices made in this proposal (28). An external study was also procured to feed into the impact assessment.

3.3. Impact assessment

In line with its “Better Regulation” policy, the Commission conducted an impact assessment for this proposal examined by the Commission’s Regulatory Scrutiny Board. A meeting with the Regulatory Scrutiny Board was held on 16 December 2020, which was followed by a negative opinion. After substantial revision of the impact assessment to address the comments and a resubmission of the impact assessment, the Regulatory Scrutiny Board issued a positive opinion on 21 March 2021. The opinions of the Regulatory Scrutiny Board, the recommendations and an explanation of how they have been taken into account are presented in Annex 1 of the impact assessment.

The Commission examined different policy options to achieve the general objective of the proposal, which is to ensure the proper functioning of the single market by creating the conditions for the development and use of trustworthy AI in the Union.

Four policy options of different degrees of regulatory intervention were assessed:

• Option 1: EU legislative instrument setting up a voluntary labelling scheme;

• Option 2: a sectoral, “ad-hoc” approach;

• Option 3: Horizontal EU legislative instrument following a proportionate risk-based approach;

• Option 3+: Horizontal EU legislative instrument following a proportionate risk-based approach + codes of conduct for non-high-risk AI systems;

• Option 4: Horizontal EU legislative instrument establishing mandatory requirements for all AI systems, irrespective of the risk they pose.

According to the Commission’s established methodology, each policy option was evaluated against economic and societal impacts, with a particular focus on impacts on fundamental rights. The preferred option is option 3+, a regulatory framework for high-risk AI systems only, with the possibility for all providers of non-high-risk AI systems to follow a code of conduct. The requirements will concern data, documentation and traceability, provision of information and transparency, human oversight and robustness and accuracy and would be mandatory for high-risk AI systems. Companies that introduced codes of conduct for other AI systems would do so voluntarily.

The preferred option was considered suitable to address in the most effective way the objectives of this proposal. By requiring a restricted yet effective set of actions from AI developers and users, the preferred option limits the risks of violation of fundamental rights and safety of people and foster effective supervision and enforcement, by targeting the requirements only to systems where there is a high risk that such violations could occur. As a result, that option keeps compliance costs to a minimum, thus avoiding an unnecessary slowing of uptake due to higher prices and compliance costs. In order to address possible disadvantages for SMEs, this option includes several provisions to support their compliance and reduce their costs, including creation of regulatory sandboxes and obligation to consider SMEs interests when setting fees related to conformity assessment.

The preferred option will increase people’s trust in AI, companies will gain in legal certainty, and Member States will see no reason to take unilateral action that could fragment the single market. As a result of higher demand due to higher trust, more available offers due to legal certainty, and the absence of obstacles to cross-border movement of AI systems, the single market for AI will likely flourish. The European Union will continue to develop a fast-growing AI ecosystem of innovative services and products embedding AI technology or stand-alone AI systems, resulting in increased digital autonomy.

Businesses or public authorities that develop or use AI applications that constitute a high risk for the safety or fundamental rights of citizens would have to comply with specific requirements and obligations. Compliance with these requirements would imply costs amounting to approximately EUR € 6000 to EUR € 7000 for the supply of an average high-risk AI system of around EUR € 170000 by 2025. For AI users, there would also be the annual cost for the time spent on ensuring human oversight where this is appropriate, depending on the use case. Those have been estimated at approximately EUR € 5000 to EUR € 8000 per year. Verification costs could amount to another EUR € 3000 to EUR € 7500 for suppliers of high-risk AI. Businesses or public authorities that develop or use any AI applications not classified as high risk would only have minimal obligations of information. However, they could choose to join others and together adopt a code of conduct to follow suitable requirements, and to ensure that their AI systems are trustworthy. In such a case, costs would be at most as high as for high-risk AI systems, but most probably lower.

The impacts of the policy options on different categories of stakeholders (economic operators/ business; conformity assessment bodies, standardisation bodies and other public bodies; individuals/citizens; researchers) are explained in detail in Annex 3 of the Impact assessment supporting this proposal.

3.4. Regulatory fitness and simplification

This proposal lays down obligation that will apply to providers and users of high-risk AI systems. For providers who develop and place such systems on the Union market, it will create legal certainty and ensure that no obstacle to the cross-border provision of AI-related services and products emerge. For companies using AI, it will promote trust among their customers. For national public administrations, it will promote public trust in the use of AI and strengthen enforcement mechanisms (by introducing a European coordination mechanism, providing for appropriate capacities, and facilitating audits of the AI systems with new requirements for documentation, traceability and transparency). Moreover, the framework will envisage specific measures supporting innovation, including regulatory sandboxes and specific measures supporting small-scale users and providers of high-risk AI systems to comply with the new rules.

The proposal also specifically aims at strengthening Europe’s competitiveness and industrial basis in AI. Full consistency is ensured with existing sectoral Union legislation applicable to

AI systems (e.g. on products and services) that will bring further clarity and simplify the enforcement of the new rules.

3.5. Fundamental rights

The use of AI with its specific characteristics (e.g. opacity, complexity, dependency on data, autonomous behaviour) can adversely affect a number of fundamental rights enshrined in the EU Charter of Fundamental Rights (‘the Charter’). This proposal seeks to ensure a high level of protection for those fundamental rights and aims to address various sources of risks through a clearly defined risk-based approach. With a set of requirements for trustworthy AI and proportionate obligations on all value chain participants, the proposal will enhance and promote the protection of the rights protected by the Charter: the right to human dignity (Article 1), respect for private life and protection of personal data (Articles 7 and 8), non-discrimination (Article 21) and equality between women and men (Article 23). It aims to prevent a chilling effect on the rights to freedom of expression (Article 11) and freedom of assembly (Article 12), to ensure protection of the right to an effective remedy and to a fair trial, the rights of defence and the presumption of innocence (Articles 47 and 48), as well as the general principle of good administration. Furthermore, as applicable in certain domains, the proposal will positively affect the rights of a number of special groups, such as the workers’ rights to fair and just working conditions (Article 31), a high level of consumer protection (Article 28), the rights of the child (Article 24) and the integration of persons with disabilities (Article 26). The right to a high level of environmental protection and the improvement of the quality of the environment (Article 37) is also relevant, including in relation to the health and safety of people. The obligations for ex ante testing, risk management and human oversight will also facilitate the respect of other fundamental rights by minimising the risk of erroneous or biased AI-assisted decisions in critical areas such as education and training, employment, important services, law enforcement and the judiciary. In case infringements of fundamental rights still happen, effective redress for affected persons will be made possible by ensuring transparency and traceability of the AI systems coupled with strong ex post controls.

This proposal imposes some restrictions on the freedom to conduct business (Article 16) and the freedom of art and science (Article 13) to ensure compliance with overriding reasons of public interest such as health, safety, consumer protection and the protection of other fundamental rights (‘responsible innovation’) when high-risk AI technology is developed and used. Those restrictions are proportionate and limited to the minimum necessary to prevent and mitigate serious safety risks and likely infringements of fundamental rights.

The increased transparency obligations will also not disproportionately affect the right to protection of intellectual property (Article 17(2)), since they will be limited only to the minimum necessary information for individuals to exercise their right to an effective remedy and to the necessary transparency towards supervision and enforcement authorities, in line with their mandates. Any disclosure of information will be carried out in compliance with relevant legislation in the field, including Directive 2016/943 on the protection of undisclosed know-how and business information (trade secrets) against their unlawful acquisition, use and disclosure. When public authorities and notified bodies need to be given access to confidential information or source code to examine compliance with substantial obligations, they are placed under binding confidentiality obligations.

4. BUDGETARY IMPLICATIONS

Member States will have to designate supervisory authorities in charge of implementing the legislative requirements. Their supervisory function could build on existing arrangements, for example regarding conformity assessment bodies or market surveillance, but would require sufficient technological expertise and human and financial resources. Depending on the pre-existing structure in each Member State, this could amount to 1 to 25 Full Time Equivalents per Member State.

A detailed overview of the costs involved is provided in the ‘financial statement’ linked to this proposal.

5. OTHER ELEMENTS

5.1. Implementation plans and monitoring, evaluation and reporting arrangements

Providing for a robust monitoring and evaluation mechanism is crucial to ensure that the proposal will be effective in achieving its specific objectives. The Commission will be in charge of monitoring the effects of the proposal. It will establish a system for registering stand-alone high-risk AI applications in a public EU-wide database. This registration will also enable competent authorities, users and other interested people to verify if the high-risk AI system complies with the requirements laid down in the proposal and to exercise enhanced oversight over those AI systems posing high risks to fundamental rights. To feed this database, AI providers will be obliged to provide meaningful information about their systems and the conformity assessment carried out on those systems.

Moreover, AI providers will be obliged to inform national competent authorities about serious incidents or malfunctioning that constitute a breach of fundamental rights obligations as soon as they become aware of them, as well as any recalls or withdrawals of AI systems from the market. National competent authorities will then investigate the incidents/or malfunctioning, collect all the necessary information and regularly transmit it to the Commission with adequate metadata. The Commission will complement this information on the incidents by a comprehensive analysis of the overall market for AI.

The Commission will publish a report evaluating and reviewing the proposed AI framework five years following the date on which it becomes applicable.

5.2. Detailed explanation of the specific provisions of the proposal

5.2.1. SCOPE AND DEFINITIONS (TITLE I)

Title I defines the subject matter of the regulation and the scope of application of the new rules that cover the placing on the market, putting into service and use of AI systems. It also sets out the definitions used throughout the instrument. The definition of AI system in the legal framework aims to be as technology neutral and future proof as possible, taking into account the fast technological and market developments related to AI. In order to provide the needed legal certainty, Title I is complemented by Annex I, which contains a detailed list of approaches and techniques for the development of AI to be adapted by the Commission in line with new technological developments. Key participants across the AI value chain are also clearly defined such as providers and users of AI systems that cover both public and private operators to ensure a level playing field.

5.2.2. PROHIBITED ARTIFICIAL INTELLIGENCE PRACTICES (TITLE II)

Title II establishes a list of prohibited AI. The regulation follows a risk-based approach, differentiating between uses of AI that create (i) an unacceptable risk, (ii) a high risk, and (iii) low or minimal risk. The list of prohibited practices in Title II comprises all those AI systems whose use is considered unacceptable as contravening Union values, for instance by violating fundamental rights. The prohibitions covers practices that have a significant potential to manipulate persons through subliminal techniques beyond their consciousness or exploit vulnerabilities of specific vulnerable groups such as children or persons with disabilities in order to materially distort their behaviour in a manner that is likely to cause them or another person psychological or physical harm. Other manipulative or exploitative practices affecting adults that might be facilitated by AI systems could be covered by the existing data protection, consumer protection and digital service legislation that guarantee that natural persons are properly informed and have free choice not to be subject to profiling or other practices that might affect their behaviour. The proposal also prohibits AI-based social scoring for general purposes done by public authorities. Finally, the use of ‘real time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement is also prohibited unless certain limited exceptions apply.

5.2.3. HIGH-RISK AI SYSTEMS (TITLE III)

Title III contains specific rules for AI systems that create a high risk to the health and safety or fundamental rights of natural persons. In line with a risk-based approach, those high-risk AI systems are permitted on the European market subject to compliance with certain mandatory requirements and an ex-ante conformity assessment. The classification of an AI system as high-risk is based on the intended purpose of the AI system, in line with existing product safety legislation. Therefore, the classification as high-risk does not only depend on the function performed by the AI system, but also on the specific purpose and modalities for which that system is used.

Chapter 1 of Title III sets the classification rules and identifies two main categories of high-risk AI systems:

• AI systems intended to be used as safety component of products that are subject to third party ex-ante conformity assessment;

• other stand-alone AI systems with mainly fundamental rights implications that are explicitly listed in Annex III.

This list of high-risk AI systems in Annex III contains a limited number of AI systems whose risks have already materialised or are likely to materialise in the near future. To ensure that the regulation can be adjusted to emerging uses and applications of AI, the Commission may expand the list of high-risk AI systems used within certain pre-defined areas, by applying a set of criteria and risk assessment methodology.

Chapter 2 sets out the legal requirements for high-risk AI systems in relation to data and data governance, documentation and recording keeping, transparency and provision of information to users, human oversight, robustness, accuracy and security. The proposed minimum requirements are already state-of-the-art for many diligent operators and the result of two years of preparatory work, derived from the Ethics Guidelines of the HLEG (29), piloted by more than 350 organisations (30). They are also largely consistent with other international recommendations and principles, which ensures that the proposed AI framework is compatible with those adopted by the EU’s international trade partners. The precise technical solutions to achieve compliance with those requirements may be provided by standards or by other technical specifications or otherwise be developed in accordance with general engineering or scientific knowledge at the discretion of the provider of the AI system. This flexibility is particularly important, because it allows providers of AI systems to choose the way to meet their requirements, taking into account the state-of-the-art and technological and scientific progress in this field.

Chapter 3 places a clear set of horizontal obligations on providers of high-risk AI systems. Proportionate obligations are also placed on users and other participants across the AI value chain (e.g., importers, distributors, authorized representatives).

Chapter 4 sets the framework for notified bodies to be involved as independent third parties in conformity assessment procedures, while Chapter 5 explains in detail the conformity assessment procedures to be followed for each type of high-risk AI system. The conformity assessment approach aims to minimise the burden for economic operators as well as for notified bodies, whose capacity needs to be progressively ramped up over time. AI systems intended to be used as safety components of products that are regulated under the New Legislative Framework legislation (e.g. machinery, toys, medical devices, etc.) will be subject to the same ex-ante and ex-post compliance and enforcement mechanisms of the products of which they are a component. The key difference is that the ex-ante and ex-post mechanisms will ensure compliance not only with the requirements established by sectorial legislation, but also with the requirements established by this regulation.

As regards stand-alone high-risk AI systems that are referred to in Annex III, a new compliance and enforcement system will be established. This follows the model of the New Legislative Framework legislation implemented through internal control checks by the providers with the exception of remote biometric identification systems that would be subject to third party conformity assessment. A comprehensive ex-ante conformity assessment through internal checks, combined with a strong ex-post enforcement, could be an effective and reasonable solution for those systems, given the early phase of the regulatory intervention and the fact the AI sector is very innovative and expertise for auditing is only now being accumulated. An assessment through internal checks for ‘stand-alone’ high-risk AI systems would require a full, effective and properly documented ex ante compliance with all requirements of the regulation and compliance with robust quality and risk management systems and post-market monitoring. After the provider has performed the relevant conformity assessment, it should register those stand-alone high-risk AI systems in an EU database that will be managed by the Commission to increase public transparency and oversight and strengthen ex post supervision by competent authorities. By contrast, for reasons of consistency with the existing product safety legislation, the conformity assessments of AI systems that are safety components of products will follow a system with third party conformity assessment procedures already established under the relevant sectoral product safety legislation. New ex ante re-assessments of the conformity will be needed in case of substantial modifications to the AI systems (and notably changes which go beyond what is pre-determined by the provider in its technical documentation and checked at the moment of the ex-ante conformity assessment).

5.2.4. TRANSPARENCY OBLIGATIONS FOR CERTAIN AI SYSTEMS (TITLE IV)

Title IV concerns certain AI systems to take account of the specific risks of manipulation they pose. Transparency obligations will apply for systems that (i) interact with humans, (ii) are used to detect emotions or determine association with (social) categories based on biometric data, or (iii) generate or manipulate content (‘deep fakes’). When persons interact with an AI system or their emotions or characteristics are recognised through automated means, people must be informed of that circumstance. If an AI system is used to generate or manipulate image, audio or video content that appreciably resembles authentic content, there should be an obligation to disclose that the content is generated through automated means, subject to exceptions for legitimate purposes (law enforcement, freedom of expression). This allows persons to make informed choices or step back from a given situation.

5.2.5. MEASURES IN SUPPORT OF INNOVATION (TITLE V)

Title V contributes to the objective to create a legal framework that is innovation-friendly, future-proof and resilient to disruption. To that end, it encourages national competent authorities to set up regulatory sandboxes and sets a basic framework in terms of governance, supervision and liability. AI regulatory sandboxes establish a controlled environment to test innovative technologies for a limited time on the basis of a testing plan agreed with the competent authorities. Title V also contains measures to reduce the regulatory burden on SMEs and start-ups.

5.2.6. GOVERNANCE AND IMPLEMENTATION (TITLES VI, VII AND VII)

Title VI sets up the governance systems at Union and national level. At Union level, the proposal establishes a European Artificial Intelligence Board (the ‘Board’), composed of representatives from the Member States and the Commission. The Board will facilitate a smooth, effective and harmonised implementation of this regulation by contributing to the effective cooperation of the national supervisory authorities and the Commission and providing advice and expertise to the Commission. It will also collect and share best practices among the Member States.

At national level, Member States will have to designate one or more national competent authorities and, among them, the national supervisory authority, for the purpose of supervising the application and implementation of the regulation. The European Data Protection Supervisor will act as the competent authority for the supervision of the Union institutions, agencies and bodies when they fall within the scope of this regulation.

Title VII aims to facilitate the monitoring work of the Commission and national authorities through the establishment of an EU-wide database for stand-alone high-risk AI systems with mainly fundamental rights implications. The database will be operated by the Commission and provided with data by the providers of the AI systems, who will be required to register their systems before placing them on the market or otherwise putting them into service.

Title VIII sets out the monitoring and reporting obligations for providers of AI systems with regard to post-market monitoring and reporting and investigating on AI-related incidents and malfunctioning. Market surveillance authorities would also control the market and investigate compliance with the obligations and requirements for all high-risk AI systems already placed on the market. Market surveillance authorities would have all powers under Regulation (EU) 2019/1020 on market surveillance. Ex-post enforcement should ensure that once the AI system has been put on the market, public authorities have the powers and resources to intervene in case AI systems generate unexpected risks, which warrant rapid action. They will also monitor compliance of operators with their relevant obligations under the regulation. The proposal does not foresee the automatic creation of any additional bodies or authorities at Member State level. Member States may therefore appoint (and draw upon the expertise of) existing sectorial authorities, who would be entrusted also with the powers to monitor and enforce the provisions of the regulation.

All this is without prejudice to the existing system and allocation of powers of ex-post enforcement of obligations regarding fundamental rights in the Member States. When necessary for their mandate, existing supervision and enforcement authorities will also have the power to request and access any documentation maintained following this regulation and, where needed, request market surveillance authorities to organise testing of the high-risk AI system through technical means.

5.2.7. CODES OF CONDUCT (TITLE IX)

Title IX creates a framework for the creation of codes of conduct, which aim to encourage providers of non-high-risk AI systems to apply voluntarily the mandatory requirements for high-risk AI systems (as laid out in Title III). Providers of non-high-risk AI systems may create and implement the codes of conduct themselves. Those codes may also include voluntary commitments related, for example, to environmental sustainability, accessibility for persons with disability, stakeholders’ participation in the design and development of AI systems, and diversity of development teams.

5.2.8. FINAL PROVISIONS (TITLES X, XI AND XII)

Title X emphasizes the obligation of all parties to respect the confidentiality of information and data and sets out rules for the exchange of information obtained during the implementation of the regulation. Title X also includes measures to ensure the effective implementation of the regulation through effective, proportionate, and dissuasive penalties for infringements of the provisions.

Title XI sets out rules for the exercise of delegation and implementing powers. The proposal empowers the Commission to adopt, where appropriate, implementing acts to ensure uniform application of the regulation or delegated acts to update or complement the lists in Annexes I to VII.

Title XII contains an obligation for the Commission to assess regularly the need for an update of Annex III and to prepare regular reports on the evaluation and review of the regulation. It also lays down final provisions, including a differentiated transitional period for the initial date of the applicability of the regulation to facilitate the smooth implementation for all parties concerned.

2021/0106 (COD)

Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS

THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION,

Having regard to the Treaty on the Functioning of the European Union, and in particular Articles 16 and 114 thereof,

Having regard to the proposal from the European Commission,

After transmission of the draft legislative act to the national parliaments,

Having regard to the opinion of the European Economic and Social Committee (31),

Having regard to the opinion of the Committee of the Regions (32),

Acting in accordance with the ordinary legislative procedure,

Whereas:

(1) The purpose of this Regulation is to improve the functioning of the internal market by laying down a uniform legal framework in particular for the development, marketing and use of artificial intelligence in conformity with Union values. This Regulation pursues a number of overriding reasons of public interest, such as a high level of protection of health, safety and fundamental rights, and it ensures the free movement of AI-based goods and services cross-border, thus preventing Member States from imposing restrictions on the development, marketing and use of AI systems, unless explicitly authorised by this Regulation.

(2) Artificial intelligence systems (AI systems) can be easily deployed in multiple sectors of the economy and society, including cross border, and circulate throughout the Union. Certain Member States have already explored the adoption of national rules to ensure that artificial intelligence is safe and is developed and used in compliance with fundamental rights obligations. Differing national rules may lead to fragmentation of the internal market and decrease legal certainty for operators that develop or use AI systems. A consistent and high level of protection throughout the Union should therefore be ensured, while divergences hampering the free circulation of AI systems and related products and services within the internal market should be prevented, by laying down uniform obligations for operators and guaranteeing the uniform protection of overriding reasons of public interest and of rights of persons throughout the internal market based on Article 114 of the Treaty on the Functioning of the European Union (TFEU). To the extent that this Regulation contains specific rules on the protection of individuals with regard to the processing of personal data concerning restrictions of the use of AI systems for ‘real-time’ remote biometric identification in publicly accessible spaces for the purpose of law enforcement, it is appropriate to base this Regulation, in as far as those specific rules are concerned, on Article 16 of the TFEU. In light of those specific rules and the recourse to Article 16 TFEU, it is appropriate to consult the European Data Protection Board.

(3) Artificial intelligence is a fast evolving family of technologies that can contribute to a wide array of economic and societal benefits across the entire spectrum of industries and social activities. By improving prediction, optimising operations and resource allocation, and personalising digital solutions available for individuals and organisations, the use of artificial intelligence can provide key competitive advantages to companies and support socially and environmentally beneficial outcomes, for example in healthcare, farming, education and training, infrastructure management, energy, transport and logistics, public services, security, justice, resource and energy efficiency, and climate change mitigation and adaptation.

(4) At the same time, depending on the circumstances regarding its specific application and use, artificial intelligence may generate risks and cause harm to public interests and rights that are protected by Union law. Such harm might be material or immaterial.

(5) A Union legal framework laying down harmonised rules on artificial intelligence is therefore needed to foster the development, use and uptake of artificial intelligence in the internal market that at the same time meets a high level of protection of public interests, such as health and safety and the protection of fundamental rights, as recognised and protected by Union law. To achieve that objective, rules regulating the placing on the market and putting into service of certain AI systems should be laid down, thus ensuring the smooth fun (ctioning of the internal market and allowing those systems to benefit from the principle of free movement of goods and services. By laying down those rules, this Regulation supports the objective of the Union of being a global leader in the development of secure, trustworthy and ethical artificial intelligence, as stated by the European Council (33), and it ensures the protection of ethical principles, as specifically requested by the European Parliament (34).

(6) The notion of AI system should be clearly defined to ensure legal certainty, while providing the flexibility to accommodate future technological developments. The definition should be based on the key functional characteristics of the software, in particular the ability, for a given set of human-defined objectives, to generate outputs such as content, predictions, recommendations, or decisions which influence the environment with which the system interacts, be it in a physical or digital dimension. AI systems can be designed to operate with varying levels of autonomy and be used on a stand-alone basis or as a component of a product, irrespective of whether the system is physically integrated into the product (embedded) or serve the functionality of the product without being integrated therein (non-embedded). The definition of AI system should be complemented by a list of specific techniques and approaches used for its development, which should be kept up-to–date in the light of market and technological developments through the adoption of delegated acts by the Commission to amend that list.

(7) The notion of biometric data used in this Regulation is in line with and should be interpreted consistently with the notion of biometric data as defined in Article 4(14) of Regulation (EU) 2016/679 of the European Parliament and of the Council (35), Article 3(18) of Regulation (EU) 2018/1725 of the European Parliament and of the Council (36) and Article 3(13) of Directive (EU) 2016/680 of the European Parliament and of the Council (37).

(8) The notion of remote biometric identification system as used in this Regulation should be defined functionally, as an AI system intended for the identification of natural persons at a distance through the comparison of a person’s biometric data with the biometric data  (contained in a reference database, and without prior knowledge whether the targeted person will be present and can be identified, irrespectively of the particular technology, processes or types of biometric data used. Considering their different characteristics and manners in which they are used, as well as the different risks involved, a distinction should be made between ‘real-time’ and ‘post’ remote biometric identification systems. In the case of ‘real-time’ systems, the capturing of the biometric data, the comparison and the identification occur all instantaneously, near-instantaneously or in any event without a significant delay. In this regard, there should be no scope for circumventing the rules of this Regulation on the ‘real-time’ use of the AI systems in question by providing for minor delays. ‘Real-time’ systems involve the use of ‘live’ or ‘near-‘live’ material, such as video footage, generated by a camera or other device with similar functionality. In the case of ‘post’ systems, in contrast, the biometric data have already been captured and the comparison and identification occur only after a significant delay. This involves material, such as pictures or video footage generated by closed circuit television cameras or private devices, which has been generated before the use of the system in respect of the natural persons concerned.

(9) For the purposes of this Regulation the notion of publicly accessible space should be understood as referring to any physical place that is accessible to the public, irrespective of whether the place in question is privately or publicly owned. Therefore, the notion does not cover places that are private in nature and normally not freely accessible for third parties, including law enforcement authorities, unless those parties have been specifically invited or authorised, such as homes, private clubs, offices, warehouses and factories. Online spaces are not covered either, as they are not physical spaces. However, the mere fact that certain conditions for accessing a particular space may apply, such as admission tickets or age restrictions, does not mean that the space is not publicly accessible within the meaning of this Regulation. Consequently, in addition to public spaces such as streets, relevant parts of government buildings and most transport infrastructure, spaces such as cinemas, theatres, shops and shopping centres are normally also publicly accessible. Whether a given space is accessible to the public should however be determined on a case-by-case basis, having regard to the specificities of the individual situation at hand.

(10) In order to ensure a level playing field and an effective protection of rights and freedoms of individuals across the Union, the rules established by this Regulation should apply to providers of AI systems in a non-discriminatory manner, irrespective of whether they are established within the Union or in a third country, and to users of AI systems established within the Union.

(11) In light of their digital nature, certain AI systems should fall within the scope of this Regulation even when they are neither placed on the market, nor put into service, nor used in the Union. This is the case for example of an operator established in the Union that contracts certain services to an operator established outside the Union in relation to an activity to be performed by an AI system that would qualify as high-risk and whose effects impact natural persons located in the Union. In those circumstances, the AI system used by the operator outside the Union could process data lawfully collected in and transferred from the Union, and provide to the contracting operator in the Union the output of that AI system resulting from that processing, without that AI system being placed on the market, put into service or used in the Union. To prevent the circumvention of this Regulation and to ensure an effective protection of natural persons located in the Union, this Regulation should also apply to providers and users of AI systems that are established in a third country, to the extent the output produced by those systems is used in the Union. Nonetheless, to take into account existing arrangements and special needs for cooperation with foreign partners with whom information and evidence is exchanged, this Regulation should not apply to public authorities of a third country and international organisations when acting in the framework of international agreements concluded at national or European level for law enforcement and judicial cooperation with the Union or with its Member States. Such agreements have been concluded bilaterally between Member States and third countries or between the European Union, Europol and other EU agencies and third countries and international organisations.

(12) This Regulation should also apply to Union institutions, offices, bodies and agencies when acting as a provider or user of an AI system. AI systems exclusively developed or used for military purposes should be excluded from the scope of this Regulation where that use falls under the exclusive remit of the Common Foreign and Security Policy regulated under Title V of the Treaty on the European Union (TEU). This Regulation should be without prejudice to the provisions regarding the liability of intermediary service providers set out in Directive 2000/31/EC of the European Parliament and of the Council [as amended by the Digital Services Act].

(13) In order to ensure a consistent and high level of protection of public interests as regards health, safety and fundamental rights, common normative standards for all high-risk AI systems should be established. Those standards should be consistent with the Charter of fundamental rights of the European Union (the Charter) and should be non-discriminatory and in line with the Union’s international trade commitments.

(14) In order to introduce a proportionate and effective set of binding rules for AI systems, a clearly defined risk-based approach should be followed. That approach should tailor the type and content of such rules to the intensity and scope of the risks that AI systems can generate. It is therefore necessary to prohibit certain artificial intelligence practices, to lay down requirements for high-risk AI systems and obligations for the relevant operators, and to lay down transparency obligations for certain AI systems.

(15) Aside from the many beneficial uses of artificial intelligence, that technology can also be misused and provide novel and powerful tools for manipulative, exploitative and social control practices. Such practices are particularly harmful and should be prohibited because they contradict Union values of respect for human dignity, freedom, equality, democracy and the rule of law and Union fundamental rights, including the right to non-discrimination, data protection and privacy and the rights of the child.

(16) The placing on the market, putting into service or use of certain AI systems intended to distort human behaviour, whereby physical or psychological harms are likely to occur, should be forbidden. Such AI systems deploy subliminal components individuals cannot perceive or exploit vulnerabilities of children and people due to their age, physical or mental incapacities. They do so with the intention to materially distort the behaviour of a person and in a manner that causes or is likely to cause harm to that or another person. The intention may not be presumed if the distortion of human behaviour results from factors external to the AI system which are outside of the control of the provider or the user. Research for legitimate purposes in relation to such AI systems should not be stifled by the prohibition, if such research does not amount to use of the AI system in human-machine relations that exposes natural persons to harm and such research is carried out in accordance with recognised ethical standards for scientific research.

(17) AI systems providing social scoring of natural persons for general purpose by public authorities or on their behalf may lead to discriminatory outcomes and the exclusion of certain groups. They may violate the right to dignity and non-discrimination and the values of equality and justice. Such AI systems evaluate or classify the trustworthiness of natural persons based on their social behaviour in multiple contexts or known or predicted personal or personality characteristics. The social score obtained from such AI systems may lead to the detrimental or unfavourable treatment of natural persons or whole groups thereof in social contexts, which are unrelated to the context in which the data was originally generated or collected or to a detrimental treatment that is disproportionate or unjustified to the gravity of their social behaviour. Such AI systems should be therefore prohibited.

(18) The use of AI systems for ‘real-time’ remote biometric identification of natural persons in publicly accessible spaces for the purpose of law enforcement is considered particularly intrusive in the rights and freedoms of the concerned persons, to the extent that it may affect the private life of a large part of the population, evoke a feeling of constant surveillance and indirectly dissuade the exercise of the freedom of assembly and other fundamental rights. In addition, the immediacy of the impact and the limited opportunities for further checks or corrections in relation to the use of such systems operating in ‘real-time’ carry heightened risks for the rights and freedoms of the persons that are concerned by law enforcement activities.

(19) The use of those systems for the purpose of law enforcement should therefore be prohibited, except in three exhaustively listed and narrowly defined situations, where the use is strictly necessary to achieve a substantial public interest, the importance of which outweighs the risks. Those situations involve the search for potential victims of crime, including missing children; certain threats to the life or physical safety of natural persons or of a terrorist attack; and the detection, localisation, identification or prosecution of perpetrators or suspects of the criminal offences referred to in Council Framework Decision 2002/584/JHA (38) if those criminal offences are punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least three years and as they are defined in the law of that Member State. Such threshold for the custodial sentence or detention order in accordance with national law contributes to ensure that the offence should be serious enough to potentially justify the use of ‘real-time’ remote biometric identification systems. Moreover, of the 32 criminal offences listed in the Council Framework Decision 2002/584/JHA, some are in practice likely to be more relevant than others, in that the recourse to ‘real-time’ remote biometric identification will foreseeably be necessary and proportionate to highly varying degrees for the practical pursuit of the detection, localisation, identification or prosecution of a perpetrator or suspect of the different criminal offences listed and having regard to the likely differences in the seriousness, probability and scale of the harm or possible negative consequences.

(20) In order to ensure that those systems are used in a responsible and proportionate manner, it is also important to establish that, in each of those three exhaustively listed and narrowly defined situations, certain elements should be taken into account, in particular as regards the nature of the situation giving rise to the request and the consequences of the use for the rights and freedoms of all persons concerned and the safeguards and conditions provided for with the use. In addition, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement should be subject to appropriate limits in time and space, having regard in particular to the evidence or indications regarding the threats, the victims or perpetrator. The reference database of persons should be appropriate for each use case in each of the three situations mentioned above.

(21) Each use of a ‘real-time’ remote biometric identification system in publicly accessible spaces for the purpose of law enforcement should be subject to an express and specific authorisation by a judicial authority or by an independent administrative authority of a Member State. Such authorisation should in principle be obtained prior to the use, except in duly justified situations of urgency, that is, situations where the need to use the systems in question is such as to make it effectively and objectively impossible to obtain an authorisation before commencing the use. In such situations of urgency, the use should be restricted to the absolute minimum necessary and be subject to appropriate safeguards and conditions, as determined in national law and specified in the context of each individual urgent use case by the law enforcement authority itself. In addition, the law enforcement authority should in such situations seek to obtain an authorisation as soon as possible, whilst providing the reasons for not having been able to request it earlier.

(22) Furthermore, it is appropriate to provide, within the exhaustive framework set by this Regulation that such use in the territory of a Member State in accordance with this Regulation should only be possible where and in as far as the Member State in question has decided to expressly provide for the possibility to authorise such use in its detailed rules of national law. Consequently, Member States remain free under this Regulation not to provide for such a possibility at all or to only provide for such a possibility in respect of some of the objectives capable of justifying authorised use identified in this Regulation.

(23) The use of AI systems for ‘real-time’ remote biometric identification of natural persons in publicly accessible spaces for the purpose of law enforcement necessarily involves the processing of biometric data. The rules of this Regulation that prohibit, subject to certain exceptions, such use, which are based on Article 16 TFEU, should apply as lex specialis in respect of the rules on the processing of biometric data contained in Article 10 of Directive (EU) 2016/680, thus regulating such use and the processing of biometric data involved in an exhaustive manner. Therefore, such use and processing should only be possible in as far as it is compatible with the framework set by this Regulation, without there being scope, outside that framework, for the competent authorities, where they act for purpose of law enforcement, to use such systems and process such data in connection thereto on the grounds listed in Article 10 of Directive (EU) 2016/680. In this context, this Regulation is not intended to provide the legal basis for the processing of personal data under Article 8 of Directive 2016/680. However, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for purposes other than law enforcement, including by competent authorities, should not be covered by the specific framework regarding such use for the purpose of law enforcement set by this Regulation. Such use for purposes other than law enforcement should therefore not be subject to the requirement of an authorisation under this Regulation and the applicable detailed rules of national law that may give effect to it.

(24) Any processing of biometric data and other personal data involved in the use of AI systems for biometric identification, other than in connection to the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement as regulated by this Regulation, including where those systems are used by competent authorities in publicly accessible spaces for other purposes than law enforcement, should continue to comply with all requirements resulting from Article 9(1) of Regulation (EU) 2016/679, Article 10(1) of Regulation (EU) 2018/1725 and Article 10 of Directive (EU) 2016/680, as applicable.

(25) In accordance with Article 6a of Protocol nº 21 on the position of the United Kingdom and Ireland in respect of the area of freedom, security and justice, as annexed to the TEU and to the TFEU, Ireland is not bound by the rules laid down in Article 5(1), point (d), (2) and (3) of this Regulation adopted on the basis of Article 16 of the TFEU which relate to the processing of personal data by the Member States when carrying out activities falling within the scope of Chapter 4 or Chapter 5 of Title V of Part Three of the TFEU, where Ireland is not bound by the rules governing the forms of judicial cooperation in criminal matters or police cooperation which require compliance with the provisions laid down on the basis of Article 16 of the TFEU.

(26) In accordance with Articles 2 and 2a of Protocol nº 22 on the position of Denmark, annexed to the TEU and TFEU, Denmark is not bound by rules laid down in Article 5(1), point (d), (2) and (3) of this Regulation adopted on the basis of Article 16 of the TFEU, or subject to their application, which relate to the processing of personal data by the Member States when carrying out activities falling within the scope of Chapter 4 or Chapter 5 of Title V of Part Three of the TFEU.

(27) High-risk AI systems should only be placed on the Union market or put into service if they comply with certain mandatory requirements. Those requirements should ensure that high-risk AI systems available in the Union or whose output is otherwise used in the Union do not pose unacceptable risks to important Union public interests as recognised and protected by Union law. AI systems identified as high-risk should be limited to those that have a significant harmful impact on the health, safety and fundamental rights of persons in the Union and such limitation minimises any potential restriction to international trade, if any.

(28) AI systems could produce adverse outcomes to health and safety of persons, in particular when such systems operate as components of products. Consistently with the objectives of Union harmonisation legislation to facilitate the free movement of products in the internal market and to ensure that only safe and otherwise compliant products find their way into the market, it is important that the safety risks that may be generated by a product as a whole due to its digital components, including AI systems, are duly prevented and mitigated. For instance, increasingly autonomous robots, whether in the context of manufacturing or personal assistance and care should be able to safely operate and performs their functions in complex environments. Similarly, in the health sector where the stakes for life and health are particularly high, increasingly sophisticated diagnostics systems and systems supporting human decisions should be reliable and accurate. The extent of the adverse impact caused by the AI system on the fundamental rights protected by the Charter is of particular relevance when classifying an AI system as high-risk. Those rights include the right to human dignity, respect for private and family life, protection of personal data, freedom of expression and information, freedom of assembly and of association, and non-discrimination, consumer protection, workers’ rights, rights of persons with disabilities, right to an effective remedy and to a fair trial, right of defence and the presumption of innocence, right to good administration. In addition to those rights, it is important to highlight that children have specific rights as enshrined in Article 24 of the EU Charter and in the United Nations Convention on the Rights of the Child (further elaborated in the UNCRC General Comment No. 25 as regards the digital environment), both of which require consideration of the children’s vulnerabilities and provision of such protection and care as necessary for their well-being. The fundamental right to a high level of environmental protection enshrined in the Charter and implemented in Union policies should also be considered when assessing the severity of the harm that an AI system can cause, including in relation to the health and safety of persons.

(29) As regards high-risk AI systems that are safety components of products or systems, or which are themselves products or systems falling within the scope of Regulation (EC) nº 300/2008 of the European Parliament and of the Council (39), Regulation (EU) nº 167/2013 of the European Parliament and of the Council (40), Regulation (EU) nº 168/2013 of the European Parliament and of the Council (41), Directive 2014/90/EU of the European Parliament and of the Council (42), Directive (EU) 2016/797 of the European Parliament and of the Council (43), Regulation (EU) 2018/858 of the European Parliament and of the Council (44), Regulation (EU) 2018/1139 of the European Parliament and of the Council (45), and Regulation (EU) 2019/2144 of the European Parliament and of the Council (46), it is appropriate to amend those acts to ensure that the Commission takes into account, on the basis of the technical and regulatory specificities of each sector, and without interfering with existing governance, conformity assessment and enforcement mechanisms and authorities established therein, the mandatory requirements for high-risk AI systems laid down in this Regulation when adopting any relevant future delegated or implementing acts on the basis of those acts.

(30) As regards AI systems that are safety components of products, or which are themselves products, falling within the scope of certain Union harmonisation legislation, it is appropriate to classify them as high-risk under this Regulation if the product in question undergoes the conformity assessment procedure with a third-party conformity assessment body pursuant to that relevant Union harmonisation legislation. In particular, such products are machinery, toys, lifts, equipment and protective systems intended for use in potentially explosive atmospheres, radio equipment, pressure equipment, recreational craft equipment, cableway installations, appliances burning gaseous fuels, medical devices, and in vitro diagnostic medical devices.

(31) The classification of an AI system as high-risk pursuant to this Regulation should not necessarily mean that the product whose safety component is the AI system, or the AI system itself as a product, is considered ‘high-risk’ under the criteria established in the relevant Union harmonisation legislation that applies to the product. This is notably the case for Regulation (EU) 2017/745 of the European Parliament and of the Council (47) and Regulation (EU) 2017/746 of the European Parliament and of the Council (48), where a third-party conformity assessment is provided for medium-risk and high-risk products.

(32) As regards stand-alone AI systems, meaning high-risk AI systems other than those that are safety components of products, or which are themselves products, it is appropriate to classify them as high-risk if, in the light of their intended purpose, they pose a high risk of harm to the health and safety or the fundamental rights of persons, taking into account both the severity of the possible harm and its probability of occurrence and they are used in a number of specifically pre-defined areas specified in the Regulation. The identification of those systems is based on the same methodology and criteria envisaged also for any future amendments of the list of high-risk AI systems.

(33) Technical inaccuracies of AI systems intended for the remote biometric identification of natural persons can lead to biased results and entail discriminatory effects. This is particularly relevant when it comes to age, ethnicity, sex or disabilities. Therefore, ‘real-time’ and ‘post’ remote biometric identification systems should be classified as high-risk. In view of the risks that they pose, both types of remote biometric identification systems should be subject to specific requirements on logging capabilities and human oversight.

(34) As regards the management and operation of critical infrastructure, it is appropriate to classify as high-risk the AI systems intended to be used as safety components in the management and operation of road traffic and the supply of water, gas, heating and electricity, since their failure or malfunctioning may put at risk the life and health of persons at large scale and lead to appreciable disruptions in the ordinary conduct of social and economic activities.

(35) AI systems used in education or vocational training, notably for determining access or assigning persons to educational and vocational training institutions or to evaluate persons on tests as part of or as a precondition for their education should be considered high-risk, since they may determine the educational and professional course of a person’s life and therefore affect their ability to secure their livelihood. When improperly designed and used, such systems may violate the right to education and training as well as the right not to be discriminated against and perpetuate historical patterns of discrimination.

(36) AI systems used in employment, workers management and access to self-employment, notably for the recruitment and selection of persons, for making decisions on promotion and termination and for task allocation, monitoring or evaluation of persons in work-related contractual relationships, should also be classified as high-risk, since those systems may appreciably impact future career prospects and livelihoods of these persons. Relevant work-related contractual relationships should involve employees and persons providing services through platforms as referred to in the Commission Work Programme 2021. Such persons should in principle not be considered users within the meaning of this Regulation. Throughout the recruitment process and in the evaluation, promotion, or retention of persons in work-related contractual relationships, such systems may perpetuate historical patterns of discrimination, for example against women, certain age groups, persons with disabilities, or persons of certain racial or ethnic origins or sexual orientation. AI systems used to monitor the performance and behaviour of these persons may also impact their rights to data protection and privacy.

(37) Another area in which the use of AI systems deserves special consideration is the access to and enjoyment of certain essential private and public services and benefits necessary for people to fully participate in society or to improve one’s standard of living. In particular, AI systems used to evaluate the credit score or creditworthiness of natural persons should be classified as high-risk AI systems, since they determine those persons’ access to financial resources or essential services such as housing, electricity, and telecommunication services. AI systems used for this purpose may lead to discrimination of persons or groups and perpetuate historical patterns of discrimination, for example based on racial or ethnic origins, disabilities, age, sexual orientation, or create new forms of discriminatory impacts. Considering the very limited scale of the impact and the available alternatives on the market, it is appropriate to exempt AI systems for the purpose of creditworthiness assessment and credit scoring when put into service by small-scale providers for their own use. Natural persons applying for or receiving public assistance benefits and services from public authorities are typically dependent on those benefits and services and in a vulnerable position in relation to the responsible authorities. If AI systems are used for determining whether such benefits and services should be denied, reduced, revoked or reclaimed by authorities, they may have a significant impact on persons’ livelihood and may infringe their fundamental rights, such as the right to social protection, non-discrimination, human dignity or an effective remedy. Those systems should therefore be classified as high-risk. Nonetheless, this Regulation should not hamper the development and use of innovative approaches in the public administration, which would stand to benefit from a wider use of compliant and safe AI systems, provided that those systems do not entail a high risk to legal and natural persons. Finally, AI systems used to dispatch or establish priority in the dispatching of emergency first response services should also be classified as high-risk since they make decisions in very critical situations for the life and health of persons and their property.

(38) Actions by law enforcement authorities involving certain uses of AI systems are characterised by a significant degree of power imbalance and may lead to surveillance, arrest or deprivation of a natural person’s liberty as well as other adverse impacts on fundamental rights guaranteed in the Charter. In particular, if the AI system is not trained with high quality data, does not meet adequate requirements in terms of its accuracy or robustness, or is not properly designed and tested before being put on the market or otherwise put into service, it may single out people in a discriminatory or otherwise incorrect or unjust manner. Furthermore, the exercise of important procedural fundamental rights, such as the right to an effective remedy and to a fair trial as well as the right of defence and the presumption of innocence, could be hampered, in particular, where such AI systems are not sufficiently transparent, explainable and documented. It is therefore appropriate to classify as high-risk a number of AI systems intended to be used in the law enforcement context where accuracy, reliability and transparency is particularly important to avoid adverse impacts, retain public trust and ensure accountability and effective redress. In view of the nature of the activities in question and the risks relating thereto, those high-risk AI systems should include in particular AI systems intended to be used by law enforcement authorities for individual risk assessments, polygraphs and similar tools or to detect the emotional state of natural person, to detect ‘deep fakes’, for the evaluation of the reliability of evidence in criminal proceedings, for predicting the occurrence or reoccurrence of an actual or potential criminal offence based on profiling of natural persons, or assessing personality traits and characteristics or past criminal behaviour of natural persons or groups, for profiling in the course of detection, investigation or prosecution of criminal offences, as well as for crime analytics regarding natural persons. AI systems specifically intended to be used for administrative proceedings by tax and customs authorities should not be considered high-risk AI systems used by law enforcement authorities for the purposes of prevention, detection, investigation and prosecution of criminal offences.

(39) AI systems used in migration, asylum and border control management affect people who are often in particularly vulnerable position and who are dependent on the outcome of the actions of the competent public authorities. The accuracy, non-discriminatory nature and transparency of the AI systems used in those contexts are therefore particularly important to guarantee the respect of the fundamental rights of the affected persons, notably their rights to free movement, non-discrimination, protection of private life and personal data, international protection and good administration. It is therefore appropriate to classify as high-risk AI systems intended to be used by the competent public authorities charged with tasks in the fields of migration, asylum and border control management as polygraphs and similar tools or to detect the emotional state of a natural person; for assessing certain risks posed by natural persons entering the territory of a Member State or applying for visa or asylum; for verifying the authenticity of the relevant documents of natural persons; for assisting competent public authorities for the examination of applications for asylum, visa and residence permits and associated complaints with regard to the objective to establish the eligibility of the natural persons applying for a status. AI systems in the area of migration, asylum and border control management covered by this Regulation should comply with the relevant procedural requirements set by the Directive 2013/32/EU of the European Parliament and of the Council (49), the Regulation (EC) nº 810/2009 of the European Parliament and of the Council (50) and other relevant legislation.

(40) Certain AI systems intended for the administration of justice and democratic processes should be classified as high-risk, considering their potentially significant impact on democracy, rule of law, individual freedoms as well as the right to an effective remedy and to a fair trial. In particular, to address the risks of potential biases, errors and opacity, it is appropriate to qualify as high-risk AI systems intended to assist judicial authorities in researching and interpreting facts and the law and in applying the law to a concrete set of facts. Such qualification should not extend, however, to AI systems intended for purely ancillary administrative activities that do not affect the actual administration of justice in individual cases, such as anonymisation or pseudonymisation of judicial decisions, documents or data, communication between personnel, administrative tasks or allocation of resources.

(41) The fact that an AI system is classified as high risk under this Regulation should not be interpreted as indicating that the use of the system is necessarily lawful under other acts of Union law or under national law compatible with Union law, such as on the protection of personal data, on the use of polygraphs and similar tools or other systems to detect the emotional state of natural persons. Any such use should continue to occur solely in accordance with the applicable requirements resulting from the Charter and from the applicable acts of secondary Union law and national law. This Regulation should not be understood as providing for the legal ground for processing of personal data, including special categories of personal data, where relevant.

(42) To mitigate the risks from high-risk AI systems placed or otherwise put into service on the Union market for users and affected persons, certain mandatory requirements should apply, taking into account the intended purpose of the use of the system and according to the risk management system to be established by the provider.

(43) Requirements should apply to high-risk AI systems as regards the quality of data sets used, technical documentation and record-keeping, transparency and the provision of information to users, human oversight, and robustness, accuracy and cybersecurity. Those requirements are necessary to effectively mitigate the risks for health, safety and fundamental rights, as applicable in the light of the intended purpose of the system, and no other less trade restrictive measures are reasonably available, thus avoiding unjustified restrictions to trade.

(44) High data quality is essential for the performance of many AI systems, especially when techniques involving the training of models are used, with a view to ensure that the high-risk AI system performs as intended and safely and it does not become the source of discrimination prohibited by Union law. High quality training, validation and testing data sets require the implementation of appropriate data governance and management practices. Training, validation and testing data sets should be sufficiently relevant, representative and free of errors and complete in view of the intended purpose of the system. They should also have the appropriate statistical properties, including as regards the persons or groups of persons on which the high-risk AI system is intended to be used. In particular, training, validation and testing data sets should take into account, to the extent required in the light of their intended purpose, the features, characteristics or elements that are particular to the specific geographical, behavioural or functional setting or context within which the AI system is intended to be used. In order to protect the right of others from the discrimination that might result from the bias in AI systems, the providers shouldbe able to process also special categories of personal data, as a matter of substantial public interest, in order to ensure the bias monitoring, detection and correction in relation to high-risk AI systems.

(45) For the development of high-risk AI systems, certain actors, such as providers, notified bodies and other relevant entities, such as digital innovation hubs, testing experimentation facilities and researchers, should be able to access and use high quality datasets within their respective fields of activities which are related to this Regulation. European common data spaces established by the Commission and the facilitation of data sharing between businesses and with government in the public interest will be instrumental to provide trustful, accountable and non-discriminatory access to high quality data for the training, validation and testing of AI systems. For example, in health, the European health data space will facilitate non-discriminatory access to health data and the training of artificial intelligence algorithms on those datasets, in a privacy-preserving, secure, timely, transparent and trustworthy manner, and with an appropriate institutional governance. Relevant competent authorities, including sectoral ones, providing or supporting the access to data may also support the provision of high-quality data for the training, validation and testing of AI systems.

(46) Having information on how high-risk AI systems have been developed and how they perform throughout their lifecycle is essential to verify compliance with the requirements under this Regulation. This requires keeping records and the availability of a technical documentation, containing information which is necessary to assess the compliance of the AI system with the relevant requirements. Such information should include the general characteristics, capabilities and limitations of the system, algorithms, data, training, testing and validation processes used as well as documentation on the relevant risk management system. The technical documentation should be kept up to date.

(47) To address the opacity that may make certain AI systems incomprehensible to or too complex for natural persons, a certain degree of transparency should be required for high-risk AI systems. Users should be able to interpret the system output and use it appropriately. High-risk AI systems should therefore be accompanied by relevant documentation and instructions of use and include concise and clear information, including in relation to possible risks to fundamental rights and discrimination, where appropriate.

(48) High-risk AI systems should be designed and developed in such a way that natural persons can oversee their functioning. For this purpose, appropriate human oversight measures should be identified by the provider of the system before its placing on the market or putting into service. In particular, where appropriate, such measures should guarantee that the system is subject to in-built operational constraints that cannot be overridden by the system itself and is responsive to the human operator, and that the natural persons to whom human oversight has been assigned have the necessary competence, training and authority to carry out that role.

(49) High-risk AI systems should perform consistently throughout their lifecycle and meet an appropriate level of accuracy, robustness and cybersecurity in accordance with the generally acknowledged state of the art. The level of accuracy and accuracy metrics should be communicated to the users.

(50) The technical robustness is a key requirement for high-risk AI systems. They should be resilient against risks connected to the limitations of the system (e.g. errors, faults, inconsistencies, unexpected situations) as well as against malicious actions that may compromise the security of the AI system and result in harmful or otherwise undesirable behaviour. Failure to protect against these risks could lead to safety impacts or negatively affect the fundamental rights, for example due to erroneous decisions or wrong or biased outputs generated by the AI system.

(51) Cybersecurity plays a crucial role in ensuring that AI systems are resilient against attempts to alter their use, behaviour, performance or compromise their security properties by malicious third parties exploiting the system’s vulnerabilities. Cyberattacks against AI systems can leverage AI specific assets, such as training data sets (e.g. data poisoning) or trained models (e.g. adversarial attacks), or exploit vulnerabilities in the AI system’s digital assets or the underlying ICT infrastructure. To ensure a level of cybersecurity appropriate to the risks, suitable measures should therefore be taken by the providers of high-risk AI systems, also taking into account as appropriate the underlying ICT infrastructure.

(52) As part of Union harmonisation legislation, rules applicable to the placing on the market, putting into service and use of high-risk AI systems should be laid down consistently with Regulation (EC) No 765/2008 of the European Parliament and of the Council51 setting out the requirements for accreditation and the market surveillance of products, Decision No 768/2008/EC of the European Parliament and of the Council (52) on a common framework for the marketing of products and Regulation (EU) 2019/1020 of the European Parliament and of the Council (53) on market surveillance and compliance of products (‘New Legislative Framework for the marketing of products’).

(53) It is appropriate that a specific natural or legal person, defined as the provider, takes the responsibility for the placing on the market or putting into service of a high-risk AI system, regardless of whether that natural or legal person is the person who designed or developed the system.

(54) The provider should establish a sound quality management system, ensure the accomplishment of the required conformity assessment procedure, draw up the relevant documentation and establish a robust post-market monitoring system. Public authorities which put into service high-risk AI systems for their own use may adopt and implement the rules for the quality management system as part of the quality management system adopted at a national or regional level, as appropriate, taking into account the specificities of the sector and the competences and organisation of the public authority in question.

(55) Where a high-risk AI system that is a safety component of a product which is covered by a relevant New Legislative Framework sectorial legislation is not placed on the market or put into service independently from the product, the manufacturer of the final product as defined under the relevant New Legislative Framework legislation should comply with the obligations of the provider established in this Regulation and notably ensure that the AI system embedded in the final product complies with the requirements of this Regulation.

(56) To enable enforcement of this Regulation and create a level-playing field for operators, and taking into account the different forms of making available of digital products, it is important to ensure that, under all circumstances, a person established in the Union can provide authorities with all the necessary information on the compliance of an AI system. Therefore, prior to making their AI systems available in the Union, where an importer cannot be identified, providers established outside the Union shall, by written mandate, appoint an authorised representative established in the Union.

(57) In line with New Legislative Framework principles, specific obligations for relevant economic operators, such as importers and distributors, should be set to ensure legal certainty and facilitate regulatory compliance by those relevant operators.

(58) Given the nature of AI systems and the risks to safety and fundamental rights possibly associated with their use, including as regard the need to ensure proper monitoring of the performance of an AI system in a real-life setting, it is appropriate to set specific responsibilities for users. Users should in particular use high-risk AI systems in accordance with the instructions of use and certain other obligations should be provided for with regard to monitoring of the functioning of the AI systems and with regard to record-keeping, as appropriate.

(59) It is appropriate to envisage that the user of the AI system should be the natural or legal person, public authority, agency or other body under whose authority the AI system is operated except where the use is made in the course of a personal non-professional activity.

(60) In the light of the complexity of the artificial intelligence value chain, relevant third parties, notably the ones involved in the sale and the supply of software, software tools and components, pre-trained models and data, or providers of network services, should cooperate, as appropriate, with providers and users to enable their compliance with the obligations under this Regulation and with competent authorities established under this Regulation.

(61) Standardisation should play a key role to provide technical solutions to providers to ensure compliance with this Regulation. Compliance with harmonised standards as defined in Regulation (EU) No 1025/2012 of the European Parliament and of the Council (54) should be a means for providers to demonstrate conformity with the requirements of this Regulation. However, the Commission could adopt common technical specifications in areas where no harmonised standards exist or where they are insufficient.

(62) In order to ensure a high level of trustworthiness of high-risk AI systems, those systems should be subject to a conformity assessment prior to their placing on the market or putting into service.

(63) It is appropriate that, in order to minimise the burden on operators and avoid any possible duplication, for high-risk AI systems related to products which are covered by existing Union harmonisation legislation following the New Legislative Framework approach, the compliance of those AI systems with the requirements of this Regulation should be assessed as part of the conformity assessment already foreseen under that legislation. The applicability of the requirements of this Regulation should thus not affect the specific logic, methodology or general structure of conformity assessment under the relevant specific New Legislative Framework legislation. This approach is fully reflected in the interplay between this Regulation and the [Machinery Regulation]. While safety risks of AI systems ensuring safety functions in machinery are addressed by the requirements of this Regulation, certain specific requirements in the [Machinery Regulation] will ensure the safe integration of the AI system into the overall machinery, so as not to compromise the safety of the machinery as a whole.

The [Machinery Regulation] applies the same definition of AI system as this Regulation.

(64) Given the more extensive experience of professional pre-market certifiers in the field of product safety and the different nature of risks involved, it is appropriate to limit, at least in an initial phase of application of this Regulation, the scope of application of third-party conformity assessment for high-risk AI systems other than those related to products. Therefore, the conformity assessment of such systems should be carried out as a general rule by the provider under its own responsibility, with the only exception of AI systems intended to be used for the remote biometric identification of persons, for which the involvement of a notified body in the conformity assessment should be foreseen, to the extent they are not prohibited.

(65) In order to carry out third-party conformity assessment for AI systems intended to be used for the remote biometric identification of persons, notified bodies should be designated under this Regulation by the national competent authorities, provided they are compliant with a set of requirements, notably on independence, competence and absence of conflicts of interests.

(66) In line with the commonly established notion of substantial modification for products regulated by Union harmonisation legislation, it is appropriate that an AI system undergoes a new conformity assessment whenever a change occurs which may affect the compliance of the system with this Regulation or when the intended purpose of the system changes. In addition, as regards AI systems which continue to ‘learn’ after being placed on the market or put into service (i.e. they automatically adapt how functions are carried out), it is necessary to provide rules establishing that changes to the algorithm and its performance that have been pre-determined by the provider and assessed at the moment of the conformity assessment should not constitute a substantial modification.

(67) High-risk AI systems should bear the CE marking to indicate their conformity with this Regulation so that they can move freely within the internal market. Member States should not create unjustified obstacles to the placing on the market or putting into service of high-risk AI systems that comply with the requirements laid down in this Regulation and bear the CE marking.

(68) Under certain conditions, rapid availability of innovative technologies may be crucial for health and safety of persons and for society as a whole. It is thus appropriate that under exceptional reasons of public security or protection of life and health of natural persons and the protection of industrial and commercial property, Member States could authorise the placing on the market or putting into service of AI systems which have not undergone a conformity assessment.

(69) In order to facilitate the work of the Commission and the Member States in the artificial intelligence field as well as to increase the transparency towards the public, providers of high-risk AI systems other than those related to products falling within the scope of relevant existing Union harmonisation legislation, should be required to register their high-risk AI system in a EU database, to be established and managed by the Commission. The Commission should be the controller of that database, in accordance with Regulation (EU) 2018/1725 of the European Parliament and of the Council (55). In order to ensure the full functionality of the database, when deployed, the procedure for setting the database should include the elaboration of functional specifications by the Commission and an independent audit report.

(70) Certain AI systems intended to interact with natural persons or to generate content may pose specific risks of impersonation or deception irrespective of whether they qualify as high-risk or not. In certain circumstances, the use of these systems should therefore be subject to specific transparency obligations without prejudice to the requirements and obligations for high-risk AI systems. In particular, natural persons should be notified that they are interacting with an AI system, unless this is obvious from the circumstances and the context of use. Moreover, natural persons should be notified when they are exposed to an emotion recognition system or a biometric categorisation system. Such information and notifications should be provided in accessible formats for persons with disabilities. Further, users, who use an AI system to generate or manipulate image, audio or video content that appreciably resembles existing persons, places or events and would falsely appear to a person to be authentic, should disclose that the content has been artificially created or manipulated by labelling the artificial intelligence output accordingly and disclosing its artificial origin.

(71) Artificial intelligence is a rapidly developing family of technologies that requires novel forms of regulatory oversight and a safe space for experimentation, while ensuring responsible innovation and integration of appropriate safeguards and risk mitigation measures. To ensure a legal framework that is innovation-friendly, future-proof and resilient to disruption, national competent authorities from one or more Member States should be encouraged to establish artificial intelligence regulatory sandboxes to facilitate the development and testing of innovative AI systems under strict regulatory oversight before these systems are placed on the market or otherwise put into service.

(72) The objectives of the regulatory sandboxes should be to foster AI innovation by establishing a controlled experimentation and testing environment in the development and pre-marketing phase with a view to ensuring compliance of the innovative AI systems with this Regulation and other relevant Union and Member States legislation; to enhance legal certainty for innovators and the competent authorities’ oversight and understanding of the opportunities, emerging risks and the impacts of AI use, and to accelerate access to markets, including by removing barriers for small and medium enterprises (SMEs) and start-ups. To ensure uniform implementation across the Union and economies of scale, it is appropriate to establish common rules for the regulatory sandboxes’ implementation and a framework for cooperation between the relevant authorities involved in the supervision of the sandboxes. This Regulation should provide the legal basis for the use of personal data collected for other purposes for developing certain AI systems in the public interest within the AI regulatory sandbox, in line with Article 6(4) of Regulation (EU) 2016/679, and Article 6 of Regulation (EU) 2018/1725, and without prejudice to Article 4(2) of Directive (EU) 2016/680. Participants in the sandbox should ensure appropriate safeguards and cooperate with the competent authorities, including by following their guidance and acting expeditiously and in good faith to mitigate any high-risks to safety and fundamental rights that may arise during the development and experimentation in the sandbox. The conduct of the participants in the sandbox should be taken into account when competent authorities decide whether to impose an administrative fine under Article 83(2) of Regulation 2016/679 and Article 57 of Directive 2016/680.

(73) In order to promote and protect innovation, it is important that the interests of small-scale providers and users of AI systems are taken into particular account. To this objective, Member States should develop initiatives, which are targeted at those operators, including on awareness raising and information communication. Moreover, the specific interests and needs of small-scale providers shall be taken into account when Notified Bodies set conformity assessment fees. Translation costs related to mandatory documentation and communication with authorities may constitute a significant cost for providers and other operators, notably those of a smaller scale. Member States should possibly ensure that one of the languages determined and accepted by them for relevant providers’ documentation and for communication with operators is one which is broadly understood by the largest possible number of cross-border users.

(74) In order to minimise the risks to implementation resulting from lack of knowledge and expertise in the market as well as to facilitate compliance of providers and notified bodies with their obligations under this Regulation, the AI-on demand platform, the European Digital Innovation Hubs and the Testing and Experimentation Facilities established by the Commission and the Member States at national or EU level should possibly contribute to the implementation of this Regulation. Within their respective mission and fields of competence, they may provide in particular technical and scientific support to providers and notified bodies.

(75) It is appropriate that the Commission facilitates, to the extent possible, access to Testing and Experimentation Facilities to bodies, groups or laboratories established or accredited pursuant to any relevant Union harmonisation legislation and which fulfil tasks in the context of conformity assessment of products or devices covered by that Union harmonisation legislation. This is notably the case for expert panels, expert laboratories and reference laboratories in the field of medical devices pursuant to Regulation (EU) 2017/745 and Regulation (EU) 2017/746.

(76) In order to facilitate a smooth, effective and harmonised implementation of this Regulation a European Artificial Intelligence Board should be established. The Board should be responsible for a number of advisory tasks, including issuing opinions, recommendations, advice or guidance on matters related to the implementation of this Regulation, including on technical specifications or existing standards regarding the requirements established in this Regulation and providing advice to and assisting the Commission on specific questions related to artificial intelligence.

(77) Member States hold a key role in the application and enforcement of this Regulation. In this respect, each Member State should designate one or more national competent authorities for the purpose of supervising the application and implementation of this Regulation. In order to increase organisation efficiency on the side of Member States and to set an official point of contact vis-à-vis the public and other counterparts at Member State and Union levels, in each Member State one national authority should be designated as national supervisory authority.

(78) In order to ensure that providers of high-risk AI systems can take into account the experience on the use of high-risk AI systems for improving their systems and the design and development process or can take any possible corrective action in a timely manner, all providers should have a post-market monitoring system in place. This system is also key to ensure that the possible risks emerging from AI systems which continue to ‘learn’ after being placed on the market or put into service can be more efficiently and timely addressed. In this context, providers should also be required to have a system in place to report to the relevant authorities any serious incidents or any breaches to national and Union law protecting fundamental rights resulting from the use of their AI systems.

(79) In order to ensure an appropriate and effective enforcement of the requirements and obligations set out by this Regulation, which is Union harmonisation legislation, the system of market surveillance and compliance of products established by Regulation (EU) 2019/1020 should apply in its entirety. Where necessary for their mandate, national public authorities or bodies, which supervise the application of Union law protecting fundamental rights, including equality bodies, should also have access to any documentation created under this Regulation.

(80) Union legislation on financial services includes internal governance and risk management rules and requirements which are applicable to regulated financial institutions in the course of provision of those services, including when they make use of AI systems. In order to ensure coherent application and enforcement of the obligations under this Regulation and relevant rules and requirements of the Union financial services legislation, the authorities responsible for the supervision and enforcement of the financial services legislation, including where applicable the European Central Bank, should be designated as competent authorities for the purpose of supervising the implementation of this Regulation, including for market surveillance activities, as regards AI systems provided or used by regulated and supervised financial institutions. To further enhance the consistency between this Regulation and the rules applicable to credit institutions regulated under Directive 2013/36/EU of the European Parliament and of the Council (56), it is also appropriate to integrate the conformity assessment procedure and some of the providers’ procedural obligations in relation to risk management, post marketing monitoring and documentation into the existing obligations and procedures under Directive 2013/36/EU. In order to avoid overlaps, limited derogations should also be envisaged in relation to the quality management system of providers and the monitoring obligation placed on users of high-risk AI systems to the extent that these apply to credit institutions regulated by Directive 2013/36/EU.

(81) The development of AI systems other than high-risk AI systems in accordance with the requirements of this Regulation may lead to a larger uptake of trustworthy artificial intelligence in the Union. Providers of non-high-risk AI systems should be encouraged to create codes of conduct intended to foster the voluntary application of the mandatory requirements applicable to high-risk AI systems. Providers should also be encouraged to apply on a voluntary basis additional requirements related, for example, to environmental sustainability, accessibility to persons with disability, stakeholders’ participation in the design and development of AI systems, and diversity of the development teams. The Commission may develop initiatives, including of a sectorial nature, to facilitate the lowering of technical barriers hindering cross-border exchange of data for AI development, including on data access infrastructure, semantic and technical interoperability of different types of data.

(82) It is important that AI systems related to products that are not high-risk in accordance with this Regulation and thus are not required to comply with the requirements set out herein are nevertheless safe when placed on the market or put into service. To contribute to this objective, the Directive 2001/95/EC of the European Parliament and of the Council (57) would apply as a safety net.

(83) In order to ensure trustful and constructive cooperation of competent authorities on Union and national level, all parties involved in the application of this Regulation should respect the confidentiality of information and data obtained in carrying out their tasks.

(84) Member States should take all necessary measures to ensure that the provisions of this Regulation are implemented, including by laying down effective, proportionate and dissuasive penalties for their infringement. For certain specific infringements, Member States should take into account the margins and criteria set out in this Regulation. The European Data Protection Supervisor should have the power to impose fines on Union institutions, agencies and bodies falling within the scope of this Regulation.

(85) In order to ensure that the regulatory framework can be adapted where necessary, the power to adopt acts in accordance with Article 290 TFEU should be delegated to the Commission to amend the techniques and approaches referred to in Annex I to define AI systems, the Union harmonisation legislation listed in Annex II, the high-risk AI systems listed in Annex III, the provisions regarding technical documentation listed in Annex IV, the content of the EU declaration of conformity in Annex V, the provisions regarding the conformity assessment procedures in Annex VI and VII and the provisions establishing the high-risk AI systems to which the conformity assessment procedure based on assessment of the quality management system and assessment of the technical documentation should apply. It is of particular importance that the Commission carry out appropriate consultations during its preparatory work, including at expert level, and that those consultations be conducted in accordance with the principles laid down in the Interinstitutional Agreement of 13 April 2016 on Better Law-Making58. In particular, to ensure equal participation in the preparation of delegated acts, the European Parliament and the Council receive all documents at the same time as Member States’ experts, and their experts systematically have access to meetings of Commission expert groups dealing with the preparation of delegated acts.

(86) In order to ensure uniform conditions for the implementation of this Regulation, implementing powers should be conferred on the Commission. Those powers should be exercised in accordance with Regulation (EU) No 182/2011 of the European Parliament and of the Council59.

(87) Since the objective of this Regulation cannot be sufficiently achieved by the Member States and can rather, by reason of the scale or effects of the action, be better achieved at Union level, the Union may adopt measures in accordance with the principle of subsidiarity as set out in Article 5 TEU. In accordance with the principle of proportionality as set out in that Article, this Regulation does not go beyond what is necessary in order to achieve that objective.

(88) This Regulation should apply from … [OP – please insert the date established in Art. 85]. However, the infrastructure related to the governance and the conformity assessment system should be operational before that date, therefore the provisions on notified bodies and governance structure should apply from … [OP – please insert the date – three months following the entry into force of this Regulation]. In addition, Member States should lay down and notify to the Commission the rules on penalties, including administrative fines, and ensure that they are properly and effectively implemented by the date of application of this Regulation. Therefore the provisions on penalties should apply from [OP – please insert the date – twelve months following the entry into force of this Regulation].

(89) The European Data Protection Supervisor and the European Data Protection Board were consulted in accordance with Article 42(2) of Regulation (EU) 2018/1725 and delivered an opinion on […]”.

HAVE ADOPTED THIS REGULATION:

TITLE I. GENERAL PROVISIONS

Article 1 Subject matter

This Regulation lays down:

(a) harmonised rules for the placing on the market, the putting into service and the use of artificial intelligence systems (‘AI systems’) in the Union;

(a) prohibitions of certain artificial intelligence practices;

(b) specific requirements for high-risk AI systems and obligations for operators of such systems;

(c) harmonised transparency rules for AI systems intended to interact with natural persons, emotion recognition systems and biometric categorisation systems, and AI systems used to generate or manipulate image, audio or video content;

(d) rules on market monitoring and surveillance.               

Article 2 Scope

1. This Regulation applies to:

(a) providers placing on the market or putting into service AI systems in the Union, irrespective of whether those providers are established within the Union or in a third country;

(b) users of AI systems located within the Union;

(c) providers and users of AI systems that are located in a third country, where the output produced by the system is used in the Union;

2. For high-risk AI systems that are safety components of products or systems, or which are themselves products or systems, falling within the scope of the following acts, only Article 84 of this Regulation shall apply:

(a) Regulation (EC) 300/2008;

(b) Regulation (EU) nº 167/2013;

(c) Regulation (EU) nº 168/2013;

(d) Directive 2014/90/EU;

(e) Directive (EU) 2016/797;

(f) Regulation (EU) 2018/858;

(g) Regulation (EU) 2018/1139;

(h) Regulation (EU) 2019/2144.

3. This Regulation shall not apply to AI systems developed or used exclusively for military purposes.

4. This Regulation shall not apply to public authorities in a third country nor to international organisations falling within the scope of this Regulation pursuant to paragraph 1, where those authorities or organisations use AI systems in the framework of international agreements for law enforcement and judicial cooperation with the Union or with one or more Member States.

5. This Regulation shall not affect the application of the provisions on the liability of intermediary service providers set out in Chapter II, Section IV of Directive 2000/31/EC of the European Parliament and of the Council (60) [as to be replaced by the corresponding provisions of the Digital Services Act].

Article 3 Definitions

For the purpose of this Regulation, the following definitions apply:

(1) ‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with;

(1) ‘provider’ means a natural or legal person, public authority, agency or other body that develops an AI system or that has an AI system developed with a view to placing it on the market or putting it into service under its own name or trademark, whether for payment or free of charge;

(3) ‘small-scale provider’ means a provider that is a micro or small enterprise within the meaning of Commission Recommendation 2003/361/EC (61);

(4) ‘user’ means any natural or legal person, public authority, agency or other body using an AI system under its authority, except where the AI system is used in the course of a personal non-professional activity;

(5) ‘authorised representative’ means any natural or legal person established in the Union who has received a written mandate from a provider of an AI system to, respectively, perform and carry out on its behalf the obligations and procedures established by this Regulation;

(6) ‘importer’ means any natural or legal person established in the Union that places on the market or puts into service an AI system that bears the name or trademark of a natural or legal person established outside the Union;

(7) ‘distributor’ means any natural or legal person in the supply chain, other than the provider or the importer, that makes an AI system available on the Union market without affecting its properties;

(8) ‘operator’ means the provider, the user, the authorised representative, the importer and the distributor;

(9) ‘placing on the market’ means the first making available of an AI system on the Union market;

(10) ‘making available on the market’ means any supply of an AI system for distribution or use on the Union market in the course of a commercial activity, whether in return for payment or free of charge;

(11) ‘putting into service’ means the supply of an AI system for first use directly to the user or for own use on the Union market for its intended purpose;

(12) ‘intended purpose’ means the use for which an AI system is intended by the provider, including the specific context and conditions of use, as specified in the information supplied by the provider in the instructions for use, promotional or sales materials and statements, as well as in the technical documentation;

(13) ‘reasonably foreseeable misuse’ means the use of an AI system in a way that is not in accordance with its intended purpose, but which may result from reasonably foreseeable human behaviour or interaction with other systems;

(14) ‘safety component of a product or system’ means a component of a product or of a system which fulfils a safety function for that product or system or the failure or malfunctioning of which endangers the health and safety of persons or property;

(15) ‘instructions for use’ means the information provided by the provider to inform the user of in particular an AI system’s intended purpose and proper use, inclusive of the specific geographical, behavioural or functional setting within which the high-risk AI system is intended to be used;

(16) ‘recall of an AI system’ means any measure aimed at achieving the return to the provider of an AI system made available to users;

(17) ‘withdrawal of an AI system’ means any measure aimed at preventing the distribution, display and offer of an AI system;

(18) ‘performance of an AI system’ means the ability of an AI system to achieve its intended purpose;

(19) ‘notifying authority’ means the national authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring;

(20) ‘conformity assessment’ means the process of verifying whether the requirements set out in Title III, Chapter 2 of this Regulation relating to an AI system have been fulfilled;

(21) ‘conformity assessment body’ means a body that performs third-party conformity assessment activities, including testing, certification and inspection;

(22) ‘notified body’ means a conformity assessment body designated in accordance with this Regulation and other relevant Union harmonisation legislation;

(23) ‘substantial modification’ means a change to the AI system following its placing on the market or putting into service which affects the compliance of the AI system with the requirements set out in Title III, Chapter 2 of this Regulation or results in a modification to the intended purpose for which the AI system has been assessed;

(24) ‘CE marking of conformity’ (CE marking) means a marking by which a provider indicates that an AI system is in conformity with the requirements set out in Title III, Chapter 2 of this Regulation and other applicable Union legislation harmonising the conditions for the marketing of products (‘Union harmonisation legislation’) providing for its affixing;

(25) ‘post-market monitoring’ means all activities carried out by providers of AI systems to proactively collect and review experience gained from the use of AI systems they place on the market or put into service for the purpose of identifying any need to immediately apply any necessary corrective or preventive actions;

(26) ‘market surveillance authority’ means the national authority carrying out the activities and taking the measures pursuant to Regulation (EU) 2019/1020;

(27) ‘harmonised standard’ means a European standard as defined in Article 2(1)(c) of Regulation (EU) nº 1025/2012;

(28) ‘common specifications’ means a document, other than a standard, containing technical solutions providing a means to, comply with certain requirements and obligations established under this Regulation;

(29) ‘training data’ means data used for training an AI system through fitting its learnable parameters, including the weights of a neural network;

(30) ‘validation data’ means data used for providing an evaluation of the trained AI system and for tuning its non-learnable parameters and its learning process, among other things, in order to prevent overfitting; whereas the validation dataset can be a separate dataset or part of the training dataset, either as a fixed or variable split;

(31) ‘testing data’ means data used for providing an independent evaluation of the trained and validated AI system in order to confirm the expected performance of that system before its placing on the market or putting into service;

(32) ‘input data’ means data provided to or directly acquired by an AI system on the basis of which the system produces an output;

(33) ‘biometric data’ means personal data resulting from specific technical processing relating to the physical, physiological or behavioural characteristics of a natural person, which allow or confirm the unique identification of that natural person, such as facial images or dactyloscopic data;

(34) ‘emotion recognition system’ means an AI system for the purpose of identifying or inferring emotions or intentions of natural persons on the basis of their biometric data;

(35) ‘biometric categorisation system’ means an AI system for the purpose of assigning natural persons to specific categories, such as sex, age, hair colour, eye colour, tattoos, ethnic origin or sexual or political orientation, on the basis of their biometric data;

(36) ‘remote biometric identification system’ means an AI system for the purpose of identifying natural persons at a distance through the comparison of a person’s biometric data with the biometric data contained in a reference database, and without prior knowledge of the user of the AI system whether the person will be present and can be identified ;

(37) ‘‘real-time’ remote biometric identification system’ means a remote biometric identification system whereby the capturing of biometric data, the comparison and the identification all occur without a significant delay. This comprises not only instant identification, but also limited short delays in order to avoid circumvention.

(38) ‘‘post’ remote biometric identification system’ means a remote biometric identification system other than a ‘real-time’ remote biometric identification system;

(39) ‘publicly accessible space’ means any physical place accessible to the public, regardless of whether certain conditions for access may apply;

(40) ‘law enforcement authority’ means:

(a) any public authority competent for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security; or

(b) any other body or entity entrusted by Member State law to exercise public authority and public powers for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security;

(41) ‘law enforcement’ means activities carried out by law enforcement authorities for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security;

(42) ‘national supervisory authority’ means the authority to which a Member State assigns the responsibility for the implementation and application of this Regulation, for coordinating the activities entrusted to that Member State, for acting as the single contact point for the Commission, and for representing the Member State at the European Artificial Intelligence Board;

(43) ‘national competent authority’ means the national supervisory authority, the notifying authority and the market surveillance authority;

(44) ‘serious incident’ means any incident that directly or indirectly leads, might have led or might lead to any of the following:

(a) the death of a person or serious damage to a person’s health, to property or the environment,

(b) a serious and irreversible disruption of the management and operation of critical infrastructure.

Article 4 Amendments to Annex I

The Commission is empowered to adopt delegated acts in accordance with Article 73 to amend the list of techniques and approaches listed in Annex I, in order to update that list to market and technological developments on the basis of characteristics that are similar to the techniques and approaches listed therein.

TITLE II. PROHIBITED ARTIFICIAL INTELLIGENCE PRACTICES

Article 5

1. The following artificial intelligence practices shall be prohibited:

(a) the placing on the market, putting into service or use of an AI system that deploys subliminal techniques beyond a person’s consciousness in order to materially distort a person’s behaviour in a manner that causes or is likely to cause that person or another person physical or psychological harm;

(b) the placing on the market, putting into service or use of an AI system that exploits any of the vulnerabilities of a specific group of persons due to their age, physical or mental disability, in order to materially distort the behaviour of a person pertaining to that group in a manner that causes or is likely to cause that person or another person physical or psychological harm;

(c) the placing on the market, putting into service or use of AI systems by public authorities or on their behalf for the evaluation or classification of the trustworthiness of natural persons over a certain period of time based on their social behaviour or known or predicted personal or personality characteristics, with the social score leading to either or both of the following:

(i) detrimental or unfavourable treatment of certain natural persons or whole groups thereof in social contexts which are unrelated to the contexts in which the data was originally generated or collected;

(ii) detrimental or unfavourable treatment of certain natural persons or whole groups thereof that is unjustified or disproportionate to their social behaviour or its gravity; (d) the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement, unless and in as far as such use is strictly necessary for one of the following objectives:

(i) the targeted search for specific potential victims of crime, including missing children;

(ii) the prevention of a specific, substantial and imminent threat to the life or physical safety of natural persons or of a terrorist attack;

(iii) the detection, localisation, identification or prosecution of a perpetrator or suspect of a criminal offence referred to in Article 2(2) of Council Framework Decision 2002/584/JHA (62) and punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least three years, as determined by the law of that Member State.

2. The use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement for any of the objectives referred to in paragraph 1 point d) shall take into account the following elements:

(a) the nature of the situation giving rise to the possible use, in particular the seriousness, probability and scale of the harm caused in the absence of the use of the system;

(b) the consequences of the use of the system for the rights and freedoms of all persons concerned, in particular the seriousness, probability and scale of those consequences.

In addition, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement for any of the objectives referred to in paragraph 1 point d) shall comply with necessary and proportionate safeguards and conditions in relation to the use, in particular as regards the temporal, geographic and personal limitations.

3. As regards paragraphs 1, point (d) and 2, each individual use for the purpose of law enforcement of a ‘real-time’ remote biometric identification system in publicly accessible spaces shall be subject to a prior authorisation granted by a judicial authority or by an independent administrative authority of the Member State in which the use is to take place, issued upon a reasoned request and in accordance with the detailed rules of national law referred to in paragraph 4. However, in a duly justified situation of urgency, the use of the system may be commenced without an authorisation and the authorisation may be requested only during or after the use.

The competent judicial or administrative authority shall only grant the authorisation where it is satisfied, based on objective evidence or clear indications presented to it, that the use of the ‘real-time’ remote biometric identification system at issue is necessary for and proportionate to achieving one of the objectives specified in paragraph 1, point (d), as identified in the request. In deciding on the request, the competent judicial or administrative authority shall take into account the elements referred to in paragraph 2.

4. A Member State may decide to provide for the possibility to fully or partially authorise the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement within the limits and under the conditions listed in paragraphs 1, point (d), 2 and 3. That Member State shall lay down in its national law the necessary detailed rules for the request, issuance and exercise of, as well as supervision relating to, the authorisations referred to in paragraph 3. Those rules shall also specify in respect of which of the objectives listed in paragraph 1, point (d), including which of the criminal offences referred to in point (iii) thereof, the competent authorities may be authorised to use those systems for the purpose of law enforcement.

TITLE III. HIGH-RISK AI SYSTEMS

CHAPTER 1. CLASSIFICATION OF AI SYSTEMS AS HIGH-RISK

Article 6 Classification rules for high-risk AI systems

1. Irrespective of whether an AI system is placed on the market or put into service independently from the products referred to in points (a) and (b), that AI system shall be considered high-risk where both of the following conditions are fulfilled:

(a) the AI system is intended to be used as a safety component of a product, or is itself a product, covered by the Union harmonisation legislation listed in Annex II;

(b) the product whose safety component is the AI system, or the AI system itself as a product, is required to undergo a third-party conformity assessment with a view to the placing on the market or putting into service of that product pursuant to the Union harmonisation legislation listed in Annex II.

2. In addition to the high-risk AI systems referred to in paragraph 1, AI systems referred to in Annex III shall also be considered high-risk.

Article 7 Amendments to Annex III

1. The Commission is empowered to adopt delegated acts in accordance with Article 73 to update the list in Annex III by adding high-risk AI systems where both of the following conditions are fulfilled:

(a) the AI systems are intended to be used in any of the areas listed in points 1 to 8 of Annex III;

(b) the AI systems pose a risk of harm to the health and safety, or a risk of adverse impact on fundamental rights, that is, in respect of its severity and probability of occurrence, equivalent to or greater than the risk of harm or of adverse impact posed by the high-risk AI systems already referred to in Annex III.

2. When assessing for the purposes of paragraph 1 whether an AI system poses a risk of harm to the health and safety or a risk of adverse impact on fundamental rights that is equivalent to or greater than the risk of harm posed by the high-risk AI systems already referred to in Annex III, the Commission shall take into account the following criteria:

(a) the intended purpose of the AI system;

(b) the extent to which an AI system has been used or is likely to be used;

(c) the extent to which the use of an AI system has already caused harm to the health and safety or adverse impact on the fundamental rights or has given rise to significant concerns in relation to the materialisation of such harm or adverse impact, as demonstrated by reports or documented allegations submitted to national competent authorities;

(d) the potential extent of such harm or such adverse impact, in particular in terms of its intensity and its ability to affect a plurality of persons;

(e) the extent to which potentially harmed or adversely impacted persons are dependent on the outcome produced with an AI system, in particular because for practical or legal reasons it is not reasonably possible to opt-out from that outcome;

(f) the extent to which potentially harmed or adversely impacted persons are in a vulnerable position in relation to the user of an AI system, in particular due to an imbalance of power, knowledge, economic or social circumstances, or age;

(g) the extent to which the outcome produced with an AI system is easily reversible, whereby outcomes having an impact on the health or safety of persons shall not be considered as easily reversible;

(h) the extent to which existing Union legislation provides for:

(i) effective measures of redress in relation to the risks posed by an AI system, with the exclusion of claims for damages;

(ii) effective measures to prevent or substantially minimise those risks.

CHAPTER 2. REQUIREMENTS FOR HIGH-RISK AI SYSTEMS

Article 8. Compliance with the requirements

1. High-risk AI systems shall comply with the requirements established in this Chapter.

2. The intended purpose of the high-risk AI system and the risk management system referred to in Article 9 shall be taken into account when ensuring compliance with those requirements.

Article 9. Risk management system

1. A risk management system shall be established, implemented, documented and maintained in relation to high-risk AI systems.

2. The risk management system shall consist of a continuous iterative process run throughout the entire lifecycle of a high-risk AI system, requiring regular systematic updating. It shall comprise the following steps:

(a) identification and analysis of the known and foreseeable risks associated with each high-risk AI system;

(b) estimation and evaluation of the risks that may emerge when the high-risk AI system is used in accordance with its intended purpose and under conditions of reasonably foreseeable misuse;

(c) evaluation of other possibly arising risks based on the analysis of data gathered from the post-market monitoring system referred to in Article 61;

(d) adoption of suitable risk management measures in accordance with the provisions of the following paragraphs.

3. The risk management measures referred to in paragraph 2, point (d) shall give due consideration to the effects and possible interactions resulting from the combined application of the requirements set out in this Chapter 2. They shall take into account the generally acknowledged state of the art, including as reflected in relevant harmonised standards or common specifications.

4. The risk management measures referred to in paragraph 2, point (d) shall be such that any residual risk associated with each hazard as well as the overall residual risk of the high-risk AI systems is judged acceptable, provided that the high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse. Those residual risks shall be communicated to the user.

In identifying the most appropriate risk management measures, the following shall be ensured:

(a) elimination or reduction of risks as far as possible through adequate design and development;

(b) where appropriate, implementation of adequate mitigation and control measures in relation to risks that cannot be eliminated;

(c) provision of adequate information pursuant to Article 13, in particular as regards the risks referred to in paragraph 2, point (b) of this Article, and, where appropriate, training to users.

In eliminating or reducing risks related to the use of the high-risk AI system, due consideration shall be given to the technical knowledge, experience, education, training to be expected by the user and the environment in which the system is intended to be used.

5. High-risk AI systems shall be tested for the purposes of identifying the most appropriate risk management measures. Testing shall ensure that high-risk AI systems perform consistently for their intended purpose and they are in compliance with the requirements set out in this Chapter.

6. Testing procedures shall be suitable to achieve the intended purpose of the AI system and do not need to go beyond what is necessary to achieve that purpose.

7. The testing of the high-risk AI systems shall be performed, as appropriate, at any point in time throughout the development process, and, in any event, prior to the placing on the market or the putting into service. Testing shall be made against preliminarily defined metrics and probabilistic thresholds that are appropriate to the intended purpose of the high-risk AI system.

8. When implementing the risk management system described in paragraphs 1 to 7, specific consideration shall be given to whether the high-risk AI system is likely to be accessed by or have an impact on children.

9. For credit institutions regulated by Directive 2013/36/EU, the aspects described in paragraphs 1 to 8 shall be part of the risk management procedures established by those institutions pursuant to Article 74 of that Directive.

Article 10. Data and data governance

1. High-risk AI systems which make use of techniques involving the training of models with data shall be developed on the basis of training, validation and testing data sets that meet the quality criteria referred to in paragraphs 2 to 5.

2. Training, validation and testing data sets shall be subject to appropriate data governance and management practices. Those practices shall concern in particular,

(a) the relevant design choices;

(b) data collection;

(c) relevant data preparation processing operations, such as annotation, labelling, cleaning, enrichment and aggregation;

(d) the formulation of relevant assumptions, notably with respect to the information that the data are supposed to measure and represent;

(e) a prior assessment of the availability, quantity and suitability of the data sets that are needed;

(f) examination in view of possible biases;

(g) the identification of any possible data gaps or shortcomings, and how those gaps and shortcomings can be addressed.

3. Training, validation and testing data sets shall be relevant, representative, free of errors and complete. They shall have the appropriate statistical properties, including, where applicable, as regards the persons or groups of persons on which the high-risk AI system is intended to be used. These characteristics of the data sets may be met at the level of individual data sets or a combination thereof.

4. Training, validation and testing data sets shall take into account, to the extent required by the intended purpose, the characteristics or elements that are particular to the specific geographical, behavioural or functional setting within which the high-risk AI system is intended to be used.

5. To the extent that it is strictly necessary for the purposes of ensuring bias monitoring, detection and correction in relation to the high-risk AI systems, the providers of such systems may process special categories of personal data referred to in Article 9(1) of Regulation (EU) 2016/679, Article 10 of Directive (EU) 2016/680 and Article 10(1) of Regulation (EU) 2018/1725, subject to appropriate safeguards for the fundamental rights and freedoms of natural persons, including technical limitations on the re-use and use of state-of-the-art security and privacy-preserving measures, such as pseudonymisation, or encryption where anonymisation may significantly affect the purpose pursued.

6. Appropriate data governance and management practices shall apply for the development of high-risk AI systems other than those which make use of techniques involving the training of models in order to ensure that those high-risk AI systems comply with paragraph 2.

Article 11. Technical documentation

1. The technical documentation of a high-risk AI system shall be drawn up before that system is placed on the market or put into service and shall be kept up-to date.

The technical documentation shall be drawn up in such a way to demonstrate that the high-risk AI system complies with the requirements set out in this Chapter and provide national competent authorities and notified bodies with all the necessary information to assess the compliance of the AI system with those requirements. It shall contain, at a minimum, the elements set out in Annex IV.

2. Where a high-risk AI system related to a product, to which the legal acts listed in Annex II, section A apply, is placed on the market or put into service one single technical documentation shall be drawn up containing all the information set out in Annex IV as well as the information required under those legal acts.

3. The Commission is empowered to adopt delegated acts in accordance with Article 73 to amend Annex IV where necessary to ensure that, in the light of technical progress, the technical documentation provides all the necessary information to assess the compliance of the system with the requirements set out in this Chapter.

Article 12. Record-keeping

1. High-risk AI systems shall be designed and developed with capabilities enabling the automatic recording of events (‘logs’) while the high-risk AI systems is operating. Those logging capabilities shall conform to recognised standards or common specifications.

2. The logging capabilities shall ensure a level of traceability of the AI system’s functioning throughout its lifecycle that is appropriate to the intended purpose of the system.

3. In particular, logging capabilities shall enable the monitoring of the operation of the high-risk AI system with respect to the occurrence of situations that may result in the AI system presenting a risk within the meaning of Article 65(1) or lead to a substantial modification, and facilitate the post-market monitoring referred to in Article 61.

4. For high-risk AI systems referred to in paragraph 1, point (a) of Annex III, the logging capabilities shall provide, at a minimum:

(a) recording of the period of each use of the system (start date and time and end date and time of each use);

(b) the reference database against which input data has been checked by the system;

(c) the input data for which the search has led to a match;

(d) the identification of the natural persons involved in the verification of the results, as referred to in Article 14 (5).

Article 13. Transparency and provision of information to users

1. High-risk AI systems shall be designed and developed in such a way to ensure that their operation is sufficiently transparent to enable users to interpret the system’s output and use it appropriately. An appropriate type and degree of transparency shall be ensured, with a view to achieving compliance with the relevant obligations of the user and of the provider set out in Chapter 3 of this Title.

2. High-risk AI systems shall be accompanied by instructions for use in an appropriate digital format or otherwise that include concise, complete, correct and clear information that is relevant, accessible and comprehensible to users.

3. The information referred to in paragraph 2 shall specify:

(a) the identity and the contact details of the provider and, where applicable, of its authorised representative;

(b) the characteristics, capabilities and limitations of performance of the high-risk AI system, including:

(i) its intended purpose;

(ii) the level of accuracy, robustness and cybersecurity referred to in Article 15 against which the high-risk AI system has been tested and validated and which can be expected, and any known and foreseeable circumstances that may have an impact on that expected level of accuracy, robustness and cybersecurity;

(iii) any known or foreseeable circumstance, related to the use of the high-risk AI system in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, which may lead to risks to the health and safety or fundamental rights;

(iv) its performance as regards the persons or groups of persons on which the system is intended to be used;

(v) when appropriate, specifications for the input data, or any other relevant information in terms of the training, validation and testing data sets used, taking into account the intended purpose of the AI system.

(c) the changes to the high-risk AI system and its performance which have been pre-determined by the provider at the moment of the initial conformity assessment, if any;

(d) the human oversight measures referred to in Article 14, including the technical measures put in place to facilitate the interpretation of the outputs of AI systems by the users;

(e) the expected lifetime of the high-risk AI system and any necessary maintenance and care measures to ensure the proper functioning of that AI system, including as regards software updates.

Article 14. Human oversight

1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which the AI system is in use.

2. Human oversight shall aim at preventing or minimising the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, in particular when such risks persist notwithstanding the application of other requirements set out in this Chapter.

3. Human oversight shall be ensured through either one or all of the following measures:

(a) identified and built, when technically feasible, into the high-risk AI system by the provider before it is placed on the market or put into service;

(b) identified by the provider before placing the high-risk AI system on the market or putting it into service and that are appropriate to be implemented by the user.

4. The measures referred to in paragraph 3 shall enable the individuals to whom human oversight is assigned to do the following, as appropriate to the circumstances:

(a) fully understand the capacities and limitations of the high-risk AI system and be able to duly monitor its operation, so that signs of anomalies, dysfunctions and unexpected performance can be detected and addressed as soon as possible;

(b) remain aware of the possible tendency of automatically relying or over-relying on the output produced by a high-risk AI system (‘automation bias’), in particular for high-risk AI systems used to provide information or recommendations for decisions to be taken by natural persons;

(c) be able to correctly interpret the high-risk AI system’s output, taking into account in particular the characteristics of the system and the interpretation tools and methods available;

(d) be able to decide, in any particular situation, not to use the high-risk AI system or otherwise disregard, override or reverse the output of the high-risk AI system;

(e) be able to intervene on the operation of the high-risk AI system or interrupt the system through a “stop” button or a similar procedure.

5. For high-risk AI systems referred to in point 1(a) of Annex III, the measures referred to in paragraph 3 shall be such as to ensure that, in addition, no action or decision is taken by the user on the basis of the identification resulting from the system unless this has been verified and confirmed by at least two natural persons.

Article 15. Accuracy, robustness and cybersecurity

1. High-risk AI systems shall be designed and developed in such a way that they achieve, in the light of their intended purpose, an appropriate level of accuracy, robustness and cybersecurity, and perform consistently in those respects throughout their lifecycle.

2. The levels of accuracy and the relevant accuracy metrics of high-risk AI systems shall be declared in the accompanying instructions of use.

3. High-risk AI systems shall be resilient as regards errors, faults or inconsistencies that may occur within the system or the environment in which the system operates, in particular due to their interaction with natural persons or other systems.

The robustness of high-risk AI systems may be achieved through technical redundancy solutions, which may include backup or fail-safe plans.

High-risk AI systems that continue to learn after being placed on the market or put into service shall be developed in such a way to ensure that possibly biased outputs due to outputs used as an input for future operations (‘feedback loops’) are duly addressed with appropriate mitigation measures.

4. High-risk AI systems shall be resilient as regards attempts by unauthorised third parties to alter their use or performance by exploiting the system vulnerabilities.

The technical solutions aimed at ensuring the cybersecurity of high-risk AI systems shall be appropriate to the relevant circumstances and the risks.

The technical solutions to address AI specific vulnerabilities shall include, where appropriate, measures to prevent and control for attacks trying to manipulate the training dataset (‘data poisoning’), inputs designed to cause the model to make a mistake (‘adversarial examples’), or model flaws.

CHAPTER 3. OBLIGATIONS OF PROVIDERS AND USERS OF HIGH-RISK AI SYSTEMS AND OTHER PARTIES

Article 16. Obligations of providers of high-risk AI systems

Providers of high-risk AI systems shall:

(a) ensure that their high-risk AI systems are compliant with the requirements set out in Chapter 2 of this Title;

(b) have a quality management system in place which complies with Article 17;

(c) draw-up the technical documentation of the high-risk AI system;

(d) when under their control, keep the logs automatically generated by their high-risk AI systems;

(e) ensure that the high-risk AI system undergoes the relevant conformity assessment procedure, prior to its placing on the market or putting into service;

(f) comply with the registration obligations referred to in Article 51;

(g) take the necessary corrective actions, if the high-risk AI system is not in conformity with the requirements set out in Chapter 2 of this Title;

(h) inform the national competent authorities of the Member States in which they made the AI system available or put it into service and, where applicable, the notified body of the non-compliance and of any corrective actions taken;

(i) to affix the CE marking to their high-risk AI systems to indicate the conformity with this Regulation in accordance with Article 49;

(j) upon request of a national competent authority, demonstrate the conformity of the high-risk AI system with the requirements set out in Chapter 2 of this Title.

Article 17. Quality management system

1. Providers of high-risk AI systems shall put a quality management system in place that ensures compliance with this Regulation. That system shall be documented in a systematic and orderly manner in the form of written policies, procedures and instructions, and shall include at least the following aspects:

(a) a strategy for regulatory compliance, including compliance with conformity assessment procedures and procedures for the management of modifications to the high-risk AI system;

(b) techniques, procedures and systematic actions to be used for the design, design control and design verification of the high-risk AI system;

(c) techniques, procedures and systematic actions to be used for the development, quality control and quality assurance of the high-risk AI system;

(d) examination, test and validation procedures to be carried out before, during and after the development of the high-risk AI system, and the frequency with which they have to be carried out;

(e) technical specifications, including standards, to be applied and, where the relevant harmonised standards are not applied in full, the means to be used to ensure that the high-risk AI system complies with the requirements set out in Chapter 2 of this Title;

(f) systems and procedures for data management, including data collection, data analysis, data labelling, data storage, data filtration, data mining, data aggregation, data retention and any other operation regarding the data that is performed before and for the purposes of the placing on the market or putting into service of high-risk AI systems;

(g) the risk management system referred to in Article 9;

(h) the setting-up, implementation and maintenance of a post-market monitoring system, in accordance with Article 61;

(i) procedures related to the reporting of serious incidents and of malfunctioning in accordance with Article 62;

(j) the handling of communication with national competent authorities, competent authorities, including sectoral ones, providing or supporting the access to data, notified bodies, other operators, customers or other interested parties;

(k) systems and procedures for record keeping of all relevant documentation and information;

(l) resource management, including security of supply related measures;

(m) an accountability framework setting out the responsibilities of the management and other staff with regard to all aspects listed in this paragraph.

2. The implementation of aspects referred to in paragraph 1 shall be proportionate to the size of the provider’s organisation.

3. For providers that are credit institutions regulated by Directive 2013/36/ EU, the obligation to put a quality management system in place shall be deemed to be fulfilled by complying with the rules on internal governance arrangements, processes and mechanisms pursuant to Article 74 of that Directive. In that context, any harmonised standards referred to in Article 40 of this Regulation shall be taken into account.

Article 18. Obligation to draw up technical documentation

1. Providers of high-risk AI systems shall draw up the technical documentation referred to in Article 11 in accordance with Annex IV.

2. Providers that are credit institutions regulated by Directive 2013/36/EU shall maintain the technical documentation as part of the documentation concerning internal governance, arrangements, processes and mechanisms pursuant to Article 74 of that Directive.

Article 19. Conformity assessment

1. Providers of high-risk AI systems shall ensure that their systems undergo the relevant conformity assessment procedure in accordance with Article 43, prior to their placing on the market or putting into service. Where the compliance of the AI systems with the requirements set out in Chapter 2 of this Title has been demonstrated following that conformity assessment, the providers shall draw up an EU declaration of conformity in accordance with Article 48 and affix the CE marking of conformity in accordance with Article 49.

2. For high-risk AI systems referred to in point 5(b) of Annex III that are placed on the market or put into service by providers that are credit institutions regulated by Directive 2013/36/EU, the conformity assessment shall be carried out as part of the procedure referred to in Articles 97 to101 of that Directive.

Article 20. Automatically generated logs

1. Providers of high-risk AI systems shall keep the logs automatically generated by their high-risk AI systems, to the extent such logs are under their control by virtue of a contractual arrangement with the user or otherwise by law. The logs shall be kept for a period that is appropriate in the light of the intended purpose of high-risk AI system and applicable legal obligations under Union or national law.

2. Providers that are credit institutions regulated by Directive 2013/36/EU shall maintain the logs automatically generated by their high-risk AI systems as part of the documentation under Articles 74 of that Directive.

Article 21. Corrective actions

Providers of high-risk AI systems which consider or have reason to consider that a high-risk AI system which they have placed on the market or put into service is not in conformity with this Regulation shall immediately take the necessary corrective actions to bring that system into conformity, to withdraw it or to recall it, as appropriate. They shall inform the distributors of the high-risk AI system in question and, where applicable, the authorised representative and importers accordingly.

Article 22. Duty of information Where the high-risk AI system presents a risk within the meaning of Article 65(1) and that risk is known to the provider of the system, that provider shall immediately inform the national competent authorities of the Member States in which it made the system available and, where applicable, the notified body that issued a certificate for the high-risk AI system, in particular of the non-compliance and of any corrective actions taken.

Article 23. Cooperation with competent authorities

Providers of high-risk AI systems shall, upon request by a national competent authority, provide that authority with all the information and documentation necessary to demonstrate the conformity of the high-risk AI system with the requirements set out in Chapter 2 of this Title, in an official Union language determined by the Member State concerned. Upon a reasoned request from a national competent authority, providers shall also give that authority access to the logs automatically generated by the high-risk AI system, to the extent such logs are under their control by virtue of a contractual arrangement with the user or otherwise by law.

Article 24. Obligations of product manufacturers Where a high-risk AI system related to products to which the legal acts listed in Annex II, section A, apply, is placed on the market or put into service together with the product manufactured in accordance with those legal acts and under the name of the product manufacturer, the manufacturer of the product shall take the responsibility of the compliance of the AI system with this Regulation and, as far as the AI system is concerned, have the same obligations imposed by the present Regulation on the provider.

Article 25. Authorised representatives

1. Prior to making their systems available on the Union market, where an importer cannot be identified, providers established outside the Union shall, by written mandate, appoint an authorised representative which is established in the Union.

2. The authorised representative shall perform the tasks specified in the mandate received from the provider. The mandate shall empower the authorised representative to carry out the following tasks:

(a) keep a copy of the EU declaration of conformity and the technical documentation at the disposal of the national competent authorities and national authorities referred to in Article 63(7);

(b) provide a national competent authority, upon a reasoned request, with all the information and documentation necessary to demonstrate the conformity of a high-risk AI system with the requirements set out in Chapter 2 of this Title, including access to the logs automatically generated by the high-risk AI system to the extent such logs are under the control of the provider by virtue of a contractual arrangement with the user or otherwise by law;

(c) cooperate with competent national authorities, upon a reasoned request, on any action the latter takes in relation to the high-risk AI system.

Article 26. Obligations of importers

1. Before placing a high-risk AI system on the market, importers of such system shall ensure that:

(a) the appropriate conformity assessment procedure has been carried out by the provider of that AI system

(b) the provider has drawn up the technical documentation in accordance with Annex IV;

(c) the system bears the required conformity marking and is accompanied by the required documentation and instructions of use.

2. Where an importer considers or has reason to consider that a high-risk AI system is not in conformity with this Regulation, it shall not place that system on the market until that AI system has been brought into conformity. Where the high-risk AI system presents a risk within the meaning of Article 65(1), the importer shall inform the provider of the AI system and the market surveillance authorities to that effect.

3. Importers shall indicate their name, registered trade name or registered trade mark, and the address at which they can be contacted on the high-risk AI system or, where that is not possible, on its packaging or its accompanying documentation, as applicable.

4. Importers shall ensure that, while a high-risk AI system is under their responsibility, where applicable, storage or transport conditions do not jeopardise its compliance with the requirements set out in Chapter 2 of this Title.

5. Importers shall provide national competent authorities, upon a reasoned request, with all necessary information and documentation to demonstrate the conformity of a high-risk AI system with the requirements set out in Chapter 2 of this Title in a language which can be easily understood by that national competent authority, including access to the logs automatically generated by the high-risk AI system to the extent such logs are under the control of the provider by virtue of a contractual arrangement with the user or otherwise by law. They shall also cooperate with those authorities on any action national competent authority takes in relation to that system.

Article 27. Obligations of distributors

1. Before making a high-risk AI system available on the market, distributors shall verify that the high-risk AI system bears the required CE conformity marking, that it is accompanied by the required documentation and instruction of use, and that the provider and the importer of the system, as applicable, have complied with the obligations set out in this Regulation.

2. Where a distributor considers or has reason to consider that a high-risk AI system is not in conformity with the requirements set out in Chapter 2 of this Title, it shall not make the high-risk AI system available on the market until that system has been brought into conformity with those requirements. Furthermore, where the system presents a risk within the meaning of Article 65(1), the distributor shall inform the provider or the importer of the system, as applicable, to that effect.

3. Distributors shall ensure that, while a high-risk AI system is under their responsibility, where applicable, storage or transport conditions do not jeopardise the compliance of the system with the requirements set out in Chapter 2 of this Title.

4. A distributor that considers or has reason to consider that a high-risk AI system which it has made available on the market is not in conformity with the requirements set out in Chapter 2 of this Title shall take the corrective actions necessary to bring that system into conformity with those requirements, to withdraw it or recall it or shall ensure that the provider, the importer or any relevant operator, as appropriate, takes those corrective actions. Where the high-risk AI system presents a risk within the meaning of Article 65(1), the distributor shall immediately inform the national competent authorities of the Member States in which it has made the product available to that effect, giving details, in particular, of the non-compliance and of any corrective actions taken.

5. Upon a reasoned request from a national competent authority, distributors of high-risk AI systems shall provide that authority with all the information and documentation necessary to demonstrate the conformity of a high-risk system with the requirements set out in Chapter 2 of this Title. Distributors shall also cooperate with that national competent authority on any action taken by that authority.

Article 28. Obligations of distributors, importers, users or any other third-party

1. Any distributor, importer, user or other third-party shall be considered a provider for the purposes of this Regulation and shall be subject to the obligations of the provider under Article 16, in any of the following circumstances:

(a) they place on the market or put into service a high-risk AI system under their name or trademark;

(b) they modify the intended purpose of a high-risk AI system already placed on the market or put into service;

(c) they make a substantial modification to the high-risk AI system.

2. Where the circumstances referred to in paragraph 1, point (b) or (c), occur, the provider that initially placed the high-risk AI system on the market or put it into service shall no longer be considered a provider for the purposes of this Regulation.

Article 29. Obligations of users of high-risk AI systems

1. Users of high-risk AI systems shall use such systems in accordance with the instructions of use accompanying the systems, pursuant to paragraphs 2 and 5.

2. The obligations in paragraph 1 are without prejudice to other user obligations under Union or national law and to the user’s discretion in organising its own resources and activities for the purpose of implementing the human oversight measures indicated by the provider.

3. Without prejudice to paragraph 1, to the extent the user exercises control over the input data, that user shall ensure that input data is relevant in view of the intended purpose of the high-risk AI system.

4. Users shall monitor the operation of the high-risk AI system on the basis of the instructions of use. When they have reasons to consider that the use in accordance with the instructions of use may result in the AI system presenting a risk within the meaning of Article 65(1) they shall inform the provider or distributor and suspend the use of the system. They shall also inform the provider or distributor when they have identified any serious incident or any malfunctioning within the meaning of Article 62 and interrupt the use of the AI system. In case the user is not able to reach the provider, Article 62 shall apply mutatis mutandis.

For users that are credit institutions regulated by Directive 2013/36/EU, the monitoring obligation set out in the first subparagraph shall be deemed to be fulfilled by complying with the rules on internal governance arrangements, processes and mechanisms pursuant to Article 74 of that Directive.

5. Users of high-risk AI systems shall keep the logs automatically generated by that high-risk AI system, to the extent such logs are under their control. The logs shall be kept for a period that is appropriate in the light of the intended purpose of the high-risk AI system and applicable legal obligations under Union or national law.

Users that are credit institutions regulated by Directive 2013/36/EU shall maintain the logs as part of the documentation concerning internal governance arrangements, processes and mechanisms pursuant to Article 74 of that Directive.

6. Users of high-risk AI systems shall use the information provided under Article 13 to comply with their obligation to carry out a data protection impact assessment under Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680, where applicable.

CHAPTER 4. NOTIFIYING AUTHORITIES AND NOTIFIED BODIES

Article 30. Notifying authorities

1. Each Member State shall designate or establish a notifying authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring.

2. Member States may designate a national accreditation body referred to in Regulation (EC) No 765/2008 as a notifying authority.

3. Notifying authorities shall be established, organised and operated in such a way that no conflict of interest arises with conformity assessment bodies and the objectivity and impartiality of their activities are safeguarded.

4. Notifying authorities shall be organised in such a way that decisions relating to the notification of conformity assessment bodies are taken by competent persons different from those who carried out the assessment of those bodies.

5. Notifying authorities shall not offer or provide any activities that conformity assessment bodies perform or any consultancy services on a commercial or competitive basis.

6. Notifying authorities shall safeguard the confidentiality of the information they obtain.

7. Notifying authorities shall have a sufficient number of competent personnel at their disposal for the proper performance of their tasks.

8. Notifying authorities shall make sure that conformity assessments are carried out in a proportionate manner, avoiding unnecessary burdens for providers and that notified bodies perform their activities taking due account of the size of an undertaking, the sector in which it operates, its structure and the degree of complexity of the AI system in question.

Article 31. Application of a conformity assessment body for notification

1. Conformity assessment bodies shall submit an application for notification to the notifying authority of the Member State in which they are established.

2. The application for notification shall be accompanied by a description of the conformity assessment activities, the conformity assessment module or modules and the artificial intelligence technologies for which the conformity assessment body claims to be competent, as well as by an accreditation certificate, where one exists, issued by a national accreditation body attesting that the conformity assessment body fulfils the requirements laid down in Article 33. Any valid document related to existing designations of the applicant notified body under any other Union harmonisation legislation shall be added.

3. Where the conformity assessment body concerned cannot provide an accreditation certificate, it shall provide the notifying authority with the documentary evidence necessary for the verification, recognition and regular monitoring of its compliance with the requirements laid down in Article 33. For notified bodies which are designated under any other Union harmonisation legislation, all documents and certificates linked to those designations may be used to support their designation procedure under this Regulation, as appropriate.

Article 32. Notification procedure

1. Notifying authorities may notify only conformity assessment bodies which have satisfied the requirements laid down in Article 33.

2. Notifying authorities shall notify the Commission and the other Member States using the electronic notification tool developed and managed by the Commission.

3. The notification shall include full details of the conformity assessment activities, the conformity assessment module or modules and the artificial intelligence technologies concerned.

4. The conformity assessment body concerned may perform the activities of a notified body only where no objections are raised by the Commission or the other Member States within one month of a notification.

5. Notifying authorities shall notify the Commission and the other Member States of any subsequent relevant changes to the notification.

Article 33. Notified bodies

1. Notified bodies shall verify the conformity of high-risk AI system in accordance with the conformity assessment procedures referred to in Article 43.

2. Notified bodies shall satisfy the organisational, quality management, resources and process requirements that are necessary to fulfil their tasks.

3. The organisational structure, allocation of responsibilities, reporting lines and operation of notified bodies shall be such as to ensure that there is confidence in the performance by and in the results of the conformity assessment activities that the notified bodies conduct.

4. Notified bodies shall be independent of the provider of a high-risk AI system in relation to which it performs conformity assessment activities. Notified bodies shall also be independent of any other operator having an economic interest in the high-risk AI system that is assessed, as well as of any competitors of the provider.

5. Notified bodies shall be organised and operated so as to safeguard the independence, objectivity and impartiality of their activities. Notified bodies shall document and implement a structure and procedures to safeguard impartiality and to promote and apply the principles of impartiality throughout their organisation, personnel and assessment activities.

6. Notified bodies shall have documented procedures in place ensuring that their personnel, committees, subsidiaries, subcontractors and any associated body or personnel of external bodies respect the confidentiality of the information which comes into their possession during the performance of conformity assessment activities, except when disclosure is required by law. The staff of notified bodies shall be bound to observe professional secrecy with regard to all information obtained in carrying out their tasks under this Regulation, except in relation to the notifying authorities of the Member State in which their activities are carried out.

7. Notified bodies shall have procedures for the performance of activities which take due account of the size of an undertaking, the sector in which it operates, its structure, the degree of complexity of the AI system in question.

8. Notified bodies shall take out appropriate liability insurance for their conformity assessment activities, unless liability is assumed by the Member State concerned in accordance with national law or that Member State is directly responsible for the conformity assessment.

9. Notified bodies shall be capable of carrying out all the tasks falling to them under this Regulation with the highest degree of professional integrity and the requisite competence in the specific field, whether those tasks are carried out by notified bodies themselves or on their behalf and under their responsibility.

10. Notified bodies shall have sufficient internal competences to be able to effectively evaluate the tasks conducted by external parties on their behalf. To that end, at all times and for each conformity assessment procedure and each type of high-risk AI system in relation to which they have been designated, the notified body shall have permanent availability of sufficient administrative, technical and scientific personnel who possess experience and knowledge relating to the relevant artificial intelligence technologies, data and data computing and to the requirements set out in Chapter 2 of this Title.

11. Notified bodies shall participate in coordination activities as referred to in Article 38. They shall also take part directly or be represented in European standardisation organisations, or ensure that they are aware and up to date in respect of relevant standards.

12. Notified bodies shall make available and submit upon request all relevant documentation, including the providers’ documentation, to the notifying authority referred to in Article 30 to allow it to conduct its assessment, designation, notification, monitoring and surveillance activities and to facilitate the assessment outlined in this Chapter.

Article 34. Subsidiaries of and subcontracting by notified bodies

1. Where a notified body subcontracts specific tasks connected with the conformity assessment or has recourse to a subsidiary, it shall ensure that the subcontractor or the subsidiary meets the requirements laid down in Article 33 and shall inform the notifying authority accordingly.

2. Notified bodies shall take full responsibility for the tasks performed by subcontractors or subsidiaries wherever these are established.

3. Activities may be subcontracted or carried out by a subsidiary only with the agreement of the provider.

4. Notified bodies shall keep at the disposal of the notifying authority the relevant documents concerning the assessment of the qualifications of the subcontractor or the subsidiary and the work carried out by them under this Regulation.

Article 35. Identification numbers and lists of notified bodies designated under this Regulation

1. The Commission shall assign an identification number to notified bodies. It shall assign a single number, even where a body is notified under several Union acts.

2. The Commission shall make publicly available the list of the bodies notified under this Regulation, including the identification numbers that have been assigned to them and the activities for which they have been notified. The Commission shall ensure that the list is kept up to date.

Article 36. Changes to notifications

1. Where a notifying authority has suspicions or has been informed that a notified body no longer meets the requirements laid down in Article 33, or that it is failing to fulfil its obligations, that authority shall without delay investigate the matter with the utmost diligence. In that context, it shall inform the notified body concerned about the objections raised and give it the possibility to make its views known. If the notifying authority comes to the conclusion that the notified body investigation no longer meets the requirements laid down in Article 33 or that it is failing to fulfil its obligations, it shall restrict, suspend or withdraw the notification as appropriate, depending on the seriousness of the failure. It shall also immediately inform the Commission and the other Member States accordingly.

2. In the event of restriction, suspension or withdrawal of notification, or where the notified body has ceased its activity, the notifying authority shall take appropriate steps to ensure that the files of that notified body are either taken over by another notified body or kept available for the responsible notifying authorities at their request.

Article 37. Challenge to the competence of notified bodies

1. The Commission shall, where necessary, investigate all cases where there are reasons to doubt whether a notified body complies with the requirements laid down in Article 33.

2. The Notifying authority shall provide the Commission, on request, with all relevant information relating to the notification of the notified body concerned.

3. The Commission shall ensure that all confidential information obtained in the course of its investigations pursuant to this Article is treated confidentially.

4. Where the Commission ascertains that a notified body does not meet or no longer meets the requirements laid down in Article 33, it shall adopt a reasoned decision requesting the notifying Member State to take the necessary corrective measures, including withdrawal of notification if necessary. That implementing act shall be adopted in accordance with the examination procedure referred to in Article 74(2).

Article 38. Coordination of notified bodies

1. The Commission shall ensure that, with regard to the areas covered by this Regulation, appropriate coordination and cooperation between notified bodies active in the conformity assessment procedures of AI systems pursuant to this Regulation are put in place and properly operated in the form of a sectoral group of notified bodies.

2. Member States shall ensure that the bodies notified by them participate in the work of that group, directly or by means of designated representatives.

Article 39. Conformity assessment bodies of third countries

Conformity assessment bodies established under the law of a third country with which the Union has concluded an agreement may be authorised to carry out the activities of notified Bodies under this Regulation.

CHAPTER 5. STANDARDS, CONFORMITY ASSESSMENT, CERTIFICATES, REGISTRATION

Article 40. Harmonised standards

High-risk AI systems which are in conformity with harmonised standards or parts thereof the references of which have been published in the Official Journal of the European Union shall be presumed to be in conformity with the requirements set out in Chapter 2 of this Title, to the extent those standards cover those requirements.

Article 41. Common specifications

1. Where harmonised standards referred to in Article 40 do not exist or where the Commission considers that the relevant harmonised standards are insufficient or that there is a need to address specific safety or fundamental right concerns, the Commission may, by means of implementing acts, adopt common specifications in respect of the requirements set out in Chapter 2 of this Title. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 74(2).

2. The Commission, when preparing the common specifications referred to in paragraph 1, shall gather the views of relevant bodies or expert groups established under relevant sectorial Union law.

3. High-risk AI systems which are in conformity with the common specifications referred to in paragraph 1 shall be presumed to be in conformity with the requirements set out in Chapter 2 of this Title, to the extent those common specifications cover those requirements.

4. Where providers do not comply with the common specifications referred to in paragraph 1, they shall duly justify that they have adopted technical solutions that are at least equivalent thereto.

Article 42. Presumption of conformity with certain requirements

1. Taking into account their intended purpose, high-risk AI systems that have been trained and tested on data concerning the specific geographical, behavioural and functional setting within which they are intended to be used shall be presumed to be in compliance with the requirement set out in Article 10(4).

2. High-risk AI systems that have been certified or for which a statement of conformity has been issued under a cybersecurity scheme pursuant to Regulation (EU) 2019/881 of the European Parliament and of the Council (63) and the references of which have been published in the Official Journal of the European Union shall be presumed to be in compliance with the cybersecurity requirements set out in Article 15 of this Regulation in so far as the cybersecurity certificate or statement of conformity or parts thereof cover those requirements.

Article 43 Conformity assessment

1. For high-risk AI systems listed in point 1 of Annex III, where, in demonstrating the compliance of a high-risk AI system with the requirements set out in Chapter 2 of this Title, the provider has applied harmonised standards referred to in Article 40, or, where applicable, common specifications referred to in Article 41, the provider shall follow one of the following procedures:

(a) the conformity assessment procedure based on internal control referred to in Annex VI;

(b) the conformity assessment procedure based on assessment of the quality management system and assessment of the technical documentation, with the involvement of a notified body, referred to in Annex VII.

Where, in demonstrating the compliance of a high-risk AI system with the requirements set out in Chapter 2 of this Title, the provider has not applied or has applied only in part harmonised standards referred to in Article 40, or where such harmonised standards do not exist and common specifications referred to in Article 41 are not available, the provider shall follow the conformity assessment procedure set out in Annex VII.

For the purpose of the conformity assessment procedure referred to in Annex VII, the provider may choose any of the notified bodies. However, when the system is intended to be put into service by law enforcement, immigration or asylum authorities as well as EU institutions, bodies or agencies, the market surveillance authority referred to in Article 63(5) or (6), as applicable, shall act as a notified body.

2. For high-risk AI systems referred to in points 2 to 8 of Annex III, providers shall follow the conformity assessment procedure based on internal control as referred to in Annex VI, which does not provide for the involvement of a notified body. For high-risk AI systems referred to in point 5(b) of Annex III, placed on the market or put into service by credit institutions regulated by Directive 2013/36/EU, the conformity assessment shall be carried out as part of the procedure referred to in Articles 97 to101 of that Directive.

3. For high-risk AI systems, to which legal acts listed in Annex II, section A, apply, the provider shall follow the relevant conformity assessment as required under those legal acts. The requirements set out in Chapter 2 of this Title shall apply to those high-risk AI systems and shall be part of that assessment. Points 4.3., 4.4., 4.5. and the fifth paragraph of point 4.6 of Annex VII shall also apply.

For the purpose of that assessment, notified bodies which have been notified under those legal acts shall be entitled to control the conformity of the high-risk AI systems with the requirements set out in Chapter 2 of this Title, provided that the compliance of those notified bodies with requirements laid down in Article 33(4), (9) and (10) has been assessed in the context of the notification procedure under those legal acts.

Where the legal acts listed in Annex II, section A, enable the manufacturer of the product to opt out from a third-party conformity assessment, provided that that manufacturer has applied all harmonised standards covering all the relevant requirements, that manufacturer may make use of that option only if he has also applied harmonised standards or, where applicable, common specifications referred to in Article 41, covering the requirements set out in Chapter 2 of this Title.

4. High-risk AI systems shall undergo a new conformity assessment procedure whenever they are substantially modified, regardless of whether the modified system is intended to be further distributed or continues to be used by the current user.

For high-risk AI systems that continue to learn after being placed on the market or put into service, changes to the high-risk AI system and its performance that have been pre-determined by the provider at the moment of the initial conformity assessment and are part of the information contained in the technical documentation referred to in point 2(f) of Annex IV, shall not constitute a substantial modification.

5. The Commission is empowered to adopt delegated acts in accordance with Article 73 for the purpose of updating Annexes VI and Annex VII in order to introduce elements of the conformity assessment procedures that become necessary in light of technical progress.

6. The Commission is empowered to adopt delegated acts to amend paragraphs 1 and 2 in order to subject high-risk AI systems referred to in points 2 to 8 of Annex III to the conformity assessment procedure referred to in Annex VII or parts thereof. The Commission shall adopt such delegated acts taking into account the effectiveness of the conformity assessment procedure based on internal control referred to in Annex VI in preventing or minimizing the risks to health and safety and protection of fundamental rights posed by such systems as well as the availability of adequate capacities and resources among notified bodies.

Article 44. Certificates

1. Certificates issued by notified bodies in accordance with Annex VII shall be drawn-up in an official Union language determined by the Member State in which the notified body is established or in an official Union language otherwise acceptable to the notified body.

2. Certificates shall be valid for the period they indicate, which shall not exceed five years. On application by the provider, the validity of a certificate may be extended for further periods, each not exceeding five years, based on a re-assessment in accordance with the applicable conformity assessment procedures.

3. Where a notified body finds that an AI system no longer meets the requirements set out in Chapter 2 of this Title, it shall, taking account of the principle of proportionality, suspend or withdraw the certificate issued or impose any restrictions on it, unless compliance with those requirements is ensured by appropriate corrective action taken by the provider of the system within an appropriate deadline set by the notified body. The notified body shall give reasons for its decision.

Article 45. Appeal against decisions of notified bodies

Member States shall ensure that an appeal procedure against decisions of the notified bodies is available to parties having a legitimate interest in that decision.

Article 46. Information obligations of notified bodies

1. Notified bodies shall inform the notifying authority of the following:

(a) any Union technical documentation assessment certificates, any supplements to those certificates, quality management system approvals issued in accordance with the requirements of Annex VII;

(b) any refusal, restriction, suspension or withdrawal of a Union technical documentation assessment certificate or a quality management system approval issued in accordance with the requirements of Annex VII;

(c) any circumstances affecting the scope of or conditions for notification;

(d) any request for information which they have received from market surveillance authorities regarding conformity assessment activities;

(e) on request, conformity assessment activities performed within the scope of their notification and any other activity performed, including cross-border activities and subcontracting.

2. Each notified body shall inform the other notified bodies of:

(a) quality management system approvals which it has refused, suspended or withdrawn, and, upon request, of quality system approvals which it has issued;

(b) EU technical documentation assessment certificates or any supplements thereto which it has refused, withdrawn, suspended or otherwise restricted, and, upon request, of the certificates and/or supplements thereto which it has issued.

3. Each notified body shall provide the other notified bodies carrying out similar conformity assessment activities covering the same artificial intelligence technologies with relevant information on issues relating to negative and, on request, positive conformity assessment results.

Article 47. Derogation from conformity assessment procedure

1. By way of derogation from Article 43, any market surveillance authority may authorise the placing on the market or putting into service of specific high-risk AI systems within the territory of the Member State concerned, for exceptional reasons of public security or the protection of life and health of persons, environmental protection and the protection of key industrial and infrastructural assets. That authorisation shall be for a limited period of time, while the necessary conformity assessment procedures are being carried out, and shall terminate once those procedures have been completed. The completion of those procedures shall be undertaken without undue delay.

2. The authorisation referred to in paragraph 1 shall be issued only if the market surveillance authority concludes that the high-risk AI system complies with the requirements of Chapter 2 of this Title. The market surveillance authority shall inform the Commission and the other Member States of any authorisation issued pursuant to paragraph 1.

3. Where, within 15 calendar days of receipt of the information referred to in paragraph 2, no objection has been raised by either a Member State or the Commission in respect of an authorisation issued by a market surveillance authority of a Member State in accordance with paragraph 1, that authorisation shall be deemed justified.

4. Where, within 15 calendar days of receipt of the notification referred to in paragraph 2, objections are raised by a Member State against an authorisation issued by a market surveillance authority of another Member State, or where the Commission considers the authorisation to be contrary to Union law or the conclusion of the Member States regarding the compliance of the system as referred to in paragraph 2 to be unfounded, the Commission shall without delay enter into consultation with the relevant Member State; the operator(s) concerned shall be consulted and have the possibility to present their views. In view thereof, the Commission shall decide whether the authorisation is justified or not. The Commission shall address its decision to the Member State concerned and the relevant operator or operators.

5. If the authorisation is considered unjustified, this shall be withdrawn by the market surveillance authority of the Member State concerned.

6. By way of derogation from paragraphs 1 to 5, for high-risk AI systems intended to be used as safety components of devices, or which are themselves devices, covered by Regulation (EU) 2017/745 and Regulation (EU) 2017/746, Article 59 of Regulation (EU) 2017/745 and Article 54 of Regulation (EU) 2017/746 shall apply also with regard to the derogation from the conformity assessment of the compliance with the requirements set out in Chapter 2 of this Title.

Article 48. EU declaration of conformity

1. The provider shall draw up a written EU declaration of conformity for each AI system and keep it at the disposal of the national competent authorities for 10 years after the AI system has been placed on the market or put into service. The EU declaration of conformity shall identify the AI system for which it has been drawn up. A copy of the EU declaration of conformity shall be given to the relevant national competent authorities upon request.

2. The EU declaration of conformity shall state that the high-risk AI system in question meets the requirements set out in Chapter 2 of this Title. The EU declaration of conformity shall contain the information set out in Annex V and shall be translated into an official Union language or languages required by the Member State(s) in which the high-risk AI system is made available.

3. Where high-risk AI systems are subject to other Union harmonisation legislation which also requires an EU declaration of conformity, a single EU declaration of conformity shall be drawn up in respect of all Union legislations applicable to the high-risk AI system. The declaration shall contain all the information required for identification of the Union harmonisation legislation to which the declaration relates.

4. By drawing up the EU declaration of conformity, the provider shall assume responsibility for compliance with the requirements set out in Chapter 2 of this Title. The provider shall keep the EU declaration of conformity up-to-date as appropriate.

5. The Commission shall be empowered to adopt delegated acts in accordance with Article 73 for the purpose of updating the content of the EU declaration of conformity set out in Annex V in order to introduce elements that become necessary in light of technical progress.

Article 49. CE marking of conformity

1. The CE marking shall be affixed visibly, legibly and indelibly for high-risk AI systems. Where that is not possible or not warranted on account of the nature of the high-risk AI system, it shall be affixed to the packaging or to the accompanying documentation, as appropriate.

2. The CE marking referred to in paragraph 1 of this Article shall be subject to the general principles set out in Article 30 of Regulation (EC) No 765/2008.

3. Where applicable, the CE marking shall be followed by the identification number of the notified body responsible for the conformity assessment procedures set out in Article 43. The identification number shall also be indicated in any promotional material which mentions that the high-risk AI system fulfils the requirements for CE marking.

Article 50. Document retention

The provider shall, for a period ending 10 years after the AI system has been placed on the market or put into service, keep at the disposal of the national competent authorities:

(a) the technical documentation referred to in Article 11;

(b) the documentation concerning the quality management system referred to Article 17;

(c) the documentation concerning the changes approved by notified bodies where applicable;

(d) the decisions and other documents issued by the notified bodies where applicable;

(e) the EU declaration of conformity referred to in Article 48.

Article 51. Registration

Before placing on the market or putting into service a high-risk AI system referred to in Article 6(2), the provider or, where applicable, the authorised representative shall register that system in the EU database referred to in Article 60.

TITLE IV. TRANSPARENCY OBLIGATIONS FOR CERTAIN AI SYSTEMS

Article 52. Transparency obligations for certain AI systems

1. Providers shall ensure that AI systems intended to interact with natural persons are designed and developed in such a way that natural persons are informed that they are interacting with an AI system, unless this is obvious from the circumstances and the context of use. This obligation shall not apply to AI systems authorised by law to detect, prevent, investigate and prosecute criminal offences, unless those systems are available for the public to report a criminal offence.

2. Users of an emotion recognition system or a biometric categorisation system shall inform of the operation of the system the natural persons exposed thereto. This obligation shall not apply to AI systems used for biometric categorisation, which are permitted by law to detect, prevent and investigate criminal offences. 3. Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful (‘deep fake’), shall disclose that the content has been artificially generated or manipulated. However, the first subparagraph shall not apply where the use is authorised by law to detect, prevent, investigate and prosecute criminal offences or it is necessary for the exercise of the right to freedom of expression and the right to freedom of the arts and sciences guaranteed in the Charter of Fundamental Rights of the EU, and subject to appropriate safeguards for the rights and freedoms of third parties.

4. Paragraphs 1, 2 and 3 shall not affect the requirements and obligations set out in Title III of this Regulation.

TITLE V. MEASURES IN SUPPORT OF INNOVATION

Article 53. AI regulatory sandboxes

1. AI regulatory sandboxes established by one or more Member States competent authorities or the European Data Protection Supervisor shall provide a controlled environment that facilitates the development, testing and validation of innovative AI systems for a limited time before their placement on the market or putting into service pursuant to a specific plan. This shall take place under the direct supervision and guidance by the competent authorities with a view to ensuring compliance with the requirements of this Regulation and, where relevant, other Union and Member States legislation supervised within the sandbox.

2. Member States shall ensure that to the extent the innovative AI systems involve the processing of personal data or otherwise fall under the supervisory remit of other national authorities or competent authorities providing or supporting access to data, the national data protection authorities and those other national authorities are associated to the operation of the AI regulatory sandbox.

3. The AI regulatory sandboxes shall not affect the supervisory and corrective powers of the competent authorities. Any significant risks to health and safety and fundamental rights identified during the development and testing of such systems shall result in immediate mitigation and, failing that, in the suspension of the development and testing process until such mitigation takes place.

4. Participants in the AI regulatory sandbox shall remain liable under applicable Union and Member States liability legislation for any harm inflicted on third parties as a result from the experimentation taking place in the sandbox.

5. Member States’ competent authorities that have established AI regulatory sandboxes shall coordinate their activities and cooperate within the framework of the European Artificial Intelligence Board. They shall submit annual reports to the Board and the Commission on the results from the implementation of those scheme, including good practices, lessons learnt and recommendations on their setup and, where relevant, on the application of this Regulation and other Union legislation supervised within the sandbox.

6. The modalities and the conditions of the operation of the AI regulatory sandboxes, including the eligibility criteria and the procedure for the application, selection, participation and exiting from the sandbox, and the rights and obligations of the participants shall be set out in implementing acts. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 74(2).

Article 54. Further processing of personal data for developing certain AI systems in the public interest in the AI regulatory sandbox

1. In the AI regulatory sandbox personal data lawfully collected for other purposes shall be processed for the purposes of developing and testing certain innovative AI systems in the sandbox under the following conditions:

(a) the innovative AI systems shall be developed for safeguarding substantial public interest in one or more of the following areas:

(i) the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security, under the control and responsibility of the competent authorities. The processing shall be based on Member State or Union law;

(ii) public safety and public health, including disease prevention, control and treatment;

(iii) a high level of protection and improvement of the quality of the environment;

(b) the data processed are necessary for complying with one or more of the requirements referred to in Title III, Chapter 2 where those requirements cannot be effectively fulfilled by processing anonymised, synthetic or other non-personal data;

(c) there are effective monitoring mechanisms to identify if any high risks to the fundamental rights of the data subjects may arise during the sandbox experimentation as well as response mechanism to promptly mitigate those risks and, where necessary, stop the processing;

(d) any personal data to be processed in the context of the sandbox are in a functionally separate, isolated and protected data processing environment under the control of the participants and only authorised persons have access to that data;

(e) any personal data processed are not be transmitted, transferred or otherwise accessed by other parties;

(f) any processing of personal data in the context of the sandbox do not lead to measures or decisions affecting the data subjects;

(g) any personal data processed in the context of the sandbox are deleted once the participation in the sandbox has terminated or the personal data has reached the end of its retention period;

(h) the logs of the processing of personal data in the context of the sandbox are kept for the duration of the participation in the sandbox and 1 year after its termination, solely for the purpose of and only as long as necessary for fulfilling accountability and documentation obligations under this Article or other application Union or Member States legislation;

(i) complete and detailed description of the process and rationale behind the training, testing and validation of the AI system is kept together with the testing results as part of the technical documentation in Annex IV;

(j) a short summary of the AI project developed in the sandbox, its objectives and expected results published on the website of the competent authorities.

2. Paragraph 1 is without prejudice to Union or Member States legislation excluding processing for other purposes than those explicitly mentioned in that legislation.

Article 55. Measures for small-scale providers and users

1. Member States shall undertake the following actions:

(a) provide small-scale providers and start-ups with priority access to the AI regulatory sandboxes to the extent that they fulfil the eligibility conditions;

(b) organise specific awareness raising activities about the application of this Regulation tailored to the needs of the small-scale providers and users;

(c) where appropriate, establish a dedicated channel for communication with small-scale providers and user and other innovators to provide guidance and respond to queries about the implementation of this Regulation.

2. The specific interests and needs of the small-scale providers shall be taken into account when setting the fees for conformity assessment under Article 43, reducing those fees proportionately to their size and market size.

TITLE VI. GOVERNANCE

CHAPTER 1. EUROPEAN ARTIFICIAL INTELLIGENCE BOARD

Article 56. Establishment of the European Artificial Intelligence Board

1. A ‘European Artificial Intelligence Board’ (the ‘Board’) is established.

2. The Board shall provide advice and assistance to the Commission in order to:

(a) contribute to the effective cooperation of the national supervisory authorities and the Commission with regard to matters covered by this Regulation;

(b) coordinate and contribute to guidance and analysis by the Commission and the national supervisory authorities and other competent authorities on emerging issues across the internal market with regard to matters covered by this Regulation;

(c) assist the national supervisory authorities and the Commission in ensuring the consistent application of this Regulation.

Article 57. Structure of the Board

1. The Board shall be composed of the national supervisory authorities, who shall be represented by the head or equivalent high-level official of that authority, and the European Data Protection Supervisor. Other national authorities may be invited to the meetings, where the issues discussed are of relevance for them.

2. The Board shall adopt its rules of procedure by a simple majority of its members, following the consent of the Commission. The rules of procedure shall also contain the operational aspects related to the execution of the Board’s tasks as listed in Article 58. The Board may establish sub-groups as appropriate for the purpose of examining specific questions.

3. The Board shall be chaired by the Commission. The Commission shall convene the meetings and prepare the agenda in accordance with the tasks of the Board pursuant to this Regulation and with its rules of procedure. The Commission shall provide administrative and analytical support for the activities of the Board pursuant to this Regulation.

4. The Board may invite external experts and observers to attend its meetings and may hold exchanges with interested third parties to inform its activities to an appropriate extent. To that end the Commission may facilitate exchanges between the Board and other Union bodies, offices, agencies and advisory groups.

Article 58. Tasks of the Board

When providing advice and assistance to the Commission in the context of Article 56(2), the Board shall in particular:

(a) collect and share expertise and best practices among Member States;

(b) contribute to uniform administrative practices in the Member States, including for the functioning of regulatory sandboxes referred to in Article 53;

(c) issue opinions, recommendations or written contributions on matters related to the implementation of this Regulation, in particular

(i) on technical specifications or existing standards regarding the requirements set out in Title III, Chapter 2,

(ii) on the use of harmonised standards or common specifications referred to in Articles 40 and 41,

(iii) on the preparation of guidance documents, including the guidelines concerning the setting of administrative fines referred to in Article 71.

CHAPTER 2. NATIONAL COMPETENT AUTHORITIES

Article 59. Designation of national competent authorities

1. National competent authorities shall be established or designated by each Member State for the purpose of ensuring the application and implementation of this Regulation. National competent authorities shall be organised so as to safeguard the objectivity and impartiality of their activities and tasks.

2. Each Member State shall designate a national supervisory authority among the national competent authorities. The national supervisory authority shall act as notifying authority and market surveillance authority unless a Member State has organisational and administrative reasons to designate more than one authority.

3. Member States shall inform the Commission of their designation or designations and, where applicable, the reasons for designating more than one authority.

4. Member States shall ensure that national competent authorities are provided with adequate financial and human resources to fulfil their tasks under this Regulation. In particular, national competent authorities shall have a sufficient number of personnel permanently available whose competences and expertise shall include an in-depth understanding of artificial intelligence technologies, data and data computing, fundamental rights, health and safety risks and knowledge of existing standards and legal requirements.

5. Member States shall report to the Commission on an annual basis on the status of the financial and human resources of the national competent authorities with an assessment of their adequacy. The Commission shall transmit that information to the Board for discussion and possible recommendations.

6. The Commission shall facilitate the exchange of experience between national competent authorities.

7. National competent authorities may provide guidance and advice on the implementation of this Regulation, including to small-scale providers. Whenever national competent authorities intend to provide guidance and advice with regard to an AI system in areas covered by other Union legislation, the competent national authorities under that Union legislation shall be consulted, as appropriate. Member States may also establish one central contact point for communication with operators.

8. When Union institutions, agencies and bodies fall within the scope of this Regulation, the European Data Protection Supervisor shall act as the competent authority for their supervision.

TITLE VII. EU DATABASE FOR STAND-ALONE HIGH-RISK AI SYSTEMS

Article 60. EU database for stand-alone high-risk AI systems

1. The Commission shall, in collaboration with the Member States, set up and maintain a EU database containing information referred to in paragraph 2 concerning high-risk AI systems referred to in Article 6(2) which are registered in accordance with Article (51).

2. The data listed in Annex VIII shall be entered into the EU database by the providers. The Commission shall provide them with technical and administrative support.

3. Information contained in the EU database shall be accessible to the public.

4. The EU database shall contain personal data only insofar as necessary for collecting and processing information in accordance with this Regulation. That information shall include the names and contact details of natural persons who are responsible for registering the system and have the legal authority to represent the provider.

5. The Commission shall be the controller of the EU database. It shall also ensure to providers adequate technical and administrative support.

TITLE VIII. POST-MARKET MONITORING, INFORMATION SHARING, MARKET SURVEILLANCE

CHAPTER 1. POST-MARKET MONITORING

Article 61. Post-market monitoring by providers and post-market monitoring plan for high-risk AI systems

1. Providers shall establish and document a post-market monitoring system in a manner that is proportionate to the nature of the artificial intelligence technologies and the risks of the high-risk AI system.

2. The post-market monitoring system shall actively and systematically collect, document and analyse relevant data provided by users or collected through other sources on the performance of high-risk AI systems throughout their lifetime, and allow the provider to evaluate the continuous compliance of AI systems with the requirements set out in Title III, Chapter 2.

3. The post-market monitoring system shall be based on a post-market monitoring plan. The post-market monitoring plan shall be part of the technical documentation referred to in Annex IV. The Commission shall adopt an implementing act laying down detailed provisions establishing a template for the post-market monitoring plan and the list of elements to be included in the plan.

4. For high-risk AI systems covered by the legal acts referred to in Annex II, where a post-market monitoring system and plan is already established under that legislation, the elements described in paragraphs 1, 2 and 3 shall be integrated into that system and plan as appropriate.

The first subparagraph shall also apply to high-risk AI systems referred to in point 5(b) of Annex III placed on the market or put into service by credit institutions regulated by Directive 2013/36/EU.

CHAPTER 2. SHARING OF INFORMATION ON INCIDENTS AND MALFUNCTIONING

Article 62. Reporting of serious incidents and of malfunctioning

1. Providers of high-risk AI systems placed on the Union market shall report any serious incident or any malfunctioning of those systems which constitutes a breach of obligations under Union law intended to protect fundamental rights to the market surveillance authorities of the Member States where that incident or breach occurred.

Such notification shall be made immediately after the provider has established a causal link between the AI system and the incident or malfunctioning or the reasonable likelihood of such a link, and, in any event, not later than 15 days after the providers becomes aware of the serious incident or of the malfunctioning.

2. Upon receiving a notification related to a breach of obligations under Union law intended to protect fundamental rights, the market surveillance authority shall inform the national public authorities or bodies referred to in Article 64(3). The Commission shall develop dedicated guidance to facilitate compliance with the obligations set out in paragraph 1. That guidance shall be issued 12 months after the entry into force of this Regulation, at the latest.

3. For high-risk AI systems referred to in point 5(b) of Annex III which are placed on the market or put into service by providers that are credit institutions regulated by Directive 2013/36/EU and for high-risk AI systems which are safety components of devices, or are themselves devices, covered by Regulation (EU) 2017/745 and Regulation (EU) 2017/746, the notification of serious incidents or malfunctioning shall be limited to those that that constitute a breach of obligations under Union law intended to protect fundamental rights.

CHAPTER 3. ENFORCEMENT

Article 63. Market surveillance and control of AI systems in the Union market

1. Regulation (EU) 2019/1020 shall apply to AI systems covered by this Regulation. However, for the purpose of the effective enforcement of this Regulation:

(a) any reference to an economic operator under Regulation (EU) 2019/1020 shall be understood as including all operators identified in Title III, Chapter 3 of this Regulation;

(b) any reference to a product under Regulation (EU) 2019/1020 shall be understood as including all AI systems falling within the scope of this Regulation.

2. The national supervisory authority shall report to the Commission on a regular basis the outcomes of relevant market surveillance activities. The national supervisory authority shall report, without delay, to the Commission and relevant national competition authorities any information identified in the course of market surveillance activities that may be of potential interest for the application of Union law on competition rules.

3. For high-risk AI systems, related to products to which legal acts listed in Annex II, section A apply, the market surveillance authority for the purposes of this Regulation shall be the authority responsible for market surveillance activities designated under those legal acts.

4. For AI systems placed on the market, put into service or used by financial institutions regulated by Union legislation on financial services, the market surveillance authority for the purposes of this Regulation shall be the relevant authority responsible for the financial supervision of those institutions under that legislation.

5. For AI systems listed in point 1(a) in so far as the systems are used for law enforcement purposes, points 6 and 7 of Annex III, Member States shall designate as market surveillance authorities for the purposes of this Regulation either the competent data protection supervisory authorities under Directive (EU) 2016/680, or Regulation 2016/679 or the national competent authorities supervising the activities of the law enforcement, immigration or asylum authorities putting into service or using those systems.

6. Where Union institutions, agencies and bodies fall within the scope of this Regulation, the European Data Protection Supervisor shall act as their market surveillance authority.

7. Member States shall facilitate the coordination between market surveillance authorities designated under this Regulation and other relevant national authorities or bodies which supervise the application of Union harmonisation legislation listed in Annex II or other Union legislation that might be relevant for the high-risk AI systems referred to in Annex III.

Article 64. Access to data and documentation

1. Access to data and documentation in the context of their activities, the market surveillance authorities shall be granted full access to the training, validation and testing datasets used by the provider, including through application programming interfaces (‘API’) or other appropriate technical means and tools enabling remote access.

2. Where necessary to assess the conformity of the high-risk AI system with the requirements set out in Title III, Chapter 2 and upon a reasoned request, the market surveillance authorities shall be granted access to the source code of the AI system.

3. National public authorities or bodies which supervise or enforce the respect of obligations under Union law protecting fundamental rights in relation to the use of high-risk AI systems referred to in Annex III shall have the power to request and access any documentation created or maintained under this Regulation when access to that documentation is necessary for the fulfilment of the competences under their mandate within the limits of their jurisdiction. The relevant public authority or body shall inform the market surveillance authority of the Member State concerned of any such request.

4. By 3 months after the entering into force of this Regulation, each Member State shall identify the public authorities or bodies referred to in paragraph 3 and make a list publicly available on the website of the national supervisory authority. Member States shall notify the list to the Commission and all other Member States and keep the list up to date.

5. Where the documentation referred to in paragraph 3 is insufficient to ascertain whether a breach of obligations under Union law intended to protect fundamental rights has occurred, the public authority or body referred to paragraph 3 may make a reasoned request to the market surveillance authority to organise testing of the high-risk AI system through technical means. The market surveillance authority shall organise the testing with the close involvement of the requesting public authority or body within reasonable time following the request.

6. Any information and documentation obtained by the national public authorities or bodies referred to in paragraph 3 pursuant to the provisions of this Article shall be treated in compliance with the confidentiality obligations set out in Article 70.

Article 65. Procedure for dealing with AI systems presenting a risk at national level

1. AI systems presenting a risk shall be understood as a product presenting a risk defined in Article 3, point 19 of Regulation (EU) 2019/1020 insofar as risks to the health or safety or to the protection of fundamental rights of persons are concerned.

2. Where the market surveillance authority of a Member State has sufficient reasons to consider that an AI system presents a risk as referred to in paragraph 1, they shall carry out an evaluation of the AI system concerned in respect of its compliance with all the requirements and obligations laid down in this Regulation. When risks to the protection of fundamental rights are present, the market surveillance authority shall also inform the relevant national public authorities or bodies referred to in Article 64(3). The relevant operators shall cooperate as necessary with the market surveillance authorities and the other national public authorities or bodies referred to in Article 64(3).

Where, in the course of that evaluation, the market surveillance authority finds that the AI system does not comply with the requirements and obligations laid down in this Regulation, it shall without delay require the relevant operator to take all appropriate corrective actions to bring the AI system into compliance, to withdraw the AI system from the market, or to recall it within a reasonable period, commensurate with the nature of the risk, as it may prescribe.

The market surveillance authority shall inform the relevant notified body accordingly. Article 18 of Regulation (EU) 2019/1020 shall apply to the measures referred to in the second subparagraph.

3. Where the market surveillance authority considers that non-compliance is not restricted to its national territory, it shall inform the Commission and the other Member States of the results of the evaluation and of the actions which it has required the operator to take.

4. The operator shall ensure that all appropriate corrective action is taken in respect of all the AI systems concerned that it has made available on the market throughout the Union.

5. Where the operator of an AI system does not take adequate corrective action within the period referred to in paragraph 2, the market surveillance authority shall take all appropriate provisional measures to prohibit or restrict the AI system’s being made available on its national market, to withdraw the product from that market or to recall it. That authority shall inform the Commission and the other Member States, without delay, of those measures.

6. The information referred to in paragraph 5 shall include all available details, in particular the data necessary for the identification of the non-compliant AI system, the origin of the AI system, the nature of the non-compliance alleged and the risk involved, the nature and duration of the national measures taken and the arguments put forward by the relevant operator. In particular, the market surveillance authorities shall indicate whether the non-compliance is due to one or more of the following:

(a) a failure of the AI system to meet requirements set out in Title III, Chapter 2;

(b) shortcomings in the harmonised standards or common specifications referred to in Articles 40 and 41 conferring a presumption of conformity.

7. The market surveillance authorities of the Member States other than the market surveillance authority of the Member State initiating the procedure shall without delay inform the Commission and the other Member States of any measures adopted and of any additional information at their disposal relating to the non-compliance of the AI system concerned, and, in the event of disagreement with the notified national measure, of their objections.

8. Where, within three months of receipt of the information referred to in paragraph 5, no objection has been raised by either a Member State or the Commission in respect of a provisional measure taken by a Member State, that measure shall be deemed justified. This is without prejudice to the procedural rights of the concerned operator in accordance with Article 18 of Regulation (EU) 2019/1020.

9. The market surveillance authorities of all Member States shall ensure that appropriate restrictive measures are taken in respect of the product concerned, such as withdrawal of the product from their market, without delay.

Article 66. Union safeguard procedure

1. Where, within three months of receipt of the notification referred to in Article 65(5), objections are raised by a Member State against a measure taken by another Member State, or where the Commission considers the measure to be contrary to Union law, the Commission shall without delay enter into consultation with the relevant Member State and operator or operators and shall evaluate the national measure. On the basis of the results of that evaluation, the Commission shall decide whether the national measure is justified or not within 9 months from the notification referred to in Article 65(5) and notify such decision to the Member State concerned.

2. If the national measure is considered justified, all Member States shall take the measures necessary to ensure that the non-compliant AI system is withdrawn from their market, and shall inform the Commission accordingly. If the national measure is considered unjustified, the Member State concerned shall withdraw the measure.

3. Where the national measure is considered justified and the non-compliance of the AI system is attributed to shortcomings in the harmonised standards or common specifications referred to in Articles 40 and 41 of this Regulation, the Commission shall apply the procedure provided for in Article 11 of Regulation (EU) No 1025/2012.

Article 67. Compliant AI systems which present a risk

1. Where, having performed an evaluation under Article 65, the market surveillance authority of a Member State finds that although an AI system is in compliance with this Regulation, it presents a risk to the health or safety of persons, to the compliance with obligations under Union or national law intended to protect fundamental rights or to other aspects of public interest protection, it shall require the relevant operator to take all appropriate measures to ensure that the AI system concerned, when placed on the market or put into service, no longer presents that risk, to withdraw the AI system from the market or to recall it within a reasonable period, commensurate with the nature of the risk, as it may prescribe.

2. The provider or other relevant operators shall ensure that corrective action is taken in respect of all the AI systems concerned that they have made available on the market throughout the Union within the timeline prescribed by the market surveillance authority of the Member State referred to in paragraph 1.

3. The Member State shall immediately inform the Commission and the other Member States. That information shall include all available details, in particular the data necessary for the identification of the AI system concerned, the origin and the supply chain of the AI system, the nature of the risk involved and the nature and duration of the national measures taken.

4. The Commission shall without delay enter into consultation with the Member States and the relevant operator and shall evaluate the national measures taken. On the basis of the results of that evaluation, the Commission shall decide whether the measure is justified or not and, where necessary, propose appropriate measures.

5. The Commission shall address its decision to the Member States.

Article 68. Formal non-compliance

1. Where the market surveillance authority of a Member State makes one of the following findings, it shall require the relevant provider to put an end to the non-compliance concerned:

(a) the conformity marking has been affixed in violation of Article 49;

(b) the conformity marking has not been affixed;

(c) the EU declaration of conformity has not been drawn up;

(d) the EU declaration of conformity has not been drawn up correctly;

(e) the identification number of the notified body, which is involved in the conformity assessment procedure, where applicable, has not been affixed;

2. Where the non-compliance referred to in paragraph 1 persists, the Member State concerned shall take all appropriate measures to restrict or prohibit the high-risk AI system being made available on the market or ensure that it is recalled or withdrawn from the market.

TITLE IX. CODES OF CONDUCT

Article 69. Codes of conduct

1. The Commission and the Member States shall encourage and facilitate the drawing up of codes of conduct intended to foster the voluntary application to AI systems other than high-risk AI systems of the requirements set out in Title III, Chapter 2 on the basis of technical specifications and solutions that are appropriate means of ensuring compliance with such requirements in light of the intended purpose of the systems.

2. The Commission and the Board shall encourage and facilitate the drawing up of codes of conduct intended to foster the voluntary application to AI systems of requirements related for example to environmental sustainability, accessibility for persons with a disability, stakeholders participation in the design and development of the AI systems and diversity of development teams on the basis of clear objectives and key performance indicators to measure the achievement of those objectives.

3. Codes of conduct may be drawn up by individual providers of AI systems or by organisations representing them or by both, including with the involvement of users and any interested stakeholders and their representative organisations. Codes of conduct may cover one or more AI systems taking into account the similarity of the intended purpose of the relevant systems.

4. The Commission and the Board shall take into account the specific interests and needs of the small-scale providers and start-ups when encouraging and facilitating the drawing up of codes of conduct.

TITLE X. CONFIDENTIALITY AND PENALTIES

Article 70. Confidentiality

1. National competent authorities and notified bodies involved in the application of this Regulation shall respect the confidentiality of information and data obtained in carrying out their tasks and activities in such a manner as to protect, in particular:

(a) intellectual property rights, and confidential business information or trade secrets of a natural or legal person, including source code, except the cases referred to in Article 5 of Directive 2016/943 on the protection of undisclosed know-how and business information (trade secrets) against their unlawful acquisition, use and disclosure apply.

(b) the effective implementation of this Regulation, in particular for the purpose of inspections, investigations or audits;(c) public and national security interests;

(c) integrity of criminal or administrative proceedings.

2. Without prejudice to paragraph 1, information exchanged on a confidential basis between the national competent authorities and between national competent authorities and the Commission shall not be disclosed without the prior consultation of the originating national competent authority and the user when high-risk AI systems referred to in points 1, 6 and 7 of Annex III are used by law enforcement, immigration or asylum authorities, when such disclosure would jeopardise public and national security interests.

When the law enforcement, immigration or asylum authorities are providers of high-risk AI systems referred to in points 1, 6 and 7 of Annex III, the technical documentation referred to in Annex IV shall remain within the premises of those authorities. Those authorities shall ensure that the market surveillance authorities referred to in Article 63(5) and (6), as applicable, can, upon request, immediately access the documentation or obtain a copy thereof. Only staff of the market surveillance authority holding the appropriate level of security clearance shall be allowed to access that documentation or any copy thereof.

3. Paragraphs 1 and 2 shall not affect the rights and obligations of the Commission, Member States and notified bodies with regard to the exchange of information and the dissemination of warnings, nor the obligations of the parties concerned to provide information under criminal law of the Member States.

4. The Commission and Member States may exchange, where necessary, confidential information with regulatory authorities of third countries with which they have concluded bilateral or multilateral confidentiality arrangements guaranteeing an adequate level of confidentiality.

Article 71. Penalties

1. In compliance with the terms and conditions laid down in this Regulation, Member States shall lay down the rules on penalties, including administrative fines, applicable to infringements of this Regulation and shall take all measures necessary to ensure that they are properly and effectively implemented. The penalties provided for shall be effective, proportionate, and dissuasive. They shall take into particular account the interests of small-scale providers and start-up and their economic viability.

2. The Member States shall notify the Commission of those rules and of those measures and shall notify it, without delay, of any subsequent amendment affecting them.

3. The following infringements shall be subject to administrative fines of up to 30 000 000 EUR or, if the offender is company, up to 6 % of its total worldwide annual turnover for the preceding financial year, whichever is higher:

(a) non-compliance with the prohibition of the artificial intelligence practices referred to in Article 5;

(b) non-compliance of the AI system with the requirements laid down in Article 10.

4. The non-compliance of the AI system with any requirements or obligations under this Regulation, other than those laid down in Articles 5 and 10, shall be subject to administrative fines of up to 20 000 000 EUR or, if the offender is a company, up to 4 % of its total worldwide annual turnover for the preceding financial year, whichever is higher.

5. The supply of incorrect, incomplete or misleading information to notified bodies and national competent authorities in reply to a request shall be subject to administrative fines of up to 10 000 000 EUR or, if the offender is a company, up to 2 % of its total worldwide annual turnover for the preceding financial year, whichever is higher.

6. When deciding on the amount of the administrative fine in each individual case, all relevant circumstances of the specific situation shall be taken into account and due regard shall be given to the following:

(a) the nature, gravity and duration of the infringement and of its consequences;

(b) whether administrative fines have been already applied by other market surveillance authorities to the same operator for the same infringement.

(c) the size and market share of the operator committing the infringement;

7. Each Member State shall lay down rules on whether and to what extent administrative fines may be imposed on public authorities and bodies established in that Member State.

8. Depending on the legal system of the Member States, the rules on administrative fines may be applied in such a manner that the fines are imposed by competent national courts of other bodies as applicable in those Member States. The application of such rules in those Member States shall have an equivalent effect.

Article 72. Administrative fines on Union institutions, agencies and bodies

1. The European Data Protection Supervisor may impose administrative fines on Union institutions, agencies and bodies falling within the scope of this Regulation. When deciding whether to impose an administrative fine and deciding on the amount of the administrative fine in each individual case, all relevant circumstances of the specific situation shall be taken into account and due regard shall be given to the following:

(a) the nature, gravity and duration of the infringement and of its consequences;

(b) the cooperation with the European Data Protection Supervisor in order to remedy the infringement and mitigate the possible adverse effects of the infringement, including compliance with any of the measures previously ordered by the European Data Protection Supervisor against the Union institution or agency or body concerned with regard to the same subject matter;

(c) any similar previous infringements by the Union institution, agency or body;

2. The following infringements shall be subject to administrative fines of up to 500 000 EUR:

(a) non-compliance with the prohibition of the artificial intelligence practices referred to in Article 5;

(b) non-compliance of the AI system with the requirements laid down in Article 10.

3. The non-compliance of the AI system with any requirements or obligations under this Regulation, other than those laid down in Articles 5 and 10, shall be subject to administrative fines of up to 250 000 EUR.

4. Before taking decisions pursuant to this Article, the European Data Protection Supervisor shall give the Union institution, agency or body which is the subject of the proceedings conducted by the European Data Protection Supervisor the opportunity of being heard on the matter regarding the possible infringement. The European Data Protection Supervisor shall base his or her decisions only on elements and circumstances on which the parties concerned have been able to comment. Complainants, if any, shall be associated closely with the proceedings.

5. The rights of defense of the parties concerned shall be fully respected in the proceedings. They shall be entitled to have access to the European Data Protection Supervisor’s file, subject to the legitimate interest of individuals or undertakings in the protection of their personal data or business secrets.

6. Funds collected by imposition of fines in this Article shall be the income of the general budget of the Union.

TITLE XI. DELEGATION OF POWER AND COMMITTEE PROCEDURE

Article 73. Exercise of the delegation

1. The power to adopt delegated acts is conferred on the Commission subject to the conditions laid down in this Article.

2. The delegation of power referred to in Article 4, Article 7(1), Article 11(3), Article 43(5) and (6) and Article 48(5) shall be conferred on the Commission for an indeterminate period of time from [entering into force of the Regulation].

3. The delegation of power referred to in Article 4, Article 7(1), Article 11(3), Article 43(5) and (6) and Article 48(5) may be revoked at any time by the European Parliament or by the Council. A decision of revocation shall put an end to the delegation of power specified in that decision. It shall take effect the day following that of its publication in the Official Journal of the European Union or at a later date specified therein. It shall not affect the validity of any delegated acts already in force.

4. As soon as it adopts a delegated act, the Commission shall notify it simultaneously to the European Parliament and to the Council.

5. Any delegated act adopted pursuant to Article 4, Article 7(1), Article 11(3), Article 43(5) and (6) and Article 48(5) shall enter into force only if no objection has been expressed by either the European Parliament or the Council within a period of three months of notification of that act to the European Parliament and the Council or if, before the expiry of that period, the European Parliament and the Council have both informed the Commission that they will not object. That period shall be extended by three months at the initiative of the European Parliament or of the Council.

Article 74. Committee procedure

1. The Commission shall be assisted by a committee. That committee shall be a committee within the meaning of Regulation (EU) nº 182/2011.

2. Where reference is made to this paragraph, Article 5 of Regulation (EU) nº 182/2011 shall apply.

TITLE XII. FINAL PROVISIONS

Article 75. Amendment to Regulation (EC) nº 300/2008

In Article 4(3) of Regulation (EC) nº 300/2008, the following subparagraph is added:

“When adopting detailed measures related to technical specifications and procedures for approval and use of security equipment concerning Artificial Intelligence systems in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Chapter 2, Title III of that Regulation shall be taken into account.”

——————————————————————————

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

——————————————————————————

Article 76. Amendment to Regulation (EU) nº 167/2013

In Article 17(5) of Regulation (EU) No 167/2013, the following subparagraph is added:

“When adopting delegated acts pursuant to the first subparagraph concerning artificial intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

——————————————————————————

Article 77. Amendment to Regulation (EU) nº 168/2013

In Article 22(5) of Regulation (EU) No 168/2013, the following subparagraph is added:

“When adopting delegated acts pursuant to the first subparagraph concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX on [Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————-

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

——————————————————————————-

Article 78. Amendment to Directive 2014/90/EU

In Article 8 of Directive 2014/90/EU, the following paragraph is added:

“4. For Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, when carrying out its activities pursuant to paragraph 1 and when adopting technical specifications and testing standards in accordance with paragraphs 2 and 3, the Commission shall take into account the requirements set out in Title III, Chapter 2 of that Regulation.

——————————————————————————-

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

Article 79. Amendment to Directive (EU) 2016/797

In Article 5 of Directive (EU) 2016/797, the following paragraph is added:

12. When adopting delegated acts pursuant to paragraph 1 and implementing acts pursuant to paragraph 11 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

—————————————————————————–

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

Article 80. Amendment to Regulation (EU) 2018/858

In Article 5 of Regulation (EU) 2018/858 the following paragraph is added:

“4. When adopting delegated acts pursuant to paragraph 3 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council *, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

—————————————————————————–

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

Article 81 Amendment to Regulation (EU) 2018/1139

Regulation (EU) 2018/1139 is amended as follows:

(1) In Article 17, the following paragraph is added:

“3. Without prejudice to paragraph 2, when adopting implementing acts pursuant to paragraph 1 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

(2) In Article 19, the following paragraph is added:

“4. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(3) In Article 43, the following paragraph is added:

“4. When adopting implementing acts pursuant to paragraph 1 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(4) In Article 47, the following paragraph is added:

“3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(5) In Article 57, the following paragraph is added:

“When adopting those implementing acts concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(6) In Article 58, the following paragraph is added:

“3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] , the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”.

Article 82. Amendment to Regulation (EU) 2019/2144

In Article 11 of Regulation (EU) 2019/2144, the following paragraph is added:

“3. When adopting the implementing acts pursuant to paragraph 2, concerning artificial intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————–

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

——————————————————————————-

Article 83. AI systems already placed on the market or put into service

1. This Regulation shall not apply to the AI systems which are components of the large-scale IT systems established by the legal acts listed in Annex IX that have been placed on the market or put into service before [12 months after the date of application of this Regulation referred to in Article 85(2)], unless the replacement or amendment of those legal acts leads to a significant change in the design or intended purpose of the AI system or AI systems concerned.

The requirements laid down in this Regulation shall be taken into account, where applicable, in the evaluation of each large-scale IT systems established by the legal acts listed in Annex IX to be undertaken as provided for in those respective acts.

2. This Regulation shall apply to the high-risk AI systems, other than the ones referred to in paragraph 1, that have been placed on the market or put into service before [date of application of this Regulation referred to in Article 85(2)], only if, from that date, those systems are subject to significant changes in their design or intended purpose.

Article 84. Evaluation and review

1. The Commission shall assess the need for amendment of the list in Annex III once a year following the entry into force of this Regulation.

2. By [three years after the date of application of this Regulation referred to in Article 85(2)] and every four years thereafter, the Commission shall submit a report on the evaluation and review of this Regulation to the European Parliament and to the Council. The reports shall be made public.

3. The reports referred to in paragraph 2 shall devote specific attention to the following:

(a) the status of the financial and human resources of the national competent authorities in order to effectively perform the tasks assigned to them under this Regulation;

(b) the state of penalties, and notably administrative fines as referred to in Article 71(1), applied by Member States to infringements of the provisions of this Regulation.

4. Within [three years after the date of application of this Regulation referred to in Article 85(2)] and every four years thereafter, the Commission shall evaluate the impact and effectiveness of codes of conduct to foster the application of the requirements set out in Title III, Chapter 2 and possibly other additional requirements for AI systems other than high-risk AI systems.

5. For the purpose of paragraphs 1 to 4 the Board, the Member States and national competent authorities shall provide the Commission with information on its request.

6. In carrying out the evaluations and reviews referred to in paragraphs 1 to 4 the Commission shall take into account the positions and findings of the Board, of the European Parliament, of the Council, and of other relevant bodies or sources.

7. The Commission shall, if necessary, submit appropriate proposals to amend this Regulation, in particular taking into account developments in technology and in the light of the state of progress in the information society.

Article 85 Entry into force and application

1. This Regulation shall enter into force on the twentieth day following that of its publication in the Official Journal of the European Union.

2. This Regulation shall apply from [24 months following the entering into force of the Regulation].

3. By way of derogation from paragraph 2:

(a) Title III, Chapter 4 and Title VI shall apply from [three months following the entry into force of this Regulation];

(b) Article 71 shall apply from [twelve months following the entry into force of this Regulation].

This Regulation shall be binding in its entirety and directly applicable in all Member States.

Done at Brussels,

For the European Parliament For the Council

The President The President

LEGISLATIVE FINANCIAL STATEMENT

1. FRAMEWORK OF THE PROPOSAL/INITIATIVE

1.1. Title of the proposal/initiative

1.2. Policy area(s) concerned

1.3. The proposal/initiative relates to:

1.4. Objective(s)

1.4.1. General objective(s)

1.4.2. Specific objective(s)

1.4.3. Expected result(s) and impact

1.4.4. Indicators of performance

1.5. Grounds for the proposal/initiative

1.5.1. Requirement(s) to be met in the short or long term including a detailed timeline for roll-out of the implementation of the initiative

1.5.2. Added value of Union involvement (it may result from different factors, e.g. coordination gains, legal certainty, greater effectiveness or complementarities). For the purposes of this point ‘added value of Union involvement’ is the value resulting from Union intervention which is additional to the value that would have been otherwise created by Member States alone

1.5.3. Lessons learned from similar experiences in the past

1.5.4. Compatibility with the Multiannual Financial Framework and possible synergies with other appropriate instruments

1.5.5 Assessment of the different available financing options, including scope for redeployment

1.6. Duration and financial impact of the proposal/initiative

1.7. Management mode(s) planned

2. MANAGEMENT MEASURES

2.1. Monitoring and reporting rules

2.2. Management and control system

2.2.1. Justification of the management mode(s), the funding implementation mechanism(s), the payment modalities and the control strategy proposed

2.2.2. Information concerning the risks identified and the internal control system(s) set up to mitigate them

2.2.3. Estimation and justification of the cost-effectiveness of the controls (ratio of “control costs ÷ value of the related funds managed”), and assessment of the expected levels of risk of error (at payment & at closure)

2.3. Measures to prevent fraud and irregularities

3. ESTIMATED FINANCIAL IMPACT OF THE PROPOSAL/INITIATIVE

3.1. Heading(s) of the multiannual financial framework and expenditure budget line(s) affected

3.2. Estimated financial impact of the proposal on appropriations

3.2.1. Summary of estimated impact on operational appropriations

3.2.2. Estimated output funded with operational appropriations

3.2.3. Summary of estimated impact on administrative appropriations

3.2.4. Compatibility with the current multiannual financial framework

3.2.5. Third-party contributions

3.3. Estimated impact on revenue

LEGISLATIVE FINANCIAL STATEMENT

1. FRAMEWORK OF THE PROPOSAL/INITIATIVE

1.1. Title of the proposal/initiative

Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts

1.2. Policy area(s) concerned

Communications Networks, Content and Technology;

Internal Market, Industry, Entrepreneurship and SMEs;

The budgetary impact concerns the new tasks entrusted with the Commission, including the support to the EU AI Board;

Activity: Shaping Europe’s digital future.

1.3. The proposal/initiative relates to:

X a new action

* a new action following a pilot project/preparatory action (64)

* the extension of an existing action

* an action redirected towards a new action

1.4. Objective(s)

1.4.1. General objective(s)

The general objective of the intervention is to ensure the proper functioning of the single market by creating the conditions for the development and use of trustworthy artificial intelligence in the Union.

1.4.2. Specific objective(s)

Specific objective nº 1

To set requirements specific to AI systems and obligations on all value chain participants in order to ensure that AI systems placed on the market and used are safe and respect existing law on fundamental rights and Union values;

Specific objective nº 2

To ensure legal certainty to facilitate investment and innovation in AI by making it clear what essential requirements, obligations, as well as conformity and compliance procedures must be followed to place or use an AI system in the Union market;

Specific objective nº 3

To enhance governance and effective enforcement of existing law on fundamental rights and safety requirements applicable to AI systems by providing new powers, resources and clear rules for relevant authorities on conformity assessment and ex post monitoring procedures and the division of governance and supervision tasks between national and EU levels;

Specific objective nº 4

To facilitate the development of a single market for lawful, safe and trustworthy AI applications and prevent market fragmentation by taking EU action to set minimum requirement for AI systems to be placed and used in the Union market in compliance with existing law on fundamental rights and safety.

1.4.3. Expected result(s) and impact

Specify the effects which the proposal/initiative should have on the beneficiaries/groups targeted.

AI suppliers should benefit from a minimal but clear set of requirements, creating legal certainty and ensuring access to the entire single market.

AI users should benefit from legal certainty that the high-risk AI systems they buy comply with European laws and values.

Consumers should benefit by reducing the risk of violations of their safety or fundamental rights.

1.4.4. Indicators of performance

Specify the indicators for monitoring implementation of the proposal/initiative.

Indicator 1

Number of serious incidents or AI performances which constitute a serious incident or a breach of fundamental rights obligations (semi-annual) by fields of applications and calculated a) in absolute terms, b) as share of applications deployed and c) as share of citizens concerned.

Indicator 2

a) Total AI investment in the EU (annual)

b) Total AI investment by Member State (annual)

c) Share of companies using AI (annual)

d) Share of SMEs using AI (annual)

a) and b) will be calculated based on official sources and benchmarked against private estimates

c) and d) will be collected by regular company surveys

1.5. Grounds for the proposal/initiative

1.5.1. Requirement(s) to be met in the short or long term including a detailed timeline for roll-out of the implementation of the initiative

The Regulation should be fully applicable one year and a half after its adoption. However, elements of the governance structure should be in place before then. In particular, Member States shall have appointed existing authorities and/or established new authorities performing the tasks set out in the legislation earlier, and the EU AI Board should be set-up and effective. By the time of applicability, the European database of AI systems should be fully operative. In parallel to the adoption process, it is therefore necessary to develop the database, so that its development has come to an end when the regulation enters into force.

1.5.2. Added value of Union involvement (it may result from different factors, e.g. coordination gains, legal certainty, greater effectiveness or complementarities). For the purposes of this point ‘added value of Union involvement’ is the value resulting from Union intervention which is additional to the value that would have been otherwise created by Member States alone.

An emerging patchy framework of potentially divergent national rules will hamper the seamless provision of AI systems across the EU and is ineffective in ensuring the safety and protection of fundamental rights and Union values across the different Member States. A common EU legislative action on AI could boost the internal market and has great potential to provide European industry with a competitive edge at the global scene and economies of scale that cannot be achieved by individual Member States alone.

1.5.3. Lessons learned from similar experiences in the past

The E-commerce Directive 2000/31/EC provides the core framework for the functioning of the single market and the supervision of digital services and sets a basic structure for a general cooperation mechanism among Member States, covering in principle all requirements applicable to digital services. The evaluation of the Directive pointed to shortcomings in several aspects of this cooperation mechanism, including important procedural aspects such as the lack of clear timeframes for response from Member States coupled with a general lack of responsiveness to requests from their counterparts. This has led over the years to a lack of trust between Member States in addressing concerns about providers offering digital services cross-border. The evaluation of the Directive showed the need to define a differentiated set of rules and requirements at European level. For this reason, the implementation of the specific obligations laid down in this Regulation would require a specific cooperation mechanism at EU level, with a governance structure ensuring coordination of specific responsible bodies at EU level.

1.5.4. Compatibility with the Multiannual Financial Framework and possible synergies with other appropriate instruments

The Regulation Laying Down Harmonised Rules on Artificial Intelligence and Amending Certain Union Legislative Acts defines a new common framework of requirements applicable to AI systems, which goes well beyond the framework provided by existing legislation. For this reason, a new national and European regulatory and coordination function needs to be established with this proposal.

As regards possible synergies with other appropriate instruments, the role of notifying authorities at national level can be performed by national authorities fulfilling similar functions sunder other EU regulations.

Moreover, by increasing trust in AI and thus encouraging investment in development and adoption of AI, it complements Digital Europe, for which promoting the diffusion of AI is one of five priorities.

1.5.5. Assessment of the different available financing options, including scope for redeployment

The staff will be redeployed. The other costs will be supported from the DEP. envelope, given that the objective of this regulation – ensuring trustworthy AI – contributes directly to one key objective of Digital Europe – accelerating AI development and deployment in Europe.

1.6. Duration and financial impact of the proposal/initiative limited duration

– in effect from [DD/MM]YYYY to [DD/MM]YYYY

– Financial impact from YYYY to YYYY for commitment appropriations and from YYYY to YYYY for payment appropriations.

X unlimited duration

– Implementation with a start-up period from one/two (tbc) year,

– followed by full-scale operation.

1.7. Management mode(s) planned (65)

X Direct management by the Commission

–  by its departments, including by its staff in the Union delegations;

–  by the executive agencies

Shared management with the Member States

Indirect management by entrusting budget implementation tasks to:

– third countries or the bodies they have designated;

– international organisations and their agencies (to be specified);

– the EIB and the European Investment Fund;

– bodies referred to in Articles 70 and 71 of the Financial Regulation;

– public law bodies;

– bodies governed by private law with a public service mission to the extent that they provide adequate financial guarantees;

– bodies governed by the private law of a Member State that are entrusted with the implementation of a public-private partnership and that provide adequate financial guarantees;

– persons entrusted with the implementation of specific actions in the CFSP pursuant to Title V of the TEU, and identified in the relevant basic act.

– If more than one management mode is indicated, please provide details in the ‘Comments’ section.

Comments

2. MANAGEMENT MEASURES

2.1. Monitoring and reporting rules

Specify frequency and conditions.

The Regulation will be reviewed and evaluated five years from the entry into force of the regulation. The Commission will report on the findings of the evaluation to the European Parliament, the Council and the European Economic and Social Committee.

2.2. Management and control system(s)

2.2.1. Justification of the management mode(s), the funding implementation mechanism(s), the payment modalities and the control strategy proposed

The Regulation establishes a new policy with regard to harmonised rules for the provision of artificial intelligence systems in the internal market while ensuring the respect of safety and fundamental rights. These new rules require a consistency mechanism for the cross-border application of the obligations under this Regulation in the form of a new advisory group coordinating the activities of national authorities.

In order to face these new tasks, it is necessary to appropriately resource the Commission’s services. The enforcement of the new Regulation is estimated to require 10 FTE à regime (5 FTE for the support to the activities of the Board and 5 FTE for the European Data Protection Supervisor acting as a notifying body for AI systems deployed by a body of the European Union).

2.2.2. Information concerning the risks identified and the internal control system(s) set up to mitigate them

In order to ensure that the members of the Board have the possibility to make informed analysis on the basis of factual evidence, it is foreseen that the Board should be supported by the administrative structure of the Commission and that an expert group be created to provide additional expertise where required.

2.2.3. Estimate and justification of the cost-effectiveness of the controls (ratio of “control costs ÷ value of the related funds managed”), and assessment of the expected levels of risk of error (at payment & at closure)

For the meeting expenditure, given the low value per transaction (e.g. refunding travel costs for a delegate for a meeting), standard control procedures seem sufficient. Regarding the development of the database, contract attribution has a strong internal control system in place in DG CNECT through centralised procurement activities.

2.3. Measures to prevent fraud and irregularities

Specify existing or envisaged prevention and protection measures, e.g. from the Anti-Fraud Strategy.

The existing fraud prevention measures applicable to the Commission will cover the additional appropriations necessary for this Regulation.

3. ESTIMATED FINANCIAL IMPACT OF THE PROPOSAL/INITIATIVE

3.1. Heading(s) of the multiannual financial framework and expenditure budget line(s) affected

• Existing budget lines

In order of multiannual financial framework headings and budget lines.

3.2. Estimated financial impact of the proposal on appropriations

3.2.1. Summary of estimated impact on expenditure on operational appropriations

–  The proposal/initiative does not require the use of operational appropriations

– X The proposal/initiative requires the use of operational appropriations, as explained below:

3.2.3. Summary of estimated impact on administrative appropriations

–  The proposal/initiative does not require the use of appropriations of an administrative nature

– X The proposal/initiative requires the use of appropriations of an administrative nature, as explained below:

The appropriations required for human resources and other expenditure of an administrative nature will be met by appropriations from the DG that are already assigned to management of the action and/or have been redeployed within the DG, together if necessary with any additional allocation which may be granted to the managing DG under the annual allocation procedure and in the light of budgetary constraints.

3.2.3.1. Estimated requirements of human resources

–  The proposal/initiative does not require the use of human resources.

– X The proposal/initiative requires the use of human resources, as explained below:

The human resources required will be met by staff from the DG who are already assigned to management of the action and/or have been redeployed within the DG, together if necessary with any additional allocation which may be granted to the managing DG under the annual allocation procedure and in the light of budgetary constraints.

EDPS is expected to provide half of the resources required.

Description of tasks to be carried out:

Officials and temporary staff

To prepare a total of 13-16 meetings, draft reports, continue policy work, e.g. regarding future amendments of the list of high-risk AI applications, and maintain relations with Member States’ authorities will require four AD FTE and 1 AST FTE.

For AI systems developed by the EU institutions, the European Data Protection Supervisor is responsible. Based on past experience, it can be estimated that 5 AD FTE are reuqired to fulfill the EDPS responsibilites under the draft legislation.

External staff

3.2.4. Compatibility with the current multiannual financial framework

The proposal/initiative:

– X can be fully financed through redeployment within the relevant heading of the Multiannual Financial Framework (MFF).

No reporgramming is needed.

–  requires use of the unallocated margin under the relevant heading of the MFF and/or use of the special instruments as defined in the MFF Regulation.

Explain what is required, specifying the headings and budget lines concerned, the corresponding amounts, and the instruments proposed to be used.

–  requires a revision of the MFF.

Explain what is required, specifying the headings and budget lines concerned and the corresponding amounts.

3.2.5. Third-party contributions

The proposal/initiative:

– X does not provide for co-financing by third parties

–  provides for the co-financing by third parties estimated below:

Appropriations in EUR million (to three decimal places)

3.3. Estimated impact on revenue

–  The proposal/initiative has the following financial impact:

–  The proposal/initiative has the following financial impact:

–  on other revenue

–  on other revenue

– Please indicate, if the revenue is assigned to expenditure lines

EUR million (to three decimal places)

For assigned revenue, specify the budget expenditure line(s) affected.

Other remarks (e.g. method/formula used for calculating the impact on revenue or any other information).

(1) https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf

(2) European Commission, White Paper on Artificial Intelligence – A European approach to excellence and trust, COM(2020) 65 final, 2020.

(3) European Council, Special meeting of the European Council (1 and 2 October 2020) – Conclusions, EUCO 13/20, 2020, p. 6.

(4) European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).

(5) European Council, European Council meeting (19 October 2017) – Conclusion EUCO 14/17, 2017, p. 8.

(6) Council of the European Union, Artificial intelligence b) Conclusions on the coordinated plan on artificial intelligence-Adoption 6177/19, 2019.

(7) European Council, Special meeting of the European Council (1and 2 October 2020) – Conclusions EUCO 13/20, 2020.

(8) Council of the European Union, Presidency conclusions – The Charter of Fundamental Rights in the context of Artificial Intelligence and Digital Change, 11481/20, 2020.

(9) European Parliament resolution of 20 October 2020 on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).

(1)0 European Parliament resolution of 20 October 2020 on a civil liability regime for artificial intelligence, 2020/2014(INL).

(11) European Parliament resolution of 20 October 2020 on intellectual property rights for the development of artificial intelligence technologies, 2020/2015(INI).

(12) European Parliament Draft Report, Artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters, 2020/2016(INI).

(13) European Parliament Draft Report, Artificial intelligence in education, culture and the audiovisual sector, 2020/2017(INI). In that regard, the Commission has adopted the Digital Education Action Plan 2021-2027: Resetting education and training for the digital age, which foresees the development of ethical guidelines in AI and Data usage in education – Commission Communication COM(2020) 624 final.

(14) Directive 2013/36/EU of the European Parliament and of the Council of 26 June 2013 on access to the activity of credit institutions and the prudential supervision of credit institutions and investment firms, amending Directive 2002/87/EC and repealing Directives 2006/48/EC and 2006/49/EC Text with EEA relevance, OJ L 176, 27.6.2013, p. 338–436.

(15) Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal aspects of information society services, in particular electronic commerce, in the Internal Market (‘Directive on electronic commerce’), OJ L 178, 17.7.2000, p. 1–16.

(16) See Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC COM/2020/825 final.

(17) Communication from the Commission, Shaping Europe’s Digital Future, COM/2020/67 final.

(18) 2030 Digital Compass: the European way for the Digital Decade.

(19) Proposal for a Regulation on European data governance (Data Governance Act) COM/2020/767.

(20) Directive (EU) 2019/1024 of the European Parliament and of the Council of 20 June 2019 on open data and the re-use of public sector information, PE/28/2019/REV/1, OJ L 172, 26.6.2019, p. 56–83.

(21) Commission Communication, A European strategy for data COM/2020/66 final.

(22) See all consultation results here.

(23) European Commission, Building Trust in Human-Centric Artificial Intelligence, COM(2019) 168.

(24) HLEG, Ethics Guidelines for Trustworthy AI, 2019.

(25) HLEG, Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment, 2020.

(26) The AI Alliance is a multi-stakeholder forum launched in June 2018, AI Alliance https://ec.europa.eu/digital-single-market/en/european-ai-alliance

(27) European Commission, Inception Impact Assessment For a Proposal for a legal act of the European Parliament and the Council laying down requirements for Artificial Intelligence.

(28) For details of all the consultations that have been carried out see Annex 2 of the impact assessment.

(29) High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, 2019.

(30) They were also endorsed by the Commission in its 2019 Communication on human-centric approach to AI.

(31) OJ C […], […], p. […].

(32) OJ C […], […], p. […].

(33) European Council, Special meeting of the European Council (1 and 2 October 2020) – Conclusions, EUCO 13/20, 2020, p. 6.

(34) European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).

(35) Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (OJ L 119, 4.5.2016, p. 1).

(36) Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC (OJ L 295, 21.11.2018, p. 39)

(37) Directive (EU) 2016/680 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data by competent authorities for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, and on the free movement of such data, and repealing Council Framework Decision 2008/977/JHA (Law Enforcement Directive) (OJ L 119, 4.5.2016, p. 89).

(38) Council Framework Decision 2002/584/JHA of 13 June 2002 on the European arrest warrant and the surrender procedures between Member States (OJ L 190, 18.7.2002, p. 1).

(39) Regulation (EC) No 300/2008 of the European Parliament and of the Council of 11 March 2008 on common rules in the field of civil aviation security and repealing Regulation (EC) No 2320/2002 (OJ L 97, 9.4.2008, p. 72).

(40) Regulation (EU) No 167/2013 of the European Parliament and of the Council of 5 February 2013 on the approval and market surveillance of agricultural and forestry vehicles (OJ L 60, 2.3.2013, p. 1).

(41) Regulation (EU) No 168/2013 of the European Parliament and of the Council of 15 January 2013 on the approval and market surveillance of two- or three-wheel vehicles and quadricycles (OJ L 60, 2.3.2013, p. 52).

(42) Directive 2014/90/EU of the European Parliament and of the Council of 23 July 2014 on marine equipment and repealing Council Directive 96/98/EC (OJ L 257, 28.8.2014, p. 146).

(43) Directive (EU) 2016/797 of the European Parliament and of the Council of 11 May 2016 on the interoperability of the rail system within the European Union (OJ L 138, 26.5.2016, p. 44).

(44) Regulation (EU) 2018/858 of the European Parliament and of the Council of 30 May 2018 on the approval and market surveillance of motor vehicles and their trailers, and of systems, components and separate technical units intended for such vehicles, amending Regulations (EC) No 715/2007 and (EC) No 595/2009 and repealing Directive 2007/46/EC (OJ L 151, 14.6.2018, p. 1).

(45) Regulation (EU) 2018/1139 of the European Parliament and of the Council of 4 July 2018 on common rules in the field of civil aviation and establishing a European Union Aviation Safety Agency, and amending Regulations (EC) nº 2111/2005, (EC) nº 1008/2008, (EU) nº 996/2010, (EU) nº 376/2014 and Directives 2014/30/EU and 2014/53/EU of the European Parliament and of the Council, and repealing Regulations (EC) nº 552/2004 and (EC) nº 216/2008 of the European Parliament and of the Council and Council Regulation (EEC) nº 3922/91 (OJ L 212, 22.8.2018, p. 1).

(46) Regulation (EU) 2019/2144 of the European Parliament and of the Council of 27 November 2019 on type-approval requirements for motor vehicles and their trailers, and systems, components and separate technical units intended for such vehicles, as regards their general safety and the protection of vehicle occupants and vulnerable road users, amending Regulation (EU) 2018/858 of the European Parliament and of the Council and repealing Regulations (EC) nº 78/2009, (EC) nº 79/2009 and (EC) nº 661/2009 of the European Parliament and of the Council and Commission Regulations (EC) nº 631/2009, (EU) nº 406/2010, (EU) nº 672/2010, (EU) nº 1003/2010, (EU) nº 1005/2010, (EU) nº 1008/2010, (EU) nº 1009/2010, (EU) nº 19/2011, (EU) nº 109/2011, (EU) nº 458/2011, (EU) nº 65/2012, (EU) nº 130/2012, (EU) nº 347/2012, (EU) nº 351/2012, (EU) nº 1230/2012 and (EU) 2015/166 (OJ L 325, 16.12.2019, p. 1).

(47) Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April 2017 on medical devices, amending Directive 2001/83/EC, Regulation (EC) nº 178/2002 and Regulation (EC) nº 1223/2009 and repealing Council Directives 90/385/EEC and 93/42/EEC (OJ L 117, 5.5.2017, p. 1).

(48) Regulation (EU) 2017/746 of the European Parliament and of the Council of 5 April 2017 on in vitro diagnostic medical devices and repealing Directive 98/79/EC and Commission Decision 2010/227/EU (OJ L 117, 5.5.2017, p. 176).

(49) Directive 2013/32/EU of the European Parliament and of the Council of 26 June 2013 on common procedures for granting and withdrawing international protection (OJ L 180, 29.6.2013, p. 60).

(50) Regulation (EC) nº 810/2009 of the European Parliament and of the Council of 13 July 2009 establishing a Community Code on Visas (Visa Code) (OJ L 243, 15.9.2009, p. 1).

(51) Regulation (EC) nº 765/2008 of the European Parliament and of the Council of 9 July 2008 setting out the requirements for accreditation and market surveillance relating to the marketing of products and repealing Regulation (EEC) nº 339/93 (OJ L 218, 13.8.2008, p. 30).

(52) Decision nº 768/2008/EC of the European Parliament and of the Council of 9 July 2008 on a common framework for the marketing of products, and repealing Council Decision 93/465/EEC (OJ L 218, 13.8.2008, p. 82).

(53) Regulation (EU) 2019/1020 of the European Parliament and of the Council of 20 June 2019 on market surveillance and compliance of products and amending Directive 2004/42/EC and Regulations (EC) nº 765/2008 and (EU) nº 305/2011 (Text with EEA relevance) (OJ L 169, 25.6.2019, p. 1–44).

(54) Regulation (EU) nº 1025/2012 of the European Parliament and of the Council of 25 October 2012 on European standardisation, amending Council Directives 89/686/EEC and 93/15/EEC and Directives 94/9/EC, 94/25/EC, 95/16/EC, 97/23/EC, 98/34/EC, 2004/22/EC, 2007/23/EC, 2009/23/EC and 2009/105/EC of the European Parliament and of the Council and repealing Council Decision 87/95/EEC and Decision nº 1673/2006/EC of the European Parliament and of the Council (OJ L 316, 14.11.2012, p. 12).

(55) Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (OJ L 119, 4.5.2016, p. 1).

(56) Directive 2013/36/EU of the European Parliament and of the Council of 26 June 2013 on access to the activity of credit institutions and the prudential supervision of credit institutions and investment firms, amending Directive 2002/87/EC and repealing Directives 2006/48/EC and 2006/49/EC (OJ L 176, 27.6.2013, p. 338).

(57) Directive 2001/95/EC of the European Parliament and of the Council of 3 December 2001 on general product safety (OJ L 11, 15.1.2002, p. 4).

(58) OJ L 123, 12.5.2016, p. 1.

(59) Regulation (EU) nº 182/2011 of the European Parliament and of the Council of 16 February 2011 laying down the rules and general principles concerning mechanisms for control by the Member States of the Commission’s exercise of implementing powers (OJ L 55, 28.2.2011, p.13).

(60) Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal aspects of information society services, in particular electronic commerce, in the Internal Market (‘Directive on electronic commerce’) (OJ L 178, 17.7.2000, p. 1).

(61) Commission Recommendation of 6 May 2003 concerning the definition of micro, small and medium-sized enterprises (OJ L 124, 20.5.2003, p. 36).

(62) Council Framework Decision 2002/584/JHA of 13 June 2002 on the European arrest warrant and the surrender procedures between Member States (OJ L 190, 18.7.2002, p. 1).

(63) Regulation (EU) 2019/881 of the European Parliament and of the Council of 17 April 2019 on ENISA (the European Union Agency for Cybersecurity) and on information and communications technology cybersecurity certification and repealing Regulation (EU) No 526/2013 (Cybersecurity Act) (OJ L 151, 7.6.2019, p. 1).

(64) As referred to in Article 54(2)(a) or (b) of the Financial Regulation

(65) Details of management modes and references to the Financial Regulation may be found on the BudgWeb site: http://www.cc.cec/budg/man/budgmanag/budgmanag_en.html

(66) Diff. = Differentiated appropriations / Non-diff. = Non-differentiated appropriations.

(67) EFTA: European Free Trade Association.

(68) Candidate countries and, where applicable, potential candidate countries from the Western Balkans.

(69) Indicative and dependent on budget availability.

(70) According to the official budget nomenclature.

(71) Technical and/or administrative assistance and expenditure in support of the implementation of EU programmes and/or actions (former ‘BA’ lines), indirect research, direct research.

(72) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations

(73) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations

(74) As described in point 1.4.2. ‘Specific objective(s)…’

(75) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations.

(76) Technical and/or administrative assistance and expenditure in support of the implementation of EU programmes and/or actions (former ‘BA’ lines), indirect research, direct research.

(77) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations.

(78) AC = Contract Staff; AL = Local Staff; END = Seconded National Expert; INT = agency staff; JPD = Junior Professionals in Delegations.

(79) Sub-ceiling for external staff covered by operational appropriations (former ‘BA’ lines).

(80) Year N is the year in which implementation of the proposal/initiative starts. Please replace “N” by the expected first year of implementation (for instance: 2021). The same for the following years.

(81) As regards traditional own resources (customs duties, sugar levies), the amounts indicated must be net amounts, i.e. gross amounts after deduction of 20 % for collection costs.

20Jun/21

A proposta regulatória da União Europeia para a Inteligência Artificial (3ª parte). Sistemas de “alto risco (18.06.2021)

Download the PDF file .

29May/21

Número 25, primer semestre de 2021

  1. Almanza Casola, Gonzalo Rafael
  2. Atencio Yero, Dinalvis
  3. Coquilo António, Neves
  4. González Olivera, Reynaldo Marcelo
  5. Guilherme Jackson, Dinis
  6. Hechavarría Derronselet, Yoendris
  7. Martínez, Cristina
  8. Reinaldo Filho, Demócrito
  9. Rivero de la Rosa, Ildefons0
  10. Rondón Aguilar, Amaury
  11. Ortiz Negrín, Dayai A.
  12. Pompa Torres, Enrique Roberto
  13. Rodríguez Ramírez, María Isabel
  14. Vázquez Riverón, Arelys
ISSN 1989-5852
Título clave: Revista informática jurídica
Tít. abreviado: Rev. inform. jurid.

Introducción

En este vigésimo quinto número de la Revista, aparecen artículos de colaboradores por orden alfabético.

Un agradecimiento especial a los 5 colaboradores que han aportado sus artículos para hacer posible la publicación semestral de esta revista, que ya lleva 12 años y medio.

Quisiera aprovechar esta publicación deseando que el COVID pueda estar controlado este año y que podamos volver a nuestra anterior forma de vida.

Un cordial saludo para todos y gracias por vuestra colaboración.

José Cuervo Álvarez

Ortiz Negrín, Dayai A.

Carrera: Ingeniería en Ciencias Informáticas. Universidad de Granma. Cuba.

Pompa Torres, Enrique Roberto

Universidad de Granma, Facultad de Ciencias Informáticas, Naturales y Exactas. Cuba

Rodríguez Ramírez, María Isabel

Universidad de Granma, Facultad de Ciencias Informáticas, Naturales y Exactas. Cuba

Vázquez Riverón, Arelys

Universidad de Granma, Facultad de Ciencias Informáticas, Naturales y Exactas. Cuba

Reinaldo Filho, Demócrito

Desembargador do TJPE

08Abr/21

Ley 1955 de 2019, de 25 de mayo de 2019

Ley 1955 de 2019, de 25 de mayo de 2019 “Por el cual se expide el Plan Nacional de Desarrollo 2018-2022 “Pacto por Colombia, Pacto por la Equidad”.

El Congreso de Colombia

DECRETA:

TÍTULO I. PARTE GENERAL

Artículo 1°. Objetivos del Plan Nacional de Desarrollo.

El Plan Nacional de Desarrollo 2018-2022 “Pacto por Colombia, pacto por la equidad”, que se expide por medio de la presente Ley, tiene como objetivo sentar las bases de legalidad, emprendimiento y equidad que permitan lograr la igualdad de oportunidades para todos los colombianos, en concordancia con un proyecto de largo plazo con el que Colombia alcance los Objetivos de Desarrollo Sostenible al 2030.

Artículo 2°. Parte integral de esta ley.

El documento denominado “Bases del Plan Nacional de Desarrollo 2018 – 2022: Pacto por Colombia, pacto por la equidad”, elaborado por el Gobierno nacional con la participación del Consejo Superior de la Judicatura y del Consejo Nacional de Planeación, y construido desde los territorios, con las modificaciones realizadas en el trámite legislativo, es parte integral del Plan Nacional de Desarrollo, y se incorpora a la presente Ley como un anexo.

Artículo 3°. Pactos del Plan Nacional de Desarrollo.

El Plan Nacional de Desarrollo está compuesto por objetivos de política pública denominados pactos, concepto que refleja la importancia del aporte de todas las facetas de la sociedad en la construcción de una Colombia equitativa.

El Plan se basa en los siguientes tres pactos estructurales:

1. Legalidad. El Plan establece las bases para la protección de las libertades individuales y de los bienes públicos, para el imperio de la Ley y la garantía de los derechos humanos, para una lucha certera contra la corrupción y para el fortalecimiento de la Rama Judicial.

2. Emprendimiento. Sobre el sustento de la legalidad, el Plan plantea expandir las oportunidades de los colombianos a través del estímulo al emprendimiento, la formalización del trabajo y las actividades económicas, y el fortalecimiento del tejido empresarial en las ciudades y en el campo.

3. Equidad. Como resultado final, el Plan busca la igualdad de oportunidades para todos, por medio de una política social moderna orientada a lograr la inclusión social y la inclusión productiva de los colombianos, y que se centra en las familias como los principales vehículos para la construcción de lazos de solidaridad y de tejido social.

El logro de estos objetivos requiere de algunas condiciones habilitantes que permitan acelerar el cambio social. Por lo tanto, el Plan contempla los siguientes pactos que contienen estrategias transversales:

4. Pacto por la sostenibilidad: producir conservando y conservar produciendo.

5. Pacto por la ciencia, la tecnología y la innovación: un sistema para construir el conocimiento de la Colombia del futuro.

6. Pacto por el transporte y la logística para la competitividad y la integración regional.

7. Pacto por la transformación digital de Colombia: Gobierno, empresas y hogares conectados con la era del conocimiento.

8. Pacto por la calidad y eficiencia de los servicios públicos: agua y energía para promover la competitividad y el bienestar de todos.

9. Pacto por los recursos minero-energéticos para el crecimiento sostenible y la expansión de oportunidades.

10. Pacto por la protección y promoción de nuestra cultura y desarrollo de la economía naranja.

11. Pacto por la construcción de paz: cultura de la legalidad, convivencia, estabilización y víctimas.

12. Pacto por la equidad de oportunidades para grupos indígenas, negros, afros, raizales, palenqueros y Rrom.

13. Pacto por la inclusión de todas las personas con discapacidad.

14. Pacto por la equidad de las mujeres.

15. Pacto por una gestión pública efectiva.

Así mismo, el Plan integra una visión territorial basada en la importancia de conectar territorios, gobiernos y poblaciones. Esto se ve reflejado en los siguientes pactos:

16. Pacto por la descentralización: conectar territorios, gobiernos y poblaciones.

17 – 25. Pacto por la productividad y la equidad en las regiones:

• Región Pacífico: Diversidad para la equidad, la convivencia pacífica y el desarrollo sostenible.

• Región Caribe: Una transformación para la igualdad de oportunidades y la equidad.

• Seaflower Región: Por una región próspera, segura y sostenible.

• Región Central: Centro de innovación y nodo logístico de integración productiva nacional e internacional.

• Región Santanderes: Eje logístico, competitivo y sostenible de Colombia.

• Región Amazonia: Desarrollo sostenible por una Amazonia viva.

• Eje Cafetero y Antioquia: Conectar para la competitividad y el desarrollo logístico sostenible.

• Región Llanos – Orinoquía: Conectar y potenciar la despensa sostenible de la región con el país y el mundo.

• Región Océanos: Colombia, potencia bioceánica.

TÍTULO II

CAPÍTULO I. Plan de Inversiones y Presupuestos Plurianuales

Artículo 4°. Plan Nacional de Inversiones Públicas 2019- 2022.

El Plan Nacional de Inversiones Públicas 2019-2022 se estima en un valor de mil noventa y seis, coma uno ($1.096,1) billones, a pesos constantes de 2018, el cual incluye el componente Plan Plurianual de Inversiones para la Paz de forma transversal y que se estima en un valor de treinta y siete coma uno ($37,1) billones, a pesos constantes de 2018.

Tabla I. Fuentes que Financian el PND 2019-2022

Cifras en billones de pesos de 2018

Fuentes de financiación               Total PND

                                                               Billones de pesos de 2018           Participación

PGN                                                      352,2                                                    32,1%

SGP                                                      169,3                                                    15,4%

Territoriales                                       115,7                                                    10,6%

EICE                                                      57,8                                                      5,3%

SGR                                                       33,7                                                      3,1%

Cooperación                                      4,1                                                         0,4%

Privados                                              363,2                                                    33,1%

Total                                                     1.096,1                                                100%

Fuente: Dirección de Inversiones y Finanzas Públicas (DNP).

TABLA II. Distribución por Pactos del PND

Pacto/Línea                                                                      Miles de millones de pesos de 2018

I. Pacto por la legalidad: seguridad efectiva

y justicia transparente para que todos

vivamos con libertad y en democracia.                                                132.776

Seguridad, autoridad y orden

para la libertad: defensa nacional,

seguridad ciudadana y colaboración ciudadana.                                63.616

Imperio de la ley y convivencia:

justicia accesible, oportuna y en toda Colombia,

para todos.                                                                                                       57.477

Alianza contra la corrupción: tolerancia cero

con los corruptos.                                                                                          3.163

Colombia en la escena global: Política exterior

responsable, innovadora y constructiva.                                               682

Participación ciudadana: promoviendo el diálogo,

la inclusión democrática y la libertad de cultos

para la equidad.                                                                                              7.026

Otros                                                                                                                   811

II. Pacto por el emprendimiento, la formalización

y la productividad: una economía dinámica,

incluyente y sostenible que potencie todos

nuestros talentos.                                                                                         27.183

Entorno para crecer: formalización,

emprendimiento y dinamización empresarial.                                   10.563

Transformación empresarial: desarrollo productivo,

innovación y adopción tecnológica para la

productividad.                                                                                                 1.488

Un mundo de posibilidades: aprovechamiento

de mercados internacionales y atracción

de inversiones productivas.                                                                       58

Estado simple: menos trámites, regulación clara y más

competencia                                                                                                    656

Campo con progreso: una alianza para dinamizar el

desarrollo y la productividad de la Colombia rural.                           12.054

Turismo: el propósito que nos une.                                                        1.903

Otros.                                                                                                                  461

III. Pacto por la equidad: política social moderna centrada

en la familia, eficiente, de calidad y conectada a mercados.      510.124

Primero las niñas y los niños: desarrollo integral desde

la primera infancia hasta la adolescencia.                                            31.245

Salud para todos con calidad y eficiencia, sostenible por todos. 157.840

Educación de calidad para un futuro con oportunidades para

todos.                                                                                                                 216.004

Alianza por la seguridad alimentaria y la nutrición:

ciudadanos con mentes y cuerpos sanos.                                             192

Vivienda y entornos dignos e incluyentes.                                           46.470

Trabajo decente, acceso a mercados e ingresos dignos:

acelerando la inclusión productiva.                                                         31.786

Juventud naranja: todos los talentos cuentan para construir

país.                                                                                                                     75

Dignidad y felicidad para todos los adultos mayores.                      5.564

Deporte y recreación para el desarrollo integral de los

individuos, para la convivencia y cohesión social.                             10.577

Que nadie se quede atrás: acciones coordinadas para la

reducción de la pobreza.                                                                             7.757

Herramientas para una política social moderna y conectada

a mercados.                                                                                                      343

Otros.                                                                                                                  2.270

IV. Pacto por la sostenibilidad: producir conservando y

conservar produciendo.                                                                              12.672

Sectores comprometidos con la sostenibilidad y la

mitigación del cambio climático.                                                              1.833

Biodiversidad y riqueza natural: activos estratégicos de la

Nación.                                                                                                               2.241

Colombia resiliente: conocimiento y prevención para la

gestión del riesgo de desastres y la adaptación al cambio

climático.                                                                                                           3.345

Instituciones ambientales modernas, apropiación social

de la biodiversidad y manejo efectivo de los conflictos

socioambientales.                                                                                          5.253

V. Pacto por la Ciencia/ la Tecnología y la Innovación:

un sistema para construir el conocimiento de la

Colombia del futuro.                                                                                    21.201

Desarrollo de sistemas nacionales y regionales de

innovación integrados y eficaces.                                                            46

Tecnología e investigación para el desarrollo productivo

y social.                                                                                                              21.155

VI. Pacto por el transporte y la logística para la

competitividad y la integración regional.                                            66.213

Gobernanza e Institucionalidad moderna para el transporte

y la logística eficientes y seguros.                                                            3.533

Movilidad urbano-regional sostenible para la equidad,

la competitividad y la calidad de vida.                                                   6.339

Corredores estratégicos intermodales: red de transporte

nacional, nodos logísticos y eficiencia modal.                                     56.342

VII. Pacto por la transformación digital de Colombia:

Gobierno/ empresas y hogares conectados con la era

del conocimiento.                                                                                         18.023

Colombia se conecta: masificación de la banda ancha e

inclusión digital de todos los colombianos.                                          3.344

Hacia una sociedad digital e industria 4.0: por una relación

más eficiente, efectiva y transparente entre mercados,

ciudadanos y Estado.                                                                                    14.679

VIII. Pacto por la calidad y eficiencia de servicios públicos:

agua y energía para promover la competitividad y el

bienestar de todos.                                                                                       45.383

Energía que transforma: hacia un sector energético más

innovador, competitivo, limpio y equitativo.                                       24.673

Agua limpia y saneamiento básico adecuado:

hacia una gestión responsable, sostenible y equitativa.                 20.687

Otros.                                                                                                                  23

IX. Pacto por los recursos minero-energéticos para el

crecimiento sostenible y la expansión de oportunidades.           97.876

Desarrollo minero energético con responsabilidad ambiental

y social.                                                                                                              12.812

Seguridad energética para el desarrollo productivo.                        85.064

X. Pacto por la protección y promoción de nuestra cultura

y desarrollo de la economía naranja.                                                    6.028

Todos somos cultura: la esencia de un país que se

transforma desde los territorios.                                                             6.002

Colombia naranja: desarrollo del emprendimiento de base

artística, creativa y tecnológica para la creación de nuevas

industrias.                                                                                                         26

XI. Pacto por la Construcción de Paz: Cultura de la legalidad,

convivencia, estabilización y víctimas.                                                 10.431(*)

XII. Pacto por la equidad de oportunidades para grupos

indígenas, negros, afros, raizales, palenqueros y Rrom.               29.000(**)

XIII. Pacto por la inclusión de todas las personas con

discapacidad.                                                                                                  834

Alianza por la inclusión y la dignidad de todas las personas

con discapacidad.                                                                                           834

XIV. Pacto por la equidad de las mujeres.                                           5.400(**)

XV. Pacto por una gestión pública efectiva.                                       8.296

Transformación de la administración pública.                                    2.320

Gasto público efectivo.                                                                                5.976

XVI. Pacto por la Descentralización: conectar territorios,

gobiernos y poblaciones.                                                                           57.496

Políticas e inversiones para el desarrollo, el ordenamiento

y fortalecimiento de la asociatividad.                                                     3.207

Estimular tanto la productividad como la equidad,

a través de la conectividad y los vínculos entre la ciudad

y el campo.                                                                                                       44.603

Desarrollo urbano y Sistema de Ciudades (SC) para la

sostenibilidad, la productividad y la calidad de vida.                        4.450

Gobiernos territoriales capaces y efectivos:

fortalecimiento institucional y modernización

para la descentralización efectiva y responsable.                             3.245

Instrumentos e información para la toma de decisiones

que promueven el desarrollo regional.                                                  1.991

Gasto privado transversal al Plan Nacional de

Desarrollo y otros.                                                                                        81.587

Total General                                                                                                  1.096,1

(*) Los recursos de este pacto hacen parte de los $37,1 billones del Plan Plurianual de Inversiones para la Paz.

(**) Estos valores NO SUMAN al total del Plan Plurianual de Inversiones por ser recursos transversales entre los diferentes pactos.

Fuente: Dirección de Inversiones y Finanzas Públicas (DNP).

En cumplimiento del artículo 3° del Acto Legislativo 01 del 7 de julio de 2016 por el cual “… se establecen instrumentos jurídicos para facilitar y asegurar la implementación y el desarrollo normativo del Acuerdo Final para la terminación del conflicto y la construcción de una paz estable y duradera”, se incluye el Plan Plurianual de Inversiones para la Paz por un valor de treinta y siete coma uno ($37,1) billones como un componente del Plan Plurianual de Inversiones del Plan Nacional de Desarrollo.

Tabla III. Plan Plurianual de Inversiones para la Paz

  Pacto/línea                                                                                    Miles de millones de 2018 

I. Pacto por la Legalidad: seguridad efectiva y justicia

transparente para que todos vivamos con libertad y

en democracia.                                                                                               1.125,6 

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        811,4

Seguridad, autoridad y orden para la libertad: defensa

Nacional, seguridad ciudadana y colaboración ciudadana.            8,1

Imperio de la ley: derechos humanos, justicia accesible,

oportuna y en toda Colombia, para todos.                                           305,9

Participación ciudadana: promoviendo el diálogo,

la inclusión democrática y la libertad de cultos para

la equidad.                                                                                                        0,2

II. Pacto por el Emprendimiento, la Formalización y

la Productividad: una economía dinámica, incluyente

y sostenible que potencie todos nuestros talentos.                       2.508,2 

Inversiones con recursos de cooperación Internacional

 para la Paz (por demanda).                                                                       460,8

Entorno para crecer: formalización, emprendimiento y

dinamización empresarial.                                                                          31,2

Campo con progreso: una alianza para dinamizar el

desarrollo y la productividad de la Colombia rural.                           2.016,2

III. Pacto por la Equidad: política social moderna centrada

en la familia, eficiente, de calidad y conectada a mercados.      18.114,0 

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        2.088,9

Fortalecimiento de las capacidades institucionales en

transversalización del enfoque de género dentro de las

entidades de los niveles nacional y territorial desde el

Sector Presidencia.                                                                                        5,8

Primero las niñas y los niños: desarrollo integral desde

la primera infancia hasta la adolescencia.                                            475,0

Salud para todos con calidad y eficiencia, sostenible por

todos.                                                                                                                 3.719,2

Educación de calidad para un futuro con oportunidades

para todos.                                                                                                       9.596,2

Alianza por la seguridad alimentaria y la nutrición:

ciudadanos con mentes y cuerpos sanos.                                             44,3

Vivienda y entornos dignos e incluyentes.                                           882,9

Trabajo decente, acceso a mercados e ingresos dignos:

acelerando la inclusión productiva.                                                         771,8

Dignidad y felicidad para todos los adultos mayores.                      99,8

Deporte y recreación para el desarrollo integral de los

individuos, para la convivencia y cohesión social.                             430,2

IV. Pacto por la Sostenibilidad: producir conservando y

conservar produciendo.                                                                              213,3 

Sectores comprometidos con la sostenibilidad y la

mitigación del cambio climático.                                                              56,6

Biodiversidad y riqueza natural: activos estratégicos de la

Nación.                                                                                                               39,4

Instituciones ambientales modernas, apropiación social

de la biodiversidad y manejo efectivo de los conflictos

socioambientales.                                                                                          117,3

V. Pacto por la Ciencia, la Tecnología y la Innovación:

un sistema para construir el conocimiento de la Colombia

del futuro.                                                                                                        167,7 

Tecnología e investigación para el desarrollo productivo

y social.                                                                                                              167,7

VI. Pacto por el Transporte y la Logística para la

Competitividad y la Integración Regional.                                          68,9 

Gobernanza e Institucionalidad moderna para el

transporte y la logística eficientes y seguros.                                      14,0

Movilidad urbano regional sostenible para la equidad,

la competitividad y la calidad de vida.                                                   33,3

Corredores estratégicos intermodales:

red de transporte nacional, nodos logísticos

y eficiencia modal.                                                                                         21,5

VII. Pacto por la Transformación Digital de Colombia:

Gobierno, empresas y hogares conectados con la era

del conocimiento.                                                                                         44,1

Colombia se conecta: masificación de la banda ancha

e inclusión digital de todos los colombianos.                                      28,7

Hacia una sociedad digital e industria 4.0: por una relación

más eficiente, efectiva y transparente entre mercados,

ciudadanos y Estado.                                                                                    15,4

VIII. Pacto por la Calidad y Eficiencia de Servicios Públicos:

agua y energía para promover la competitividad y el

bienestar de todos.                                                                                       2.335,2

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        22,7

Energía que transforma: hacia un sector energético

más innovador, competitivo, limpio y equitativo.                             991,7

Agua limpia y saneamiento básico adecuado:

hacia una gestión responsable, sostenible y equitativa.                 1.320,7

IX. Pacto por los Recursos Minero-energéticos para el

Crecimiento Sostenible y la Expansión de Oportunidades.          1,5

Desarrollo minero energético con responsabilidad

ambiental y social.                                                                                         1,5

X. Pacto por la Protección y Promoción de Nuestra

Cultura y Desarrollo de la Economía Naranja.                                   177,9

Todos somos cultura: la esencia de un país que se

transforma desde los territorios.                                                             174,6

Colombia naranja: desarrollo del emprendimiento de

base artística, creativa y tecnológica para la creación

de nuevas industrias.                                                                                    3,3

XI. Pacto por la Construcción de Paz: Cultura de la legalidad,

Convivencia, Estabilización y Víctimas.                                                10.431

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        728,7

Inversiones aprobadas por OCAD PAZ.                                                  2.852,3

Acciones efectivas para la política de estabilización:

intervención coordinada en zonas estratégicas con

seguridad, justicia y equidad.                                                                    5.229,2

Mayor coordinación y eficiencia del Estado para la

estabilización.                                                                                                  395,3

Instrumentos y herramientas que orientan la inversión y

el gasto eficiente para la estabilización, la construcción

de paz y la cultura de la legalidad.                                                           11,3

Reparación: Colombia atiende y repara a las víctimas.                    1.213,6

XIII. Pacto por la Inclusión de todas las Personas con

Discapacidad.                                                                                                  22,5

XV. Pacto por una Gestión Pública Efectiva.                                       0,6

Transformación de la administración pública.                                    0,6

XVI. Pacto por la Descentralización: conectar territorios,

gobiernos y poblaciones.                                                                           1.873,4

Políticas e inversiones para el desarrollo, el

ordenamiento y fortalecimiento de la asociatividad.                       35,7

Estimular tanto la productividad como la equidad,

a través de la conectividad y los vínculos entre la ciudad

y el campo.                                                                                                                       1.693,4

Desarrollo urbano y Sistema de Ciudades (SC) para la

sostenibilidad, la productividad y la calidad de vida.                                       125,2

Instrumentos e información para la toma de decisiones

que promueven el desarrollo regional.                                                                 19,1

Total general                                                                                                                   37.083,4

Fuente: Dirección de Inversiones y Finanzas Públicas (DNP).

Parágrafo 1°. Los recursos identificados como fuentes de entidades territoriales para financiamiento del Plan Nacional de Inversiones Públicas 2019-2022, corresponde a estimaciones de gastos de los niveles departamental, distrital y municipal en el marco de su autonomía, para la articulación de políticas, estrategias y programas nacionales con los territoriales, según los mecanismos de ejecución definidos en el presente Plan.

Parágrafo 2°. Apruébese como parte integral de la presente ley e incorpórese como anexo el documento “Plan Plurianual de Inversiones” incluido el componente especial para la Paz.

Parágrafo 3°. Como parte integral del Plan Plurianual de Inversiones se incluyen de manera transversal las proyecciones indicativas acordadas en el marco de las consultas previas con los grupos étnicos por veintinueve ($29) billones, estimadas para los pueblos indígenas en diez ($10) billones, los cuales se destinarán para el cumplimiento de los acuerdos que corresponden al Capítulo de los pueblos indígenas, y para las comunidades negras, afrocolombianas, raizales y palenqueras por valor de diecinueve ($19) billones, considerando el Plan Macroeconómico y el Marco Fiscal de Mediano Plazo del Gobierno nacional de acuerdo con todas las fuentes del presente Plan Plurianual de Inversiones y serán sujetos de control fiscal por el órgano competente.

Parágrafo 4°. El Gobierno nacional tiene el propósito de cumplimiento de lo pactado en los acuerdos con la Minga social por la defensa de la vida, el territorio, la democracia, la justicia y la paz logrado 6 de abril de 2019.

Artículo 5°. Recursos financieros, presupuestos plurianuales y consistencia fiscal del Plan Nacional de Inversiones Públicas.

El valor total de los gastos que se realicen para la ejecución del presente plan financiados con recursos del Presupuesto General de la Nación, no podrán superar en ningún caso el monto de los recursos disponibles de conformidad con el Plan Macroeconómico y el Marco Fiscal de Mediano Plazo (MFMP) del Gobierno nacional.

Las metas de los programas contempladas en el Plan Nacional de Desarrollo 2018 – 2022 se ajustarán de acuerdo con las disponibilidades fiscales que se establezcan en el Marco Fiscal de Mediano Plazo (MFMP), en el Marco de Gasto de Mediano Plazo (MGMP) y en los Presupuestos Generales de la Nación aprobados para cada vigencia, según lo señalado en los artículos 4° y 5° de la Ley 1473 de 2011.

 CAPÍTULO II. Mecanismos de ejecución del Plan

SECCIÓN I. PACTO POR LA LEGALIDAD: SEGURIDAD EFECTIVA Y JUSTICIA TRANSPARENTE PARA QUE TODOS VIVAMOS CON LIBERTAD Y EN DEMOCRACIA

SUBSECCIÓN 1. LEGALIDAD PARA EL SECTOR AMBIENTAL Y MINERO ENERGÉTICO

Artículo 6°. Acceso a recursos genéticos y productos derivados.

Las personas naturales o jurídicas, nacionales o extranjeras, que a la entrada en vigencia de la presente Ley hayan realizado o se encuentren realizando actividades de investigación con fines de prospección biológica, que contemple actividades de acceso a recursos genéticos y/o sus productos derivados sin contar con la autorización del Ministerio de Ambiente y Desarrollo Sostenible (MADS), tendrán dos años a partir de la entrada en vigencia de la presente Ley, para solicitar ante dicha entidad, el Contrato de Acceso a Recursos Genéticos y sus Productos Derivados.

El Ministerio citado podrá otorgar este contrato, aun cuando los especímenes utilizados para las actividades de acceso a recursos genéticos o sus productos derivados señaladas en el inciso anterior no cuenten con los permisos de colecta.

Con base en este contrato el Instituto Alexander von Humboldt registrará la colección biológica de los especímenes. También registrará por una sola vez, dentro de los dos años siguientes a la entrada en vigencia de la presente Ley, las colecciones biológicas existentes, que no puedan acreditar el material obtenido en el marco de actividades de recolección, de proyectos de investigación científica y/o prácticas docentes universitarias finalizadas, aun cuando las mismas no acrediten los permisos de colecta.

Desde la radicación de la solicitud y hasta la celebración y perfeccionamiento del Contrato de Acceso a Recursos Genéticos y/o sus Productos Derivados o hasta la denegación del trámite, el solicitante podrá continuar accediendo al recurso genético y/o sus productos derivados.

Parágrafo. El uso de fauna silvestre en el marco de la investigación científica no comercial, no constituye hecho generador de la tasa compensatoria de que trata el artículo 42 de la Ley 99 de 1993.

Artículo 7°.Conflictos Socioambientales en Áreas Protegidas del Sistema Nacional de Áreas Protegidas (SINAP).

Las autoridades ambientales, en coordinación con otras entidades públicas y en el marco de sus funciones podrán celebrar acuerdos con población campesina en condición de vulnerabilidad, que habite, ocupe o realice usos tradicionales asociados a la economía campesina en áreas protegidas del SINAP que deriven su sustento de estos usos y que puedan ser reconocidos por las entidades que suscriben los acuerdos con una relación productiva artesanal y tradicional con el área protegida, con el objeto de contribuir a la atención de los conflictos de uso, ocupación y tenencia que se presenten en estas áreas. Estos acuerdos permitirán generar alternativas de usos compatibles con los objetivos de conservación del área, ordenar y regular los usos asociados a la economía campesina, para mejorar el estado de conservación de las áreas, definir actividades productivas acordes con los objetivos de conservación del área protegida y las condiciones de vida de la población, garantizando sus derechos fundamentales.

Estos acuerdos podrán ser celebrados hasta tanto la concurrencia de las distintas entidades del Estado permita atender estos conflictos por uso, ocupación y tenencia con alternativas diferenciales, integrales y definitivas.

Lo previsto en este artículo no modifica el régimen de propiedad de las áreas, ni su régimen de protección ambiental.

Artículo 8°. Medidas tendientes a dinamizar procesos de saneamiento al interior de las áreas del Sistema de Parques Nacionales Naturales.

Para efectos del saneamiento y recuperación ambiental de las áreas del Sistema de Parques Nacionales Naturales de Colombia (SPNN), Parques Nacionales Naturales de Colombia podrá adelantar las siguientes medidas:

1. Saneamiento automático: En los eventos en que el Estado adquiera inmuebles ubicados al interior de las áreas del SPNN por motivos de utilidad pública, operará el saneamiento automático de vicios en los títulos y la tradición, incluso los que surjan con posterioridad al proceso de adquisición. Lo anterior, sin perjuicio de las acciones indemnizatorias que procedan según la ley.

El saneamiento automático de que trata este numeral, no aplicará respecto de los vicios que pudieran derivarse de la adquisición de inmuebles en territorios colectivos de comunidades étnicas, afrocolombianas o raizales.

2. Compra de mejoras: Parques Nacionales Naturales de Colombia u otra entidad pública podrán reconocer mejoras realizadas en predios al interior de las áreas del SPNN con posterioridad a la declaratoria del área protegida y anteriores al 30 de noviembre de 2016, de acuerdo con la reglamentación que se expida para el efecto.

Este reconocimiento solo aplica para las personas previamente caracterizadas que reúnan las siguientes condiciones:

i) que no sean propietarios de tierras;

ii) que se hallen en condiciones de vulnerabilidad o deriven directamente del uso de la tierra y de los recursos naturales su fuente básica de subsistencia; y

iii) siempre y cuando las mejoras no estén asociadas a cultivos ilícitos, o a su procesamiento o comercialización, así como a actividades de extracción ilícita de minerales.

Para proceder al reconocimiento y pago de indemnizaciones o mejoras en los términos de este artículo, será necesario contar con la disponibilidad presupuestal correspondiente.

Artículo 9°.Coordinación Interinstitucional para el Control y Vigilancia contra la Deforestación y otros Crímenes Ambientales.

Créase el Consejo Nacional de Lucha contra la Deforestación y otros Crímenes Ambientales Asociados (Conaldef) para la defensa del agua, la biodiversidad y el medio ambiente, conformado por el Consejero Presidencial para la Seguridad Nacional, el Ministro de Defensa Nacional, el Ministro de Justicia y del Derecho, el Ministro de Ambiente y Desarrollo Sostenible, quien lo preside, el Procurador General de la Nación y el Fiscal General de la Nación. Deberá participar el Ministro de Relaciones Exteriores, de existir acciones en zonas fronterizas o que involucren extranjeros, así como los Ministros de Agricultura y Desarrollo Rural, Transporte y Minas y Energía, cuando los asuntos a tratar correspondan a sus competencias.

Para el logro de su objetivo el Consejo ejercerá las siguientes funciones:

1. Proponer la política, planes, programas y estrategias de lucha contra la deforestación y otros delitos ambientales asociados, así como definir y coordinar las medidas interinstitucionales para su control.

2. Adoptar mediante acuerdo su propio reglamento y dictar las normas necesarias para el debido cumplimiento de sus funciones y proponer al Gobierno la expedición de las que fueren de competencia de éste.

3. Evaluar avances en la lucha contra la deforestación y otros crímenes ambientales asociados.

4. Mantener contactos con Gobiernos o entidades extranjeras en asuntos de su competencia y adelantar gestiones ante los mismos con el fin de coordinar la acción con la de otros Estados y de obtener la asistencia que fuere del caso.

5. Las demás relacionadas con su objetivo.

El Consejo contará con dos coordinaciones que constituirán instancias técnicas de articulación y evaluación para el estudio y sugerencia de acciones y políticas que permitan el logro de sus funciones:

La Coordinación de Monitoreo y Análisis de la Información para efectos de analizar, valorar y hacer seguimiento a las acciones de control y prevención de la deforestación y otros crímenes ambientales asociados, integrada por delegados del Consejero Presidencial de Seguridad Nacional, del Ministro de Defensa Nacional, del Ministro de Ambiente y Desarrollo Sostenible, del Director del Instituto de Hidrología, Meteorología y Estudios Ambientales (IDEAM) Sistema de Monitoreo de Bosques y Carbono y del Fiscal General de la Nación.

La Coordinación Interinstitucional para la unificación de esfuerzos y acciones en la lucha contra la deforestación y otros crímenes ambientales asociados, conformada por delegados del Ministro de Ambiente y Desarrollo Sostenible, del Ministro de Defensa Nacional y del Fiscal General de la Nación, así como el Director de la Corporación Autónoma Regional -o su delegado- de la zona para la que se planeen las intervenciones, en su calidad de autoridad ambiental.

Parágrafo 1°. Las acciones operativas y operacionales se desarrollarán de conformidad con la misión constitucional asignada a las Fuerzas Militares y la Policía Nacional, por conducto del Ministerio de Defensa Nacional, y de acuerdo con la Política de Defensa y Seguridad para la Legalidad, el Emprendimiento y la Equidad que establece que el agua, la biodiversidad y el medio ambiente son interés nacional principal y prevalente, en coordinación con las autoridades ambientales y judiciales competentes.

Parágrafo 2°. El Estado colombiano se obliga a partir de la presente Ley a establecer y ejecutar políticas públicas en el territorio nacional, encaminadas a concretar acciones para detener la deforestación e implementar las nuevas estrategias de reforestación y forestación. Las anteriores políticas públicas se deben desarrollar y ejecutar en el marco de la legalidad, emprendimiento y equidad.

Artículo 10. Conservación de bosques en la Región de la Amazonía.

De los recursos provenientes del impuesto al carbono, concretamente del rubro “Colombia en Paz”, se destinará el 15% exclusivo para la conservación de los bosques de la región de la Amazonia; toda vez que esta región contiene la mayor extensión de bosques a nivel nacional, constituyendo al territorio como un centro de desarrollo económico y ambiental sostenible para el país, por la biodiversidad que alberga. Con su preservación coadyuva en forma positiva a revertir el desequilibrio ecológico que existe actualmente por el impacto de las actividades humanas sobre el entorno.

Artículo 11. Recursos para la conservación de los páramos.

Los recursos de que tratan los artículos 43 y 45 de la Ley 99 de 1993, modificados por la Ley 1930 de 2018, que le correspondan a las Corporaciones Autónomas Regionales y a los municipios y, que sean destinados a la conservación de los páramos, constituyen rentas propias de estas autoridades por lo que no ingresarán al Fondo Nacional Ambiental (FONAM).

Los recursos que le correspondan a Parques Nacionales Naturales ingresarán a la subcuenta para la administración y manejo del Sistema de Parques Nacionales del FONAM. En todo caso los recursos de los que trata este artículo se destinarán exclusivamente a la preservación, restauración, uso sostenible y generación de conocimiento de los páramos.

Artículo 12. Autorización ambiental para plantas de procesamiento móviles para la obtención de oro libre de mercurio.

El Gobierno nacional a través del Ministerio de Ambiente y Desarrollo Sostenible reglamentará la autorización ambiental diferencial para la operación de plantas de procesamiento móviles para la obtención de oro libre de mercurio. En la reglamentación se deberá tener en cuenta entre otras cosas, el uso de los recursos naturales renovables que se requieren para el proceso de beneficio, la duración de la misma, velando por conservar el ambiente.

Artículo 13. Requerimiento de permiso de vertimiento.

Solo requiere permiso de vertimiento la descarga de aguas residuales a las aguas superficiales, a las aguas marinas o al suelo.

Artículo 14. Tratamiento de aguas residuales.

Los prestadores de alcantarillado estarán en la obligación de permitir la conexión de las redes de recolección a las plantas de tratamiento de aguas residuales de otros prestadores y de facturar esta actividad en la tarifa a los usuarios, siempre que la solución represente menores costos de operación, administración, mantenimiento e inversión a los que pueda presentar el prestador del servicio de alcantarillado. El Gobierno nacional reglamentará la materia.

Adicionalmente, la disposición de residuos líquidos no domésticos a la red de alcantarillado sin tratamiento podrá ser contratada entre el suscriptor y/o usuario y el prestador del servicio público domiciliario de alcantarillado siempre y cuando este último tenga la capacidad en términos de infraestructura y tecnología para cumplir con los parámetros y los valores límites máximos permisibles en los vertimientos puntuales.

Artículo 15.Funciones de la Superintendencia.

Modifíquese el numeral 8 y adiciónense los numerales 34, 35 y 36 al artículo 79 de la Ley 142 de 1994, así:

8. Solicitar documentos, inclusive contables y financieros, a los prestadores, entidades públicas, privadas o mixtas, auditores externos, interventores o supervisores y privados, entre otros, que tengan información relacionada con la prestación de los servicios públicos domiciliarios. Adicionalmente, practicar las visitas, inspecciones y pruebas que sean necesarias para el cumplimiento de sus funciones, en la oportunidad fijada por la Superintendencia.

34. Sancionar a los prestadores de servicios públicos y vigilados, auditores externos y otras entidades con naturaleza pública, privada o mixta, que tengan información relacionada con los servicios públicos domiciliarios, cuando no atiendan de manera oportuna y adecuada las solicitudes y requerimientos que la Superintendencia realice en ejercicio de sus funciones.

35. En los casos en los que lo considere necesario para el ejercicio de las funciones de inspección, vigilancia y control, encargar a terceros especializados la toma de muestras de calidad del agua en cualquier lugar del área de prestación del servicio y del sistema que sea técnicamente posible, y contratar un laboratorio para el análisis de las mismas. Los resultados que arrojen las muestras tomadas por la Superintendencia de Servicios Públicos Domiciliarios, podrán ser utilizados como prueba, dentro de los procesos administrativos sancionatorios que adelante contra prestadores objeto de su vigilancia, y para cualquier otro fin que sea pertinente dentro del ejercicio de las funciones de la Superintendencia de Servicios Públicos Domiciliarios.

36. Corresponde a la Superintendencia de Servicios Públicos Domiciliarios, en desarrollo de sus funciones de inspección y vigilancia, establecer, administrar, mantener y operar el Sistema Único de Información (SUI) de los Servicios Públicos Domiciliarios que se nutra con la información de los prestadores, auditores externos, entidades públicas, particulares, interventores y/o supervisores relacionados con la prestación de los servicios públicos domiciliarios. El SUI podrá interoperar con otras plataformas públicas y privadas y, adicionalmente, podrá compartir información, inclusive aquella que tenga el carácter de confidencial o reservado, garantizando la reserva y confidencialidad de la misma.

Artículo 16. Fortalecimiento del ejercicio de las funciones de la Superintendencia de Servicios Públicos Domiciliarios.

Modifíquese el artículo 227 de la Ley 1753 del 2015, el cual quedará así:

Artículo 227. Fortalecimiento del ejercicio de las funciones de la superintendencia de servicios públicos domiciliarios. En la Superintendencia de Servicios Públicos Domiciliarios seguirá funcionando, con vocación de permanencia, el Fondo Empresarial creado por la Ley 812 del 2003, a través de un patrimonio autónomo cuyo ordenador del gasto será el Superintendente de Servicios Públicos Domiciliarios.

Este Fondo podrá financiar a las empresas en toma de posesión para: 1) pagos para la satisfacción de los derechos de los trabajadores que se acojan a los planes de retiro voluntario y en general las obligaciones laborales y, 2) apoyo para salvaguardar la prestación del servicio.

Igualmente, podrá contratar y/o apoyar el pago de las actividades profesionales requeridas en áreas financieras, técnicas, legales y logísticas a la Superintendencia de Servicios Públicos Domiciliarios y a la empresa objeto de toma de posesión, así como los estudios necesarios para determinar la procedencia de dicha medida y las medidas preventivas de acuerdo con lo establecido en la Ley 142 de 1994.

Así mismo, de forma excepcional el Fondo podrá apoyar con recursos a las empresas prestadoras de servicios públicos objeto de la medida de toma de posesión para asegurar la viabilidad de los respetivos esquemas de solución a largo plazo sin importar el resultado en el balance del Fondo de la respectiva operación, siempre y cuando así lo soliciten ante la Superintendencia de Servicios Públicos Domiciliarios y acrediten:

1. Incapacidad presente y futura de pago de los recursos entregados previamente a título de financiación, con cargo a los recursos del Fondo Empresarial soportada con las modelaciones financieras y demás elementos que lo demuestren.

2. Contar con un esquema de solución de largo plazo que cumpla con los criterios que para el efecto establezca la Superintendencia de Servicios Públicos Domiciliarios, y

3. El esquema de solución de largo plazo a que hace referencia el numeral anterior solo pueda ser cumplible con la entrega de los recursos mencionados por parte del Fondo, los cuales se considerarán como un ingreso no constitutivo de renta ni ganancia ocasional para las empresas en toma de posesión.

Lo anteriormente señalado también será aplicable a las empresas que a la entrada en vigencia de la presente Ley se encuentren en toma de posesión.

Los recursos del Fondo Empresarial estarán conformados por las siguientes fuentes:

a) Los excedentes de la Superintendencia de Servicios Públicos Domiciliarios, de la Comisión de Regulación de Agua Potable y Saneamiento Básico (CRA), de la Comisión de Regulación de Energía y Gas (CREG);

b) El producto de las multas que imponga esta Superintendencia;

c) Los rendimientos que genere el Fondo Empresarial y que se obtengan por la inversión de los recursos que integran su patrimonio;

d) Los recursos que obtenga a través de las operaciones de crédito interno o externo que se celebren a su nombre, y los que reciba por operaciones de tesorería;

e) Los rendimientos derivados de las acciones que posea el Fondo o su enajenación los cuales no estarán sometidos al impuesto sobre la renta y complementarios; y,

f) Los demás que obtenga a cualquier título.

El financiamiento por parte del Fondo Empresarial a las empresas intervenidas podrá instrumentarse a través de contratos de mutuo, otorgamiento de garantías a favor de terceros, o cualquier otro mecanismo de carácter financiero que permita o facilite el cumplimiento del objeto del Fondo Empresarial.

Para las operaciones pasivas de crédito interno o externo del literal d) se requerirá si cumplimiento de los requisitos legales ordinarios establecidos para las operaciones de crédito; cuando dichas operaciones de crédito estén dirigidas al desarrollo del giro ordinario de las actividades propias del objeto del Fondo Empresarial para el otorgamiento de la garantía de la Nación no será necesario la constitución de las contragarantías a favor de la Nación normalmente exigidas, ni los aportes al Fondo de Contingencias; para los créditos otorgados directamente por la Nación – Ministerio de Hacienda y Crédito Público no será necesario el otorgamiento de garantías a su favor.

Artículo 17.Definiciones. Adiciónese un Parágrafo al artículo 14 de la Ley 142 de 1994, así:

Parágrafo. Las actividades que inciden determinantemente en la correcta prestación de los servicios públicos se podrán asimilar a alguna de las actividades principales o complementarias que componen las cadenas de valor de los servicios públicos. En consecuencia, quienes desarrollen tales nuevas actividades quedarán sometidos a la regulación, inspección, vigilancia y control por parte de las Comisiones de Regulación respectivas y la Superintendencia de Servicios Públicos Domiciliarios, respectivamente. La Superintendencia de Servicios Públicos Domiciliarios definirá cuándo aplica dicha asimilación y la obligación de constituirse como Empresas de Servicios Públicos Domiciliarios.

Artículo 18.

Declarado Inexequible mediante Sentencia de la Corte Constitucional C-464 de 2020

Artículo 19. Sanciones.

Modifíquese el numeral 81.2 del artículo 81 de la Ley 142 de 1994, el cual quedará así:

81.2 Multas desde 1 hasta 100.000 salarios mínimos legales mensuales vigentes al momento de la imposición de la sanción, a favor del Fondo Empresarial creado por la Ley 812 de 2003. El monto de la multa se graduará teniendo en cuenta: 1) el impacto de la infracción sobre la buena marcha del servicio público prestado, 2) el factor de reincidencia considerando el año inmediatamente anterior a la fecha de imposición de la sanción; y 3) La situación financiera de la empresa, para lo cual, se efectuará un análisis de los estados financieros del prestador con corte al 31 de diciembre del año inmediatamente anterior a la fecha de imposición de la sanción. Si la infracción se cometió durante varios años, el monto máximo que arriba se indica se podrá multiplicar por dicho número de años. Si el infractor no proporciona la información necesaria que se le solicite, para determinar el monto de la multa a imponer, dentro de los treinta (30) días siguientes al requerimiento formulado, se le aplicarán las otras sanciones previstas en este artículo.

La multa a imponer a una persona natural que colabore, facilite, autorice, ejecute o tolere conductas violatorias del régimen de los servicios públicos domiciliarios será de 1 hasta 1.500 salarios mínimos legales mensuales vigentes al momento de la imposición de la sanción. El monto de la multa se graduará teniendo en cuenta:

1) El impacto de la infracción sobre la buena marcha del servicio público prestado y/o sobre el oportuno y efectivo ejercicio de la función de inspección, vigilancia y control a cargo de la Superintendencia;

2) La persistencia en la conducta infractora;

3) El factor de reincidencia considerando el año inmediatamente anterior a la fecha de imposición de la sanción;

 4) La colaboración del investigado en el desarrollo de las funciones de inspección, control y vigilancia a cargo de la Superintendencia, y

5) El grado de participación de la persona implicada.

La facultad para imponer sanciones por la violación al régimen de los servicios públicos domiciliarios caducará a los cinco (5) años de producida la conducta, los cuales se contarán a partir del día siguiente de ocurrido el hecho generador de la sanción o de la última infracción, si la conducta se prolonga en el tiempo.

Artículo 20. Tarifa de cobros por los servicios técnicos de planeación de la UPME.

La Unidad de Planeación Minero Energética (UPME), en los términos del literal i) del artículo 16 de la Ley 143 de 1994, podrá cobrar a aquellas personas naturales o jurídicas que utilicen o soliciten los servicios técnicos de planeación y asesoría relacionados con las actividades de:

a) Evaluación de proyectos de eficiencia energética y fuentes no convencionales de energía y gestión eficiente de la energía, para acceder a los incentivos tributarios;

b) Evaluación de proyectos del sector energético para acceder a la línea de redescuento con tasa compensada de la Financiera de Desarrollo Territorial S.A. (FINDETER);

c) Emisión de conceptos sobre las conexiones al Sistema Interconectado Nacional, en el marco de la expansión de generación y transmisión de energía, de conformidad con la delegación efectuada por el Ministerio de Minas y Energía.

El sistema y método de cálculo de la tarifa incluirá:

a) El valor total de los honorarios de los profesionales requeridos para la realización de la tarea propuesta. Para este fin se estimará el número de profesionales/mes o contratistas/mes y se aplicarán las categorías y tarifas de honorarios de contratos de la UPME;

b) El valor total de los viáticos y gastos de viaje de los profesionales que se ocasionen para el estudio, la expedición, el seguimiento y/o el monitoreo del servicio técnico de planeación y demás instrumentos de control y manejo establecidos en la ley, las resoluciones internas y los reglamentos. Para este fin, sobre el estimativo de visitas a la zona del proyecto se calculará el monto de los gastos de viaje necesarios, valorados de acuerdo con las tarifas del transporte público y la escala de viáticos aplicable a la UPME.

Las tarifas que se cobrarán por concepto de la prestación de los servicios de planeación y asesoría descritos corresponderá a una tasa hasta de:

– El 1% de los beneficios tributarios solicitados por el usuario solicitante, en el caso de la evaluación de los proyectos de eficiencia energética y fuentes no convencionales de energía y gestión eficiente de la energía;

– El 1% del valor de los proyectos del sector energético a financiar con la línea de redescuento con tasa compensada de la Financiera de Desarrollo Territorial (S.A.) (FINDETER).

– 50 smlmv por solicitud de conexión al Sistema Interconectado Nacional.

Los recursos que se recauden por concepto del cobro de los citados servicios técnicos de planeación y asesoría de que trata el presente artículo, serán depositados en un patrimonio autónomo que la UPME constituirá a través de un contrato de fiducia mercantil que se someterá a las normas del derecho privado. Dichos recursos serán utilizados para sufragar los costos relacionados con la emisión de conceptos técnicos, la evaluación y el seguimiento en que deba incurrir la UPME para la prestación de estos servicios.

Artículo 21. Vigencia Fondos Eléctricos.

El Fondo de Apoyo Financiero para la Energización de Zonas Rurales Interconectadas (FAER) creado por el artículo 105 de la Ley 788 de 2002, el Programa de Normalización de Redes Eléctricas (PRONE) creado por el artículo 1° de la Ley 1117 de 2006 y el Fondo de Apoyo Financiero para la Energización de las Zonas No Interconectadas (FAZNI) de que trata el artículo 82 de la Ley 633 de 2000, tendrán vigencia hasta el 31 de diciembre de 2030.

Estos fondos recibirán recursos de conformidad con las condiciones y tarifas que se encuentran vigentes a la fecha de expedición de la presente Ley.

Artículo 22. Licencia Ambiental Temporal para la Formalización Minera.

Las actividades de explotación minera que pretendan obtener su título minero bajo el marco normativo de la formalización de minería tradicional o en virtud de la formalización que ocurra con posterioridad a las declaratorias y delimitaciones de áreas de reserva especial o que pretendan ser cobijadas a través de alguno de los mecanismos para la formalización bajo el amparo de un título minero en la pequeña minería, deberán tramitar y obtener licencia ambiental temporal para la formalización minera.

Para el efecto, dentro de los tres meses siguiente a la firmeza del acto administrativo que autoriza el subcontrato de formalización, que aprueba la devolución de áreas para la formalización o que declara y delimita el área de reserva especial de que trata el artículo 31 de la Ley 685 de 2001, se deberá radicar por parte del interesado el respectivo Estudio de Impacto Ambiental junto con la solicitud de licencia ambiental temporal para la formalización minera.

Una vez radicado el Estudio de Impacto Ambiental, la autoridad ambiental, dentro de los treinta (30) días siguientes, se pronunciará, mediante acto administrativo, sobre la viabilidad o no de la licencia ambiental temporal para la formalización minera, la cual tendrá vigencia por el término de duración del trámite de formalización minera y dos (2) meses adicionales después de otorgado el contrato de concesión minera o la anotación del subcontrato en el Registro Minero Nacional, término en el cual deberá presentarse por el interesado la solicitud de licencia ambiental global o definitiva.

La autoridad ambiental que otorga la licencia ambiental temporal para la formalización minera, deberá hacer seguimiento y control a los términos y condiciones establecidos en ella y en caso de inobservancia de los mismos procederá a requerir por una sola vez al interesado, para que en un término no mayor a treinta (30) días subsane las faltas encontradas. Vencido este término, la autoridad ambiental se pronunciará, y en el evento en que el interesado no subsane la falta o no desvirtúe el incumplimiento, comunicará tal situación a la autoridad minera dentro de los cinco (5) días siguientes, a efectos de que dicha entidad proceda de manera inmediata al rechazo de la solicitud de formalización de minería tradicional o a la revocatoria del acto administrativo de autorización del subcontrato de formalización minera, de delimitación y declaración del Área de Reserva Especial o el de la aprobación de la devolución de áreas para la formalización. De la actuación que surta la autoridad minera se correrá traslado a la Policía Nacional, para lo de su competencia.

No obstante lo anterior, una vez otorgado el contrato de concesión minera o realizada la anotación en el Registro Minero Nacional del subcontrato de formalización, su titular deberá tramitar y obtener ante la autoridad ambiental competente la correspondiente licencia ambiental global o definitiva que ampare la actividad. Este trámite deberá ceñirse a los términos y condiciones establecidos en el Título VIII de la Ley 99 de 1993 y sus normas reglamentarias. En todo caso, el acto administrativo de inicio del trámite de la licencia ambiental global antes mencionado, extenderá la vigencia de la licencia ambiental temporal para la formalización hasta que la autoridad ambiental competente se pronuncie sobre la viabilidad o no de la licencia ambiental global o definitiva. El incumplimiento de los términos y condiciones aquí descritos serán causal de rechazo de la solicitudes de formalización de minería tradicional o del subcontrato de formalización minera o de revocatoria de los actos administrativos de aceptación de la devolución de áreas para la formalización o del de declaración y delimitación del Área de Reserva Especial o de caducidad del contrato de concesión minera, según sea el caso; así como de la imposición de las medidas preventivas y sancionatorias consagradas en la Ley 1333 de 2009.

En todo caso, tanto las autoridades ambientales competentes como la autoridad minera deberán observar de manera estricta el cumplimiento de los plazos establecidos en las normas que regulan los procesos del presente artículo.

El Ministerio de Ambiente y Desarrollo Sostenible deberá expedir los términos de referencia diferenciales para la elaboración del estudio de impacto ambiental de la licencia ambiental temporal para la formalización minera, teniendo en cuenta la particularidad de los procesos de formalización de que trata el presente artículo. Las autoridades ambientales competentes cobrarán los servicios de seguimiento ambiental que se efectúen a las actividades mineras durante la implementación de la licencia ambienta temporal para la formalización minera de conformidad con lo dispuesto en la Ley 633 de 2000, sin perjuicio del cobro del servicio de evaluación que se deba realizar para la imposición del instrumento de manejo y control ambiental que ampare la operación de estas actividades.

Las solicitudes de formalización de minería tradicional que presentaron plan de manejo ambiental no requerirán presentar el estudio de impacto ambiental, por lo tanto, la licencia ambiental temporal para la formalización se otorgará con fundamento en el mencionado plan. En el evento en que el plan de manejo ambiental haya sido aprobado, este será el instrumento de manejo y control ambiental que amparará el proceso.

Las solicitudes de formalización de minería tradicional que no hayan presentado plan de manejo ambiental, las áreas de reserva especial declaradas y delimitadas, los subcontratos de formalización autorizados y aprobados, y las devoluciones de áreas aprobadas para la formalización antes de la expedición de la presente ley, tendrán un plazo de tres (3) meses para presentar el estudio de impacto ambiental y la solicitud de licencia ambiental temporal para la formalización, contado a partir del día siguiente a la entrada en vigencia de los términos de referencia diferenciales para la elaboración del estudio de impacto ambiental de la licencia ambiental temporal para la formalización minera por parte del Ministerio de Ambiente y Desarrollo Sostenible.

Artículo 23. Cesión de derechos mineros.

La cesión de derechos emanados de un título minero requerirá solicitud por parte del beneficiario del título, acompañada del documento de negociación de la cesión de derechos. Esta solicitud deberá ser resuelta por la Autoridad Minera en un término de sesenta (60) días, en los cuales verificará los requisitos de orden legal y económico a que alude el artículo 22 de la Ley 1753 de 2015 o aquella que la sustituya o modifique. En caso de ser aprobada la cesión se inscribirá en el Registro Minero Nacional el acto administrativo de aprobación.

Artículo 24. Sistema de Cuadrícula en la Titulación Minera.

La implementación del sistema de cuadrículas se llevará a cabo de acuerdo con las normas de información geoespacial vigentes y los lineamientos que para el efecto defina la autoridad minera nacional.

Todas las solicitudes y propuestas se evaluarán con base en el sistema de cuadrícula minera implementado por la autoridad minera nacional. Por lo anterior no se permitirá la superposición de propuestas sobre una misma celda, con excepción de las concesiones concurrentes. Se entiende por celda el cuadro definido por la autoridad minera nacional como una unidad de medida para la delimitación del área de las solicitudes y contratos de concesión minera.

Los títulos mineros otorgados con anterioridad a la entrada en operación del sistema de cuadrícula o el que haga sus veces, migrará a este sistema manteniendo las condiciones y coordenadas en las que fueron otorgados, para lo cual se atenderá la metodología que para el efecto establezca la autoridad minera nacional.

Artículo 25. Prórrogas de los Contratos de Concesión Minera del Decreto 2655 de 1988.

Los Contratos de Concesión de Minería suscritos en vigencia del Decreto 2655 de 1988 podrán prorrogarse. Para el efecto, mínimo seis (6) meses antes de vencerse el período de explotación y encontrándose a paz y salvo con todas las obligaciones derivadas del contrato, el concesionario podrá solicitar la prórroga hasta por treinta (30) años, la cual no será automática.

La Autoridad Minera Nacional determinará si concede o no la prórroga, teniendo en cuenta la conveniencia de la misma para los intereses del Estado, de acuerdo con los criterios que para el efecto establezca dicha autoridad. Adicionalmente, podrá establecer nuevas condiciones contractuales y pactar nuevas contraprestaciones adicionales a las regalías.

Perfeccionada la prórroga, en los términos del artículo 77 de la Ley 685 de 2001 o la norma que la sustituya o modifique, el contrato prorrogado deberá cumplir con las normas ambientales vigentes. Las labores de explotación no se suspenderán mientras se perfeccione el nuevo contrato y se adecúen los instrumentos ambientales del contrato inicial, de acuerdo con lo que determine la autoridad ambiental.

Artículo 26. Liquidación de Contratos de Concesión Minera.

Los contratos de concesión minera de cualquier régimen deberán ser liquidados de mutuo acuerdo a su terminación y dentro del término fijado en el respectivo contrato, o dentro del que acuerden las partes para el efecto. De no existir tal término, la liquidación se realizará dentro de los doce (12) meses siguientes a la expedición del acto administrativo que declare su terminación.

En aquellos casos en que el contratista no se presente a la liquidación del contrato previa notificación o convocatoria por parte de la autoridad minera, o las partes no lleguen a un acuerdo, la entidad liquidará el contrato en forma unilateral mediante acto administrativo debidamente motivado dentro de los dos (2) meses siguientes a la convocatoria o a la falta de acuerdo, de conformidad con lo dispuesto en el artículo 141 del Código de Procedimiento Administrativo y de lo Contencioso Administrativo. Vencido el plazo anteriormente establecido sin la realización de la liquidación, la autoridad minera podrá liquidar el contrato en cualquier tiempo dentro de los dos (2) años siguientes de mutuo acuerdo o unilateralmente, sin perjuicio de lo previsto en el artículo 141 ibídem.

En el evento en que el concesionario minero presente salvedades en la liquidación por mutuo acuerdo, la liquidación unilateral solo procederá en los aspectos que no hayan sido objeto de acuerdo.

Artículo 27. Servidumbre minera.

El procedimiento para la imposición de servidumbres mineras será el previsto en la Ley 1274 de 2009.

Artículo 28. Liberación de áreas.

Las áreas que hayan sido objeto de una solicitud minera y que por cualquier causa queden libres, solo podrán ser objeto de propuesta de contrato de concesión trascurridos quince (15) días después de la firmeza del acto administrativo de rechazo o desistimiento o cualquiera otro que implique la libertad del área.

El área que haya sido objeto de un contrato de concesión minera, que termine por cualquier causa, solo se podrá desanotar del Catastro Minero Nacional dentro de los quince (15) días siguientes a la suscripción del acta de liquidación bilateral o a la liquidación unilateral del mismo. En el caso de los títulos mineros que no son objeto de liquidación se seguirán las reglas de este artículo sobre solicitudes mineras. El acto administrativo a que se refiere el inciso primero de este artículo, el que establece la liquidación del contrato, o el que da por terminado el título minero, deberán ser publicados en la página electrónica de la Autoridad Minera o en el medio que hiciere sus veces dentro de los cinco (5) días siguientes a la ejecutoria o firmeza del acto. Dentro de este último término deberá inscribirse en el Registro Minero Nacional.

Artículo 29. Reporte de Información al Ministerio de Minas y Energía.

El Ministerio de Minas y Energía en su calidad de administrador de los recursos destinados al pago de subsidios, a la ampliación de cobertura y a la mejora de calidad, entre otros, para la asignación de dichos recursos, además de la información reportada por los prestadores al Sistema Único de Información (SUI) podrá solicitar directamente a los prestadores del servicio público de energía la información que requiera, efectuar visitas, adelantar auditorías y realizar todas las gestiones necesarias para verificar la destinación de los recursos asignados.

Parágrafo. El Ministerio de Minas y Energía deberá presentar un informe anual al Congreso de la República sobre los recursos destinados para pago de subsidios y la destinación de los mismos para mejorar la ampliación, calidad y cobertura.

Artículo 30. Fortalecimiento de la Fiscalización, Seguimiento y Control de Actividades Mineras.

Las labores de exploración y explotación que se desarrollen a través de las figuras de reconocimientos de propiedad privada, autorizaciones temporales, áreas de reserva especial declaradas y delimitadas por la autoridad minera nacional, solicitudes de legalización y formalización minera y mecanismos de trabajo bajo el amparo de un título minero serán objeto de fiscalización.

Para la fiscalización de las actividades mineras que se desarrollan en los reconocimientos de propiedad privada, los beneficiarios deberán presentar en el mes de noviembre de cada año, un informe de las labores mineras ejecutadas en dicha anualidad y el programa de las que se realizarán en la siguiente. Así mismo, deberán cumplir con las normas de seguridad e higiene minera, con la declaración de producción de minerales y con la liquidación y pago de las regalías de manera trimestral. La autoridad minera establecerá el detalle de la información a presentar y los requisitos para su entrega.

Los beneficiarios de autorizaciones temporales deberán contar con la aprobación por parte de la autoridad minera, de un Plan de Trabajo de Explotación para la ejecución de sus actividades mineras y para su fiscalización. Los términos de referencia para la elaboración, contenido, evaluación y aprobación de este Plan se expedirán por la autoridad minera.

Mientras obtienen el contrato de concesión minera, las actividades mineras realizadas en las Áreas de Reserva Especial declaradas, en las solicitudes de legalización y de formalización minera, y en las devoluciones de áreas para la formalización minera, serán objeto de fiscalización respecto del cumplimiento de los reglamentos de seguridad e higiene minera y el pago de las regalías que genere la explotación. Las Áreas de Reserva Especial que cuenten con condiciones de seguridad e higiene minera y con instrumento ambiental diferencial, luego de su declaratoria, podrán ejecutar operaciones mineras sin restricción. El incumplimiento de las obligaciones establecidas en este inciso ocasionará la suspensión inmediata de las actividades de explotación y el rechazo de la solicitud o la terminación de la declaratoria de Área de Reserva Especial.

El incumplimiento de las obligaciones señaladas en los incisos segundo y tercero del presente artículo, serán objeto de multa en los términos previstos por los artículos 115 y 287 de la Ley 685 de 2001, sin perjuicio de las sanciones que, de acuerdo con la normativa ambiental, sean aplicables.

Artículo 31. Secretaría Técnica del OCAD Paz.

El Departamento Nacional de Planeación ejercerá la Secretaría Técnica del OCAD PAZ.

Artículo 32. Causales para adelantar el procedimiento correctivo y sancionatorio.

Modifíquese el literal a) del artículo 113 de la Ley 1530 de 2012, el cual quedará así:

a) Incumplir con la destinación legal de los recursos del Sistema General de Regalías.

SUBSECCIÓN 2. LEGALIDAD PARA LA TRANSPARENCIA DE LAS FINANZAS PÚBLICAS

Artículo 33. Funcionamiento del Fondo de Estabilización de Precios de los Combustibles (FEPC).

Para garantizar el funcionamiento y sostenibilidad del Fondo de Estabilización de Precios de los Combustibles (FEPC) el Ministerio de Hacienda y Crédito Público, como administrador del FEPC, podrá realizar directamente o a través de entidades especializadas, el diseño, gestión, adquisición y/o celebración de instrumentos y/o contratos de cobertura financiera sobre los precios del petróleo o de los combustibles líquidos en el mercado internacional, o sobre la tasa de cambio del peso colombiano por el dólar estadounidense.

Parágrafo 1°. Las decisiones de coberturas financieras previstas en este artículo deberán ser evaluadas de forma conjunta y en contexto con la función del FEPC, no por el desempeño de una operación individual sino como parte de una estrategia de estabilidad de los precios internos de los combustibles y de sostenibilidad del FEPC. En algunos periodos determinados por condiciones adversas del mercado, se podrán observar operaciones cuyos resultados sean iguales a cero o negativos por la naturaleza propia de las coberturas.

Parágrafo 2°. Los actos o contratos que se ejecuten para el control del riesgo de mercado y de crédito resultante de las operaciones o de la estrategia implementada según lo previsto en el presente artículo, se sujetarán a las normas del derecho privado aplicables a las mismas.

Artículo 34. Obligaciones a cargo del Fondo de Estabilización de Precios de los Combustibles (FEPC).

Las obligaciones derivadas de las cuentas por cobrar constituidas por la Nación al Fondo de Estabilización de Precios de los Combustibles (FEPC) creado por el artículo 69 de la Ley 1151 de 2007, prorrogado por el artículo 267 de la Ley 1753 de 2015, las cuales fueron autorizadas por la ley en contrapartida de la emisión de bonos u otros títulos de deuda pública, se entenderán extintas a partir del 31 de diciembre de 2019.

Para dar cumplimiento a lo establecido en el presente artículo, el Ministerio de Hacienda y Crédito Público realizará las operaciones necesarias para la extinción de la deuda de la que trata el presente artículo, y de sus respectivos intereses.

Artículo 35. Precio de los combustibles líquidos a estabilizar.

El Ministerio de Hacienda y Crédito Público y el Ministerio de Minas y Energía, o la entidad delegada, establecerá la metodología de cálculo del valor del ingreso al productor de los combustibles líquidos y biocombustibles, así como las tarifas y márgenes asociados a la remuneración de toda la cadena de transporte, logística, comercialización y distribución de dichos combustibles que hacen parte del mercado regulado. El Ministerio de Hacienda y Crédito Público podrá determinar el mecanismo de estabilización de los precios de referencia de venta al público de los combustibles regulados, así como los subsidios a los mismos, que se harán a través del Fondo de Estabilización de Precios de los Combustibles (FEPC). El mecanismo de estabilización previsto por el FEPC no afectará los impuestos de carácter territorial.

Parágrafo 1°. Las compensaciones al transporte, los subsidios, los incentivos tributarios y el mecanismo de estabilización de precios, podrán reconocerse y entregarse de manera general, focalizada o directa al consumidor final en la forma que determine el Gobierno nacional mediante el uso de nuevas tecnologías.

Parágrafo 2°. Dado que el sector de biocombustibles tiene relación directa con el sector agrícola y tiene un efecto oxigenante en los combustibles líquidos, el porcentaje de biocombustibles dentro de la mezcla de combustibles líquidos deberá ser regulado por el Ministerio de Agricultura y Desarrollo Rural, el Ministerio de Ambiente y Desarrollo Sostenible y el Ministerio de Minas y Energía.

Artículo 36. Administración eficiente de recursos públicos.

Modifíquese el artículo 149 de la Ley 1753 de 2015, el cual quedará así:

Artículo 149. Administración eficiente de recursos públicos. Los recursos provenientes del Presupuesto General de la Nación transferidos a entidades financieras no podrán tener como objeto proveerlas de fondos sino atender los compromisos y obligaciones en desarrollo del objeto de las apropiaciones presupuestales.

En consecuencia, los saldos de recursos girados a entidades financieras que no se encuentren respaldando compromisos u obligaciones del Presupuesto General de la Nación deberán ser reintegrados a la entidad estatal respectiva, de conformidad con la reglamentación que expida el Ministerio de Hacienda y Crédito Público. Los saldos así reintegrados podrán ser requeridos nuevamente para gastos referentes al cumplimiento de su objeto, sin que implique operación presupuestal alguna.

Los rendimientos financieros originados con recursos de la Nación deben consignarse en la Dirección General de Crédito Público y Tesoro Nacional, con excepción de aquellos rendimientos en los que la Ley haya determinado específicamente su tratamiento.

Cuando los negocios fiduciarios utilicen la creación de subcuentas, subprogramas, subproyectos, o cualquier otra modalidad de clasificación, deberán implementar de manera temporal la unidad de caja, sin afectar los derechos de los beneficiarios del negocio jurídico, para buscar eficiencia en el manejo de los recursos que les sitúa la Nación.

Parágrafo 1°. Además de lo dispuesto en los incisos primero y segundo del artículo 261 de la Ley 1450 de 2011, las entidades estatales del orden nacional que administren contribuciones parafiscales y los órganos de previsión y seguridad social que administren prestaciones sociales de carácter económico, podrán formar parte del Sistema de Cuenta Única Nacional.

Parágrafo 2°. La Dirección General de Crédito Público y Tesoro Nacional podrá administrar excedentes de liquidez de entidades estatales de cualquier orden a través de depósitos en administración, de conformidad con la reglamentación que expida el Ministerio de Hacienda y Crédito Público.

Parágrafo 3°. Lo establecido en el inciso segundo de la presente disposición aplicará de manera especial para los recursos del Fondo de Reserva para la Estabilización de la Cartera Hipotecaria (FRECH) de que tratan los artículos 48 y 49 de la Ley 546 de 1999 y el artículo 88 de la Ley 1151 de 2017, así como para los recursos del Subsidio de Vivienda de Interés Social Rural (SVISR) depositados por el Banco Agrario, de conformidad con lo establecido en el Capítulo 1 del Título 1 de la Parte 2 del Libro 2 del Decreto 1071 de 2015 y sus normas modificatorias.

Artículo 37. Administración de activos y pasivos financieros.

El Ministerio de Hacienda y Crédito Público, a través de la Dirección General de Crédito Público y Tesoro Nacional será la encargada de administrar los activos y pasivos financieros de la Nación de forma directa y los activos financieros de los demás entes públicos por delegación de las entidades respectivas.

Para tal efecto, facúltese a la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público para que realice las siguientes operaciones: compra y venta de títulos valores emitidos por la Nación, el Banco de la República, Fondo de Garantías de Instituciones Financieras (FOGAFÍN), entidades sujetas al control y vigilancia de la Superintendencia Financiera de Colombia y otros gobiernos y tesorerías; compra de deuda de la Nación; compras con pacto de retroventa, operaciones repo, simultáneas y transferencia temporal de valores con entidades públicas y con entidades financieras sujetas al control y vigilancia de la Superintendencia Financiera de Colombia; depósitos remunerados e inversiones financieras en entidades sujetas al control y vigilancia de la Superintendencia Financiera de Colombia; depósitos a término y compras de títulos emitidos por entidades bancadas y financieras del exterior; inversiones en instrumentos del mercado monetario administrados por entidades financieras del exterior; operaciones de cubrimiento de riesgos; préstamos transitorios a dicha Dirección General cuyo plazo se podrá prorrogar antes de su vencimiento, depósitos en administración de recursos de las entidades estatales de cualquier orden, eventos que no implican unidad de caja; préstamos de títulos valores a la citada Dirección a tasas de mercado; y las demás que autorice el Gobierno nacional.

Parágrafo 1°. Las operaciones de las que trata este artículo, así como los actos y contratos necesarios para su ejecución, se sujetarán a las normas de derecho privado y se podrán atender con cargo al servicio de la deuda si lo apropiado por los rendimientos de la colocación de los excedentes de la Dirección General de Crédito Público y Tesoro Nacional, fuera insuficiente.

Parágrafo 2°. En el manejo de los excedentes de liquidez, la Dirección General de Crédito Público y Tesoro Nacional podrá otorgar créditos de tesorería hasta por el plazo de un año a las entidades descentralizadas del orden nacional, de conformidad con los criterios técnicos y condiciones que establezca el Ministerio de Hacienda y Crédito Público.

Artículo 38. Orientación del gasto a resultados.

Modifíquese el artículo 148 de la Ley 1753 de 2015, el cual quedará así:

Artículo 148. Presupuesto orientado a resultados. La programación presupuestal debe orientarse a resultados, promover el uso eficiente y transparente de los recursos públicos y establecer una relación directa entre el ingreso, el gasto y los bienes y servicios entregados a la ciudadanía. Para el efecto, el presupuesto debe clasificarse mediante programas definidos que serán insumo para la elaboración de los planes de desarrollo y los planes plurianuales de inversión.

La información sobre programación y ejecución presupuestal de los recursos de inversión de las entidades públicas del orden nacional y territorial debe reportarse a través del sistema de información unificada establecido para tal fin, de acuerdo con los lineamientos definidos para el efecto por el Departamento Nacional de Planeación.

El presupuesto orientado a resultados y la clasificación por programas aplicará a la Nación, a las entidades territoriales y, a todas las fuentes de financiación del gasto público, de acuerdo con cada uno de los Planes de Desarrollo Territorial (PDT) vigentes.

Artículo 39. Saneamiento Contable de los Estados Financieros de la Nación.

Con el fin de lograr el saneamiento contable de los estados financieros de la Nación, el Ministerio de Hacienda y Crédito Público hará los registros contables para depurar y castigar los saldos derivados de embargos judiciales por procesos ejecutivos decretados en contra de las diferentes entidades públicas, antes del 28 de febrero de 1995 y que recayeron contra el Tesoro Nacional – Cuenta Cajero del Banco de la República.

Artículo 40. Saneamiento de títulos de bienes inmuebles de la nación y entidades extintas o inexistentes del orden nacional.

Los bienes inmuebles cuyos títulos de propiedad actualmente figuren en cabeza de entidades, establecimientos públicos, empresas industriales o comerciales del orden nacional, ya extintas o inexistentes o aparezcan asignados de manera indefinida o genérica a nombre de la Nación o el Estado colombiano, o cualquier expresión equivalente en su momento, se inscribirán por las autoridades registrales a título de asignación a nombre del Ministerio y/o Departamento Administrativo cabeza del último sector al que perteneció o debió pertenecer la entidad en ellos mencionada o al Ministerio cuyas funciones estén relacionadas con el objeto o destino del respectivo bien.

Para lo anterior, el Ministerio de Hacienda y Crédito Público determinará mediante acto administrativo motivado el Ministerio y/o Departamento Administrativo al que será asignado el inmueble. Si el inmueble no se requiere para la prestación de algún servicio a cargo del Gobierno nacional será asignado a la Central de Inversiones S.A. (CISA). En caso de no poderse determinar la entidad a la que pertenecía o el sector al cual estaba destinado el uso del bien, la titularidad del mismo quedará en cabeza del Ministerio de Hacienda y Crédito Público, mientras se efectúa la asignación mencionada. El registro de este acto no generará impuestos, tasas o contribuciones.

Parágrafo. Se exceptúa de lo dispuesto en este artículo los bienes baldíos rurales.

Artículo 41. De las modalidades de selección.

Modifíquese el Parágrafo 5° del artículo 2° de la Ley 1150 de 2007, el cual quedará así:

Parágrafo 5°. Los acuerdos marco de precios a que se refiere el inciso 2 del literal a) del numeral 2 del presente artículo, permitirán fijar las condiciones de oferta para la adquisición o suministro de bienes y servicios de características técnicas uniformes y de común utilización a las entidades estatales durante un período de tiempo determinado, en la forma, plazo y condiciones de entrega, calidad y garantía establecidas en el acuerdo.

La selección de proveedores como consecuencia de la realización de un acuerdo marco de precios, le dará a las entidades estatales que suscriban el acuerdo, la posibilidad que mediante órdenes de compra directa, adquieran los bienes y servicios ofrecidos.

En consecuencia, entre cada una de las entidades que formulen órdenes directas de compra y el respectivo proveedor, se constituirá un contrato en los términos y condiciones previstos en el respectivo acuerdo.

El Gobierno nacional señalará la entidad o entidades que tendrán a su cargo el diseño, organización y celebración de los acuerdos marco de precios. El reglamento establecerá las condiciones bajo las cuales el uso de acuerdos marco de precios, se hará obligatorio para todas las entidades sometidas al Estatuto General de Contratación de la Administración Pública.

Los Organismos Autónomos, las Ramas Legislativa y Judicial y las entidades territoriales en ausencia de un acuerdo marco de precios diseñado por la entidad que señale el Gobierno nacional, podrán diseñar, organizar y celebrar acuerdos marco de precios propios.

Artículo 42. Transparencia en contratación de mínima cuantía.

Adiciónese el Parágrafo 3° al artículo 94 de la Ley 1474 de 2011, así:

Parágrafo 3°. En aquellos eventos en que las entidades estatales deban contratar bienes o servicios de características técnicas uniformes que se encuentren en un acuerdo marco de precios y cuyo valor no exceda del diez por ciento (10%) de la menor cuantía, las entidades deberán realizar la adquisición a través de la Tienda Virtual del Estado Colombiano, siempre que el bien o servicio esté disponible por ese medio.

Las entidades que no se encuentren obligadas a hacer uso del acuerdo marco de precios igualmente podrán utilizar esta figura antes que la selección por mínima cuantía.

Artículo 43. Inhabilidad por incumplimiento reiterado. Modifíquese el artículo 90 de la Ley 1474 de 2011, el cual quedará así:

Artículo 90. Inhabilidad por incumplimiento reiterado. Quedará inhabilitado el contratista que incurra en alguna de las siguientes conductas:

a) Haber sido objeto de imposición de cinco (5) o más multas durante la ejecución de uno o varios contratos, con una o varias entidades estatales, durante los últimos tres (3) años;

b) Haber sido objeto de declaratorias de incumplimiento contractual en por lo menos dos (2) contratos, con una o varias entidades estatales, durante los últimos tres (3) años;

c) Haber sido objeto de imposición de dos (2) multas y un (1) incumplimiento durante una misma vigencia fiscal, con una o varias entidades estatales.

La inhabilidad se extenderá por un término de tres (3) años, contados a partir de la publicación del acto administrativo que impone la inscripción de la última multa o incumplimiento en el Registro Único de Proponentes, de acuerdo con la información remitida por las entidades públicas. La inhabilidad pertinente se hará explícita en el Registro Único de Proponentes cuando a ello haya lugar.

Parágrafo. La inhabilidad a que se refiere el presente artículo se extenderá a los socios de sociedades de personas a las cuales se haya declarado esta inhabilidad, así como a las sociedades de personas de las que aquellos formen parte con posterioridad a dicha declaratoria.

Artículo 44. Enajenación de participaciones minoritarias de las entidades estatales.

Modifíquese el artículo 258 de la Ley 1450 de 2011, modificado por el artículo 162 de la Ley 1753 de 2015, el cual quedará así:

Artículo 258. Enajenación de participaciones minoritarias de las entidades estatales. Las entidades estatales de cualquier orden o rama podrán enajenar directamente o a través del colector de activos de la Nación, Central de Inversiones (CISA), únicamente aquellas participaciones accionarias en las cuales la propiedad de las mismas haya sido producto de un acto en el que no haya mediado la voluntad expresa de la entidad pública o que provengan de una dación en pago y, siempre y cuando esta participación no supere el cuarenta y nueve por ciento (49%) de la propiedad accionaria de la sociedad. En todo caso, y previo a enajenar las mismas, la entidad propietaria de la participación accionaria deberá comprobar que la propiedad accionaria que ostenta fue producto de un acto en el que no medió la voluntad expresa de la entidad pública o que provino de una dación en pago. Cuando la entidad opte por enajenar la participación en una sociedad deberá dar aplicación al régimen societario al que se encuentra sometida.

En el evento en que las entidades a que se refiere este artículo opten por enajenar directamente su participación en una empresa, la valoración de la participación deberá contar con las siguientes aprobaciones:

i) Las entidades que hacen parte del sector central del orden nacional deberán contar con la no objeción del Ministerio de Hacienda y Crédito Público,

ii) Las entidades que hacen parte del sector descentralizado del orden nacional deberán contar con la aprobación de la junta directiva de la respectiva entidad, y,

iii) las entidades territoriales de cualquier orden deberán contar con la aprobación del representante de la respectiva entidad.

En los casos en que las entidades a que se refiere este artículo decidan adelantar el proceso de enajenación a través de CISA, este se efectuará conforme al modelo de valoración y al procedimiento establecido por CISA, teniendo en cuenta las condiciones de mercado. Es este caso, la entidad estatal y CISA podrán suscribir un convenio / contrato interadministrativo en el cual se pactará entre otros: i) El valor y forma de pago de la remuneración de CISA, que podrá ser descontado del valor de la venta, ii) Los métodos de valoración, que se adelantarán siguiendo al efecto el modelo de valoración y el procedimiento establecido por CISA, para lo cual esta última podrá contratar a un tercero que desarrolle actividades de banca de inversión con el fin de que adelante y/o apoye el proceso de valoración.

Las entidades a que hace referencia este artículo podrán, a través de CISA, enajenar las acciones que hubieren adquirido con anterioridad a la expedición de esta Ley o aquellas que adquieran posteriormente.

Artículo 45. Extensión de la medida cautelar.

Adiciónese el siguiente Parágrafo al artículo 100 de la Ley 1708 de 2014, así:

Parágrafo. La extensión de la medida cautelar a que se refiere este artículo aplica aunque los bienes no hayan sido plenamente individualizados por la Fiscalía General de la Nación. Los efectos de este artículo aplicarán a los procesos iniciados antes de la entrada en vigencia de la presente Ley. En consecuencia, el administrador del FRISCO estará habilitado para solicitar a las autoridades con funciones de registro, la inscripción de las medidas cautelares a los bienes donde opere el fenómeno, siempre que la medida cautelar recaiga en el 100% de la participación accionaria.

Artículo 46. Del Fondo Adaptación.

Modifíquese el artículo 155 de la Ley 1753 de 2015, el cual quedará así:

Artículo 155. Del Fondo Adaptación. El Fondo Adaptación, creado mediante Decreto-Ley 4819 de 2010, hará parte del Sistema Nacional de Gestión del Riesgo de Desastres en los términos de la Ley 1523 de 2012.

Los contratos que celebre el Fondo Adaptación para ejecutar los recursos destinados al programa de reducción de la vulnerabilidad fiscal ante desastres y riesgos climáticos, se regirán por el derecho privado. Lo anterior, con plena observancia de lo dispuesto en el artículo 13 de la Ley 1150 de 2007, sin perjuicio de la facultad de incluir las cláusulas excepcionales a que se refieren los artículos 14 a 18 de la Ley 80 de 1993 y de aplicar lo dispuesto en los artículos 11 y 17 de la Ley 1150 de 2007, a partir del 1° de enero de 2020 los procesos contractuales que adelante el Fondo Adaptación se regirán por lo previsto por la Ley 80 de 1993 y la Ley 1150 de 2007.

Con el propósito de fortalecer y contribuir a la reducción de la vulnerabilidad fiscal del Estado, el Fondo Adaptación podrá estructurar y ejecutar proyectos integrales de reducción del riesgo y adaptación al cambio climático, en el marco del Sistema Nacional de Gestión del Riesgo de Desastres o del Plan Nacional de Adaptación y de la Política Nacional de Cambio Climático, o su equivalente, en coordinación con los respectivos sectores.

Parágrafo. Será responsabilidad de las entidades del orden nacional y territorial beneficiarías de los proyectos a cargo del Fondo Adaptación, garantizar su sostenibilidad y la puesta en marcha de los mecanismos jurídicos, técnicos, financieros y operacionales necesarios para su adecuada implementación.

Artículo 47. Régimen patrimonial.

Adiciónese el literal f) al numeral 2 del artículo 319 del Estatuto Orgánico del Sistema Financiero, así:

f) Cuando de acuerdo con consideraciones técnicas referidas a la suficiencia de una reserva, la Junta Directiva del Fondo de Garantías de Instituciones Financieras lo considere necesario, podrá adoptar un plan para incrementarla de manera temporal. Para dicha finalidad, con base en estos criterios, podrá incrementar la prima por encima del límite previsto en el artículo 323 de este Estatuto.

Artículo 48. Garantías para bonos hipotecarios para financiar cartera VIS subsidiable y para títulos emitidos en procesos de titularización de cartera VIS subsidiable.

Modifíquese el inciso primero del artículo 30 de la Ley 546 de 1999, el cual quedará así:

Garantías para bonos hipotecarios para financiar cartera VIS subsidiable y para títulos emitidos en procesos de titularización de cartera VIS subsidiable. El Gobierno nacional, a través del Fondo Nacional de Garantías (FNG), otorgará garantías para los bonos hipotecarios para financiar cartera VIS subsidiable y para títulos emitidos en procesos de titularización de cartera VIS subsidiable, que emitan los establecimientos de crédito, en los términos y con las condiciones que señale el Gobierno nacional.

Artículo 49. Cálculo de valores en UVT.

A partir del 1° de enero de 2020, todos los cobros, sanciones, multas, tasas, tarifas y estampillas, actualmente denominados y establecidos con base en el salario mínimo mensual legal vigente (smmlv), deberán ser calculados con base en su equivalencia en términos de la Unidad de Valor Tributario (UVT). En adelante, las actualizaciones de estos valores también se harán con base en el valor de la UVT vigente.

Parágrafo. Los cobros, sanciones, multas, tasas, tarifas y estampillas, que se encuentren ejecutoriados con anterioridad al 1° de enero de 2020 se mantendrán determinados en smmlv.

Artículo 50. Transferencia de participaciones en organismos internacionales.

Autorícese al Banco de la República para transferir al Gobierno nacional las participaciones (aportes, contribuciones y suscripciones) en organismos internacionales que no constituyan activos de reservas internacionales y los pasivos relacionados con las mismas. Esta operación se efectuará por el valor en libros en la fecha de la operación, con cargo al patrimonio del Banco de la República.

Artículo 51. Gastos de personal de entidades públicas del orden nacional.

Las modificaciones a los gastos de personal de las entidades públicas nacionales no podrán afectar programas y servicios esenciales a cargo de la respectiva entidad. Así mismo, deberán guardar consistencia con el Marco Fiscal de Mediano Plazo, el Marco de Gasto de Mediano Plazo del respectivo sector, y garantizar el cumplimiento de la regla fiscal establecida en la Ley 1473 de 2011. El Ministerio de Hacienda y Crédito Público verificará el cumplimiento de estas condiciones y otorgará la viabilidad presupuestal.

 Artículo 52. Marco fiscal de mediano plazo para entidades territoriales.

Adiciónese el literal h) y un Parágrafo al artículo 5° de la Ley 819 de 2003, así:

h) Incorporar en su Marco Fiscal de Mediano Plazo el análisis de la situación financiera de las entidades del sector descentralizado y hacer ejercicios de simulación sobre el impacto que puedan tener los resultados de dichas entidades en las finanzas de la entidad territorial y en los indicadores de las normas de responsabilidad fiscal territorial.

Parágrafo. El Marco Fiscal de Mediano Plazo de las entidades territoriales deberá contener la descripción de las estrategias e instrumentos para garantizar su cumplimiento. Los concejos municipales y asambleas departamentales al aprobar el presupuesto y el plan de inversiones del plan de desarrollo tendrán en cuenta que estos sean consistentes con el Marco Fiscal de Mediano Plazo de la entidad territorial.

Artículo 53. Pago de sentencias o conciliaciones en mora.

Durante la vigencia de la presente Ley, la Nación podrá reconocer como deuda pública las obligaciones de pago originadas en sentencias o conciliaciones debidamente ejecutoriadas y los intereses derivados de las mismas, que se encuentren en mora en su pago a la fecha de expedición de la presente Ley. Este reconocimiento operará exclusivamente para las entidades que hagan parte del Presupuesto General de la Nación y por una sola vez. En estos casos, dichas obligaciones de pago serán reconocidas y pagadas bien sea con cargo al servicio de deuda del Presupuesto General de la Nación o mediante la emisión de Títulos de Tesorería TES Clase B.

Para el cumplimiento de lo señalado en este artículo y con el objetivo de suministrar la respectiva liquidez, la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público administrará, en una cuenta independiente el cupo de emisión de TES que se destine a la atención de las obligaciones de pago originadas en sentencias o conciliaciones ejecutoriadas, y los intereses derivados de las mismas. Para estos efectos, la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública.

En todo caso, las entidades de las que trata el inciso primero de este artículo deberán tener en cuenta:

1. La veracidad, oportunidad, verificación de los requisitos para el pago de las obligaciones, así como la responsabilidad de adelantar las gestiones pertinentes radica exclusivamente en cada una de las entidades, sin que implique responsabilidad alguna para las demás entidades que participan en el proceso de pago de las sentencias o conciliaciones, de conformidad con lo que para el efecto defina el Gobierno nacional. El incumplimiento de lo dispuesto en este numeral acarreará las sanciones penales, disciplinarias y fiscales a que haya lugar.

2. El cumplimiento de lo dispuesto en el artículo 262 de la Ley 1819 de 2016.

3. Podrán celebrar acuerdos de pago o conciliaciones extrajudiciales con los beneficiarios finales, respecto de los montos adeudados.

4. La responsabilidad por el pago de las obligaciones es exclusivamente de la entidad. El Gobierno nacional reglamentará la materia.

Parágrafo 1°. La emisión de Títulos de Tesorería TES Clase B de que trata el presente artículo no implica operación presupuestal y solo debe presupuestarse para efectos del pago de intereses y la redención de los títulos.

Parágrafo 2°. Las entidades del Presupuesto General de la Nación de las que trata el presente artículo deberán suscribir con el Ministerio de Hacienda y Crédito Público los acuerdos de pago para asumir el principal e intereses de los títulos con cargo a sus presupuestos de gasto y procederán con los registros contables que sean del caso para extinguir dichas obligaciones.

Artículo 54. Autorización para el uso de recursos de mayor recaudo.

Los recursos incorporados en el presupuesto bienal del Sistema General de Regalías a través del artículo 7° de la Ley 1942 de 2018, no estarán imitados por lo dispuesto en el artículo 40 de la misma Ley.

Artículo 55. Fondo DIAN para Colombia.

Créase un patrimonio autónomo denominado Fondo DIAN para Colombia, administrado por el Ministerio de Hacienda y Crédito Público o por la entidad o entidades que esta decida, y para el efecto estas entidades se encuentran facultadas para celebrar el espectivo contrato de fiducia mercantil. Este Fondo tendrá por objeto la financiación y/o la inversión del programa de modernización de la Dirección de Impuestos y Aduanas Nacionales (DIAN). En desarrollo de su propósito el mencionado patrimonio autónomo podrá:

1. Recibir total o parcialmente aportes del Gobierno nacional para financiar o cofinanciar los proyectos de desarrollo acordes con la finalidad del patrimonio autónomo.

2. Administrar todo tipo de bienes muebles y/o inmuebles de propiedad de la DIAN y comercializarlos a fin de destinarlos al objeto del fondo.

3. Aceptar donaciones del sector público o privado, nacional e internacional, con el propósito de realizar las actividades del patrimonio.

4. Suscribir convenios o contratos con entidades públicas para desarrollar su propósito.

5. Celebrar operaciones de financiamiento interno o externo, a nombre de patrimonio autónomo para lo cual la Nación o las Entidades Territoriales podrán otorgar los avales o garantías correspondientes. Para el otorgamiento de la garantía de la Nación no será necesario la constitución de las contragarantías a favor de la Nación ni de la realización de aportes al Fondo de Contingencias.

Cumplido el propósito del Fondo DIAN para Colombia, este podrá ser liquidado. El Gobierno nacional reglamentará la materia.

Artículo 56. Fondo Nacional para el Desarrollo de la Infraestructura (FONDES).

Modifíquese el artículo 144 de la Ley 1753 de 2015 que quedará así:

Artículo 144. Fondo Nacional para el Desarrollo de la Infraestructura (FONDES). El Fondo Nacional para el Desarrollo de la Infraestructura (FONDES) será administrado por la Financiera de Desarrollo Nacional y/o la entidad que defina el Gobierno nacional, de conformidad con la reglamentación expedida para el efecto y en los términos del contrato que se suscriba.

El objeto del FONDES será la inversión y financiamiento de proyectos de infraestructura, así como la inversión en el capital social de empresas de servicios públicos mixtas u oficiales y su patrimonio estará constituido, entre otras, por las siguientes fuentes:

a) Cuando el Gobierno nacional lo defina, los recursos producto de la enajenación de la participación accionaria de la Nación, recibidos en virtud de un proceso regulado por la Ley 226 de 1995;

b) Los rendimientos que genere el Fondo;

c) Los recursos que obtenga el fondo a través de sus propias operaciones de crédito público y de tesorería;

d) Los demás recursos que se dispongan para el efecto.

El Gobierno nacional reglamentará la administración y funcionamiento del FONDES, así como los demás asuntos necesarios para su financiamiento y el cabal cumplimiento de su objeto, sin perjuicio del cumplimiento de lo dispuesto por el artículo 124 del Estatuto Orgánico del Presupuesto.

Parágrafo. Los recursos resultantes de la enajenación de la participación accionaria de la Nación señalados en este artículo, mientras se incorporan al Presupuesto General de la Nación, se mantendrán en una cuenta especial e independiente administrada por el Tesoro Nacional. El Gobierno nacional reglamentará el procedimiento por el que se decidirán los términos y plazos en que los recursos de esta cuenta especial serán incorporados en el Presupuesto General de la Nación, así como la transferencia de los mismos del Tesoro Nacional a los administradores.

Artículo 57. Eficiencia en la Administración de los Recursos del Fondo Nacional de Prestaciones Sociales del Magisterio.

Las cesantías definitivas y parciales de los docentes de que trata la Ley 91 de 1989 serán reconocidas y liquidadas por la Secretaría de Educación de la entidad territorial y pagadas por el Fondo Nacional de Prestaciones Sociales del Magisterio.

Las pensiones que pagará el Fondo Nacional de Prestaciones Sociales del Magisterio serán reconocidas por el citado Fondo, mediante la aprobación del proyecto de resolución por parte de quien administre el Fondo, el cual debe ser elaborado por el Secretario de Educación de la Entidad Territorial certificada correspondiente, a la que se encuentre vinculado el docente. El acto administrativo de reconocimiento de la pensión se hará mediante resolución que llevará la firma del Secretario de Educación de la entidad territorial.

Para el pago de las prestaciones económicas y los servicios de salud, el Fondo deberá aplicar el principio de unidad de caja con el fin de lograr mayor eficiencia en la administración y pago de las obligaciones definidas por la ley, con excepción de los recursos provenientes del Fondo Nacional de Pensiones de las Entidades Territoriales (FONPET). En todo caso, el Fondo debe priorizar el pago de los servicios de salud y de las mesadas pensionales de los maestros.

Los recursos del Fondo Nacional de Prestaciones Sociales del Magisterio solo podrán destinarse para garantizar el pago de las prestaciones económicas, sociales y asistenciales a sus afiliados docentes, pensionados y beneficiarios. No podrá decretarse el pago de indemnizaciones económicas por vía judicial o administrativa con cargo a los recursos del Fondo Nacional de Prestaciones Sociales del Magisterio.

Parágrafo. La entidad territorial será responsable del pago de la sanción por mora en el pago de las cesantías en aquellos eventos en los que el pago extemporáneo se genere como consecuencia del incumplimiento de los plazos previstos para la radicación o entrega de la solicitud de pago de cesantías por parte de la Secretaría de Educación territorial al Fondo Nacional de Prestaciones Sociales del Magisterio. En estos eventos el Fondo Nacional de Prestaciones Sociales del Magisterio será responsable únicamente del pago de las cesantías.

Parágrafo transitorio. Para efectos de financiar el pago de las sanciones por mora a cargo Fondo Nacional de Prestaciones Sociales del Magisterio causadas a diciembre de 2019, facúltese al Ministerio de Hacienda y Crédito Público para emitir Títulos de Tesorería que serán administrados por una o varias sociedades fiduciarias públicas; así mismo, el Ministerio de Hacienda y Crédito Público definirá la operación, las reglas de negociación y pago de los mismos. El Consejo Directivo del FOMAG efectuará la adición presupuestal de los recursos de los que trata el presente Parágrafo.

La emisión de bonos o títulos no implica operación presupuestal alguna y solo debe presupuestarse para efectos de su redención.

Artículo 58. Prohibición de transferencias y liquidación de empresas ineficientes.

Adiciónese el siguiente Parágrafo al artículo 14 de la Ley 617 de 2000:

Parágrafo. Las entidades territoriales podrán incluir dentro de sus planes de inversión, partidas destinadas a fortalecer la reserva técnica de las empresas operadoras de juegos de lotería tradicional o de billetes. También podrán hacerlo para el desarrollo e implementación de un plan de desempeño y/o estrategia comercial; el cual deberá contar con la aprobación previa del Consejo Nacional de juegos de Suerte y Azar, en el que se determinará la viabilidad de la empresa y la rentabilidad de la inversión.

Artículo 59. Condiciones de operación en línea y en tiempo real de los juegos localizados.

Modifíquese el artículo 14 de la Ley 1393 de 2010, el cual quedará así:

Artículo 14. Condiciones de operación en línea y en tiempo real de los juegos localizados. Los operadores de Juegos de Suerte y Azar Localizados que cumplan con las condiciones de conectividad y confiabilidad Restablecidos por la entidad administradora del monopolio pagarán a título de derecho de explotación el doce por ciento (12%) sobre los Ingresos brutos menos el monto de los premios pagados calculados sobre la totalidad de los elementos de juego autorizados en el contrato de concesión.

Una vez dispuesta la obligación de conectividad, se presumirá ilegal la máquina que no lo esté y además de las sanciones por ilegalidad correspondiente, será objeto del respectivo decomiso.

Parágrafo 1°. Entiéndase por ingresos brutos la totalidad del valor registrado en el contador de entrada de las máquinas del contrato de concesión.

Para el caso de Bingos, los ingresos brutos son el total del valor de los cartones vendidos en el periodo de liquidación.

Parágrafo 2°. En ningún caso el impuesto del IVA formará parte de la base para el cálculo de los derechos de explotación previstos en el siguiente artículo.

Artículo 60. Plan de Premios y Rentabilidad Mínima Anual.

Modifíquese el artículo 24 de la Ley 643 de 2001, el cual quedará así:

Artículo 24. Plan de Premios y Rentabilidad Mínima Anual. El Gobierno nacional fijará la estructura del plan de premios del juego de apuestas permanentes o chance que regirá en todo el país.

La rentabilidad mínima anual del juego de chance para cada concesionario, será el valor pagado por concepto de derechos de explotación en el año inmediatamente anterior, para lo cual, la única referencia son los ingresos brutos del juego.

Para los pliegos de condiciones, la legalización y la tasación de las garantías anuales de los contratos de concesión, el valor contractual será el 12% de los ingresos brutos del juego de chance de los últimos 5 años. La garantía de cumplimiento se constituirá por los concesionarios, por períodos sucesivos de un (1) año durante la vigencia de los contratos de concesión, con base en el valor del contrato por cada año, con la obligación de obtener la correspondiente prórroga con anticipación al vencimiento de la garantía en la etapa respectiva.

Cuando el monto de los derechos de explotación, de un año, resulte inferior al valor absoluto pagado durante el año inmediatamente anterior, el concesionario estará obligado al pago de la diferencia a título de compensación contractual.

No habrá lugar a conceptos, ni actos administrativos que varíen los derechos de explotación, la rentabilidad mínima ni el valor de los contratos.

Artículo 61. Prohibición de gravar el monopolio rentístico.

Modifíquese el artículo 49 de la Ley 643 de 2001, el cual quedará así:

Artículo 49. Prohibición de gravar el monopolio rentístico. En las concesiones o autorizaciones para operar juegos de suerte y azar, en las cuales el precio pagado por el aportador incluye el IVA, de pleno derecho, se efectuará el ajuste del valor del contrato respectivo en caso de incremento en la tarifa de este impuesto.

La suscripción, ejecución y liquidación de los contratos para la operación de todas las modalidades de juegos de suerte y azar, los puntos de venta, las agencias, establecimientos de comercio donde ellos operan, los premios y, en general todos los actos de la operación comercial de la actividad de juegos de suerte y azar, no pueden estas gravados con ningún impuesto directo o indirecto, tasas, contribuciones fiscales o parafiscales, estampillas, ni tarifas diferenciales por concepto de impuestos de carácter municipal, distrital o departamental.

Artículo 62. Créditos de tesorería de corto plazo.

En las Empresas Industriales y Comerciales del Estado y en las Sociedades de Economía Mixta que tengan régimen de Empresa Industrial y Comercial del Estado, que desarrollen su objeto social en mercados en competencia, y que tengan una calificación de crédito mínimo de A+ (Col) podrán celebrar créditos de tesorería de corto plazo previa aprobación de su Junta Directiva, sin superar el 10% de los ingresos de explotación de la vigencia en curso y sin requerirse concepto de otro órgano y entidad.

Parágrafo. Los créditos de tesorería de corto plazo, no servirán para modificar el presupuesto de la vigencia en curso, ni para soportar adiciones al presupuesto de gastos.

Artículo 63. Operaciones Finagro.

Adiciónese los numerales 6 y 7 al artículo 10 de la Ley 16 de 1990 modificado por el artículo 4° del Decreto 2371 de 2015 e incorporado en el artículo 230 del Estatuto Orgánico del Sistema financiero, el cual quedará así:

6. Transferir recursos al fondo de microfinanzas rurales hasta en un 20% de su patrimonio técnico conforme a las directrices de su junta directiva.

7. Realizar operaciones de redescuento con entidades microfinancieras no vigiladas por la Superintendencia Financiera de Colombia, sujeto a los límites aplicables a las cooperativas de ahorro y crédito vigiladas por la superintendencia de economía solidaria y a los límites aplicables a las cooperativas de ahorro y crédito vigiladas por la Superintendencia de Economía Solidaria y a las operaciones que en desarrollo de este artículo reglamente la Comisión Nacional de Crédito Agropecuario. La junta directiva de FINAGRO autorizará los cupos a cada entidad precio estudios de riesgos realizados por FINAGRO a cada entidad no vigilada.

Artículo 64. Rentas exentas a partir del año gravable 2019.

Interprétese con autoridad el primer inciso del artículo 235-2 del Estatuto Tributario, modificado por el artículo 79 de la Ley 1943 de 2018, y entiéndase que las rentas exentas de las personas naturales comprenden las de los artículos 126-1, 126-4, 206 y 206-1 del Estatuto Tributario y las reconocidas en convenios internacionales, desde el 1° de enero de 2019 inclusive.

Artículo 65. Tarifa especial para dividendos o participaciones recibidas por sociedades nacionales.

Modificar el Parágrafo 3° del artículo 50 de la Ley 1943 de 2018 que adicionó el artículo 242-1 del Estatuto Tributario referido a la tarifa especial para dividendos o participaciones recibidas por sociedades nacionales, el cual quedará así:

Parágrafo 3°. Los dividendos que se distribuyen dentro de los grupos empresariales o dentro de sociedades en situación de control debidamente registrados ante la Cámara de Comercio, no estarán sujetos a la retención en la fuente regulada en este artículo. Lo anterior, siempre y cuando no se trate de una entidad intermedia dispuesta para el diferimiento del impuesto sobre los dividendos.

  Artículo 66. Movilización de cartera.

 A partir de la expedición de la presente Ley, las entidades estatales o públicas del orden nacional con excepción de las entidades financieras de carácter estatal, las Empresas Industriales y Comerciales del Estado, las Sociedades de Economía Mixta y las entidades en liquidación, deberán vender la cartera con más de ciento ochenta (180) días de vencida al colector de activos de la Nación, Central de Inversiones (CISA), para que este las gestione.

Respecto de la cartera de naturaleza coactiva, las entidades de que trata este artículo, al igual que las de orden territorial, podrán enajenarla a CISA, quien para su recuperación podrá aplicar sus políticas de descuento y podrá dar aplicación al mecanismo de notificación electrónica de que trata el artículo 566-1 del Estatuto Tributario, que también aplicará para cualquier acto derivado del procedimiento establecido en el artículo 823 del referido Estatuto y demás normas que lo complementen o modifiquen. Se entenderá que los titulares de datos personales autorizan expresamente la notificación a través de este medio, de conformidad con lo previsto en el artículo 56 de la Ley 1437 de 2011.

CISA en su condición de colector de activos públicos de la Nación, tendrá acceso a las bases del Registro Único Tributario (RUT) y el Registro Único Nacional de Tránsito (RUNT) para obtener la información de correo electrónico de los deudores.

En los eventos en que la cartera sea de imposible recudo por la prescripción o caducidad de la acción, por la pérdida de fuerza ejecutoria del acto administrativo que le dio origen o por la inexistencia probada del deudor o su insolvencia demostrada y por tanto no sea posible ejercer los derechos de cobro o bien porque la relación costo-beneficio al realizar su cobro no resulta eficiente; las entidades estatales o públicas del orden nacional, podrán realizar la depuración definitiva de estos saldos contables, realizando un informe detallado de las causales por las cuales se depura y las excluirá de la gestión. El Gobierno nacional reglamentará la materia. Los recursos obtenidos por esta venta serán girados por los plazos fijados por CISA atendiendo sus disponibilidades de caja así: i) Al Tesoro Nacional en el caso de las entidades que hacen parte del presupuesto nacional; y ii) directamente a los patrimonios autónomos de remanentes y a las entidades pertenecientes al sector descentralizado del nivel nacional, cobijados por lo dispuesto en el artículo 238 de la Ley 1450 de 2011, así como los fondos especiales cuya ley de creación incluya ingresos de capital por venta de bienes propios de las entidades a las que están adscritos como fuentes de recursos.

CISA causará para efectos fiscales los ingresos que genere el cobro de cartera, solamente cuando se produzca el recaudo efectivo o se produzca su enajenación.

Artículo 67. Aeropuerto del Café (Aerocafé).

Los recursos destinados al desarrollo del Proyecto del Aeropuerto del Café (AEROCAFÉ), serán ejecutados a través de un patrimonio autónomo que para tal efecto constituya la Aeronáutica Civil.

El patrimonio autónomo podrá recibir aportes del Gobierno nacional, del departamento de Caldas y de sus municipios; y aceptar donaciones del sector público o privado, nacional e internacional. Así mismo, podrá celebrar operaciones de financiamiento interno o externo a nombre del patrimonio autónomo para lo cual la Nación o las entidades territoriales podrán otorgar los avales o garantías respectivas, hasta por el monto de los aportes que cada uno se haya comprometido.

El régimen de contratación y administración de sus recursos se regirá por el derecho privado, con plena observancia de los principios de transparencia, economía, igualdad y publicidad, definidos por la Constitución y la Ley. El control fiscal de los recursos lo ejercerá la Contraloría General de la República.

La administración del patrimonio autónomo presentará informes sobre los avances y resultados de la gestión de los recursos al menos una vez al año, que se remitirán a la Aeronáutica Civil para ser publicados en su página web.

Artículo 68. Administración del impuesto al turismo.

Los recursos recaudados por concepto del impuesto con destino al turismo de que trata el artículo 4° de la Ley 1101 de 2006, o la norma que la modifique, adicione o sustituya, no servirán de base en el proceso de programación para la financiación de otros programas del sector en el Presupuesto General de la Nación.

Artículo 69. Declaración y pago nacional.

Modifíquese el artículo 344 de la Ley 1819 de 2016, el cual quedará así:

Artículo 344. Declaración y pago nacional. Las administraciones departamentales, municipales y distritales deberán adoptar y exigir a los contribuyentes presentar la declaración del Impuesto de Industria y Comercio en el formulario único nacional diseñado por la Dirección General de Apoyo Fiscal del Ministerio de Hacienda y Crédito Público.

En el evento en que los municipios o distritos establezcan mecanismos de retención en la fuente del impuesto de industria y comercio, tales formularios serán adaptados a partir del formulario único nacional por cada entidad.

Para efectos de la presentación de la declaración y el pago, los municipios y distritos podrán suscribir convenios con las entidades financieras vigiladas por la Superintendencia Financiera de Colombia, con cobertura nacional, de tal forma que los sujetos pasivos puedan cumplir con sus obligaciones tributarias desde cualquier lugar del país, y a través de medios electrónicos de pago, sin perjuicio de remitir la constancia de declaración y pago a la entidad territorial sujeto activo del tributo. La declaración se entenderá presentada en la fecha de pago siempre y cuando, el pago se haya realizado dentro del término establecido, y se remita dentro de los 15 días hábiles siguientes a dicha fecha.

Las administraciones departamentales, municipales y distritales deberán permitir a los contribuyentes del impuesto de industria y comercio y de los demás tributos por ellas administrados, el cumplimiento de las obligaciones tributarias desde cualquier lugar del país, incluyendo la utilización de medios electrónicos.

Las administraciones departamentales, municipales y distritales deberán armonizar la clasificación de actividades económicas de sus registros de información tributaria (RIT) y de las tarifas del impuesto de industria y comercio a la Clasificación de Actividades Económicas que adopte o que se encuentra vigente por parte de la Dirección de Impuestos y Aduanas Nacionales (DIAN) para efectos del control y determinación de los impuestos y demás obligaciones tributarias.

Parágrafo. Lo dispuesto en el presente artículo se aplicará en relación con las declaraciones que deban presentarse a partir de la vigencia 2020.

Artículo 70. Inspección y vigilancia. Modifíquese el artículo 14 de la Ley 432 de 1998, el cual quedará así:

Artículo 14. Inspección y vigilancia. De conformidad con la reglamentación especial que al efecto expida el Gobierno nacional, el Fondo Nacional del Ahorro (FNA) estará sometido a la inspección y vigilancia de la Superintendencia Financiera de Colombia.

  Artículo 71. Política de uso y aprovechamiento del espacio público.

El Gobierno nacional acompañará a los entes territoriales en la formulación de la política de uso y aprovechamiento del espacio público, a fin de procurar alternativas para los vendedores Informales en el marco del principio de la confianza legítima y del derecho al trabajo. También promoverá su acceso a la seguridad social, según su capacidad de pago, y su acceso a los programas de Beneficios Económicos Periódicos (BEPS), promoviendo la capacitación y desarrollo de proyectos productivos.

Parágrafo. Los Concejos Municipales y Distritales podrán reglamentar, previo estudio de impacto fiscal, que parte del cobro para el uso y aprovechamiento del espacio público se podrá destinar a programas de ahorro para la vejez.

Artículo 72. Mecanismo para facilitar la administración de bienes.

Adiciónense los siguientes Parágrafos al artículo 92 de la Ley 1708 de 2014, los cuales quedarán así:

Parágrafo 3°. En los casos de venta masiva de bienes, el administrador del FRISCO podrá expedir acto administrativo que servirá de título traslaticio de dominio del bien a favor del comprador, el cual deberá inscribirse en el evento en que los bienes sean sujetos a registro. Lo anterior, sin perjuicio de las acciones de verificación que puedan adelantarse para establecer el origen lícito de los recursos que destine el comprador para la adquisición.

Parágrafo 4°. Cuando el administrador del FRISCO emplee la enajenación temprana podrá expedir acto administrativo que servirá de título traslaticio de dominio del bien a favor del FRISCO y tendrá las mismas consecuencias fijadas en el artículo 18 de la Ley 793 de 2002.

Parágrafo 5°. Sin perjuicio de la comercialización individual de los bienes, el administrador del FRISCO podrá, con el apoyo de expertos, adoptar mediante acto administrativo, metodologías fundamentales en factores econométricos para la valoración de activos urbanos con información catastral disponible, que sean susceptibles de enajenación a través de ventas masivas.

Parágrafo 6°. Será causal de terminación anticipada de los contratos de arrendamiento suscritos por el FRISCO, i) Condiciones no acordes al mercado, de acuerdo con los estudios técnicos que para el caso determine el administrador en su metodología; ii) La destinación definitiva de los inmuebles de conformidad con lo previsto en esta Ley; iii) Los contratos celebrados que no se acojan a las condiciones establecidas en la metodología de administración del FRISCO.

Configurada la causal de terminación anticipada, el administrador del FRISCO podrá ejercer las facultades de policía administrativa previstas en esta Ley para la recuperación del activo. En todo caso, el administrador del FRISCO, no podrá celebrar contratos de arrendamiento con el afectado dentro del proceso de extinción de dominio o sus familiares dentro del cuarto grado de consanguinidad, segundo de afinidad y primero civil.

Artículo 73. Enajenación temprana, chatarrización, demolición y destrucción.

Adiciónese un Parágrafo al artículo 93 de la Ley 1708 de 2014, el cual quedará así:

Parágrafo. Cuando se trate de bienes inmuebles rurales en proceso de extinción de dominio que no tengan la vocación descrita en el artículo 91 de la presente Ley, la entidad beneficiaria de dichos inmuebles comunicará tal situación y el administrador del FRISCO quedará habilitado para enajenarlos tempranamente.

Los recursos que se obtengan de la comercialización de estos predios serán entregados en su totalidad al Gobierno nacional, para ser destinados a los programas de generación de acceso a tierra administrados por este.

Artículo 74. Bienes gravados con la tarifa del cinco por ciento (5%).

Adiciónese un numeral y dos Parágrafos transitorios al artículo 468-1 del Estatuto Tributario, así:

4. El ingreso al productor en la venta de Gasolina y ACPM. Para efectos de este numeral se considera gasolina y ACPM lo definido en el Parágrafo 1° del artículo 167 de la Ley 1607 de 2012.

A la base gravable determinada de conformidad con el artículo 467 del Estatuto Tributario, se detrae el ingreso al productor y se le aplica la tarifa general del impuesto sobre las ventas IVA.

Parágrafo transitorio 2°. Para efectos del numeral 4 de este artículo, el exceso de impuesto descontable por la diferencia de tarifa será un mayor valor del costo o gasto hasta el 31 de diciembre de 2021. El exceso de impuesto descontable por la diferencia de tarifa, generado a partir del 1° de enero de 2022 por la venta de productos del numeral 4 de este artículo, se regirá por lo establecido en el Parágrafo del artículo 485 de este Estatuto.

Parágrafo transitorio 3°. Lo dispuesto en el numeral 4 de este artículo inicia su aplicación a partir del bimestre siguiente a la vigencia de la presente Ley.

SUBSECCIÓN 3. LEGALIDAD PARA LA PROTECCIÓN SOCIAL

Artículo 75. Competencias de inspección, vigilancia y control de la superintendencia nacional de salud respecto de la composición de capital o del patrimonio de las EPS. Todo acto jurídico sin consideración a su naturaleza, de nacionales o extranjeros que tenga por objeto o efecto la adquisición directa o indirecta del diez por ciento (10%) o más de la composición de capital o del patrimonio de una Entidad Promotora de Salud, ya se realice mediante una o varias operaciones de cualquier naturaleza, simultáneas o sucesivas o aquellas por medio de las cuales se incremente dicho porcentaje, requerirá, so pena de ineficacia de pleno derecho, la aprobación del Superintendente Nacional de Salud, quien examinará la idoneidad, responsabilidad y carácter de las personas interesadas en adquirirlas. El Superintendente, además, se cerciorará que el bienestar público será fomentado con dicha transacción.

El Superintendente Nacional de Salud verificará que el interesado o potencial adquirente haya acreditado como mínimo los siguientes requisitos, para obtener la aprobación:

a) El origen de los recursos objeto del acto o negocio jurídico;

b) Tener un patrimonio equivalente a, por lo menos, 1.3 veces el capital que se compromete a aportar en el negocio o acto jurídico, incluyendo este último;

c) Que por lo menos una tercera parte de los recursos con los que se realiza el negocio o acto jurídico, sean propios y no producto de operaciones de endeudamiento u otras análogas.

En todo caso, el Superintendente Nacional de Salud, mediante acto administrativo motivado, negará la aprobación de que trata el presente artículo, cuando el interesado o potencial adquirente, o alguno de sus socios, cuando aplique, se encuentren incursos en alguna o varias de las siguientes situaciones:

1. Haber sido condenado por delitos relacionados con el manejo de recursos públicos.

2. Haber sido condenado por delitos contra el patrimonio económico, lavado de activos, enriquecimiento ilícito y los establecidos en los Capítulos Segundo del Título X, Primero del Título XV y Segundo del Título XIII del Libro Segundo del Código Penal y las normas que los modifiquen o sustituyan.

3. Haber sido objeto de declaración de extinción de dominio, por incurrir en las causales previstas en el artículo 16 de la Ley 1708 de 2014 o disposiciones que la modifican o sustituyan.

4. Haber sido sancionado por infringir las normas legales o reglamentarias sobre la integración vertical y de posición dominante.

Parágrafo 1°. El Gobierno nacional adecuará, en lo pertinente, las normas vigentes sobre la habilitación y la permanencia de las Entidades Promotoras de Salud.

Parágrafo 2°. El Ministerio de Salud y Protección Social establecerá los parámetros necesarios para definir el beneficiario real de la transferencia, así como su identificación.

Parágrafo 3°. El presente artículo aplicará a la inversión extranjera en Entidades Promotoras de Salud sin perjuicio de lo establecido en régimen de la inversión de capitales del exterior en el país.

Artículo 76. Contribución de vigilancia a favor de la Superintendencia Nacional de Salud.

Modifíquese el artículo 98 de la Ley 488 de 1998, el cual quedará así:

Artículo 98. Contribución de vigilancia a favor de la Superintendencia Nacional de Salud. La contribución de vigilancia a favor de la Superintendencia Nacional de Salud tendrá como fin apoyar el cubrimiento de los costos y gastos que ocasione el funcionamiento e inversión de dicha Superintendencia, la cual deberán cancelar anualmente las personas jurídicas de derecho privado y derecho público sometidos a Inspección, Vigilancia y Control (IVC) de acuerdo con la ley o el reglamento.

La contribución impuesta se causará el primer día calendario de enero. Si una entidad no permaneció bajo IVC durante todo el año anterior a la causación, pagará la contribución, con base en los ingresos operacionales del sector obtenidos durante el tiempo que estuvo activa.

La contribución se fijará por parte de la Superintendencia Nacional de Salud conforme a los siguientes criterios:

1. El total de las contribuciones apoyará el presupuesto anual de funcionamiento e inversión de la Superintendencia.

2. Con base en los ingresos operacionales del sector causados a 31 de diciembre del año inmediatamente anterior, la Superintendencia Nacional de Salud, mediante resolución, establecerá anualmente la tarifa de la contribución a cobrar que no podrá ser superior al cero coma dos por ciento (0,2%) de dichos ingresos.

3. La contribución deberá pagarse en los plazos que para tal efecto determine la Superintendencia Nacional de Salud. De conformidad con el artículo 3° de la Ley 1066 de 2006, los responsables de la contribución aquí establecida que no las cancelen oportunamente deberán liquidar y pagar intereses moratorios a la tasa prevista en el Estatuto Tributario.

Parágrafo 1°. Los recursos que administra la ADRES e INDUMIL, los prestadores de servicios de salud con objeto social diferente, los profesionales independientes, las EPS e IPS Indígenas, las Empresas Sociales del Estado acreditadas, así como las Instituciones Prestadoras de Servicios de Salud y los Hospitales Universitarios debidamente acreditados quedarán exonerados del pago de contribución de vigilancia a favor de la Superintendencia Nacional de Salud.

Parágrafo 2°. La implementación de esta disposición se hará a partir del 1° de enero de 2020, la liquidación y recaudo de la tasa correspondiente a la anualidad 2019 se regirá por lo dispuesto en el artículo 98 de la Ley 488 de 1998.

Artículo 77. Programa de Saneamiento Fiscal y Financiero. Se entiende por Programa de Saneamiento Fiscal y Financiero de Empresas Sociales del Estado, un programa integral, institucional, financiero y administrativo, que tiene por objeto restablecer la solidez económica y financiera de estas Empresas y asegurar la continuidad, la calidad y la oportunidad en la prestación del servicio público de salud, respetando, en todo caso, lo señalado por el artículo 24 de la Ley 1751 de 2015.

El Ministerio de Hacienda y Crédito Público definirá los parámetros generales de adopción, seguimiento y evaluación de los programas a que hace referencia este artículo y tendrá a cargo la viabilidad y evaluación de los mismos.

Las Empresas Sociales del Estado categorizadas en riesgo medio o alto, deberán adoptar un programa de saneamiento fiscal y financiero, con el acompañamiento de la dirección departamental o distrital de salud, conforme a la reglamentación y la metodología que defina el Ministerio de Hacienda y Crédito Público.

Las Empresas Sociales del Estado cuyos Programas de Saneamiento Fiscal y Financiero se encuentren en proceso de viabilidad o debidamente viabilizados por el Ministerio de Hacienda y Crédito Público, a la fecha de entrada en vigencia de la presente Ley, no serán objeto de categorización del riesgo hasta tanto el Programa no se encuentre culminado.

Los recursos que destine la Nación, las entidades territoriales, las Leyes 1608 de 2013, 1797 de 2016 y demás disposiciones, se podrán aplicar conforme a la reglamentación definida por el Ministerio de Hacienda y Crédito Público.

Parágrafo 1°. Las Empresas Sociales del Estado que hayan sido remitidas por el Ministerio de Hacienda y Crédito Público a la Superintendencia Nacional de Salud, antes de la entrada en vigencia de la presente ley y que en virtud de la competencia establecida en el artículo 80 de la Ley 1438 de 2011, sean categorizadas en riesgo medio o alto por el Ministerio de Salud y Protección Social, podrán presentar un nuevo Programa de Saneamiento Fiscal y Financiero ante el Ministerio de Hacienda y Crédito Público.

Parágrafo 2°. Las fundaciones que sean categorizadas en riesgo medio o alto por el Ministerio de Salud y Protección Social podrán adoptar un Programa de Saneamiento Fiscal y Financiero en las condiciones establecidas en el presente artículo, de conformidad con la reglamentación que para el efecto expida el Ministerio de Hacienda y Crédito Público y acceder a los recursos del Programa de Saneamiento Fiscal y Financiero de que trata la Ley 1608 de 2013 y demás normas.

Parágrafo 3°. El incumplimiento de lo dispuesto en el presente artículo genera responsabilidad disciplinaria y fiscal para los representantes legales y revisores fiscales, de las entidades territoriales y de las Empresas Sociales del Estado, según corresponda.

Parágrafo 4°. El Ministerio de Hacienda y Crédito Público remitirá a la Superintendencia Nacional de Salud la información de las Empresas Sociales del Estado que, de acuerdo con las evaluaciones realiza das por el Ministerio incumplan el Programa de Saneamiento Fiscal y Financiero, para que la Superintendencia Nacional de Salud adelante las actuaciones a que haya lugar, de conformidad con el marco de sus competencias.

Artículo 78. Autorización para el uso de los recursos de las entidades territoriales.

Las entidades territoriales podrán destinar al saneamiento fiscal y financiero de las Empresas Sociales del Estado categorizadas en riesgo medio o alto de la red de prestación de servicios de salud de su departamento, incluidas aquellas que no sean de su propiedad, los recursos dispuestos para este fin por la normatividad vigente y las demás que en adelante los dispongan. En todo caso, los citados recursos se podrán disponer siempre y cuando no sean requeridos para el saneamiento de aquellas ESE de propiedad de la entidad territorial. Los términos y condiciones para la transferencia y uso de los recursos se deben consignar en un documento debidamente firmado por las partes.

  SUBSECCIÓN 4. LEGALIDAD DE LA PROPIEDAD

Artículo 79. Naturaleza y organización de la gestión catastral.

La gestión catastral es un servicio público que comprende un conjunto de operaciones técnicas y administrativas orientadas a la adecuada formación, actualización, conservación y difusión de la información catastral, así como los procedimientos del enfoque catastral multipropósito que sean adoptados.

La gestión catastral será prestada por:

i) Una autoridad catastral nacional que regulará la gestión catastral, y estará a cargo del Instituto Geográfico Agustín Codazzi (IGAC);

ii) Por gestores catastrales, encargados de adelantar la formación, actualización, conservación y difusión catastral, así como los procedimientos del enfoque catastral multipropósito adoptados para el efecto; y

iii) Por operadores catastrales, quienes desarrollarán labores operativas relativas a la gestión catastral.

El Instituto Geográfico Agustín Codazzi (IGAC) será la máxima autoridad catastral nacional y prestador por excepción del servicio público de catastro, en ausencia de gestores catastrales habilitados. En su rol de autoridad catastral, el IGAC mantendrá la función reguladora y ejecutora en materia de gestión catastral, agrología, cartografía, geografía y geodesia.

Con el fin de garantizar el adecuado cumplimiento de los estándares de rigor y pertinencia de la gestión catastral, el Instituto Geográfico Agustín Codazzi (IGAC), convocará una instancia técnica asesora que asegure la idoneidad de la regulación técnica bajo su responsabilidad.

El IGAC, a solicitud de parte, y previo cumplimiento de las condiciones jurídicas, técnicas, económicas y financieras, definidas en el respectivo marco regulatorio, habilitará como gestores catastrales para la prestación del servicio catastral a las entidades públicas nacionales o territoriales, incluyendo, entre otros, esquemas asociativos de entidades territoriales.

Los gestores catastrales podrán adelantar la gestión catastral para la formación, actualización y conservación catastral, así como los procedimientos del enfoque catastral multipropósito que sean adoptados, directamente o mediante la contratación de operadores catastrales.

Los operadores catastrales son las personas jurídicas, de derecho público o privado, que mediante contrato con uno o varios gestores catastrales, desarrollan labores operativas que sirven de insumo para adelantar los procesos de formación, actualización y conservación catastral, así como los procedimientos del enfoque catastral multipropósito que sean adoptados, conforme a la regulación que para el efecto expida el Gobierno nacional. Los operadores catastrales deberán cumplir con los requisitos de idoneidad que defina el Gobierno nacional. El IGAC será gestor catastral por excepción, en ausencia de gestores catastrales habilitados.

La Superintendencia de Notariado y Registro (SNR) o la entidad que haga sus veces, ejercerá las funciones de inspección, vigilancia y control al ejercicio de la gestión catastral que adelantan todos los sujetos encargados de la gestión catastral incluyendo los gestores y operadores catastrales, así como los usuarios de este servicio.

La custodia y gestión de la información catastral corresponde al Estado a través del Instituto Geográfico Agustín Codazzi (IGAC), quien promoverá su producción y difusión. La información generada por los gestores catastrales en ejercicio de sus funciones deberá ser registrada, en los términos y condiciones definidos por la autoridad reguladora, en el Sistema Nacional de Información Catastral (SINIC), el cual será el instrumento para la gestión de la información catastral y debe ser interoperable con otros sistemas de información de acuerdo con los criterios que para el efecto defina la autoridad reguladora. La información registrada en el sistema se considera oficial para todos los fines.

En todo caso, los gestores y operadores catastrales actuarán dando estricto cumplimiento a las disposiciones contenidas en las Leyes 1581 de 2012 y 1712 de 2014, o las normas que las modifiquen, complementen o adicionen.

Los departamentos podrán apoyar financiera, técnica y administrativamente a los municipios que asuman su gestión catastral y promoverán la coordinación entre gestores catastrales, asociaciones de municipios y municipios para la prestación del servicio público catastral en su jurisdicción.

Parágrafo 1°. Conservarán su condición de gestor catastral aquellas entidades que, a la promulgación de la presente Ley, sean titulares de catastros descentralizados o mediante delegación ejerzan la gestión sin necesidad de trámite adicional alguno. Respecto de los catastros descentralizados, a la fecha de entrada en vigencia de la presente Ley, estos conservarán su calidad de autoridades catastrales por lo cual podrán promover, facilitar y planear el ejercicio de la gestión catastral en concordancia con la regulación nacional en materia catastral sin perjuicio de las competencias legales de la SNR, del IGAC y de la ANT.

Parágrafo 2°. Los gastos asociados a la gestión catastral constituyen gastos de inversión, sin perjuicio de los gastos de funcionamiento que requieran los gestores catastrales para desarrollar sus funciones.

Artículo 80. Gestión Catastral a cargo de la Agencia Nacional de Tierras (ANT).

La Agencia Nacional de Tierras (ANT) en su calidad de gestor catastral, de acuerdo con los estándares y las especificaciones técnicas determinadas por el Instituto Geográfico Agustín Codazzi (IGAC), levantará los componentes físico y jurídico del catastro, necesarios para los procesos de ordenamiento social de la propiedad o los asociados al desarrollo de proyectos estratégicos del orden nacional priorizados por el Ministerio de Agricultura y Desarrollo Rural.

La Agencia Nacional de Tierras (ANT) incorporará la información levantada en el suelo rural de su competencia y alimentará con dicha información el sistema de información que el Instituto Geográfico Agustín Codazzi (IGAC) defina para el efecto. Para el levantamiento de los demás componentes, así como la información correspondiente al suelo urbano, el gestor catastral o el Instituto Geográfico Agustín Codazzi (IGAC) deberán coordinar con la Agencia Nacional de Tierras (ANT) para completar la intervención integral catastral. En este caso se procurará el levantamiento de la Información en campo con un único operador catastral. La Agencia Nacional de Tierras (ANT) no tendrá a su cargo la conservación catastral.

Artículo 81. Infracciones al régimen de prestación del servicio público de gestión catastral.

Los propietarios, ocupantes, tenedores o poseedores, titulares de derechos reales o quien tenga cualquier relación fáctica o jurídica con el predio, se encuentran obligados a permitir la entrada de los operadores del catastro a las diferentes unidades prediales cuando se les requiera, a suministrar información veraz y útil, así como a participar en las actividades derivadas del proceso de gestión catastral multipropósito; en igual sentido, les corresponde solicitar la anotación, modificación o rectificación de la Información predial de su Interés, no hacerlo será considerado una Infracción al régimen de gestión catastral.

De otra parte, los gestores y operadores del servicio público de catastro serán sujetos del siguiente régimen de infracciones;

1. No suministrar información oportunamente, o no suministrar información requerida por el Instituto Geográfico Agustín Codazzi (IGAC), relacionada con el Sistema Nacional de Información Catastral.

2. Incumplir los procedimientos, protocolos o requisitos previstos por el Instituto Geográfico Agustín Codazzi (IGAC) para el suministro y consolidación de la Información catastral.

3. Efectuar modificaciones en el Sistema Nacional de Información Catastral sin el cumplimiento de los requisitos documentales de orden técnico o jurídico, fijados por el Instituto Geográfico Agustín Codazzi (IGAC).

4. Efectuar modificaciones catastrales por fuera de los términos establecidos en los estándares, metodologías y procedimientos definidos por el Instituto Geográfico Agustín Codazzi (IGAC).

5. Exigir requisitos adicionales a los señalados para la ejecución de trámites o servicios catastrales.

6. No adelantar las labores de formación, conservación y actualización catastral, pese a haber sido habilitado para el efecto, por el Instituto Geográfico Agustín Codazzi (IGAC).

7. Aplicar incorrectamente o no aplicar las metodologías, los estándares, metodologías y procedimientos técnicos definidos por el Instituto Geográfico Agustín Codazzi (IGAC) en el desarrollo de las actividades propias del catastro.

8. Atrasar injustificadamente la validación de documentos en el Sistema Nacional de Información Catastral.

9. Realizar modificaciones catastrales sin los respectivos soportes.

10. Presentar desactualización injustificada de la gestión catastral.

11. Incumplir los estándares en la entrega adecuada y oportuna de Información a los ciudadanos y en la atención de los trámites relacionados con la gestión catastral.

12. No cargar la información, o cargarla de manera incompleta, inoportuna y/o no veraz, al Sistema Nacional de Información Catastral.

13. Incumplir las disposiciones contenidas en la presente ley, la normativa proferida por el Instituto Geográfico Agustín Codazzi (IGAC) en ejercicio de su función regulatoria, las instrucciones y órdenes impartidas por la Superintendencia de Notariado y Registro y demás leyes, decretos y reglamentos que regulen la gestión catastral.

Parágrafo. Las infracciones establecidas en el presente artículo podrán ser aplicables al Instituto Geográfico Agustín Codazzi (IGAC) cuando ejerza funciones de gestor catastral por excepción, salvo las conductas relacionadas con la causal décima (10) de este artículo, para lo cual la Superintendencia de Notariado y Registro, o quien haga sus veces, se abstendrá de sancionar al IGAC por un término de cuatro (4) años contados a partir de la entrada en vigencia de la presente ley.

Artículo 82. Régimen Sancionatorio.

La comisión de las infracciones previstas en el artículo anterior, sin perjuicio de la responsabilidad penal, fiscal o disciplinaria, dará lugar a la imposición por parte de la Superintendencia de Notariado y Registro, o quien haga sus veces, de las siguientes sanciones:

1. Multa entre veinticinco (25) y doscientos cuarenta y un mil seiscientos cuarenta y cinco (241.645) Unidades de Valor Tributario (UVT). Si la infracción se cometió durante varios años, el monto máximo de la multa se podrá aumentar hasta en ciento veinte mil ochocientos veintitrés (120.823) Unidades de Valor Tributario (UVT), por cada año adicional que dure la infracción.

2. Suspensión temporal de la habilitación en todas o algunas de las actividades que comprenden el servicio de gestión catastral.

3. Revocatoria de la habilitación como gestor catastral.

La Superintendencia de Notariado y Registro, o quien haga sus veces, seguirá el procedimiento administrativo general previsto en el Título III de la Ley 1437 de 2011 o las disposiciones que hagan sus veces.

Dentro de los criterios de atenuación se tendrán en cuenta las condiciones socioeconómicas del infractor aquí previstas, así como las contempladas en la Ley 1437 de 2011. Serán atenuantes específicas para la imposición de sanciones las siguientes conductas y situaciones:

1. Informar de manera voluntaria a la Superintendencia de Notariado y Registro, o quien haga sus veces, la infracción antes de la notificación del auto de apertura de investigación.

2. Que las inconsistencias en el ejercicio de la prestación del servicio de gestión catastral no afecten la veracidad de la información.

3. Corregir o mitigar por su cuenta las inconsistencias en la información catastral antes de la notificación del auto de práctica de pruebas.

La sanción la impondrá la Superintendencia de Notariado y Registro, o quien haga sus veces, según el grado de impacto en la gestión catastral y el factor de reincidencia y los demás agravantes contemplados en la Ley 1437 de 2011.

La Superintendencia de Notariado y Registro, o quien haga sus veces, podrá imponer las medidas preventivas que determine necesarias y proporcionales, como la suspensión inmediata de todas o algunas de las actividades del infractor. Cuando la sanción sea la de suspensión o revocatoria de la gestión catastral, el Instituto Geográfico Agustín Codazzi (IGAC) asumirá temporalmente su ejercicio hasta cuando se habilite un gestor catastral, directamente o a través de un tercero.

Artículo 83. Inembargabilidad, Imprescriptibilidad e Inalienabilidad.

Modifíquese el artículo 10 de la Ley 397 de 1997, el cual quedará así.

Artículo 10. Inembargabilidad, Imprescriptibilidad e Inalienabilidad. Los bienes de interés cultural de propiedad de entidades públicas son inembargables, imprescriptibles e inalienables.

Excepcionalmente podrán enajenarse a particulares bienes de interés cultural de propiedad de entidades públicas, previo concepto favorable del Consejo Nacional de Patrimonio Cultural o de los respectivos consejos departamentales o distritales de patrimonio cultural, según el caso, en los siguientes eventos:

1. Cuando el bien de interés cultural se encuentre en el marco del régimen de propiedad horizontal y la entidad pública sea propietaria de una o varias unidades de vivienda, comercio o industria, y la enajenación se requiera para garantizar la integridad y protección del inmueble.

2. Cuando la entidad pública sea propietaria del derecho proindiviso o cuota sobre bienes inmuebles, así como derechos fiduciarios en fideicomisos que tienen como bien(es) fideicomitido(s) inmuebles enajenación se requiera para garantizar la integridad y protección del inmueble.

3. Cuando el bien de interés cultural haya sido objeto de extinción de dominio.

4. Cuando el bien de interés cultural tenga uso comercial, de servicios o industrial y la entidad pública no pueda usarlo o mantenerlo, de forma que el bien tenga riesgo de deterioro.

5. Cuando la enajenación se haga a instituciones de educación superior o a entidades de derecho privado sin ánimo de lucro defensa del patrimonio cultural.

En todos los casos previstos en este artículo, el respectivo bien mantendrá su condición de bien de interés cultural y quien lo adquiera estará obligado a cumplir las normas aplicables en el régimen especial de protección.

Dentro de los títulos jurídicos de enajenación a particulares y/o entidades públicas se incluye el aporte fiduciario. En todo caso la enajenación se regirá por el régimen de contratación que cobije a la respectiva entidad pública enajenante y demás normas aplicables.

Parágrafo. El Ministerio de Cultura podrá autorizar la enajenación o el préstamo de bienes de interés cultural del ámbito nacional entre entidades públicas. Los municipios, los departamentos, las autoridades de los territorios indígenas y de las comunidades negras de que trata la Ley 70 de 1993, serán las encargadas de dar aplicación a lo previsto en este Parágrafo respecto de los bienes de interés cultural declarados por ellas.

Las autoridades señaladas en este Parágrafo podrán autorizar a las entidades públicas propietarias de bienes de interés cultural para darlos en comodato a entidades privadas sin ánimo de lucro de reconocida idoneidad, hasta por el término de cinco (5) años prorrogables con sujeción a lo previsto en el artículo 355 de la Constitución Política, celebrar convenios interadministrativos y de asociación en la forma prevista en los artículos 95 y 96 de la Ley 489 de 1998 o en las normas que los modifiquen o sustituyan, y en general, celebrar cualquier tipo de contrato, incluidos los de concesión y alianzas público-privadas, que impliquen la entrega de dichos bienes a particulares, siempre que cualquiera de las modalidades que se utilicen se dirijan a proveer y garantizar lo necesario para la protección, recuperación, conservación, sostenibilidad y divulgación de los mismos, sin afectar su inalienabilidad, imprescriptibilidad e inembargabilidad.

Artículo 84. Registro Único de Predios y Territorios Abandonados (Rupta).

Adiciónese a la Ley 387 de 1995 un nuevo artículo, el cual quedará así:

Artículo 33-A. La inscripción en el Registro Único de Predios y Territorios Abandonados (Rupta), creado por la Ley 387 de 1995, procederá de oficio, o por solicitud del interesado y deberá realizarse dentro de los dos (2) años siguientes al hecho victimizante, salvo fuerza mayor o caso fortuito.

La cancelación en el Rupta procederá en cualquier tiempo respecto de medidas individuales o colectivas, de oficio o por solicitud del beneficiario de la medida o del propietario del predio. Una vez recibida la solicitud, o iniciado el trámite de oficio, la Unidad Administrativa Especial de Gestión de Restitución de Tierras Despojadas, comunicará dicho trámite a través del medio más eficaz a quienes puedan verse directamente afectados por la decisión, a fin de que puedan intervenir en el trámite administrativo para aportar las pruebas que se pretendan hacer valer. La referida Unidad tendrá un término de sesenta (60) días contados a partir del momento en que acometa el estudio para decidir sobre la inclusión o cancelación en el Rupta. Este término podrá ser prorrogado hasta por treinta (30) días, cuando existan o sobrevengan circunstancias que lo justifiquen. El Gobierno nacional reglamentará este procedimiento administrativo especial, en armonía con la Ley 1448 de 2011.

Artículo 85. Concepto de Vivienda de Interés Social.

De conformidad con lo previsto en el artículo 91 de la Ley 388 de 1997, la vivienda de interés social es aquella que se desarrolla para garantizar el derecho a la vivienda de los hogares de menores ingresos, que cumple con los estándares de calidad en diseño urbanístico, arquitectónico y de construcción sostenible, y cuyo valor no exceda ciento treinta y cinco salarios mínimos mensuales legales vigentes (135 smmlv). Excepcionalmente, para las aglomeraciones urbanas definidas por el Conpes y cuya población supere un millón (1.000.000) de habitantes, el Gobierno nacional podrá establecer como precio máximo de la vivienda de interés social la suma de ciento cincuenta salarios mínimos mensuales legales vigentes (150 smmlv). Para el caso de los municipios que hacen parte de dichas aglomeraciones, el valor aplicará únicamente para aquellos en que el Gobierno nacional demuestre presiones en el valor del suelo, que generan dificultades en la provisión de vivienda de interés social. El valor máximo de la Vivienda de Interés Prioritario, será de noventa salarios mínimos mensuales legales vigentes (90 smmlv).

Tratándose de programas y/o proyectos de renovación urbana, la vivienda de interés social podrá tener un precio superior a los ciento treinta y cinco salarios mínimos mensuales legales vigentes (135 smmlv), sin que este exceda los ciento setenta y cinco salarios mínimos mensuales legales vigentes (175 smmlv). La vivienda de interés prioritario en renovación urbana podrá tener un precio superior a los noventa salarios mínimos mensuales legales vigentes (90 smmlv), sin que este exceda los ciento diez salarios mínimos mensuales legales vigentes (110 smmlv).

Parágrafo 1°. Los proyectos de Vivienda de Interés Social implementarán las medidas establecidas por el Gobierno nacional para el ahorro de agua y energía, entre las que se incluyen la iluminación y ventilación natural, de acuerdo con las condiciones climáticas. Asimismo, los proyectos de vivienda, de equipamiento (recreación, deporte, salud, educación) y de espacio público implementarán los criterios de sostenibilidad establecidos por el Conpes 3919 de 2018.

Parágrafo 2°. En ningún caso se podrán otorgar subsidios por encima del tope de recursos previstos en el Marco Fiscal de Mediano Plazo y en el Marco de Gasto del sector.

Parágrafo 3°. Los recursos correspondientes a subsidios familiares de vivienda urbana que sean objeto de renuncia por parte de su beneficiario, que se venzan, o que correspondan a aquellos recuperados mediante actuaciones administrativas, deberán ser incorporados en el presupuesto del Fondo Nacional de Vivienda (Fonvivienda), y serán destinados a la financiación o cofinanciación de programas o proyectos de vivienda de interés social, a la construcción y/o dotación de equipamientos públicos colectivos y/o a la infraestructura de servicios públicos domiciliarios. Lo anterior, independientemente de la vigencia presupuestal en la que hayan sido asignados los subsidios.

Los mencionados recursos podrán ser transferidos directamente, total o parcialmente, a cualquiera de los patrimonios autónomos en los que sea fideicomitente el Fonvivienda, o la entidad que indique el Gobierno nacional.

Respecto de los subsidios familiares de vivienda urbana que se encuentren sin aplicar, Fonvivienda podrá proceder a su vencimiento sin que se requiera surtir previamente el proceso a que se refiere el Parágrafo 1° del artículo 8° de la Ley 1537 de 2012.

En todo caso, los recursos del Presupuesto General de la Nación asignados a Fonvivienda y que se incorporen a patrimonios autónomos en los cuales dicha entidad sea Fideicomitente, independiente del rubro presupuestal de los referidos recursos, podrán ser destinados para la construcción y/o dotación de equipamientos públicos colectivo y/o infraestructura de servicios públicos domiciliarios, incluida la adquisición de predios para esos propósitos, para los proyectos de vivienda de interés social y prioritaria que se ejecuten en el marco de los patrimonios autónomos. La entidad aportante de los recursos definirá los porcentajes de los recursos aportados que pueden ser destinados a estos propósitos.

Parágrafo 4°. Cuando la entidad otorgante de subsidios familiares de vivienda 100% en especie (SFVE) advierta el acaecimiento de una causal para su restitución, de acuerdo con lo establecido en el artículo 21 de la Ley 1537 de 2012, adelantará un procedimiento administrativo para lograr la restitución formal del título de dominio del bien inmueble y, con el fin de lograr la restitución material, se podrán Incoar las acciones policivas a que haya lugar, según los términos y condiciones dispuestos en la legislación vigente.

Sin perjuicio de lo anterior, una vez surtido el proceso administrativo, por virtud de la ley e independientemente del negocio jurídico suscrito para que el hogar beneficiario se convirtiera en propietario de la vivienda, la entidad otorgante del SFVE o los fideicomisos en los cuales esta sea fideicomitente, podrán convertirse en titulares del derecho de dominio de las viviendas restituidas, para lo cual solo se requerirá la inscripción del acto administrativo correspondiente en el folio de matrícula inmobiliaria de la vivienda.

Cuando, en virtud de acreditación emitida por autoridad competente, se determine que las viviendas han sido utilizadas como medio o instrumento para la ejecución de actividades ilícitas, podrán ser restituidas por parte de la entidad otorgante, para ser asignadas a otros hogares que se encuentren en las condiciones señaladas en el artículo 12 de la Ley 1537 de 2012, aún en el evento en que no se cuente con decisión judicial.

Las viviendas que sean objeto de restitución de acuerdo con lo establecido en el presente artículo podrán ser transferidas a Fonvivienda o a patrimonios autónomos constituidos por la entidad otorgante de los subsidios, hasta el momento en que sean transferidas a un nuevo hogar beneficiario.

En el caso de solicitarse renuncias al Subsidio Familiar de Vivienda en Especie (SFVE), la restitución del título de dominio del bien inmueble procederá con la sola inscripción del acto administrativo que acepta la renuncia en el folio de matrícula inmobiliaria, sin ser necesaria la resciliación de la escritura pública de transferencia. En estos casos, el título de dominio se establecerá en la entidad otorgante del SFVE o los fideicomisos en las cuales esta sea fideicomitente.

Artículo 86. Trámite de Reparto Notarial.

Modifíquese el artículo 15 de la Ley 29 de 1973, el cual quedará así:

Artículo 15. Trámite de Reparto Notarial. El trámite de reparto notarial para los actos que involucren la constitución de propiedad horizontal, constitución o levantamiento de gravámenes, adquisición o trasferencia del derecho de propiedad y adquisición o transferencia de inmuebles donde comparezcan las entidades financieras del Estado de orden nacional que otorguen o que otorgaron el crédito para la adquisición de vivienda, cuando en el círculo de que se trate haya más de una notaría, se asignarán eficientemente entre las que exista, de tal modo que la administración no establezca privilegios a favor de ningún notario. El mecanismo mediante el cual se dará cumplimiento a lo anterior deberá ser auditado anualmente por un tercero independiente, con criterios de eficiencia y transparencia.

Artículo 87. Seguridad Jurídica en el Ordenamiento Territorial.

El principio de seguridad jurídica deberá estar inmerso en las acciones y actuaciones urbanísticas, a fin de propender por la inversión y estabilidad a mediano y largo plazo del sector edificador.

El otorgamiento de una licencia urbanística en cualquiera de sus modalidades crea derechos y obligaciones de carácter particular para el titular de la licencia, y de carácter colectivo para la comunidad en general y las entidades territoriales correspondientes.

Para los titulares de las licencias urbanísticas, el otorgamiento de una licencia reconoce derechos de construcción y desarrollo, ya sea parcelando, urbanizando o construyendo en los predios objeto de la misma; y, genera para su titular una serie de deberes en los términos y condiciones autorizados en el acto administrativo que la adopta.

En los eventos en que la licencia urbanística comprenda obligaciones de cesión de áreas para espacio público, o construcción de equipamiento público, se entenderá que la licencia urbanística reconoce derechos colectivos al espacio público de las áreas de cesión que surgen como consecuencia del proyecto urbanístico licenciado y de las obras de infraestructura en servicios públicos y vías de la malla vial arterial que se ejecuten por efecto de la concesión de la licencia.

Parágrafo. El acto administrativo que adopte la concertación ambiental en el proceso de formulación de un plan parcial se sujetará a las determinantes ambientales incorporadas en el trámite de revisión o modificación de los planes de ordenamiento territorial.

SUBSECCIÓN 5. LEGALIDAD EN MATERIA DE INFRAESTRUCTURA

Artículo 88. Fondo de Contingencias y Traslados.

Modifíquese el artículo 35 de la Ley 1753 de 2015, el cual quedará así:

Artículo 35. Fondo de Contingencias y Traslados. El Fondo de Contingencias de las Entidades Estatales creado por la Ley 448 de 1998 es el mecanismo de primera instancia autorizado para atender el pago de las obligaciones contingentes que contraigan las entidades sometidas al régimen obligatorio de contingencias contractuales del Estado, en cuanto se trate de riesgos comprendidos por este Fondo. Lo anterior sin perjuicio de la aplicación de los mecanismos alternativos para la atención de las obligaciones contingentes, de acuerdo con los lineamientos que para el efecto defina el Ministerio de Hacienda y Crédito Público, los cuales podrán contemplar la posibilidad de que dichos mecanismos se pacten contractualmente.

Parágrafo 1°. Las obligaciones contingentes que son atendidas por el Fondo mantendrán su naturaleza y condición de contingentes, siempre y cuando estén aprobadas en el respectivo plan de aportes y hasta el monto estipulado en este, sin que su cobertura quede condicionada al momento de la realización de los aportes al Fondo.

Así mismo, con cargo a los recursos del Fondo de Contingencias se podrán atender los intereses asociados a las obligaciones contingentes, exclusivamente dentro de los plazos establecidos en cada contrato. Se podrán cubrir con plazos adicionales las contingencias que se presenten en las concesiones viales de cuarta generación 4G.

Parágrafo 2°. La entidad que administre el Fondo de Contingencias de las Entidades Estatales podrá, previa solicitud de la entidad aportante, transferir recursos de uno a otro riesgo del mismo u otro proyecto de la misma entidad, con la finalidad de atender las obligaciones contingentes amparadas. Dicha transferencia deberá contar con la aprobación previa del plan de aportes por parte de la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público, siempre y cuando cumpla los siguientes requisitos:

(i) cuando la entidad aportante determine a través del seguimiento que el riesgo ha disminuido totalmente, caso en el que el valor a transferir será el 100% del saldo de la subcuenta; o

(ii) cuando la entidad aportante determine a través del seguimiento que el riesgo ha disminuido parcialmente, caso en el cual el valor a transferir será el exceso del saldo en la subcuenta.

Artículo 89. Fondo de Contingencias de las Entidades Estatales.

Modifíquese el artículo 2° de la Ley 448 de 1998, el cual quedará así:

Artículo 2°. Fondo de Contingencias de las Entidades Estatales. El Fondo de Contingencias de las Entidades Estatales es una cuenta especial sin personería jurídica administrada por el Ministerio de Hacienda y Crédito Público. Los recursos, así como los asuntos relacionados con pasivos del Fondo, serán administrados por la Dirección General de Crédito Público y Tesoro Nacional.

Artículo 90. Aprobación y Seguimiento de la Valoración de las Contingencias.

Adiciónese un Parágrafo al artículo 6° de la Ley 448 de 1998, así:

Parágrafo. Las entidades territoriales y sus descentralizadas deberán crear su propio fondo de contingencias; para tal efecto determinarán las metodologías de valoración según el tipo de pasivo contingente previsto en el artículo 3° de la Ley 819 de 2003, las condiciones de cada entidad y deberán incluir en sus presupuestos de servicio de deuda, las apropiaciones necesarias. Los aportes realizados al Fondo se entenderán ejecutados una vez transferidos al mismo y sólo podrán ser reembolsados al presupuesto de la entidad aportante como recursos de capital cuando se verifique en forma definitiva la no realización de los riesgos previstos.

La aprobación y seguimiento de las valoraciones de las que trata el presente Parágrafo solamente se efectuarán por parte de la Dirección General de Crédito Público y Tesoro Nacional cuando los aportes al fondo de contingencias de las entidades estatales se deriven de contingencias relacionadas con riesgos contractuales, providencias que impongan condenas o aprueben conciliaciones, y garantías, en los casos en los que se cuente con participación de recursos públicos de orden nacional y/o haya asunción de obligaciones contingentes por parte de la Nación o las entidades descentralizadas del orden nacional.

Artículo 91. Bienes Inmuebles Fiscales.

Los bienes inmuebles fiscales de propiedad de entidades públicas del orden nacional y territorial podrán utilizarse como medio de pago, garantía o fuente de financiación para adelantar la formulación, estructuración y ejecución de proyectos inmobiliarios que tengan como propósito o consecuencia resolver necesidades en materia de infraestructura para sedes administrativas, o misionales de entidades públicas, incluyendo instalaciones militares y carcelarias, así como de defensa y seguridad del Estado, y en consecuencia se entenderá que los respectivos inmuebles se requieren para el ejercicio de sus funciones.

En los proyectos inmobiliarios que se adelanten para resolver necesidades del sector defensa, y se desarrollen a través de otros organismos del Presupuesto General de la Nación, que involucren o no mecanismos como la fiducia mercantil, podrán diseñarse procesos de selección de contratistas entre aspirantes a contratar que cuenten con el respaldo de países con los cuales el Ministerio de Defensa Nacional hubiere firmado acuerdos o convenios. Los contratos que se celebren con el alcance descrito en este inciso son de defensa y seguridad del Estado para todos los efectos y en especial para lo dispuesto en el artículo 33 de la Ley 996 de 2005, o la norma que lo modifique, adicione o sustituya.

Si los proyectos a que se refiere este artículo son encargados para su ejecución a un particular, la remuneración, total o parcial podrá hacerse con los aportes, en dinero o en especie, según el mecanismo jurídico diseñado para tal fin.

El Ministerio de Defensa Nacional y la Policía Nacional podrán suscribir convenios con entidades públicas o privadas que les permitan recibir aportes para fortalecer las capacidades de la Fuerza Pública en áreas en donde se concentre la infraestructura crítica, productiva y de desarrollo.

Artículo 92.Estructuración de proyectos por parte de la Agencia Nacional Inmobiliaria “Virgilio Barco Vargas”.

La estructuración y ejecución de los proyectos inmobiliarios que lleve a cabo la Agencia Nacional Inmobiliaria “Virgilio Barco Vargas”, se podrá realizar sin requerir desembolso de recursos públicos y de acuerdo con la normativa aplicable al mecanismo fiduciario utilizado por la Agencia, como si se tratara de una asociación público-privada de iniciativa privada.

Los recursos que se generen en los proyectos inmobiliarios que se desarrollan mediante contratos de fiducia mercantil, provenientes del intercambio u operación predial que realice la Agencia Nacional Inmobiliaria “Virgilio Barco Vargas”, así como del ejercicio de su actividad, harán parte de los proyectos que se adelanten por este mecanismo y se ejecutarán y administrarán a través de los respectivos patrimonios autónomos, sin operación presupuestal alguna por parte de la Agencia.

Artículo 93. Infraestructura Inmobiliaria para la Administración Pública.

La Agencia Nacional Inmobiliaria Virgilio Barco Vargas, en desarrollo de su objeto de construir o gestionar, mediante Asociaciones Público-Privadas o contratación de obras, inmuebles destinados a entidades oficiales del orden nacional o territorial y a otros usos complementarios que pueda tener el mismo proyecto, podrá suscribir contratos de tracto sucesivo ya sea de arrendamiento o con cualquier otro compromiso contractual, por el mismo plazo que la Asociación Público- Privada o vehículo contractual de ejecución del proyecto inmobiliario requiera para la financiación del mismo y recuperación de la inversión antes de la reversión del inmueble a la misma Agencia cuando a ello hubiere lugar.

Artículo 94. Vigencias Futuras Agencia Nacional Inmobiliaria Virgilio Barco Vargas.

La autorización de compromisos de vigencias futuras de cualquier naturaleza para atender gastos de proyectos en que participa la Agencia Nacional Inmobiliaria Virgilio Barco Vargas, no estará sujeta al límite de autorizaciones para comprometer vigencias futuras.

Artículo 95. Fortalecimiento de la Infraestructura Física de las Entidades del Estado.

Con el propósito de modernizar, tecnificar y consolidar la institucionalidad de las entidades públicas, el Gobierno nacional podrá apropiar recursos para que dentro del Plan Plurianual de Inversiones y con cargo al Presupuesto General de la Nación, a partir de la vigencia de la presente ley se corrija la deficiencia en la capacidad de la infraestructura física de las instalaciones.

En concurrencia con los recursos que aporte el sector público del orden nacional, también se tendrán como fuente los procedentes del sector privado en alianza con Asociaciones Público-Privadas y los de cooperación internacional, con el objetivo de lograr la eficiencia en las inversiones.

Artículo 96. Planes de Movilidad Sostenible y Segura para Municipios, Distritos y Áreas Metropolitanas.

Modifíquese el artículo 1 de la Ley 1083 de 2006, el cual quedará así:

Artículo 1°. Planes de Movilidad Sostenible y Segura para Municipios, Distritos y Áreas Metropolitanas. Los municipios y distritos que deben adoptar planes de ordenamiento territorial en los términos del literal a) del artículo 9° de la Ley 388 de 1997, formularán, adoptarán y ejecutarán planes de movilidad. Los planes de movilidad sostenible y segura darán prelación a los medios de transporte no motorizados (peatón y bicicleta) y al transporte público con energéticos y tecnologías de bajas o cero emisiones.

En todo caso, los planes de movilidad deberán determinar objetivos y metas de movilidad sostenible, articulados con los respectivos planes de ordenamiento territorial, cuyo total cumplimiento deberá garantizarse mediante la formulación y ejecución de estrategias, programas y proyectos.

Cualquier municipio que esté fuera de esta obligación podrá formular, adoptar y ejecutar su plan de movilidad en el marco de los objetivos y metas de movilidad sostenible y segura, en especial capitales departamentales, municipios con nodos de comercio exterior, con intensidad turística, o con altos índices de contaminación o siniestralidad.

Las áreas metropolitanas definidas por el artículo 319 de la Constitución Política de Colombia y que se encuentren legalmente conformadas, deberán formular, adoptar y ejecutar planes de movilidad sobre la totalidad del territorio de los municipios que la conforman. Los planes de movilidad metropolitanos deberán formularse, adoptarse y ejecutarse con los mismos parámetros definidos para los municipios y distritos; así mismo, deberán garantizar concordancia con el nivel de prevalencia tanto de los planes integrales de desarrollo metropolitano como de los planes estratégicos de ordenamiento territorial metropolitano definidos por la Ley 1625 de 2013, que le corresponda a cada área metropolitana.

Los contenidos de los planes de desarrollo municipal y distrital de que trata la Ley 152 de 1994, deben armonizarse con los objetivos y metas de los planes de movilidad.

Los municipios y distritos que integran y hacen parte del territorio de un área metropolitana, deben armonizar igualmente sus planes de desarrollo con el plan de movilidad de la respectiva área metropolitana, en los términos del presente artículo.

La formulación de los planes de movilidad sostenible y segura deberá enmarcarse en la estrategia para la implementación de los Objetivos de Desarrollo Sostenible en Colombia.

Parágrafo. El Ministerio de Minas y Energía y el Ministerio de Ambiente y Desarrollo Sostenible, dentro de los seis (6) meses siguientes a la promulgación de esta ley, establecerá mediante reglamentación la definición de energéticos de bajas o cero emisiones, teniendo como criterio fundamental su contenido de componentes nocivos para la salud y el medio ambiente. El Ministerio de Transporte y el Ministerio de Ambiente y Desarrollo Sostenible expedirán la reglamentación de tecnologías vehiculares de bajas o cero emisiones. Las definiciones y reglamentaciones deberán ser actualizadas de manera cuatrienal considerando los constantes avances en los energéticos y en las tecnologías.

Artículo 97. Otras Fuentes de Financiación para los Sistemas de Transporte.

Modifíquese el artículo 33 de la Ley 1753 de 2015, el cual quedará así:

Artículo 33. Otras Fuentes de Financiación para los Sistemas de Transporte. Con el objeto de contribuir a la sostenibilidad de los sistemas de transporte, a la calidad del servicio y de su infraestructura, incrementar la seguridad ciudadana, la atención y protección al usuario, al mejoramiento continuo del sistema y contar con mecanismos de gestión de la demanda, las entidades territoriales podrán establecer recursos complementarios a los ingresos por recaudo de la tarifa al usuario, que podrán ser canalizados a través de fondos de estabilización y subvención. Las fuentes podrán ser las siguientes:

1. Recursos propios territoriales. Las autoridades de los departamentos, municipios, distritos o áreas metropolitanas podrán destinar recursos propios, incluyendo rentas y recursos de capital. La decisión anterior se adoptará mediante decreto municipal, distrital o mediante acuerdo metropolitano, el cual deberá contener como mínimo la destinación de los recursos, la fuente presupuestal y la garantía de la permanencia en el tiempo de los recursos, así como contar con concepto del Confis territorial o quien haga sus veces, y estar previstos en el Marco de Gasto de Mediano Plazo territorial con criterios de sostenibilidad fiscal.

2. Contribución por el servicio de parqueadero o de estacionamiento en vía. Los órganos territoriales podrán establecer una contribución a las tarifas al usuario de parqueaderos fuera de vía o estacionamientos en vía y podrán destinar recursos obtenidos por esta fuente para la sostenibilidad y calidad de sus sistemas de transporte. El hecho generador del tributo corresponde al uso del servicio de parqueaderos fuera de vía o estacionamiento en vía, los sujetos activos serán los municipios, distritos y áreas metropolitanas. Serán sujetos pasivos los usuarios del servicio gravado.

Corresponderá a las asambleas o concejos pertinentes definir los elementos del tributo y el sistema y método para definir los costos, y los responsables del cobro, declaración y consignación de los recursos recaudados, de manera que el tributo se ajuste a las condiciones locales.

Deberá cobrarse a todos aquellos usuarios que los estudios técnicos recomienden, considerando las vulnerabilidades de siniestralidad vial y la promoción de energéticos y tecnologías de cero o bajas emisiones.

3. Estacionamiento en vía pública. Las autoridades territoriales podrán destinar para la sostenibilidad y calidad de sus sistemas de transporte, una parte de los recursos que se hayan obtenido de las contraprestaciones económicas percibidas por el uso de vías públicas para estacionamiento.

4. Infraestructura nueva para minimizar la congestión. Las autoridades territoriales que hayan adoptado plan de movilidad podrán establecer precios públicos diferenciales por acceso o uso de infraestructura de transporte nueva construida para minimizar la congestión. Las autoridades territoriales podrán destinar recursos obtenidos por esta fuente para la sostenibilidad y calidad de sus sistemas de transporte.

El precio será fijado teniendo en cuenta el tipo de vía o zona; los meses, días u horas determinadas de uso; y el tipo de servicio del vehículo, el número de pasajeros o el tipo de vehículo.

Deberá cobrarse a todos aquellos usuarios que los estudios técnicos recomienden, considerando las vulnerabilidades de siniestralidad vial y la promoción de energéticos y tecnologías de cero o bajas emisiones.

5. Áreas con restricción vehicular. Las autoridades territoriales podrán definir áreas de congestión en las que sea necesario condicionar o restringir espacial o temporalmente el tránsito vehicular. El acceso a estas áreas podrá generar contraprestaciones o precios públicos a favor de la entidad territorial, quien definirá su tarifa y condiciones con base en estudios técnicos, con fundamento en el tipo de vía o zona; los meses, días u horas determinadas de uso; y el tipo de servicio del vehículo, el número de pasajeros o el tipo de vehículo, entre otros. Las autoridades territoriales podrán destinar recursos obtenidos por esta fuente para la sostenibilidad y calidad de sus sistemas de transporte.

6. Las entidades territoriales podrán destinar un porcentaje hasta del 60% del recaudo correspondiente a la entidad territorial por concepto de multas de tránsito para el funcionamiento sostenible de sus sistemas de transporte público masivo y colectivo o transporte no motorizado. Dicho porcentaje deberá ser definido y soportado por un análisis técnico y financiero que identifique los costos y gastos financiados por el concepto de multas, los programas y proyectos que se pueden financiar y los indicadores de seguimiento a los objetivos de seguridad vial.

7. Las autoridades territoriales podrán modificar las tarifas de los servicios de transporte público complementario a partir de la aplicación de factores tarifarios que permitirán obtener recursos para la sostenibilidad de otros servicios colectivos o masivos que operen en su jurisdicción.

8. Derecho real accesorio de superficie en infraestructura de transporte. Una entidad pública denominada superficiante, titular absoluta de un bien inmueble fiscal o de uso público destinado a la infraestructura de Transporte conforme a lo establecido en el artículo 4° de la Ley 1682 de 2013, podrá otorgar el derecho real de superficie de origen contractual, enajenable y oneroso, a un tercero denominado superficiario, por un plazo máximo de treinta (30) años, prorrogables hasta máximo veinte (20) años adicionales. El superficiario tendrá la facultad, conforme a la normatividad de ordenamiento territorial del lugar donde se ubique el bien inmueble y las disposiciones urbanísticas vigentes, de realizar y explotar por su exclusiva cuenta y riesgo, construcciones o edificaciones en áreas libres aprovechables con todos los atributos de uso, goce y disposición de las mismas, a fin de que tales desarrollos puedan soportar gravámenes y limitaciones al dominio, sin afectar el uso público, la prestación del servicio de transporte, ni restringir la propiedad del inmueble base del superficiante.

El derecho real de superficie se constituye mediante contratos elevados a escritura pública suscritos entre el titular del inmueble base y los terceros que serán superficiarios, los cuales contendrán la delimitación del área aprovechable, el plazo de otorgamiento del derecho, las condiciones de reversión de las construcciones, las causales de terminación del contrato, las obligaciones de las partes y la retribución que corresponde al superficiante, debiendo además inscribirse ante la Oficina de Registro de Instrumentos Públicos en el folio de matrícula inmobiliaria del predio sobre el cual se confiere el derecho real de superficie, en el que deberá realizarse una anotación de este como derecho accesorio, identificándose el área conferida al superficiario y los linderos de la misma y las construcciones, además deberán registrarse los actos jurídicos que se efectúen en relación con el derecho real de superficie.

La cancelación de la constitución de este derecho real accesorio de superficie procederá mediante escritura pública suscrita por las partes constituyentes, que será objeto de registro en el folio de matrícula inmobiliaria correspondiente y ante la Oficina de Registro competente.

Para otorgar el derecho real de superficie el superficiante deberá contar con un estudio técnico, financiero y jurídico, que valide y determine las condiciones y beneficios financieros y económicos que se generan a partir de su implementación y para la selección del superficiario el superficiante deberá sujetarse a las reglas propias de contratación que le apliquen a la entidad pública que actúe en tal calidad.

9. Además de las anteriores fuentes de financiación y pago, se podrán utilizar recursos de otras fuentes como valor residual de concesiones, valorización, subasta de norma urbanística, herramientas de captura del valor del suelo, sobretasa a la gasolina o al ACPM, cobro o aportes por edificabilidad adicional y mayores valores de recaudo futuro generados en las zonas de influencia de proyectos de renovación urbana, así como recursos obtenidos a través de ingresos no operacionales.

Artículo 98. Sostenibilidad de Sistemas de Transporte.

Modifíquese el artículo 14 de la Ley 86 de 1989, el cual quedará así:

“Artículo 14. Sostenibilidad de Sistemas de Transporte. Los sistemas de transporte colectivo y masivo deben ser sostenibles basados en la calidad en la prestación del servicio y en el control de la ilegalidad y la informalidad por parte de las entidades territoriales. Para ello las tarifas que se cobren por la prestación del servicio, sumadas a otras fuentes de pago de origen territorial si las hubiere, deberán ser suficientes para cubrir los costos de operación, administración, mantenimiento, y reposición de los equipos.

Los contratos de concesión y operación deben contemplar el concepto de sostenibilidad, y para el efecto se podrán realizar las modificaciones contractuales a que haya lugar.

Artículo 99. Apoyo a los Sistemas de Transporte.

El Gobierno nacional podrá apoyar técnica o financieramente la implementación de sistemas de transporte público colectivo o masivo terrestres, marítimos o fluviales en cualquiera de las jurisdicciones del territorio nacional, en sus etapas de diseño, ejecución u operación. Lo anterior de conformidad con el Marco Fiscal de Mediano Plazo y lo establecido en el artículo 14 de la Ley 86 de 1989 y en la Ley 310 de 1996.

Los sistemas de transporte cofinanciados por la Nación deberán ser soluciones de transporte que cumplan condiciones de calidad, utilizar eficientemente los recursos, incorporar energéticos y tecnologías vehiculares de cero o bajas emisiones y facilitar el acceso a personas con discapacidad o movilidad reducida, contemplar herramientas que contribuyan a la gestión del tráfico e involucran en los diseños la integración operacional de los sistemas de transporte con los terminales de transporte habilitados por el Ministerio de Transporte, aeropuertos, puertos y pasos de frontera según sea el caso, siempre que estas infraestructuras se encuentren ubicadas dentro de la jurisdicción donde operan los sistemas de transporte; así como contar con medidas orientadas a incrementar el uso de medios no motorizados y con empresas administradoras integrales encargadas de la operación.

Estos sistemas podrán ser:

i) Sistemas Integrados de Transporte Masivo (SITM) entendidos como aquellos que cuentan con infraestructura segregada para su uso exclusivo y cuyos agentes operadores y de recaudo sean concesionados o públicos;

ii) Sistemas Estratégicos de Transporte Público (SETP) como servicios de transporte colectivo integrados;

iii) Sistemas Integrados de Transporte Público (SITP) conformados por más de un modo o medio de transporte público integrados operacional y tarifariamente entre sí;

iv) Sistemas Integrados de Transporte Regional (SITR).

Dentro de los Sistemas de Transporte podrá existir un subsistema de transporte complementario el cual atenderá la demanda de transporte público que no cubra el sistema de transporte masivo, integrado, estratégico o regional.

La estructuración de los sistemas de transporte se realizará con autonomía por parte de las entidades territoriales, de conformidad con las necesidades propias de la ciudad o región. En caso de pretender la cofinanciación del Gobierno nacional se deberá involucrar a las entidades competentes de la Nación durante la elaboración de los estudios.

Las autoridades territoriales podrán realizar acciones que conduzcan a la sostenibilidad, calidad y cobertura de los sistemas de transporte público para lo cual pueden recurrir a la complementación, integración y articulación de las diferentes modalidades y servicios autorizados, haciendo uso de herramientas como los convenios de colaboración empresarial, acuerdos comerciales y todas aquellas acciones contra el transporte ilegal.

El servido de transporte automotor mixto podrá complementar o alimentar los sistemas de transporte para brindar conectividad entre las zonas rurales y urbanas.

Para la integración con el transporte intermunicipal de pasajeros de corta distancia, las autoridades territoriales, junto con el Ministerio de Transporte y la sociedad titular del sistema de transporte, según sea el caso, podrán aplicar las herramientas indicadas, para iniciar, terminar o hacer paradas intermedias de sus recorridos en nodos del sistema de transporte o en las terminales de transporte intermunicipal habilitadas por el Ministerio de Transporte, incluidas las de operación satélite periférica, para lo cual deberán disponer de la infraestructura o señalización necesaria que permita la integración. En todo caso, los vehículos de transporte intermunicipal que cubran rutas de media y larga distancia deberán iniciar y terminar sus recorridos en las terminales de transporte intermunicipales habilitadas para tal fin.

Parágrafo 1°. Es deber de las autoridades locales, entes gestores, concesionarios de operación y de recaudo, así como de las empresas operadoras del servicio de transporte, suministrar cualquier tipo de información solicitada por el Gobierno nacional.

Parágrafo 2°. Se podrán realizar proyectos bajo esquemas de asociaciones público-privadas, de conformidad con la Ley 1508 de 2012 o la norma que lo modifique o sustituya, para el desarrollo de sistemas de transporte público colectivo o masivo o de algunos de sus componentes o unidades funcionales, con recursos de cofinanciación de la Nación. Dicha cofinanciación será de hasta el 70% del menor valor que resulte entre 1) los desembolsos de recursos públicos solicitados para la ejecución del proyecto y 2) el valor estimado del costo y la financiación de las actividades de diseño, preconstrucción y construcción del proyecto. Dicho porcentaje será certificado por parte de la Entidad Territorial Beneficiaria de los recursos de cofinanciación.

Parágrafo 3°. El Ministerio de Transporte reglamentará la definición de transporte intermunicipal de corta, media y larga distancia. Basados en la calidad de la prestación del servicio y en el control de la ilegalidad y la informalidad por parte de las autoridades competentes.

Parágrafo 4°. Las autoridades territoriales conjuntamente con el Ministerio de Transporte, según sea el caso, podrán promover mecanismos de organización entre los sistemas de transporte público colectivo o masivo y las empresas de transporte intermunicipal de pasajeros de corta distancia.

Artículo 100. Cofinanciación de Sistemas de Transporte.

Modifíquese el artículo 2º de la Ley 310 de 1996, el cual quedará así:

Artículo 2º. Cofinanciación de Sistemas de Transporte. La Nación y sus entidades descentralizadas podrán realizar inversiones dentro del Marco Fiscal de Mediano Plazo con un mínimo del 40% y hasta por un 70% en proyectos de sistemas de transporte público colectivo o masivo, con dinero a través de una fiducia, o en especie de acuerdo con la reglamentación que para el efecto expida el Ministerio de Transporte.

Las inversiones financiables podrán ser el servicio de deuda; infraestructura física; sistemas inteligentes de transporte; costos de operación y adquisición total o parcial de vehículos nuevos o material rodante nuevo con estándares de bajas o cero emisiones, sin afectar el monto inicial de los recursos aprobados en el Conpes que dio origen a cada proyecto; que garanticen accesibilidad para población en condición de discapacidad o movilidad reducida. La adquisición, operación y mantenimiento de los activos cofinanciados son responsabilidad del ente territorial o de quien este delegue. Las disposiciones de este artículo tendrán vocación de permanencia en el tiempo.

El Ministerio de Transporte verifica el cumplimiento de los siguientes requisitos:

1. Que exista o se constituya una sociedad titular de carácter público que se encargue de la gestión del sistema de transporte. Esta sociedad deberá implementar los lineamientos de Gobierno corporativo emitidos por el Ministerio de Hacienda y Crédito Público para tal fin.

2. Que el proyecto respectivo tenga estudios de factibilidad técnica, ambiental, legales y financieros, aprobados por la entidad territorial que soporten, para las fases de planeación, construcción, operación y seguimiento, lo siguiente:

a) Definición del esquema operacional y financiero.

b) Definición del esquema institucional.

c) Aplicación de medidas para controlar y minimizar la ilegalidad.

d) Evaluación social y económica.

e) Definición de estrategias para su sostenibilidad, mantenimiento y actualización.

f) Identificación de fuentes de pago para alimentar el fondo de estabilización tarifaria.

g) Análisis de la viabilidad fiscal.

3. Que el proyecto respectivo cuente con un documento Conpes, que defina el sistema de transporte, así como las entidades encargadas de su diseño, construcción y operación con el cronograma respectivo, a partir del cual se autorizarán los desembolsos de manera progresiva de acuerdo con las necesidades y logros del proyecto, en especial aquellos hitos relacionados con la sostenibilidad operacional del sistema.

4. Que el sistema de transporte sea coherente con los objetivos del plan de movilidad adoptado en los casos ordenados por la ley, el plan de ordenamiento territorial y el plan de desarrollo territorial.

5. Que el proyecto propuesto esté debidamente registrado en el Banco de Proyectos de Inversión Nacional, y cumpla los requisitos establecidos en las disposiciones vigentes sobre la materia.

6. Que esté formalmente constituida una autoridad de transporte del sistema de transporte propuesto.

PARÁGRAFO 1º. Los estudios ambientales, técnicos, legales o financieros que sean realizados por parte de las entidades territoriales o quien estas deleguen hacen parte de su autonomía territorial; el Gobierno nacional, brindará el acompañamiento técnico necesario sin que esto implique su validación o aprobación a los estudios realizados.

Los estudios a los que hace alusión este Parágrafo deberán realizarse bajo el marco de la estrategia para la implementación de los Objetivos de Desarrollo Sostenible en Colombia.

PARÁGRAFO 2º. Para el caso de cofinanciación de sistemas transporte, el Confis podrá autorizar vigencias futuras de acuerdo con el respectivo cupo sectorial para el desarrollo de Asociaciones Público-Privadas.”

Artículo 101.Concesiones Portuarias sobre nuevos Emplazamientos.

Tratándose de concesiones portuarias entiéndase como puerto Greenfield el nuevo emplazamiento portuario construido en aguas profundas, es decir con profundidades naturales iguales o mayores a 17 metros en marea cero, que requieren el desarrollo de toda la infraestructura complementaria de accesos marítimos y terrestres o fluviales, así como la conectividad con otros modos de transporte y de comunicaciones con el resto del país y el mundo. Para este tipo de concesiones, el financiamiento de las inversiones requeridas en accesos y conectividad podrá ser contemplado en el Plan de Negocio del concesionario, y el plazo inicial de la concesión podrá ser hasta de 40 años, de conformidad con el Parágrafo 1° del presente artículo.

Parágrafo 1°. El plazo de concesión podrá ser prorrogado hasta por el plazo inicialmente pactado, siempre que se cuente con el concepto previo y favorable del Conpes, si fuere necesario para que, en condiciones razonables de operación, los titulares de los contratos de concesión portuaria recuperen el valor de las inversiones hechas o para estimular a estos a prestar el servicio público portuario y deberán soportarse en el modelo financiero que establezca el tiempo que se requiera para la recuperación de las inversiones efectuadas.

Parágrafo 2°. Las condiciones de prórroga y reversión serán las mismas contempladas en el artículo 8° de la Ley 1ª de 1991 o aquel que lo modifique o complemente.

Artículo 102. Cambio en las Condiciones de la Concesión.

Modifíquese el artículo 17 de la Ley 1ª de 1991, el cual quedará así:

Artículo 17. Cambio en las condiciones de la Concesión. Para que una sociedad portuaria pueda cambiar las condiciones en las cuales se le aprobó una concesión portuaria, debe obtener permiso previo y escrito de la entidad concedente, que sólo lo otorgará si con ello no se infiere perjuicio grave e injustificado a terceros, y si el cambio no es de tal naturaleza que desvirtúe los propósitos de competencia en los que se inspiran los procedimientos descritos en los artículos 9°, 10, 11 y 12, de esta ley. En el caso que ocurran modificaciones sustanciales podrá variarse la metodología de la contraprestación que se paga a la Nación. Se entiende por modificación sustancial a la concesión portuaria, el plazo, como la modificación en la ubicación, linderos y/o extensión zona de uso público otorgada en concesión.

Parágrafo 1°. La entidad concedente efectuará el estudio de las solicitudes de modificación a los contratos de concesión portuaria y establecerá, en cada caso y conforme las disposiciones contractuales, si lo pretendido con la solicitud implica una modificación sustancial de la concesión portuaria, caso en el cual deberá surtirse el procedimiento que para tal efecto se establece en el artículo 2.2.3.3.3.5 del Decreto 1079 de 2015, o aquel que lo sustituya, modifique o complemente.

Artículo 103. Intervención de la red vial, fluvial y aeropuertos regionales.

El Instituto Nacional de Vías (Invías) y la Unidad Administrativa Especial de Aeronáutica Civil podrán apoyar la financiación de proyectos para la intervención de la red vial, fluvial y los aeropuertos regionales de competencia de las entidades territoriales, previo a los criterios de priorización definidos por el Gobierno nacional y de acuerdo con lo previsto en el Marco Fiscal de Mediano Plazo y con el Marco de Gasto del correspondiente sector.

En virtud del apoyo a las entidades territoriales, el Invías y la Unidad Administrativa Especial de Aeronáutica Civil podrán adquirir, materiales, equipos, y la mano de obra requerida para su ejecución y podrán concurrir en la cofinanciación entidades de carácter privado. En todo caso, el Invías y la Aeronáutica Civil adoptarán las medidas requeridas para la ejecución de los recursos, entre otros, en convenio con los municipios.

Artículo 104. Participación de entidades de naturaleza pública o mixta.

Modifíquese el Parágrafo del artículo 8° de la Ley 1508 de 2012, el cual quedará así:

Parágrafo. Podrán ser contratantes de esquemas de Asociación Público- Privada bajo el régimen previsto en la presente ley, las Empresas Industriales y Comerciales del Estado, las Sociedades de Economía Mixta en las que el Estado tenga participación superior al cincuenta por ciento (50%), sus filiales y las Sociedades entre Entidades Públicas con participación mayoritaria del Estado superior al cincuenta por ciento (50%) y las empresas de servicios públicos domiciliarios oficiales o mixtas.

En el caso en que las entidades a que se refiere el inciso anterior decidan optar por esquemas de Asociación Público Privada bajo el régimen previsto en la presente ley, dichas empresas o sociedades deberán dar cumplimiento a lo previsto en la misma y sujetarse a las disposiciones particulares que les sean aplicables en materia contractual y presupuestal.

Cuando las entidades a que se refiere el primer inciso del presente Parágrafo decidan no acogerse a los esquemas de Asociación Público Privada bajo el régimen previsto en la presente ley, podrán contratar esquemas de participación privada en infraestructura conforme a su régimen de contratación, incluyendo la utilización, cuando a ello haya lugar, de la concesión de que trata el numeral 4 del artículo 32 de la Ley 80 de 1993.

Lo anterior, sin perjuicio de que las entidades a las que se refiere el primer inciso de este Parágrafo puedan presentar oferta para participar en los procesos de selección de esquemas de asociación público- privada regidos por esta ley, siempre que cumplan con los requisitos establecidos para el efecto en el respectivo proceso de selección.

Artículo 105. Celebración de Contratos de Obra Pública.

Modifíquese el artículo 205 de la Ley 1753 de 2015, el cual quedará así:

Artículo 205.Celebración de Contratos de Obra Pública en infraestructura concesionada. El Instituto Nacional de Vías (Invías) y la Unidad Administrativa Especial de Aeronáutica Civil (Aerocivil) podrán, excepcionalmente, celebrar y ejecutar contratos de obra pública para realizar obras complementarias sobre infraestructura concesionada, sin que sea necesaria la desafectación de la infraestructura a intervenir, con el fin de garantizar la continuidad de la prestación del servicio en condiciones de seguridad, transitabilidad, funcionalidad y/o seguridad de la infraestructura de transporte; impedir el deterioro de la infraestructura o la afectación de la comunidad; y mitigar el riesgo de pérdida del patrimonio vial.

El objeto de dichos contratos de obra pública no podrá comprender obras o inversiones que cambien sustancialmente el alcance del proyecto. La realización de la obra pública deberá ser pactada mediante convenio a celebrarse entre el Invías o la Aerocivil y la entidad pública a cargo del contrato de concesión. En estos convenios se definirá la fuente de financiación y entidad responsable de la ejecución y mantenimiento de la obra, así como las demás condiciones necesarias para el efecto. Previamente, la entidad estatal concedente de la infraestructura y el concesionario, deberán acordar los términos en que este colaborará y apoyará la realización de dichas obras.

Parágrafo. La infraestructura de transporte-modo carretero a cargo de la Nación, construida a partir de la fecha de expedición de la presente ley, entendiéndose tanto la concesionada como no concesionada deberá garantizar la adecuada disponibilidad de zonas de servicios complementarios como: estaciones de combustible, zonas de descanso, servicios sanitarios y de alimentación para los usuarios de las carreteras.

Artículo 106. Destinación de aportes de la Agencia Nacional de Infraestructura (ANI) en situaciones de reversión de infraestructura por terminación anticipada.

Cuando por la terminación anticipada del contrato de concesión, se efectúe la reversión de infraestructura, se podrán destinar parcial o totalmente los aportes previstos para la Agencia Nacional de Infraestructura que habrían de ser transferidos a los concesionarios en las vigencias anuales sucesivas respetando la anualidad correspondiente, así como los ingresos provenientes de los peajes previstos en el modelo financiero como ingresos de los concesionarios, para dar continuidad a las obras, garantizar la transitabilidad, funcionalidad y seguridad de la infraestructura de transporte revertida, así como para atender necesidades del sector transporte.

Para ello, el Ministerio de Transporte y sus entidades adscritas y vinculadas podrán reprogramar vigencias futuras autorizadas en los diferentes proyectos de inversión en la vigencia en la cual ocurra la reversión.

Artículo 107. Avales y garantías en el Marco de la Cofinanciación de Sistemas de Transporte.

La Nación podrá otorgar los avales o garantías a las operaciones de financiamiento que realicen las entidades en el marco de la cofinanciación de la que trata el inciso 2° del artículo 14 de la Ley 86 de 1989, modificada por el artículo 31 de la Ley 1753 de 2015. En estos eventos, las entidades estatales podrán utilizar para la constitución de las contragarantías a favor de la Nación, entre otras, los flujos correspondientes a las vigencias futuras aprobadas por la instancia correspondiente.

Parágrafo 1°. Para la constitución de las contragarantías a favor de la Nación, se podrán otorgar como contragarantía los flujos correspondientes a las vigencias futuras de las entidades de los órdenes nacionales o territoriales aprobados por las instancias correspondientes.

Parágrafo 2°. En lo no previsto en el presente artículo se aplicará lo dispuesto en el Decreto 1068 de 2015 y demás normas vigentes.

Artículo 108. Contribución Especial de Vigilancia para la Superintendencia de Transporte.

Modifíquese el artículo 36 de la Ley 1753 de 2015, el cual quedará así:

Artículo 36. Contribución Especial de Vigilancia para la Superintendencia de Transporte. La Superintendencia de Transporte como establecimiento público con personería jurídica, cobrará una contribución especial de vigilancia, la cual, junto con las multas impuestas en ejercicio de sus funciones, tendrán como destino el presupuesto de la Superintendencia. La contribución será cancelada anualmente por todas las personas naturales y/o jurídicas que estén sometidas a su vigilancia, inspección y/o control de acuerdo con la ley o el reglamento.

La contribución especial de vigilancia se fijará por parte de la Superintendencia de Transporte conforme a los siguientes criterios:

1. Con base en los ingresos brutos derivados de la actividad de transporte que perciba el sujeto supervisado durante el período anual anterior, la Superintendencia de Transporte, mediante resolución, establecerá la tarifa de la contribución a cobrar que no podrá ser superior al cero coma veintiuno porciento (0,21%) de dichos ingresos brutos.

2. La contribución deberá cancelarse anualmente, en el plazo que para tal efecto determine la entidad y será diferencial dependiendo de si la supervisión es integral, objetiva o subjetiva.

Parágrafo 1°. Para efectos del presente artículo, se entenderá por ingresos brutos derivados de la actividad de transporte, todos aquellos que recibe el supervisado por las actividades relacionadas con el tránsito, transporte, su infraestructura o sus servicios conexos y complementarios, durante el período anual anterior, sin restarle las contribuciones, gastos, costos, tributos, descuentos y deducciones.

Parágrafo 2°. Para concesiones y otras formas de asociaciones público- privadas se entenderá por ingresos brutos derivados de la actividad de transporte, aquellos ingresos del concesionario en virtud del contrato, y que se liquidarán teniendo en cuenta los ingresos brutos ordinarios y extraordinarios determinados con base en las normas establecidas para el impuesto sobre la renta y complementarios fijadas en el estatuto tributario y su reglamentación, diferentes de los ingresos recibidos con fuente Presupuesto General de la Nación, entidades territoriales u otros fondos públicos.

Parágrafo 3°. Los concesionarios de puertos de servicio privado pagarán la contribución especial de vigilancia teniendo en cuenta como base de liquidación, la cifra resultante de multiplicar las toneladas movilizadas en el año inmediatamente anterior por la tarifa calculada anualmente por la Superintendencia de Transporte para cada tipo de carga de acuerdo con la metodología establecida en los planes de expansión portuaria y demás normas concordantes.

Parágrafo 4°. Para efectos del control en el pago de la contribución aquí prevista, la Superintendencia de Transporte reglamentará la inscripción y registro de los operadores portuarios, marítimos y fluviales.

Artículo 109. Protección de Usuarios de Transporte Aéreo.

La Superintendencia de Transporte es la autoridad competente para velar por la observancia de las disposiciones sobre protección al usuario del transporte aéreo, así como para adelantar las investigaciones e imponer las sanciones o medidas administrativas a que haya lugar por las infracciones a las normas aeronáuticas en lo referente a los derechos y deberes de los usuarios del transporte aéreo, excluyendo aquellas disposiciones relacionadas con la seguridad operacional y seguridad de la aviación civil; cuya competencia permanecerá en la Unidad Administrativa Especial de Aeronáutica Civil. Las multas impuestas por la Superintendencia de Transporte tendrán como destino el presupuesto de esta.

Parágrafo. Los cargos y recursos de la Unidad Administrativa Especial de Aeronáutica Civil para la protección de usuarios del modo de transporte aéreo serán trasladados a la Superintendencia de Transporte. En todo caso, el Gobierno nacional garantizará que la Superintendencia de Transporte cuente con el presupuesto necesario para la protección de los usuarios del sector.

 Artículo 110. Protección al Turista.

Modifíquese el Parágrafo 2° y adiciónese un Parágrafo transitorio al artículo 25 de la Ley 1558 de 2012 el cual quedará así:

Parágrafo 2°. Las reclamaciones que se susciten en desarrollo de la prestación y comercialización del servicio del transporte aéreo, serán resueltas por la Superintendencia de Transporte como única entidad competente del sector, dando aplicación al procedimiento sancionatorio del Código de Procedimiento Administrativo y de lo Contencioso Administrativo y demás normas concordantes.

Parágrafo transitorio. Las investigaciones iniciadas con anterioridad a la entrada en vigencia de esta ley seguirán en cabeza de la Unidad Administrativa Especial de Aeronáutica Civil y culminarán de conformidad con el régimen jurídico y procedimiento con el cual se iniciaron.

Artículo 111. Reprogramación de Vigencias Futuras del Sector Transporte.

Con el fin de atender gastos prioritarios del Sector Transporte y mantener la consistencia fiscal del Presupuesto General de la Nación, las entidades que conforman el Sector podrán recomponer el presupuesto a través de la reprogramación de los compromisos realizados con cargo a vigencias futuras, autorizadas en los diferentes proyectos de inversión.

El Gobierno nacional hará los ajustes necesarios mediante decreto anual, debidamente motivado, sin cambiar, en todo caso, el monto total de gasto de inversión del sector para la vigencia fiscal, aprobado por el Congreso.

Artículo 112.Vigencias Futuras de la Nación y las Entidades Estatales del Orden Nacional para Proyectos de Asociación Público Privada.

Adiciónese el siguiente Parágrafo al artículo 26 de la Ley 1508 de 2012:

Parágrafo. Las entidades estatales del orden nacional que cuenten con recursos propios o fondos especiales destinados al desarrollo de proyectos de Infraestructura, podrán destinar estos recursos para el desarrollo de proyectos de Asociación Público Privada (APP), sin que estos sean contabilizados dentro del límite anual de autorizaciones de vigencias futuras establecido por el Consejo Nacional de Política Económica y Social (Conpes) para el desarrollo de dichos proyectos. Sin perjuicio de lo anterior, la solicitud de autorización de vigencia futuras al Consejo de Política Fiscal (Confis) para proyectos de Asociación Público Privada deberá estar acompañada de un análisis de disponibilidad y sostenibilidad de los ingresos propios o de la fuente de ingreso del respectivo fondo público durante el periodo que demande la ejecución del proyecto, de conformidad con los compromisos de pago proyectados.

Artículo 113. Requisitos para Proyectos de Asociación Público Privada que requieren desembolsos de Recursos Públicos en Entidades Territoriales.

Modifica el numeral 6, 7 y el Parágrafo 2° del artículo 27 de la Ley 1508 de 2012, así:

6. La autorización por parte de la Asamblea o Concejo respectivo, para asumir obligaciones con cargo al presupuesto de vigencias futuras para proyectos de Asociación Público Privada podrá efectuarse en cualquier momento y superar el período de Gobierno del respectivo gobernador o alcalde. El plazo de dicha autorización no podrá exceder el plazo previsto en el artículo 6° de la Ley 1508 de 2012.

7. Las vigencias futuras que se expidan deberán cumplir las normas vigentes que regulan la materia y los parámetros previstos en el presente artículo, incluyendo la aprobación previa de la valoración de riesgos y pasivos contingentes por parte del Ministerio de Hacienda y Crédito Público.

Estas vigencias futuras podrán ser aprobadas en el último año de Gobierno, hasta por el plazo de duración del proyecto respectivo.

Parágrafo 2°. Para la presentación de estos proyectos al Ministerio de Hacienda y Crédito Público se deberá contar con la validación financiera por parte de alguna de las entidades financieras públicas de segundo piso o estructuradoras públicas del orden nacional.

Se exceptúan de la mencionada validación, aquellos proyectos que han sido estructurados por una estructuradora pública del orden nacional o el Departamento Nacional de Planeación.

Artículo 114. Trámites de Proyectos de Interés Nacional y Estratégico.

Las entidades que determinan la viabilidad o que expidan permisos y licencias para el desarrollo de los Proyectos de Interés Nacional y Estratégico, deberán darle prioridad a dichos proyectos sobre cualquier otro proyecto.

Artículo 115. Asociaciones Público-Privadas para Escenarios Públicos.

Para el trámite de asociaciones público privadas de Iniciativa privada para la construcción, administración, mantenimiento y adecuación de escenarios públicos tales como estadios, coliseos deportivos, centros de convenciones o similares, los tiempos para la evaluación se podrán reducir hasta la mitad.

Artículo 116. Evaluación de los Proyectos de Asociación Público Privada de Iniciativa Privada.

El artículo 19 de la Ley 1882 de 2018 quedará así:

Artículo 19. Evaluación de los Proyectos de Asociación Público Privada de Iniciativa Privada. Los originadores de proyectos de Asociación Pública Privada de Iniciativa privada, asumirán por su propia cuenta y riesgo, el costo estimado de su revisión y/o evaluación en la etapa de factibilidad.

Para el efecto, el originador deberá aportar, según corresponda:

a) El equivalente a 500 SMLMV en caso de proyectos cuyo presupuesto estimado de inversión sea inferior a 400.000 SMLMV, calculado en precios constantes al momento en que la entidad pública competente una vez finalizada la etapa de prefactibilidad manifiesta que el proyecto es de su interés, o

b) El equivalente al 0,1% del presupuesto estimado de Inversión para proyectos cuyo presupuesto estimado de inversión sea igual o superior a 400.000 smlmv, calculado en precios constantes al momento en que la entidad pública competente una vez finalizada la etapa de prefactibilidad manifiesta que el proyecto es de su interés.

La administración y manejo de los recursos aportados por el originador destinados a la revisión y/o evaluación del proyecto en etapa de factibilidad se realizará a través de un patrimonio autónomo que constituirá el originador. Los costos que genere la administración de dicho patrimonio autónomo deberán ser cubiertos por el originador de la iniciativa privada.

La entidad estatal encargada de la revisión y/o evaluación del proyecto será la beneficiaria del patrimonio autónomo y la encargada de autorizar la celebración de los contratos requeridos para el efecto, así como autorizar los pagos a que hubiere lugar en desarrollo de los mismos.

El costo estimado de la evaluación del proyecto en la etapa de factibilidad deberá girarse al patrimonio autónomo en el plazo establecido por la entidad al momento de pronunciarse sobre el mismo una vez finalizada la etapa de prefactibilidad. En caso de que el originador no consigne el valor de la evaluación del proyecto la entidad estatal no adelantará su respectiva evaluación.

Finalizada la evaluación del proyecto, se procederá a la liquidación del patrimonio autónomo y sus excedentes si los hubiere serán consignados a orden del tesoro nacional.

Artículo 117. Sistema de Recaudo y Sistema de Gestión y Control de Flota de Transporte.

Los sistemas de transporte que sean cofinanciados con recursos de la nación, adoptarán un sistema de recaudo centralizado, así como un sistema de gestión y control de flota, que integre los subsistemas de transporte complementario y de transporte masivo, integrado, estratégico o regional, utilizando mecanismos que así lo permitan, en especial el sistema de recaudo unificado, el cual permitirá el pago electrónico y en efectivo validado por medios electrónicos, y los sistemas de compensación entre operadores, de conformidad con lo dispuesto por la autoridad de transporte competente de acuerdo con los resultados de los estudios técnicos.

Se entiende como recaudo centralizado, aquel sistema mediante el cual se recaudan los dineros por concepto de la tarifa al usuario del sistema de transporte, los cuales se administran a través de un patrimonio autónomo o cualquier otro esquema de administración de recursos autorizado y administrado por una entidad vigilada por la Superintendencia Financiera de Colombia, constituido por el agente recaudador el cual estará sujeto a la auditoría permanente e irrestricta de la autoridad de transporte correspondiente.

Los sistemas de recaudo centralizado, de control de flota y de información y servicio al usuario, se constituyen en la herramienta tecnológica que controla la calidad, la cobertura y la continuidad del servicio del respectivo sistema de transporte, que deberá ser interoperable y suministrar información para que las autoridades definan políticas de movilidad, incluyendo demanda, oferta, tarifa y derechos de participación de los agentes. La totalidad de la información recolectada es propiedad del ente territorial o quien este delegue, teniendo libre acceso a las bases de datos.

En los sistemas de transporte masivos, ni los operadores o empresas de transporte, ni sus vinculados económicos podrán participar en la operación y administración de sistema de recaudo, salvo que se trate de una entidad pública. Vinculados económicos entendidos como tales los que se encuentren en los supuestos previstos por los artículos 450 a 452 del Estatuto Tributario.

Para los sistemas estratégicos de transporte público una entidad pública, o el agente operador de transporte o sus vinculados podrán operar el sistema de recaudo centralizado, caso en el cual el Ministerio de Transporte reglamentará las condiciones, garantizando la estabilidad jurídica de los actos administrativos expedidos a la entrada en vigencia de la presente ley por las entidades territoriales.

Cuando existan dos o más agentes operadores de transporte, estos y sus vinculados económicos podrán participar en la operación y administración del sistema de recaudo, siempre y cuando todos ellos conformen un único agente recaudador; cuando no se logre la participación de todos los operadores de transporte en el agente de recaudo, la entidad territorial, el ente gestor o quien estos deleguen deberá adjudicar la operación del servicio de recaudo centralizado mediante licitación pública o convenio interadministrativo.

La autoridad competente cancelará las habilitaciones correspondientes a las empresas de transporte masivo, integrado, estratégico, regional o complementario que no se integren al sistema de recaudo centralizado siempre y cuando los sistemas a integrar hayan sido cofinanciados con recursos de la Nación.

Parágrafo 1°. La entidad territorial, el ente gestor o quien estos deleguen podrá ostentar la calidad de operador del sistema de recaudo, del sistema de control y gestión de flota y del sistema de información al usuario, siempre y cuando los estudios así lo recomienden. En todo caso se garantizará la estabilidad jurídica de los actos administrativos expedidos a la entrada en vigor de la presente ley por las entidades territoriales. El Gobierno nacional reglamentará las condiciones técnicas, operativas y de seguridad de los sistemas de recaudo en el país.

Parágrafo 2°. Los agentes recaudadores de transporte público podrán ser habilitados por la autoridad competente para que además de recaudar la tarifa del servicio de transporte público, en sus diferentes modalidades, puedan recaudar el precio de otros productos o servicios afines o conexos a la movilidad. Para el efecto en el patrimonio autónomo o esquema financiero constituido para el recaudo centralizado se deberán generar subcuentas por cada concepto de pago.

Artículo 118. Nuevas fuentes de materiales para mantenimiento, mejoramiento y rehabilitación de vías terciarias y para el programa “Colombia Rural”.

En el evento que no utilicen fuentes de material titulado y licenciado ambientalmente para el mantenimiento, mejoramiento y rehabilitación de vías terciarias; previo a la ejecución de las obras, la entidad territorial definirá conjuntamente con la autoridad ambiental regional y la autoridad minera competentes, la ubicación y el volumen estimado de las fuentes de material requerido para el mantenimiento, mejoramiento y rehabilitación de vías terciarias y del programa “Colombia Rural” en el respectivo municipio. Con base en esta información la autoridad ambiental, una vez otorgada la autorización temporal por parte de la autoridad minera competente, procederá a pronunciarse, en un término máximo de dos (2) meses sobre la viabilidad de la licencia ambiental a estas fuentes de materiales, cuya vigencia no podrá ser inferior a la de la autorización minera.

Parágrafo. El Ministerio de Ambiente y Desarrollo Sostenible expedirá los términos de referencia para la elaboración del estudio de impacto ambiental de la licencia ambiental de que trata el presente artículo, dentro del mes siguiente a la expedición de la presente ley.

Artículo 119. Priorización para proyectos de inversión en agua potable, saneamiento básico, vías terciarias y energía eléctrica.

A partir de la expedición de la presente ley y durante su vigencia, el Órgano Colegiado de Administración y Decisión PAZ (Ocad Paz) garantizará la priorización de proyectos para mejorar los índices de cobertura de agua potable, saneamiento básico, desarrollo de vías terciarias y generación y ampliación de cobertura del servicio público de energía eléctrica hasta por la suma de uno punto cinco billones de pesos discriminados así: quinientos mil millones de pesos para agua y saneamiento básico, quinientos mil millones de pesos para vías terciarias y quinientos mil millones de pesos para generación y ampliación y cobertura del servicio público de energía eléctrica. La presente partida corresponde al bienio 2019-2020 del Presupuesto del Sistema General de Regalías y se mantendrá en similar proporción para el bienio 2021-2022.

La contratación de proyectos para el desarrollo de vías terciarias, se realizará atendiendo las normas vigentes, en particular las Leyes 1682 de 2013 y 1882 de 2018, y aquellas que las modifiquen o sustituyan.

En la financiación de las iniciativas de desarrollo de que trata este artículo podrán concurrir diferentes fuentes o mecanismos, entre otros, recursos provenientes de Asociaciones Público – Privadas (APP), obras por impuestos y otros aportes del Presupuesto General de la Nación.

Para definir la priorización de los proyectos de que trata el inciso primero del presente artículo, se tendrán en cuenta los criterios establecidos en el Decreto-ley 413 del 2018.

Lo dispuesto en el presente artículo guardará concordancia con el mecanismo de hoja de ruta establecido en el artículo 281 de la presente ley.

Artículo 120. Permisos especiales y temporales de vehículos combinados de carga (VCC).

El Instituto Nacional de Vías concederá permisos especiales, individuales o colectivos, temporales, con una vigencia máxima de dos (2) años, para el transporte de carga divisible por las vías nacionales, concesionadas o no, con vehículos combinados de carga, de conformidad con los criterios técnicos y jurídicos, determinados por el Ministerio de Transporte y el Instituto Nacional de Vías, relativos a la seguridad vial, infraestructura, movilidad y logística. Tales permisos se concederán por el Instituto Nacional de Vías hasta tanto se establezca la regulación que especifique los criterios definitivos para la operación de los vehículos combinados de carga siempre y cuando los estudios técnicos determinen su viabilidad.

Cuando el permiso verse sobre vías concesionadas, se deberá contar con el concepto previo de la Agencia Nacional de Infraestructura.

Artículo 121. Vehículos con matrícula extranjera en zonas de frontera cuyo modelo no supere el año 2016.

Los residentes de las Unidades Especiales de Desarrollo Fronterizo (UEDF) de que trata el artículo 4° de la Ley 191 de 1995, propietarios o tenedores de vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, cuyo modelo no supere el año 2016, que al 19 de agosto de 2015 hubieren ingresado y se encuentren circulando en la jurisdicción de los departamentos al que pertenecen las UEDF, deberán proceder al registro de dichos bienes ante los municipios de la UEDF o ante las autoridades locales que estos deleguen, dentro de los tres (3) meses siguientes al vencimiento del plazo de que trata el siguiente inciso, con el fin de poder circular de manera legal dentro de la jurisdicción de ese departamento.

Dentro de los treinta (30) días hábiles siguientes a la promulgación de la presente ley, el municipio de la UEDF informará a los interesados el procedimiento para adelantar el registro de que trata el presente artículo, el cual deberá contener como mínimo la siguiente información:

1. La identificación del propietario o tenedor, indicando el número de identificación correspondiente.

2. La individualización del bien objeto de registro, indicando cuando aplique para el tipo de bien, el número VIN, el número de serie del motor, o el número de serie que identifique el bien, el número de placa.

3. Declaración del propietario o tenedor en la que manifieste:

3.1. Ser residente en la Unidad Especial de Desarrollo Fronterizo en la que está realizando el registro correspondiente.

3.2. Que el origen del bien objeto de registro es legal.

Esta declaración se entenderá prestada bajo la gravedad del juramento con la firma del registro correspondiente.

4. Para vehículos y motocicletas deberá acreditar la existencia del Certificado de Revisión Técnico – mecánica y del Seguro Obligatorio de Accidentes de Tránsito, vigentes.

Los bienes que hayan sido objeto del registro de que trata el presente artículo, no deberán ser sometidos al trámite de internación temporal previsto en el Decreto 2229 de 2017 o en las normas que lo modifiquen.

Parágrafo 1°. El Registro de que trata el presente artículo deberá exhibirse ante las autoridades que lo requieran como documento que acredita la circulación legal permanente del bien, dentro de la jurisdicción del respectivo departamento.

Parágrafo 2°. El registro de que trata el presente artículo no determina la propiedad cuando este sea adelantado por el poseedor. Así mismo, no subsana irregularidades en su posesión o eventuales hechos ilícitos que se hayan presentado en su adquisición, y su disposición se encuentra restringida a la circulación del bien dentro de la jurisdicción del departamento en donde se hizo el registro.

Parágrafo 3°. La Dirección de Impuestos y Aduanas Nacionales podrá aprehender y decomisar los bienes de que trata el presente artículo en los siguientes casos:

i) Cuando los vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, no cuenten con el registro dentro de los plazos y términos aquí señalados y

ii) cuando se encuentren vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, por fuera de la jurisdicción del departamento que fuera señalada en el registro, de que trata este artículo.

Artículo 122. Internación temporal de vehículos con matrícula extranjera en zonas de frontera cuyo modelo sea año 2017 y siguientes.

Lo previsto en el artículo anterior no aplica para vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, cuyo modelo sea posterior al año 2016. En consecuencia, los bienes cuyo modelo sea 2017 y posteriores, dentro de los tres (3) meses siguientes a la entrada en vigencia de la presente ley deberán cumplir los requisitos previstos en el Decreto 2229 de 2017, modificado por el Decreto 2453 de 2018, so pena de la aprehensión y decomiso realizada por la Dirección de Impuestos y Aduanas Nacionales.

Artículo 123. Impuesto de vehículos automotores para vehículos de matrícula extranjera en zonas de frontera.

Los vehículos, motocicletas y embarcaciones fluviales menores, de matrícula de un país vecino inscritos en el registro de que trata el artículo 121 de esta ley, y aquellos que se hayan acogido a la medida de internación temporal de que trata el artículo anterior, causarán anualmente, en su totalidad, y a favor de las Unidades Especiales de Desarrollo Fronterizo, el impuesto de vehículos automotores de que trata la Ley 488 de 1998. El Ministerio de Transporte fijará la tabla de avalúo de los vehículos a que se refiere el presente artículo

SUBSECCIÓN 6. LEGALIDAD – OTRAS DISPOSICIONES

Artículo 124. Requisitos para la creación de Distritos.

Modifíquese el artículo 8° de la Ley 1617 de 2013, el cual quedará así:

Artículo 8°. Requisitos para la Creación de Distritos. La ley podrá decretar la conformación de nuevos distritos, siempre que se cumplan las siguientes condiciones:

1. Contar por lo menos con quinientos mil (500.000) habitantes, según certificación expedida por el Departamento Administrativo Nacional de Estadística (DANE), de acuerdo con el último censo realizado por esta entidad o estar ubicado en zonas costeras, ser capital de departamento, municipio fronterizo o contar con declaratoria de Patrimonio Histórico de la Humanidad por parte de la Unesco.

2. Presentar un documento con la sustentación técnica del potencial para el desarrollo de puertos o para el desarrollo de actividades turísticas, industriales, o económicas de gran relevancia y/o culturales, que acredite la capacidad institucional, de gestión y financiación para el desarrollo de dicha vocación.

3. Presentar un análisis de la capacidad fiscal que demuestre su suficiencia para asumir las necesidades institucionales y estructura administrativa asociada a la conformación de localidades.

4. Presentar los resultados de la diligencia de deslinde efectuada por el Instituto Geográfico Agustín Codazzi (IGAC) de conformidad con lo establecido en el artículo 10 de la Ley 1617 de 2013.

5. Contar con concepto previo y favorable sobre la conveniencia de crear el nuevo distrito, emitido por las Comisiones Especiales de Seguimiento al Proceso de Descentralización y Ordenamiento Territorial del Senado de la República y la Cámara de Representantes, y la Comisión de Ordenamiento Territorial como organismo técnico asesor, o el organismo que haga sus veces, concepto que será sometido a consideración de las Plenarias del Senado de la República y de la Cámara de Representantes, respectivamente.

6. Contar con concepto previo y favorable de los concejos municipales.

Parágrafo transitorio. Los distritos conformados con anterioridad a la entrada en vigencia de la presente ley continuarán sometiéndose a sus respectivas normas de creación. Los municipios que hayan iniciado el trámite para convertirse en Distritos antes del 30 de abril de 2019, seguirán rigiéndose por las normas constitucionales o legales con que iniciaron.

Artículo 125. Fusión y Denominación.

Fusiónese el Departamento Administrativo de Ciencia, Tecnología e Innovación (Colciencias), en el Ministerio de Ciencia, Tecnología e Innovación, el cual continuará con la misma denominación y como organismo principal de la Administración Pública del Sector Administrativo de Ciencia, Tecnología e Innovación.

El Ministerio de Ciencia, Tecnología e Innovación tendrá como domicilio principal la ciudad de Bogotá, D.C., y cumplirá los objetivos señalados en el acto de creación contenido en la Ley 1951 de 2019.

El Gobierno nacional, en ejercicio de las competencias permanentes conferidas mediante la Ley 489 de 1998, adoptará la estructura interna y la planta de personal que requiera el Ministerio de Ciencia, Tecnología e Innovación para su funcionamiento. Los actuales servidores de la planta de personal del Departamento Administrativo de Ciencia, Tecnología e Innovación continuarán ejerciendo las atribuciones a ellos asignadas, bajo la misma estructura y percibiendo la misma remuneración, hasta tanto sean incorporados a la planta de personal adoptada de conformidad con lo dispuesto en el presente artículo.

Dentro de lo seis (6) meses siguientes a la expedición de la presente ley, el Director del Departamento Administrativo de Ciencia, Tecnología e Innovación deberá ordenar y ejecutar las medidas administrativas necesarias, así como la adecuación y operación de los sistemas contables, financieros, de tesorería, almacenes y demás servicios de apoyo, para asegurar la correcta puesta en funcionamiento del Ministerio. Los acuerdos, contratos y convenios vigentes al momento de la expedición de esta ley, suscritos por el Departamento Administrativo de Ciencia, Tecnología e Innovación se entienden subrogados al Ministerio de Ciencia, Tecnología e Innovación, quien continuará con su ejecución en los mismos términos y condiciones, sin que para ello sea necesaria la suscripción de documento adicional alguno.

A partir de la fecha de expedición de la presente ley, se entienden transferidos los derechos y bienes muebles e inmuebles, así como subrogadas las obligaciones en las que sea parte el Departamento Administrativo de Ciencia, Tecnología e Innovación al Ministerio de Ciencia, Tecnología e Innovación, en los mismos términos y condiciones bajo las cuales se encuentran pactadas.

Los procedimientos administrativos, las acciones constitucionales y, en general, todos los procesos judiciales en los que sea parte el Departamento Administrativo de Ciencia, Tecnología e Innovación continuarán siendo atendidos por el Ministerio de Ciencia, Tecnología e Innovación.

El Ministerio de Ciencia, Tecnología e Innovación continuará a cargo del Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Fondo Francisco José de Caldas y cumpliendo las funciones que en relación con los demás fondos le fueron asignadas por la Constitución y la ley al Departamento Administrativo de Ciencia, Tecnología e Innovación (Colciencias).

A partir de la entrada en vigencia de la presente ley, todas las referencias que hagan las normas vigentes al Departamento Administrativo de Ciencia, Tecnología e Innovación, se entenderán efectuadas al Ministerio de Ciencia, Tecnología e Innovación.

Para todos los efectos legales, el Ministerio de Ciencia, Tecnología e Innovación creado mediante la Ley 1951 de 2019, sustituye al Departamento Administrativo de Ciencia, Tecnología e Innovación.

Artículo 126. Objetivos generales y específicos del Ministerio de Ciencia, Tecnología e Innovación.

Modifíquese el artículo 2° de la Ley 1951 de 2019, el cual quedará así:

Artículo 2°. Objetivos generales y específicos. Por medio de la presente ley se reconocen y actualizan los derechos de los ciudadanos y los deberes del Estado en materia del desarrollo del conocimiento científico, tecnológico y de innovación, que consolidan los avances hechos por las Leyes 29 de 1990 y 1286 de 2009, mediante los siguientes objetivos generales y específicos:

OBJETIVOS GENERALES 

1. Formular la política pública de ciencia, tecnología e innovación del país.

2. Establecer estrategias de transferencia y apropiación Social de la Ciencia, la Tecnología, la Innovación para la consolidación de una sociedad basada en el conocimiento.

3. Impulsar el desarrollo científico, tecnológico y la innovación de la Nación, programados en la Constitución Política de 1991 y en el Plan Nacional de Desarrollo, de acuerdo con las orientaciones trazadas por el Gobierno nacional.

4. Garantizar las condiciones necesarias para que los desarrollos científicos, tecnológicos e innovadores, se relacionen con el sector productivo y favorezcan la productividad y la competitividad.

5. Velar por la consolidación y fortalecimiento del Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI).

OBJETIVOS ESPECÍFICOS 

1. Fortalecer una cultura basada en la generación, apropiación y divulgación del conocimiento y la investigación científica, el desarrollo tecnológico, la innovación y el aprendizaje permanente.

2. Definir las bases para la formulación de un Plan Nacional de Ciencia, Tecnología e Innovación.

3. Incorporar la Ciencia, Tecnología e Innovación, como ejes transversales de la política económica y social del país.

4. Fortalecer el Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI), otorgando al nuevo Ministerio el liderazgo que conlleve a la óptima articulación de las organizaciones públicas y privadas, regionales, nacionales e internacionales, que permitan el desarrollo de una sociedad del conocimiento.

5. Definir las instancias e instrumentos administrativos y financieros por medio de los cuales se promueve la destinación de recursos públicos y privados al fomento de la Ciencia, Tecnología e Innovación.

6. Fortalecer la capacidad de transferencia de la tecnología producida en las universidades y centros de investigación y desarrollo tecnológico en beneficio del sector productivo nacional, a través del mejoramiento de la conectividad de las redes académicas de investigación y educación.

7. Articular y optimizar las instancias de liderazgo, coordinación y ejecución del Gobierno nacional y la participación de los diferentes actores de la política de Ciencia, Tecnología e Innovación.

8. Fortalecer el desarrollo regional a través de políticas integrales de descentralización de las actividades científicas, de desarrollo tecnológico y de innovación.

9. Fortalecer la internacionalización de las actividades científicas, de desarrollo tecnológico y de innovación, de acuerdo con las dinámicas internacionales.

10. Orientar el fomento de actividades de ciencia, tecnología e innovación hacia el mejoramiento de la competitividad, estableciendo vínculos desde el Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI), con otros sistemas tales como el Sistema Nacional de Innovación Agropecuaria (SNIA), el Sistema Nacional Ambiental (SINA), el sistema educativo, entre otros, en el marco del Sistema Nacional de Competitividad (SNC).

11. Establecer disposiciones generales que conlleven al fortalecimiento del conocimiento científico y el desarrollo de la innovación para el efectivo cumplimiento de la presente ley.

Artículo 127. Libertad Religiosa, de Cultos y Conciencia.

El Gobierno nacional con la coordinación del Ministerio del Interior, emprenderá acciones que promuevan la articulación intersectorial, interinstitucional y territorial para la garantía y goce efectivo del ejercicio del derecho a la libertad religiosa, de cultos y conciencia en el territorio nacional. Para el efecto, promoverá e impulsará la participación de los representantes de las entidades religiosas, el reconocimiento de las mismas, la garantía del libre ejercicio de estos derechos y realizará las acciones que permitan determinar el impacto social de las organizaciones y entidades religiosas, conforme a la Constitución y la ley

Artículo 128. Funciones de los municipios.

Adiciónese el siguiente Parágrafo al artículo 6° de la Ley 1551 de 2012 el cual quedará así:

Parágrafo 5°. Los denominados convenios solidarios de que trata el Parágrafo 3° del presente artículo también podrán ser celebrados entre las entidades del orden nacional y los organismos de acción comunal para la ejecución de proyectos incluidos en el respectivo Plan Nacional de Desarrollo.

Artículo 129. Reserva legal de las estrategias de Defensa Jurídica Nacional e Internacional.

Las estrategias de defensa jurídica nacional e internacional gozarán de reserva legal conforme lo dispuesto en los literales e) y h) y el Parágrafo del artículo 19 de la Ley 1712 de 2014, o la norma que los modifique, adicione o sustituya.

Las estrategias de defensa jurídica nacional e internacional son los documentos, conceptos, lineamientos e información a los que acuden la Agencia Nacional de Defensa Jurídica del Estado y/o las entidades públicas encargadas de hacer efectiva la defensa jurídica del Estado y de proteger sus intereses litigiosos.

La reserva cubrirá todas las etapas de la controversia o del proceso respectivo. Podrán publicarse parcialmente documentos y piezas de información cuya revelación no afecte la estrategia de defensa o los intereses legítimos del Estado.

Parágrafo 1°. Cuando la publicación de los acuerdos o contratos producto del uso de los mecanismos alternativos de arreglo directo o negociaciones en materia de conflictos de inversión en el ámbito internacional, pueda incidir en la gestión de otros procesos o acuerdos, estos podrán ser materia de reserva.

Parágrafo 2°. El término de la reserva sobre las estrategias de defensa jurídica nacional e internacional del Estado, podrá extenderse por el término máximo autorizado en la ley.

Parágrafo 3°. La reserva no abarcará aquellos documentos e informes que constituyan prueba necesaria a favor de quien los solicita y que se encuentren en poder del Estado en ejercicio de una función prevista en el ordenamiento jurídico.

Artículo 130. Contribución especial para laudos arbitrales de contenido económico.

Créase la contribución especial para laudos arbitrales de contenido económico a cargo de la persona natural o jurídica o el patrimonio autónomo a cuyo favor se ordene el pago de valor superior a setenta y tres (73) salarios mínimos legales mensuales vigentes. Estos recursos se destinarán a la financiación del sector Justicia y de la Rama Judicial.

Serán sujetos activos de la contribución especial, el Consejo Superior de la Judicatura, Dirección Ejecutiva de Administración Judicial, o quien haga sus veces, con destino al Fondo para la Modernización, Descongestión y Bienestar de la Administración de Justicia. La contribución especial se causa cuando se haga el pago voluntario o por ejecución forzosa del correspondiente laudo.

La base gravable de la contribución especial será el valor total de los pagos ordenados en el correspondiente laudo, providencia o sentencia condenatoria. La tarifa será el dos por ciento (2%). En todo caso, el valor a pagar por concepto del impuesto no podrá exceder de mil (1.000) salarios mínimos legales mensuales vigentes.

La entidad pagadora, ya sea persona natural o entidad pública o privada, en el momento en que efectúe pagos totales o parciales de las cuantías ordenadas en el laudo arbitral, deberá retener en la fuente la totalidad de la contribución especial causada con el respectivo pago. La retención practicada deberá ser incluida y pagada en la respectiva declaración mensual de retenciones en la fuente del agente retenedor, de acuerdo con las normas que regulan la retención en la fuente contenidas en el Estatuto Tributario. En el evento de que el pagador no tenga la calidad de agente retenedor, el perceptor del pago deberá autorretener el monto de la contribución especial causada de acuerdo con las disposiciones establecidas sobre el particular en el Estatuto Tributario.

Esta contribución no aplica para laudos arbitrales internacionales.

Parágrafo. El Gobierno nacional deberá girar en la primera quincena de cada semestre al Fondo para la Modernización, Descongestión y Bienestar de la Administración de Justicia, el monto recaudado por concepto de la contribución especial para laudos arbitrales de contenido económico.

Artículo 131. Registro Único de Decisiones Judiciales en Materia Penal y Jurisdicciones Especiales.

Créase el Registro Único de Decisiones Judiciales en Materia Penal y Jurisdicciones Especiales, administrado por la Policía Nacional – Dirección de Investigación Criminal e Interpol.

El administrador garantizará a la Fiscalía General de la Nación y demás autoridades judiciales, el acceso, consulta y actualización al Registro así como la protección del derecho del hábeas data de los ciudadanos. Este registro contendrá los antecedentes penales, requerimientos, anotaciones, sentencias y demás decisiones judiciales que hagan tránsito a cosa juzgada, proferidas por la Jurisdicción Ordinaria, la Justicia Penal Militar, la Jurisdicción Especial para la Paz y demás jurisdicciones especiales reconocidas por la Constitución Política.

El Gobierno nacional reglamentará las materias necesarias para garantizar el funcionamiento del registro y el proceso de actualización de la información.

Parágrafo 1°. El Consejo Superior de la Judicatura, la Justicia Penal Militar, la Jurisdicción Especial para la Paz, la Fiscalía General de la Nación deberán actualizar el sistema de información de acuerdo con los parámetros y protocolos que para tal efecto disponga el administrador del registro. Con este fin en un término de doce (12) meses, adoptarán las soluciones administrativas y tecnológicas necesaria para garantizar el suministro, registro y actualización de la información a través de canales seguros que garanticen su integridad, seguridad y confiabilidad.

Parágrafo 2°. El Instituto Nacional Penitenciario y Carcelario y demás Centros Carcelarios como ejecutores de las decisiones judiciales, deberán actualizar y proporcionar la información necesaria, de acuerdo con los parámetros y protocolos que para tal efecto disponga el administrador del registro.

Parágrafo 3°. Los registros referidos en los artículos 166, 167, 299, 305A y 320 de la Ley 906 de 2004 formarán parte del registro de que trata el presente artículo.

Artículo 132. Armonización del Plan Decenal del Sistema de Justicia con los Planes Nacionales de Desarrollo.

Con el objeto de promover la coordinación, eficiencia, eficacia y modernización en la administración de justicia y en las funciones de los organismos de control, el Ministerio de Justicia y del Derecho, el Departamento Nacional de Planeación, el Consejo Superior de la Judicatura, la Fiscalía General de la Nación, el Instituto Nacional de Medicina Legal y Ciencias Forenses, la Contraloría General de la República, la Procuraduría General de la Nación y la Defensoría del Pueblo o quienes hagan sus veces, concurrirán para adelantar las armonizaciones necesarias al Plan Decenal del Sistema de Justicia en concordancia con los Planes Nacionales de Desarrollo, de acuerdo con las prioridades que dichas entidades identifiquen en el sistema de justicia, y teniendo en cuenta el proceso continuo de planeación que comprende la formulación, la aprobación, la ejecución, el seguimiento y la evaluación

Artículo 133. Estrategia de Cárceles del Orden Nacional. La Nación podrá adelantar gestiones para la creación, fusión, supresión, dirección, organización, administración, sostenimiento y vigilancia de cárceles para personas detenidas preventivamente; sin perjuicio de la responsabilidad que hoy le asiste a las entidades territoriales, de acuerdo con el artículo 17 de la Ley 65 de 1993.

Lo anterior, teniendo en cuenta las siguientes disposiciones:

a) Las entidades territoriales identificarán predios para la localización de las cárceles, sobre los cuales la USPEC y el INPEC realizarán una evaluación a fin de establecer la viabilidad operativa de los mismos. Los predios identificados como viables deberán ser incorporados a los instrumentos de planeación territorial que correspondan con el uso del suelo requerido para la localización del equipamiento.

b) Las entidades territoriales podrán identificar, adquirir, habilitar y ceder a título gratuito al INPEC, el suelo con urbanismo y servicios públicos para la construcción de los establecimientos de reclusión nacionales, sin perjuicio de la facultad que les asiste para construir, administrar y operar cárceles del orden territorial.

c) Las entidades territoriales podrán convenir entre ellas la habilitación de suelo para la construcción de establecimientos de reclusión, así como su operación y mantenimiento conjunto. Igualmente, podrán celebrar convenios con la USPEC para la construcción, operación y mantenimiento de centros de reclusión.

d) Habilítese a la USPEC a realizar gestiones para la construcción conjunta de ciudadelas judiciales, establecidas en el artículo 21 de la Ley 65 de 1993.

Parágrafo 1°. Las disposiciones establecidas en el presente artículo, podrán desarrollarse mediante el esquema de asociación público privado, concesión u otras formas de contratación establecidas en la ley.

Parágrafo 2°. El Gobierno nacional tendrá en cuenta el análisis de impacto fiscal que se genera con la implementación de la medida y señalará la correspondiente fuente sustitutiva.

Parágrafo 3°. Con el fin de garantizar la financiación de la política carcelaria para personas detenidas preventivamente y condenadas por contravenciones que impliquen privación de la libertad, las entidades territoriales podrán crear un fondo de infraestructura carcelaria con ingresos provenientes de las siguientes fuentes:

1. Contribución especial de obra pública establecida en el artículo 6° de la Ley 1106 de 2006.

2. Las tasas y sobretasas de seguridad de que trata el artículo 8° de la Ley 1421 de 2010.

Artículo 134. Comportamientos relacionados con el cumplimiento de la normatividad que afectan la actividad económica.

Adiciónese un Parágrafo nuevo al artículo 92 de la Ley 1801 de 2016, Código Nacional de Policía y Convivencia, el cual quedará así:

Parágrafo 7°. Para efecto de la aplicación del numeral 16 del presente artículo, sobre comportamientos relacionados con desarrollar la actividad económica sin cumplir cualquiera de los requisitos establecidos en la normatividad vigente, el mismo se deberá interpretar y aplicar únicamente teniendo en cuenta los requisitos de apertura y funcionamiento que se establecen en el artículo 87 de la Ley 1801 de 2016.

En todo caso, el control de uso reglamentado del suelo y las disposiciones de ubicación, destinación o finalidad, para la que fue construida la edificación, es exclusiva de los Inspectores de Policía de conformidad con el numeral 12 del presente artículo. No procederá la medida de suspensión temporal de actividades.

Artículo 135. Dispositivos de escaneo para la vigilancia fronteriza y nacional.

El Gobierno nacional, a través del Ministerio de Defensa Nacional y la Policía Nacional o por intermedio de los órganos que este determine, en desarrollo de la estrategia de política pública sobre la consolidación de control institucional de los territorios, que enfrente la criminalidad y las economías ilegales, implementará y dispondrá de los mecanismos e inversiones necesarias que permitan la adquisición a cualquier título de equipos e infraestructura tecnológica que facilite y coadyuve a la vigilancia móvil fronteriza y nacional, buscando con ello, salvaguardar la Seguridad y Defensa Nacional del Estado, controlar los pasos de frontera, luchar contra las economías ilegales, defender y proteger a la población civil y las estructuras militares del Estado frente a eventuales ataques terroristas, combatir el tráfico de drogas, armas, explosivos, el contrabando y combatir la trata de personas, entre otras conductas delictivas.

Los equipos, infraestructura o software que se adquieran deberán facilitar y permitir de manera estacionaria, móvil o remota, el rastreo, escaneo, detección y transmisión de imágenes que faciliten el control, vigilancia y lucha contra las conductas antijurídicas antes referidas o para cualquier otra que llegare a ser considerada de importancia para la defensa y seguridad nacional y deberán permitir entre otros aspectos, (detección de objetos y personas) y visualización de rayos x, gamma, neutrones, retrodispersión u otras tecnologías, que permitan a la transmisión de las imágenes detectadas por los dispositivos que llegaren a ser adquiridos para las finalidades previamente mencionadas.

Artículo 136. Acceso a la Información.

La Contraloría General de la República para el cumplimiento de sus funciones, tendrá acceso sin restricciones a los sistemas de Información o bases de datos de las entidades públicas y privadas que dispongan o administren recursos y/o ejerzan funciones públicas.

La reserva legal de información o documentos no le será oponible a la Contraloría General de la República y se entenderá extendida exclusivamente para su uso en el marco de sus funciones constitucionales y legales.

Parágrafo 1°. Cada entidad deberá disponer de lo necesario para garantizar el suministro oportuno y en tiempo real de la información requerida por la Contraloría General de la República.

Parágrafo 2°. Además de las sanciones ya previstas en la ley, la Contraloría General de la República podrá suspender en el ejercicio del cargo, hasta por el término de 180 días y con el fin de impulsar el correcto ejercicio del control fiscal, a los servidores públicos que impidan o entorpezcan el acceso a la información, previo agotamiento del procedimiento legal administrativo correspondiente, en el cual se garantizará el derecho al debido proceso. El Contralor General de la República reglamentará la materia.

Artículo 137. Tarifa de Control Fiscal.

La liquidación y recaudo de la Tarifa de Control Fiscal a la que se refiere el artículo 4° de la Ley 106 de 1993, será de competencia del Ministerio de Hacienda y Crédito Público a partir de la presente vigencia fiscal.

Artículo 138. Recursos para el Fondo Bienestar de la Contraloría General de la República.

Adiciónese un Parágrafo al artículo 91 de la Ley 106 de 1993, el cual quedará así:

Parágrafo. Sin perjuicio de lo dispuesto en el presente artículo, la Contraloría General de la República podrá destinar recursos de su presupuesto, para la ejecución directa de planes y programas o el desarrollo de actividades de bienestar social para los servidores de la entidad, lo cual realizará en coordinación con el Fondo de Bienestar Social.

Artículo 139. Plan Decenal del Ministerio Público.

Con el objeto de promover la coordinación, eficiencia, eficacia y modernización del Ministerio Público, la Procuraduría General de la Nación coordinará con la Defensoría del Pueblo, las personerías distritales y municipales y la Vicepresidencia de la República, la elaboración del Plan decenal del Ministerio Público, el cual deberá formularse dentro de los dos (2) años siguientes a la promulgación de esta ley. La secretaría técnica a cargo de la elaboración y seguimiento del plan estará a cargo del Instituto de Estudios del Ministerio Público, y la Procuraduría General de la Nación presentará sus avances anualmente al Congreso de la República.

El Plan debe contener, por lo menos, los objetivos interinstitucionales, un plan de acción para lograrlos, las metas interinstitucionales, las actividades y la definición de los mecanismos de seguimiento dirigidas a preservar el interés general, luchar contra la corrupción y la efectividad de los derechos en Colombia.

Las entidades y organismos del Gobierno nacional, las universidades y los centros de investigación y las organizaciones de trabajadores, podrán formular recomendaciones.

Parágrafo. Las personerías distritales y municipales, oficinas de control interno disciplinario de todas las entidades públicas u órganos internos de control disciplinario estarán obligadas a reportar la información de todos los procesos que adelanten como operadores disciplinarios al Sistema de Información Misional de la Procuraduría General de la Nación, o el que haga sus veces, en el marco exclusivo de las leyes 734 de 2002 y 1952 de 2019, de forma que habrá un sistema unificado del registro disciplinario. Este sistema será coordinado por la Procuraduría General de la Nación como supremo director del Ministerio Público y para lo cual dispondrá las medidas necesarias para la adopción y uso del sistema de información en cada una de las entidades y dependencias enunciadas.

Artículo 140. Prórroga Código General Disciplinario.

Prorróguese hasta el 1° de julio de 2021 la entrada en vigencia de la Ley 1952 de 2019.

Artículo 141. Unidad de Investigación y Acusación (UIA) de la Jurisdicción Especial para la Paz (JEP).

El Estado, por intermedio del Gobierno nacional, garantizará la autonomía administrativa, técnica y presupuestal de la Unidad de Investigación y Acusación (UIA) de la Jurisdicción Especial para la Paz, para lo cual podrá hacer uso del plan de inversiones para la paz, contenido en el artículo 3° del Acto Legislativo número 01 de 2016.

Con el fin de garantizar el funcionamiento y autonomía administrativa, técnica y presupuestal de la Unidad de Investigación y Acusación (UIA), el Director ejercerá de manera exclusiva e independiente todas las funciones que correspondan para determinar la estructura y funcionamiento de la Unidad de Investigación y Acusación (UIA) de la Jurisdicción Especial para la Paz.

Parágrafo. El Director de la Unidad de Investigación y Acusación (UIA) en desarrollo de tal facultad, asignará la planta de personal que corresponda a cada dependencia, podrá variarla cuando lo considere necesario y establecerá el manual de requisitos y funciones de cada uno de los empleos.

La unidad de investigación y acusación de la Jurisdicción Especial para la Paz se identificará como una sección en el Presupuesto General de la Nación.

En ejercicio de estas atribuciones, el Director de la Unidad de Investigación Acusación (UIA), no podrá crear, con cargo al Tesoro, obligaciones que excedan el monto global fijado asignado en el Presupuesto a la unidad de investigación y acusación de la JEP.

Artículo 142. Cuentas de Depósito en el Banco de la República.

No serán susceptibles de medidas cautelares por parte de cualquier autoridad judicial o administrativa las cuentas de depósito en el Banco de la República, salvo aquellas derivadas de la adopción de institutos de salvamento y protección de la confianza pública y/o de la toma de posesión y liquidación forzosa administrativa establecidos en el Estatuto Orgánico del Sistema Financiero y de las contempladas en el artículo 6° de la Ley 964 de 2005.

Artículo 143. Bicentenario de la Independencia Nacional.

Modifíquese el artículo 13 de la Ley 1916 de 2018, el cual quedará así:

Artículo 13. Para efectos de la conmemoración del Bicentenario de la Campaña Libertadora de 1819 en todo el territorio nacional y sin perjuicio de las asignaciones que definan las entidades territoriales comprendidas en esta Ley u otros sujetos de derecho público o privado, se crea un fondo cuenta sin personería jurídica denominado Fondo del Bicentenario.

Este Fondo estará adscrito al Departamento Administrativo de la Presidencia de la República – Vicepresidencia de la República y se integra con los siguientes recursos:

1. Recursos que se le asignen en el Presupuesto General de la Nación.

2. Recursos que se le asignen del Presupuesto de las entidades territoriales.

3. Recursos que el Ministerio de Cultura designe para la finalidad señalada.

4. Recursos que otras entidades nacionales destinen para la conmemoración del Bicentenario de la Campaña Libertadora de 1819 a través de los convenios interadministrativos con el Ministerio de Cultura mediante los cuales podrán transferirse los recursos indicados.

5. Aportes de Cooperación Internacional.

6. Donaciones, transferencias o aportes en dinero que reciba.

7. Los recursos derivados de las operaciones que se realicen con los recursos del Fondo.

Para la vigencia de 2019 se harán las asignaciones presupuestales necesarias para el funcionamiento del fondo cuenta sin menoscabo de las apropiaciones existentes en entidades nacionales que se transfieran al mismo.

Parágrafo 1°. Como conmemoración del Bicentenario de la Independencia de Colombia el Banco de la República emitirá, por una sola vez, monedas conmemorativas de dichas efemérides.

Parágrafo 2°. Los recursos del fondo cuenta establecidos en este artículo podrán manejarse en un patrimonio autónomo.

Parágrafo 3°. El fondo cuenta establecido en el presente artículo tendrá vigencia hasta el 31 de diciembre de 2022.

Artículo 144. Liquidación de sociedades no operativas sujetas a la inspección, vigilancia y control de la Superintendencia de Sociedades.

Las sociedades mercantiles sujetas a la supervisión de la Superintendencia de Sociedades, que no renueven su matrícula mercantil por un término de tres (3) años o que no envíen la información requerida por dicha Superintendencia durante el mismo término, se presumirán como no operativas y, podrán ser declaradas de oficio como disueltas por la Superintendencia de Sociedades, salvo demostración en contrario de su parte.

Parágrafo. El Gobierno nacional establecerá y reglamentará la aplicación del procedimiento objeto del presente artículo.

Artículo 145. Tarifas a favor de las Cámaras de Comercio.

Modifíquese el artículo 124 de la Ley 6ª de 1992, el cual quedará así:

Artículo 124. Tarifas a favor de las Cámaras de Comercio. El Gobierno nacional fijará el monto de las tarifas que deban sufragarse en favor de las Cámaras de Comercio por concepto de las matrículas, sus renovaciones, cancelaciones e inscripciones de los actos, libros y documentos que la ley determine efectuar en el registro mercantil, así como el valor de los certificados que dichas entidades expidan en ejercicio de sus funciones.

Para el señalamiento de los derechos relacionados con la obligación de la matrícula mercantil y su renovación, el Gobierno nacional establecerá tarifas diferenciales en función del monto de los activos o de los Ingresos de actividades ordinarias del comerciante o del establecimiento de comercio, según sea el caso, con base en el criterio más favorable para la formalización de las empresas.

Las cuotas anuales que el reglamento de las Cámaras de Comercio señale para los comerciantes afiliados son de naturaleza voluntaria.

Parágrafo. Los derechos relacionados con la obligación de la matricula mercantil y su renovación en el caso de personas naturales que realicen una actividad comercial, serán establecidos en función del monto de los activos o de los ingresos relacionados con el desarrollo de su actividad comercial.

Artículo 146. Abogacía de la Competencia.

Modifíquese el artículo 7° de la Ley 1340 de 2009, el cual quedará así:

Artículo 7°. Abogacía de la Competencia. Además de las disposiciones consagradas en el artículo segundo del Decreto 2153 de 1992, la Superintendencia de Industria y Comercio podrá rendir concepto previo, a solicitud o de oficio, sobre los proyectos de regulación estatal que puedan tener incidencia sobre la libre competencia en los mercados. Para estos efectos las autoridades deberán informar a la Superintendencia de Industria y Comercio los actos administrativos que pretendan expedir. El concepto emitido por la Superintendencia de Industria y Comercio en este sentido no será vinculante. Sin embargo, si la autoridad respectiva se aparta de dicho concepto, la misma deberá manifestar de manera expresa dentro de las consideraciones de la decisión los motivos por los cuales se aparta.

Artículo 147. Transformación Digital Pública.

Las entidades estatales del orden nacional deberán incorporar en sus respectivos planes de acción el componente de transformación digital siguiendo los estándares que para este propósito defina el Ministerio de Tecnologías de la Información y las Comunicaciones. En todos los escenarios la transformación digital deberá incorporar los componentes asociados a tecnologías emergentes, definidos como aquellos de la Cuarta Revolución Industrial, entre otros.

Las entidades territoriales podrán definir estrategias de ciudades y territorios inteligentes, para lo cual deberán incorporar los lineamientos técnicos en el componente de transformación digital que elabore el Ministerio de Tecnologías de la Información y las Comunicaciones.

Los proyectos estratégicos de transformación digital se orientarán por los siguientes principios:

1. Uso y aprovechamiento de la infraestructura de datos públicos, con un enfoque de apertura por defecto.

2. Aplicación y aprovechamiento de estándares, modelos, normas y herramientas que permitan la adecuada gestión de riesgos de seguridad digital, para generar confianza en los procesos de las entidades públicas y garantizar la protección de datos personales.

3. Plena interoperabilidad entre los sistemas de información públicos que garantice el suministro e intercambio de la información de manera ágil y eficiente a través de una plataforma de interoperabilidad. Se habilita de forma plena, permanente y en tiempo real cuando se requiera, el intercambio de información de forma electrónica en los estándares definidos por el Ministerio TIC, entre entidades públicas. Dando cumplimiento a la protección de datos personales y salvaguarda de la información.

4. Optimización de la gestión de recursos públicos en proyectos de Tecnologías de la Información a través del uso de los instrumentos de agregación de demanda y priorización de los servicios de nube.

5. Promoción de tecnologías basadas en software libre o código abierto, lo anterior, sin perjuicio de la inversión en tecnologías cerradas. En todos los casos la necesidad tecnológica deberá justificarse teniendo en cuenta análisis de costo-beneficio.

6. Priorización de tecnologías emergentes de la Cuarta Revolución Industrial que faciliten la prestación de servicios del Estado a través de nuevos modelos incluyendo, pero no limitado a, tecnologías de desintermediación, DLT (Distributed Ledger Technology), análisis masivo de datos (Big data), inteligencia artificial (AI), Internet de las Cosas (IoT), Robótica y similares.

7. Vinculación de todas las interacciones digitales entre el Estado y sus usuarios a través del Portal Único del Estado colombiano.

8. Implementación de todos los trámites nuevos en forma digital o electrónica sin ninguna excepción, en consecuencia, la interacción del Ciudadano-Estado sólo será presencial cuando sea la única opción.

9. Implementación de la política de racionalización de trámites para todos los trámites, eliminación de los que no se requieran, así como en el aprovechamiento de las tecnologías emergentes y exponenciales.

10. Inclusión de programas de uso de tecnología para participación ciudadana y Gobierno abierto en los procesos misionales de las entidades públicas.

11. Inclusión y actualización permanente de políticas de seguridad y confianza digital.

12. Implementación de estrategias público-privadas que propendan por el uso de medios de pago electrónicos, siguiendo los lineamientos que se establezcan en el Programa de Digitalización de la Economía que adopte el Gobierno nacional.

13. Promoción del uso de medios de pago electrónico en la economía, conforme a la estrategia que defina el Gobierno nacional para generar una red masiva de aceptación de medios de pago electrónicos por parte de las entidades públicas y privadas.

Parágrafo. Los trámites y servicios que se deriven de los anteriores principios podrán ser ofrecidos tanto por personas jurídicas privadas como públicas, incluyendo a la entidad que haga las veces de articulador de servicios ciudadanos digitales, o la que defina el Ministerio TIC para tal fin.

Artículo 148. Gobierno Digital como Política de Gestión y Desempeño Institucional.

Modifíquese el artículo 230 de la Ley 1450 de 2011, el cual quedará así:

Artículo 230. Gobierno Digital como Política de Gestión y Desempeño Institucional. Todas las entidades de la administración pública deberán adelantar las acciones que señale el Gobierno nacional a través del Ministerio de Tecnologías de la Información y las Comunicaciones para la implementación de la política de Gobierno Digital.

Esta política liderada por el Ministerio de Tecnologías de la Información y las Comunicaciones contemplará como acciones prioritarias el cumplimiento de los lineamientos y estándares para la Integración de trámites al Portal Único del Estado Colombiano, la publicación y el aprovechamiento de datos públicos, la adopción del modelo de territorios y ciudades inteligentes, la optimización de compras públicas de tecnologías de la información, la oferta y uso de software público, el aprovechamiento de tecnologías emergentes en el sector público, incremento de la confianza y la seguridad digital y el fomento a la participación y la democracia por medios digitales.

El Gobierno implementará mecanismos que permitan un monitoreo permanente sobre el uso, calidad, nivel de satisfacción e impacto de estas acciones

Artículo 149. Infracciones Postales.

Modifíquese el artículo 37 de la Ley 1369 de 2009, el cual quedará así:

Artículo 37. Infracciones postales. Constituyen las infracciones a este ordenamiento las siguientes:

1. Prestar el Servicio de correo sin estar legalmente habilitado para ello.

2. La suspensión total o parcial de la prestación del Servicio Postal Universal por parte del operador postal oficial.

3. La utilización de oferta o anuncio de servicios que corresponden de manera exclusiva al Operador Postal Oficial o Concesionario de Correo.

4. El incumplimiento en la implementación, actualización o aplicación de los sistemas de administración y mitigación de riesgos por parte de los operadores postales de pago.

5. No cumplir los operadores postales de pago en todo tiempo con los requisitos patrimoniales fijados por el Ministerio de Tecnologías de la Información y las Comunicaciones que deben respaldar la operación o cualquier situación que afecte su capacidad de responder por sus obligaciones y pueda poner en riesgo los recursos recibidos del público.

6. Cualquier forma de violación a la libertad y confidencialidad de los envíos postales.

7. La prestación de servicios postales sin la debida inscripción en el registro de Operadores Postales del Ministerio de Tecnologías de la Información y las Comunicaciones.

8. No pagar la contraprestación periódica.

9. No pagar oportunamente la contraprestación periódica.

10. Pagar la contraprestación periódica fijando como base para su cálculo ingresos inferiores a los realmente percibidos por concepto de prestación de servicios postales.

11. El incumplimiento de uno o más indicadores técnicos y de calidad de los servicios postales.

12. La negativa, obstrucción o resistencia a ser inspeccionado dentro de la visita administrativa para esclarecer hechos por la prestación del servicio.

13. La actuación destinada a ocasionar fraude en el franqueo.

14. No cumplir el Operador de Servicios Postales con la obligación de divulgar, en sitio visible en todos los puntos de atención al público, las condiciones de prestación de cada servicio postal.

15. No cumplir el Operador de Servicios Postales con la obligación de divulgar, en la página web de la empresa y/o en medio de comunicación escrito, las condiciones de prestación de cada servicio postal.

16. La demora por parte de los Operadores de Servicios Postales, en facilitar la información requerida por el Ministerio de Tecnologías de la Información y las Comunicaciones, con el objeto de cumplir con las funciones asignadas.

17. La consolidación de objetos postales por parte del operador con el fin de evadir la contraprestación fijada en esta ley.

18. Cualquiera otra forma de incumplimiento o violación de las disposiciones legales, reglamentarias o contractuales o regulatorias en materia de servicios postales.

Artículo 150. Sanciones Postales.

Modifíquese el artículo 38 de la Ley 1369 de 2009, el cual quedará así:

Artículo 38. Sanciones Postales. Previo el trámite del procedimiento administrativo señalado en el Código de Procedimiento Administrativo y de lo Contencioso Administrativo, y con la plenitud de las garantías constitucionales, el Ministro de Tecnologías de la Información y las Comunicaciones o su delegado podrá imponer las siguientes sanciones:

1. Amonestación escrita. La cual podrá ser publicada por un término de un (1) año en el registro de operadores postales.

2. Multa de hasta cuatrocientos (400) salarios mínimos legales mensuales vigentes.

3. Suspensión de operaciones hasta por dos (2) meses.

4. Cancelación del título habilitante para la prestación de servicios postales y si eliminación del Registro de Operadores Postales.

Parágrafo. Se podrá declarar la caducidad del Contrato de Concesión a Operador Postal Oficial o Concesionario de Correo, de acuerdo con los requisitos legales aplicables, cuando se constante la ocurrencia de cualquiera de las causales previstas en los numerales 1, 2, 3, 4, 7, 8, 9, 10, 12, 13, del artículo 37 de la presente ley

Artículo 151. Graduación de las Sanciones Postales.

Modifíquese el artículo 39 de la Ley 1369 de 2009, el cual quedará así:

Artículo 39. Graduación de las Sanciones Postales. Para definir las sanciones se aplicarán los criterios consagrados en el Código de Procedimiento Administrativo y de lo Contencioso Administrativo.

En el procedimiento administrativo sancionador que adelante el Ministerio de Tecnologías de la Información y las Comunicaciones, podrán tenerse como factores atenuantes, los siguientes criterios:

1. Cuando, dentro de los cinco (5) días siguientes a la notificación del acto mediante el cual se formulan cargos, el investigado acredite que se ha producido el cese de los actos u omisiones que dieron lugar al inicio de la actuación administrativa, la sanción administrativa podrá reducirse hasta en las tres cuartas partes de la que resultare pertinente imponer.

2. Cuando, dentro de los quince (15) días siguientes a la notificación del acto mediante el cual se formulan cargos, el investigado acredite que se ha producido el cese de los actos u omisiones que dieron lugar al inicio de la actuación administrativa, la sanción administrativa podrá reducirse hasta en la mitad de la que resultare pertinente imponer.

3. Cuando, hasta antes de la culminación del periodo probatorio, el investigado acredite que se ha producido el cese de los actos u omisiones que dieron lugar al inicio de la actuación administrativa, la sanción administrativa podrá reducirse hasta en la tercera parte de la que resultare pertinente imponer

Artículo 152. Recursos del Fontic para Inspección, Vigilancia y Control.

El Fondo de Tecnologías de la Información y las Comunicaciones, o quien haga sus veces, deberá transferir a la Superintendencia de Industria y Comercio los recursos para el ejercicio de la función de inspección, vigilancia y control en materia de comunicaciones adelantada por esta Entidad.

Artículo 153. Redes y Servicios de Telecomunicaciones.

El manejo, tratamiento o procesamiento de información no configuran, por sí mismos, la provisión de redes y servicios de telecomunicaciones que se rige por la Ley 1341 de 2009, aunque se soporten en redes y servicios de telecomunicaciones.

Cuando en un mismo negocio jurídico se involucre la provisión de redes y servicios de telecomunicaciones, y el manejo, tratamiento o procesamiento de información, deberá realizarse la separación contable de los ingresos derivados del manejo, tratamiento o procesamiento de información y de los ingresos derivados de la provisión de redes y servicios de telecomunicaciones que se rigen por la Ley 1341 de 2009, respectivamente

Artículo 154. Producción y contenido local en servicios de video bajo demanda.

Los servicios bajo demanda (Suscription Video on Demand -SVOD-) que se prestan a través de Internet (Over the Top- OTT-), deberán disponer, para los usuarios en Colombia, de una sección fácilmente accesible para el usuario en la que se incluyan obras audiovisuales de origen nacional.

El Gobierno nacional expedirá, dentro de los doce meses siguientes a la expedición de la presente ley, los aspectos necesarios para dar cumplimiento al presente artículo teniendo en cuenta las disposiciones de los tratados internacionales firmados por Colombia.

Artículo 155. Sistema Estadístico Nacional.

Modifíquese el artículo 160 de la Ley 1753 de 2015, el cual quedará así:

Artículo 160. Sistema Estadístico Nacional. Créase el Sistema Estadístico Nacional, en adelante SEN, con el objetivo de suministrar a la sociedad y al Estado, estadísticas oficiales nacionales y territoriales de calidad. El SEN utilizará los lenguajes y procedimientos comunes, respetando los estándares estadísticos internacionales y los objetivos del código de buenas prácticas en materia estadística. Además, el SEN optimizará el uso de los registros administrativos producidos por todas las entidades que lo conforman y contribuirá con la transparencia, pertinencia, interoperabilidad, acceso, oportunidad y coherencia de las estadísticas del país, con un enfoque diferencial.

El Sistema Estadístico Nacional (SEN) estará integrado por las entidades que produzcan y difundan estadísticas o sean responsables de registros administrativos, así:

1. Pertenecientes a las Ramas del Poder Público, en todos los niveles de la estructura estatal, central o descentralizada por servicios o territorialmente; del orden nacional, departamental, municipal y distrital.

2. Los órganos, organismos o entidades estatales independientes o autónomos de control.

3. Las personas jurídicas, públicas o privadas, que presten servicios públicos.

4. Cualquier persona jurídica o dependencia de persona jurídica que desempeñe función pública o de autoridad pública.

5. Personas jurídicas que posean, produzcan o administren registros administrativos en el desarrollo de su objeto social, que sean insumos necesarios para la producción de estadísticas oficiales.

El Departamento Administrativo Nacional de Estadística (DANE) será el ente rector y por tanto el coordinador y regulador del SEN. El DANE establecerá las condiciones y características que deberán cumplir las estadísticas oficiales en Colombia, respetando los estándares internacionales que usen las entidades productoras de estadísticas. Dichas condiciones y características serán consignadas en el Plan Estadístico Nacional y otros actos administrativos proferidos por el DANE, los cuales serán de obligatorio cumplimiento para los miembros del SEN.

El Plan Estadístico Nacional se expedirá cada cinco (5) años, previa concertación y socialización a los integrantes del SEN; tendrá un enfoque diferencial y se actualizará cuando el DANE lo considere pertinente previo aval del Consejo Asesor Técnico del Sistema Estadístico Nacional del que habla el Parágrafo 3° de este artículo. El Gobierno nacional reglamentará las demás disposiciones relacionadas con el Plan Estadístico Nacional y las condiciones que garanticen el intercambio de información y la calidad de las estadísticas de que trata este artículo.

Parágrafo 1°. Para la producción y difusión de estadísticas oficiales y de conformidad con la Ley 1266 de 2008 y la Ley 1712 de 2014, los integrantes del SEN deberán poner a disposición del DANE, de manera inmediata y de forma gratuita, las bases de datos completas de los registros administrativos que sean solicitados por el departamento, para lo cual no será oponible la reserva legal, especialmente la contenida en el Estatuto Tributario. El DANE garantizará la reserva y confidencialidad de la información en concordancia con el artículo 5° de la Ley 79 de 1993. Los Integrantes del SEN que incumplan u obstaculicen los requerimientos de información realizados por el DANE, asociados a la entrega de bases de datos de los registros administrativos, estarán sujetos a las sanciones y multas señaladas en el artículo 6° de la Ley 79 de 1993.

Parágrafo 2°. Con el fin de garantizar y contribuir al fortalecimiento de la calidad y coherencia de la información de que trata este artículo, los integrantes del SEN atenderán las obligaciones derivadas de las evaluaciones y requisitos de calidad estadística establecidos por el DANE. Adicionalmente, los integrantes del SEN podrán intercambiar información estadística, hasta el nivel de microdato, de forma gratuita y oportuna, de acuerdo con la reglamentación que para el efecto expida el Gobierno nacional. Las entidades que hagan parte del Intercambio de información deben salvaguardar la confidencialidad y reserva de la misma.

Parágrafo 3°. Con el fin de asesorar y evaluar el desarrollo del SEN y la producción estadística nacional, créase el Consejo Asesor Técnico del Sistema Estadístico Nacional como órgano de carácter consultivo. El Gobierno nacional reglamentará los principios, la composición y funcionamiento de este consejo.

Parágrafo 4°. Con el fin de garantizar una plena identificación y caracterización de la oferta de información estadística en el país, los miembros del SEN estarán obligados a reportar la creación, actualización y cualquier otra novedad en la producción y difusión de información estadística o registros administrativos en el sistema informático que defina para este efecto el DANE y de acuerdo con la periodicidad establecida en el Plan Estadístico Nacional. Este sistema informático contendrá los metadatos de las operaciones estadísticas y de los registros administrativos para aprovechamiento estadístico.

Parágrafo 5°. El Gobierno nacional dispondrá de los recursos necesarios para que, bajo la coordinación del DANE, las operaciones estadísticas que hacen parte del Sistema Estadístico Nacional, aumenten su cobertura y difundan sus resultados con desagregación a nivel territorial de distritos y municipios que sean capitales de departamentos y los departamentos de categoría especial. En todo caso, deberá surtir una evaluación de viabilidad técnica a fin de preservar la reserva estadística y atributos de calidad de la operación.

Parágrafo 6°. El Departamento Administrativo Nacional de Estadística (DANE) brindará asesoría y asistencia técnica en la formulación de Planes Estadísticos Territoriales, así como en los lineamientos y estándares para la producción y difusión de información estadística en los distritos y municipios que sean capitales de departamentos y los departamentos de categoría especial.

Artículo 156. Potestad Sancionatoria del ICA e Infracciones.

El Estado es el titular de la potestad sancionatoria en materia sanitaria, fitosanitaria, de inocuidad y forestal comercial y la ejerce, sin perjuicio de las competencias legales de otras autoridades, a través del Instituto Colombiano Agropecuario (ICA), conforme lo dispuesto en la presente ley.

Será infracción toda acción u omisión que contravenga las disposiciones establecidas en el ordenamiento jurídico en materia sanitaria, fitosanitaria, de inocuidad y forestal comercial, en especial cuando impida u obstruya el desarrollo o la ejecución de cualquiera de las siguientes actividades:

1. Campañas de prevención, erradicación y manejo de plagas y enfermedades.

2. Desarrollo de cuarentena agropecuaria.

3. Actividades de inspección, vigilancia y control sanitario, fitosanitario y de inocuidad.

4. Diagnóstico, la vigilancia epidemiológica y sanitaria animal y vegetal.

5. Exportación e importación de animales, vegetales, sus productos y sus subproductos y agroinsumos.

6. Control técnico de los insumos agropecuarios, material genético animal, vegetal y semillas para siembra.

7. Operación de establecimientos comerciales agropecuarios.

8. Inscripción o expedición de certificados de movilización de plantaciones forestales comerciales.

Parágrafo 1°. La aplicación del régimen administrativo sancionatorio establecido en la presente ley, por parte del Instituto Colombiano Agropecuario (ICA), se regirá por lo previsto en el Título III de la Ley1437 de 2011 y demás normas que lo modifiquen, adicionen o sustituyan. Lo anterior, para asegurar el debido proceso en el trámite.

Parágrafo 2°. El Ministerio de Agricultura y Desarrollo Rural en conjunto con Agrosavia y el ICA, formularán un programa de fomento y apoyo a los sistemas locales de semillas para el rescate, conservación, uso, promoción y protección de semillas criollas y nativas.

Parágrafo 3°. El Ministerio de Agricultura y Desarrollo Rural y el ICA rendirán informe escrito, durante los meses de septiembre y abril de cada año, a las comisiones quintas de Senado y Cámara sobre el avance del ICA en el fortalecimiento de sus competencias, en materia de sanidad, y trazabilidad en materia agropecuaria.

Artículo 157. Sanciones Administrativas.

Las infracciones a que se refiere la presente ley serán objeto de sanción administrativa por parte del Instituto Colombiano Agropecuario (ICA), sin perjuicio de las acciones penales y civiles a que haya lugar. Las sanciones serán las siguientes:

1. Amonestación escrita o llamado de atención, con un plazo para que el infractor cese su incumplimiento.

2. Multa, representada en salarios mínimos legales mensuales vigentes, que oscilan de acuerdo a la gravedad de la conducta, desde un (1) salario hasta diez mil (10.000) salarios mínimos legales mensuales vigentes, para la fecha de ocurrencia de los hechos.

El ICA podrá imponer multas sucesivas cuando corrobore que el sancionado ha persistido en su incumplimiento.

3. La prohibición temporal o definitiva de la producción de especies animales y/o vegetales.

4. La suspensión o cancelación de registros, permisos, certificaciones o autorizaciones concedidas por el ICA, hasta por el término de dos (2) años.

5. La suspensión o cancelación, hasta por el término de dos (2) años, de los servicios que el ICA preste al infractor.

Parágrafo 1°. Dependiendo de la gravedad de la infracción, el ICA podrá imponer una o varias de las sanciones contempladas en la presente ley, atendiendo a los criterios de graduación contenidos en el artículo 50 de la Ley 1437 de 2011. En todo caso, la imposición de las sanciones aquí señaladas no exime al infractor del deber de ejecutar las acciones a que esté obligado.

Parágrafo 2°. Los actos administrativos expedidos por el ICA que impongan sanciones pecuniarias, una vez ejecutoriados, prestan mérito ejecutivo y su cobro podrá hacerse a través de la jurisdicción coactiva.

Parágrafo 3°. El no pago de la sanción pecuniaria dentro del término de cinco (5) días siguientes a la ejecutoria del acto a través del cual se impone la sanción, o el incumplimiento al acuerdo de pago suscrito con el Instituto Colombiano Agropecuario (ICA), dará lugar a la liquidación y pago de intereses moratorios a la tasa prevista para el impuesto de renta y complementarios.

Parágrafo 4°. Las sumas recaudadas por concepto de multas ingresarán al Instituto Colombiano Agropecuario (ICA), y serán considerados como ingresos propios de la Entidad para financiar los planes y programas de control y vigilancia.

Artículo 158. Tasa, Sujeto Activo y Pasivo y Hechos Generadores.

Créase la tasa para la recuperación de los costos de los servicios prestados por el Instituto Colombiano Agropecuario (ICA), en ejercicio de su función misional, para garantizar y proteger la sanidad animal, vegetal e inocuidad de la producción primaria.

El sujeto activo de la tasa creada por la presente ley será el Instituto Colombiano Agropecuario (ICA). Tendrán la condición de sujeto pasivo de la tasa, las personas naturales o jurídicas que soliciten cualquiera de los servicios prestados por el Instituto Colombiano Agropecuario (ICA).

Son hechos generadores de la tasa que se crea en la presente ley, los siguientes:

1. Expedición de registros, autorizaciones, habilitaciones, certificados, licencias, permisos, remisiones, publicaciones, inscripciones y conceptos en materia sanitaria, fitosanitaria, de inocuidad y forestal comercial.

2. Realización de pruebas de laboratorio analíticas y diagnósticas de enfermedades y plagas, de verificación de requisitos técnicos de insumos agropecuarios y semillas y de detección de residuos y contaminantes en productos agropecuarios.

3. Realización de inspección física y cuarentenas agropecuarias para importación, exportación y reexportación.

Parágrafo. La base para la liquidación de la tasa será el costo de los servicios correspondientes a cada uno de los hechos generadores establecidos en el artículo anterior, conforme la metodología de cálculo que establezca el Gobierno nacional.

Artículo 159. Método y Sistema para la Determinación de las Tarifas.

El Instituto Colombiano Agropecuario (ICA) fijará y actualizará anualmente las tarifas de los servicios que preste, por cada uno de los hechos generadores de la tasa. Las tarifas se fijarán en salarios mínimos legales diarios vigentes y se cobrarán como recuperación de los costos de los servicios prestados por la entidad, para lo cual se utilizarán el siguiente método y sistema, teniendo en cuenta los costos administrativos, financieros, directos e indirectos, de operación y los costos de los programas de tecnificación.

A) Método 

a) Elaboración y normalización de flujogramas para los diferentes procesos con el propósito de determinar sus rutinas;

b) Cuantificación de los materiales, suministros y los demás insumos tecnológicos y de recurso humano utilizados anualmente, en cada uno de los procesos y procedimientos definidos en el literal anterior. Estos insumos deben incluir unos porcentajes de los gastos de administración general del ICA cuantificados siguiendo las normas y principios aceptados de contabilidad de costos;

c) Valoración a precios de mercado de los insumos descritos en el literal anterior para cada uno de los procesos y procedimientos, incluidos los relativos a transporte y almacenamiento. Cuando uno de los procedimientos deba contratarse con terceros, se tomará el valor del servicio contratado;

d) Valoración del recurso humano utilizado directamente en la prestación del servicio, tomando como base los salarios y prestaciones de la planta de personal del ICA, así como el valor de los contratos que se celebren para el efecto;

e) Cuantificación de los costos en función de los equipos, técnicas y tecnologías disponibles para la operación de los servicios;

f) Estimación de las frecuencias de utilización de los servicios. La frecuencia se entiende como el número de operaciones o ejecuciones de cada uno de los servicios prestados por el ICA.

B) Sistema de costos 

El sistema para definir las tarifas es un sistema de costos estandarizables, en el que la valoración y ponderación de los factores que intervienen en su definición se realizará por medio de los procedimientos de costeo técnicamente aceptados.

La tarifa para cada uno de los servicios prestados por el Instituto Colombiano Agropecuario (ICA), será el resultado de sumar el valor de los insumos y de los recursos humanos utilizados, de conformidad con los literales c), d) y e) del artículo anterior de esta ley, divididos cada uno por la frecuencia de utilización de que trata el literal f) del mismo artículo.

Parágrafo. El Gobierno nacional podrá revisar periódicamente los criterios para la determinación de las tarifas considerando mejoras en eficiencia que puedan resultar en menores costos en la prestación de los servicios a cargo del ICA, así como utilizar ponderaciones regionales para la fijación de las tarifas.

Artículo 160. Pago, Recaudo y Destinación Específica de los Recursos.

El sujeto pasivo o usuario deberá acreditar el pago de la tarifa correspondiente al momento de solicitar el servicio al Instituto Colombiano Agropecuario (ICA).

El recaudo de las tarifas de que trata la presente ley estará a cargo del Instituto Colombiano Agropecuario (ICA), y tendrá una destinación específica encaminada a la prevención, control y la erradicación de enfermedades y plagas en animales y vegetales y la inocuidad en la producción primaria.

Parágrafo. Los recursos serán incorporados en el presupuesto del ICA de conformidad con lo previsto en la Ley Orgánica de Presupuesto y se destinarán a financiar los programas de prevención, control y erradicación.

Artículo 161.Inexequible.

SECCIÓN II. PACTO POR EL EMPRENDIMIENTO, LA FORMALIZACIÓN Y LA PRODUCTIVIDAD: UNA ECONOMÍA DINÁMICA, INCLUYENTE Y SOSTENIBLE QUE POTENCIE TODOS NUESTROS TALENTOS

Artículo 162. Emisiones para pequeñas y medianas empresas.

El Gobierno nacional creará un modelo de emisiones de acciones e instrumentos de crédito, hasta 584.000 Unidades de Valor Tributario (UVT) por cada emisor, para pequeñas y medianas empresas, en el cual se establecerán condiciones que faciliten su proceso de emisión. Así mismo, serán negociados a través de un sistema autorizado por la Superintendencia Financiera de Colombia, al cual concurrirán inversionistas y emisores, para efectuar operaciones primarias y secundarias de compra y venta. El Gobierno nacional reglamentará la materia.

Artículo 163. Colombia Productiva.

Modifíquese el artículo 50 de la Ley 1450 de 2011, modificado por el artículo 11 de la Ley 1753 de 2015, el cual quedará así:

Artículo 50. Colombia Productiva.

El Programa de Transformación Productiva, que en adelante se llamará Colombia Productiva, será el encargado de promover la productividad, la competitividad y los encadenamientos productivos para fortalecer cadenas de valor sostenibles; implementar estrategias público-privadas que permitan el aprovechamiento de ventajas comparativas y competitivas para afrontar los retos del mercado global; y, fortalecer las capacidades empresariales, la sofisticación, la calidad y el valor agregado de los productos y servicios, de acuerdo a la política que defina el Ministerio de Comercio, Industria y Turismo.

Los recursos que integrarán el patrimonio autónomo son los siguientes:

1. Recursos provenientes del Presupuesto General de la Nación.

2. Recursos aportados por las entidades nacionales, internacionales, territoriales o por particulares a través de convenios o transferencias.

3. Donaciones.

4. Recursos de cooperación nacional o internacional.

5. Rendimientos financieros generados por los recursos entregados, los cuales se reinvertirán de pleno derecho en el Patrimonio Autónomo.

6. Los dividendos que sean decretados en favor de la Nación por la Asamblea General de Accionistas del Banco de Comercio Exterior (Bancoldex).

7. Los demás recursos que obtenga o se le asignen a cualquier título.

Este programa será un patrimonio autónomo con régimen privado y será administrado directamente por el Banco de Comercio Exterior (Bancoldex), sus filiales o por la entidad que defina el Ministerio de Comercio, Industria y Turismo.

Todas las referencias que se hayan hecho o que se hagan al Programa de Transformación Productiva deben entenderse referidas a Colombia Productiva.

Artículo 164. Fortalecimiento empresarial de las organizaciones de la economía solidaria.

Le corresponderá al Gobierno nacional diseñar, formular e implementar la política pública integral estatal para la promoción, planeación, protección, fortalecimiento y desarrollo empresarial de las organizaciones de la economía solidaria, determinadas en la Ley 454 de 1998; con especial énfasis en la economía solidaria rural y campesina, por el fomento de la equidad de género, en favor de las madres cabeza de hogar y por el emprendimiento y asociatividad de la juventud y los trabajadores. La política pública establecerá los mecanismos para el fomento y desarrollo del servicio de ahorro y crédito solidario que mediante los Fondos de Empleados se construyen a nivel nacional.

Parágrafo 1°. Para el efecto se creará la Comisión Intersectorial para la Economía Solidaria en la cual confluirán e interactuarán las diversas entidades del orden nacional de la rama ejecutiva con el objetivo de coordinar y armonizar las políticas, planes programas y acciones necesarias para la ejecución transversal e integral de la política pública de la economía solidaria y su articulación con otras políticas de desarrollo económico y empresarial.

Parágrafo 2°. En la política de la que trata este artículo, el Gobierno nacional deberá diseñar los incentivos y estrategias para las empresas que fomenten la creación, desarrollo y subvención de Fondos de Empleados que beneficien directa e indirectamente a sus trabajadores con el ánimo de incrementar actores dentro de la economía solidaria en el territorio nacional.

Artículo 165. Líneas de crédito para inversión en actividades de ciencia, tecnología e innovación.

Podrán destinarse recursos públicos que pertenezcan a fondos de Ciencia, Tecnología e Innovación para apalancar inversión privada en actividades de Ciencia, Tecnología e Innovación, haciendo uso de líneas de crédito a través de entidades financieras de segundo piso.

Parágrafo. Como apoyo a estas entidades se crearán centros de dinamización financiera que direccionen e incentiven a las empresas para acceder y obtener los recursos públicos existentes para fines de ciencia, tecnología e innovación.

Artículo 166. Constitución de empresas de desarrollos tecnológicos innovadores.

Quienes se propongan implementar desarrollos tecnológicos innovadores para realizar actividades propias de las entidades vigiladas por la Superintendencia Financiera, podrán constituir una de estas entidades y obtener un certificado para operar temporalmente, de acuerdo con las condiciones, requisitos y requerimientos prudenciales, incluyendo la determinación o aplicación de capitales mínimos, de acuerdo con la reglamentación que para el efecto expida el Gobierno nacional. Dicho certificado de operación temporal no excederá de dos (2) años y podrá ser revocado en cualquier momento por la Superintendencia Financiera.

La Superintendencia Financiera autorizará la constitución de estas entidades y otorgará el respectivo certificado de funcionamiento, conforme al procedimiento que se establezca para el efecto. En desarrollo de esta disposición, el Gobierno nacional podrá determinar los montos mínimos de capital que deberán acreditarse para solicitar la constitución de las entidades sometidas al control y vigilancia de la Superintendencia Financiera de Colombia, el cual podrá estar diferenciado en función de las operaciones autorizadas por la Superintendencia Financiera de Colombia, en los términos del numeral 2 del artículo 53 del Estatuto Orgánico del Sistema Financiero.

Parágrafo 1°. Con sujeción a las condiciones, requisitos y requerimientos prudenciales que establezca la reglamentación a la que se refiere el presente artículo, las entidades vigiladas por la Superintendencia Financiera de Colombia podrán implementar desarrollos tecnológicos innovadores para probar temporalmente nuevos productos o servicios, bajo la supervisión de dicha Superintendencia, por el término indicado en este artículo.

Parágrafo 2°. El Gobierno nacional a través de la Comisión Intersectorial para la Inclusión Financiera articulará las medidas y políticas tendientes a desarrollar mecanismos de financiación para empresas y emprendedores, con el propósito de evitar duplicidad y que se diseñen instrumentos adecuados para las diferentes etapas de desarrollo empresarial.

Artículo 167. Bienes intangibles o derechos de propiedad intelectual de las entidades públicas.

La entidad pública que sea titular de bienes intangibles y derechos de propiedad intelectual podrá negociar su explotación comercial.

Los beneficios o regalías que se generen de la explotación comercial del bien intangible o derecho de propiedad intelectual de titularidad de la entidad pública, deberán ser destinados para el apoyo e inversión a los programas, proyectos, actividades e iniciativas de ciencia, tecnología e innovación de la entidad pública. Para lo anterior, la entidad pública podrá suscribir convenios de ejecución con fondos o fiducias que garanticen dicha destinación.

Para aquellas entidades públicas que no desarrollen o ejecuten programas, proyectos, actividades e iniciativas de ciencia, tecnología e innovación, los beneficios o regalías que genere la explotación comercial de sus bienes intangibles o propiedad intelectual, deberá ser destinada a la promoción de industrias creativas de conformidad con el artículo 2° de la Ley 1834 de 2017.

Artículo 168. Crédito fiscal para inversiones en proyectos de investigación, desarrollo tecnológico e innovación o vinculación de capital humano de alto nivel.

Adiciónese al Libro Primero, Título I, Capítulo X del Estatuto Tributario el artículo 256-1, así:

Artículo 256-1. Crédito fiscal para inversiones en proyectos de investigación, desarrollo tecnológico e innovación o vinculación de capital humano de alto nivel. Las inversiones que realicen las Micro, Pequeñas y Medianas empresas en proyectos calificados como de Investigación, Desarrollo Tecnológico e Innovación, de acuerdo con los criterios y condiciones definidas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), podrán acceder a un crédito fiscal por un valor del 50% de la inversión realizada y certificada por el CNBT aplicable para la compensación de impuestos nacionales. El crédito fiscal aquí establecido no generará saldo a favor susceptible de devolución, excepto únicamente respecto de lo previsto en los Parágrafos 3 y 4 del presente artículo.

Igual tratamiento será aplicable a la remuneración correspondiente a la vinculación de personal con título de doctorado en las Mipymes, que se realice con posterioridad a la expedición de la presente ley, siempre y cuando se cumplan con los criterios y condiciones definidos por el CNBT para tal fin y su vinculación esté asociada al desarrollo de actividades de I+D+i. El crédito fiscal corresponde al 50% de la remuneración efectivamente pagada durante la vigencia fiscal y deberá solicitarse cada año una vez demostrada la vinculación del personal con título de doctorado. Para el caso de títulos de doctorado obtenidos en el exterior, se deberán cumplir los requisitos de convalidación previstos en la normatividad vigente, de manera previa a su vinculación.

Parágrafo 1°. Los proyectos presentados y calificados bajo la modalidad de crédito fiscal no podrán acceder a la deducción y descuento definido en el artículo 158-1 y 256 del Estatuto Tributario, respectivamente. Igual tratamiento aplica para la remuneración derivada de la vinculación del nuevo personal con título de doctorado.

Parágrafo 2°. El CNBT definirá el cupo máximo de inversiones que podrá certificar bajo esta modalidad, el cual hará parte del cupo establecido en el Parágrafo 1 del artículo 158-1 del Estatuto Tributario.

Parágrafo 3°. Las micro, pequeñas y medianas empresas que cuenten con créditos fiscales vigentes superiores a mil UVT (1000 UVT) por inversiones en proyectos calificados como de Investigación, Desarrollo Tecnológico e Innovación, de acuerdo con los criterios y condiciones definidas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), podrán solicitar Títulos de Devolución de Impuestos (TIDIS) por el valor del crédito fiscal.

Parágrafo 4°. La remuneración pagada por la vinculación de personal con título de doctorado en las Mipymes podrá ser solicitada como TIDIS (Títulos de Devolución de Impuestos) siempre y cuando se cumplan con los criterios y condiciones definidos por el Consejo Nacional de Beneficios Tributarios y cuenten con un crédito fiscal vigente superior a los 1000 UVT.

Parágrafo 5°. Los créditos fiscales tendrán una vigencia de dos años una vez expedido el respectivo certificado.

Artículo 169. Derechos de propiedad intelectual sobre resultados de programas y proyectos de ciencia, tecnología e innovación y de tecnologías de la información y las comunicaciones financiados con recursos públicos.

En los casos de proyectos de investigación y desarrollo de ciencia, tecnología e innovación y de tecnologías de la información y las comunicaciones, adelantados con recursos públicos, el Estado como titular de los derechos de propiedad intelectual derivados de estos proyectos podrá ceder dichos derechos a través de la entidad financiadora, y autorizará su transferencia, comercialización y explotación a quien adelante y ejecute el proyecto, sin que ello le constituya daño patrimonial. Las condiciones de esta cesión serán fijadas en el respectivo contrato o convenio.

En todo caso, el Estado, a través de la entidad financiadora, se reserva el derecho de obtener una licencia no exclusiva y gratuita de estos derechos de propiedad intelectual por motivos de interés público. Así mismo, en caso de presentarse motivos de seguridad y defensa nacional, el titular de los derechos de propiedad intelectual deberá ceder a título gratuito y sin limitación alguna al Estado, los derechos de propiedad intelectual que le correspondan. Los derechos de propiedad intelectual a ceder, así como sus condiciones de uso, serán fijados en el respectivo contrato o convenio.

Parágrafo. Cuando en el respectivo contrato o convenio se defina que el titular de derechos de propiedad intelectual es quien adelante y ejecute el proyecto, y este realice la explotación de dichos derechos, obteniendo ganancias económicas, deberá garantizar al Estado, a través de la entidad financiadora, un porcentaje de las ganancias netas obtenidas en la explotación de la propiedad intelectual de la cual es titular, porcentaje que deberá ser acordado por mutuo acuerdo con el Estado, a través de la entidad financiadora. El Estado a través de la entidad financiadora, deberá invertir los dineros obtenidos, en programas y proyectos de Ciencia, Tecnología e Innovación y de tecnologías de la información y las comunicaciones.

Artículo 170. Deducción por donaciones e inversiones en investigación, desarrollo tecnológico e innovación.

Modifíquese el artículo 158-1 del Estatuto Tributario, modificado por el artículo 91 de la Ley 1819 de 2016, el cual quedará así:

Artículo 158-1. Deducción por donaciones e inversiones en investigación, desarrollo tecnológico e innovación. Las inversiones que se realicen en investigación, desarrollo tecnológico e innovación, de acuerdo con los criterios y las condiciones señaladas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), serán deducidles en el período gravable en que se realicen. Lo anterior, no excluye la aplicación del descuento de que trata el artículo 256 del Estatuto Tributario cuando se cumplan las condiciones y requisitos allí previstos.

El mismo tratamiento previsto en este artículo será aplicable en los siguientes casos: i) a las donaciones que se realicen por intermedio de las Instituciones de Educación Superior o del Instituto Colombiano de Crédito Educativo y Estudios Técnicos en el Exterior (Icetex) dirigidas a programas de becas o créditos condonables que sean aprobados por el Ministerio de Educación Nacional, y que beneficien a estudiantes de estratos 1, 2 y 3 a través de becas de estudio total o parcial, o créditos condonables que podrán incluir manutención, hospedaje, transporte, matrícula, útiles y libros, de acuerdo a la reglamentación expedida por el Gobierno nacional respecto de las condiciones de asignación y funcionamiento de los programas de becas y créditos condonables a los que hace referencia el presente artículo, i) a las donaciones recibidas por el Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Fondo Francisco José de Caldas, y que sean destinadas al financiamiento de Programas y/o Proyectos de Ciencia, Tecnología e Innovación, de acuerdo con los criterios y las condiciones señaladas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), y iii) a la remuneración correspondiente a la vinculación de personal con título de Doctorado en las empresas contribuyentes de renta, que se realice con posterioridad a la expedición de la presente ley, siempre y cuando se cumplan con los criterios y condiciones definidos por el CNBT para tal fin y su vinculación esté asociada al desarrollo de actividades de I+D+i. Para el caso de títulos de Doctorado obtenidos en el exterior, se deberán cumplir los requisitos de convalidación previstos en la normatividad vigente, de manera previa a su vinculación.

Parágrafo 1°. El Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT) definirá anualmente un monto máximo total de la deducción prevista en el presente artículo y del descuento establecido en el artículo 256 del Estatuto Tributario y del Crédito Fiscal por Inversiones en CTel, así como el monto máximo anual que individualmente pueden solicitar las empresas como deducción y descuento por inversiones o donaciones de que trata el Parágrafo 2° del artículo 256 del Estatuto Tributario, efectivamente realizadas en el año. El Gobierno nacional definirá mediante reglamento que un porcentaje específico del monto máximo total de la deducción de que trata el presente artículo y del descuento de que trata el artículo 256 del Estatuto Tributario, se invierta en proyectos de investigación, desarrollo tecnológico e innovación en Pequeñas y medianas empresas (Pymes).

Cuando se presenten proyectos en CT+I que establezcan inversiones superiores al monto señalado anteriormente, el contribuyente podrá solicitar al CNBT la ampliación de dicho tope, justificando los beneficios y la conveniencia del mismo. En los casos de proyectos plurianuales, el monto máximo establecido en este inciso se mantendrá vigente durante los años de ejecución del proyecto calificado, sin perjuicio de tomar en un año un valor superior, cuando el CNBT establezca un monto superior al mismo para dicho año.

Parágrafo 2°. Los costos y gastos que dan lugar a la deducción de que trata este artículo y al descuento del artículo 256 del Estatuto Tributario, no podrán ser capitalizados ni tomados como costo o deducción nuevamente por el mismo contribuyente.

Parágrafo 3°. Los contribuyentes del impuesto sobre la renta y complementarios que hayan accedido al beneficio contemplado en el artículo 158-1 del Estatuto Tributario antes de 31 de diciembre de 2016 en un proyecto plurianual, conservarán las condiciones previstas al momento de obtener la aprobación por parte del CNBT respecto del proyecto correspondiente. Las inversiones en los proyectos de que trata este Parágrafo, no se someten a lo previsto en el artículo 256 del Estatuto Tributario.

Parágrafo 4°. La deducción prevista por la remuneración de personal con título de doctorado se causará cuando dicho personal no esté vinculado a los proyectos a los que hace mención el presente artículo en su primer inciso.

Artículo 171. Descuento para inversiones y donaciones realizadas en investigación, desarrollo tecnológico o innovación.

Modifíquese el artículo 256 del Estatuto Tributario, modificado por el artículo 104 de la Ley 1819 de 2016, el cual quedará así;

Artículo 256. Descuento para inversiones realizadas en investigación, desarrollo tecnológico o innovación. Las personas que realicen inversiones en proyectos calificados por el Consejo Nacional de Beneficios Tributarios en Ciencia y Tecnología en Innovación como de investigación, desarrollo tecnológico o innovación, de acuerdo con los criterios y condiciones definidas por dicho Consejo, tendrán derecho a descontar de su impuesto sobre la renta a cargo el 25% del valor invertido en dichos proyectos en el período gravable en que se realizó la inversión. Las inversiones de que trata este artículo, podrán ser realizadas a través de los actores reconocidos por Colciencias de acuerdo con la normatividad vigente. El Consejo Nacional de Beneficios Tributarios, definirá los procedimientos de control, seguimiento y evaluación de los proyectos calificados, y las condiciones para garantizar la divulgación de los resultados de los proyectos calificados, sin perjuicio de la aplicación de las normas sobre propiedad intelectual, y que además servirán de mecanismo de control de la inversión de los recursos.

Parágrafo 1°. Para que proceda el descuento de que trata el presente artículo, al calificar el proyecto se deberán tener en cuenta criterios de impacto ambiental.

Parágrafo 2°. El mismo tratamiento previsto en este artículo será aplicable en los siguientes casos:

i) a las donaciones hechas a programas creados por las instituciones de educación superior, o del Instituto Colombiano de Crédito Educativo y Estudios Técnicos en el Exterior (Icetex) dirigidas a programas de becas o créditos condonables que sean aprobados por el Ministerio de Educación Nacional y que beneficien a estudiantes de estratos 1, 2 y 3 a través de becas de estudio total o parcial o créditos condonables que podrán incluir manutención, hospedaje, transporte, matrícula, útiles y libros de acuerdo a la reglamentación expedida por el Gobierno nacional respecto de las condiciones de asignación y funcionamiento de los programas de becas y créditos condonables a los que se refiere el presente artículo,

ii) a las donaciones recibidas por el Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Fondo Francisco José de Caldas, y que sean destinadas al financiamiento de Programas y/o Proyectos de Ciencia, Tecnología e Innovación, de acuerdo con los criterios y las condiciones señaladas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), y

iii) a la remuneración correspondiente a la vinculación de personal con título de doctorado en las empresas contribuyentes de renta, que se realice con posterioridad a la expedición de la presente ley, siempre y cuando se cumplan con los criterios y condiciones definidos por el CNBT para tal fin y su vinculación esté asociada al desarrollo de actividades de I+D+i. Para el caso de títulos de Doctorado obtenidos en el exterior, se deberán cumplir los requisitos de convalidación previstos en la normatividad vigente, de manera previa a su vinculación.

Parágrafo 3°. El descuento previsto por la remuneración de personal con título de doctorado se causará cuando dicho personal no esté vinculado a los proyectos a los que hace mención el presente artículo en su primer inciso.

Parágrafo 4°. El descuento aquí previsto se somete a lo establecido en los Parágrafos 1° y 2° del artículo 158-1 del Estatuto Tributario.

Artículo 172. Sistema nacional de competitividad e innovación (SNCI).

Créese el Sistema Nacional de Competitividad e Innovación (SNCI) con el objetivo de fortalecer la competitividad , en el marco de este sistema y a través de la Comisión Nacional de Competitividad e Innovación, se articularán los siguientes sistemas: el Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI); el Sistema Nacional de Innovación Agropecuaria (SNIA); la Comisión Intersectorial de Propiedad Intelectual (CIPI); el Consejo Nacional de Economía Naranja (CNEN); el Sistema Nacional Ambiental (SINA) y los demás sistemas, órganos e instancias relacionadas con competitividad , productividad e innovación, y coordinar la elaboración, implementación y seguimiento de la agenda Nacional de Competitividad e Innovación.

Las distintas instancias regionales, departamentales y territoriales de los sistemas que coordinan en la Comisión Nacional de Competitividad e Innovación se articularán en las Comisiones Regionales de Competitividad e Innovación con el objetivo de fortalecer la competitividad.

Las comisiones Regionales de Competitividad e Innovación promoverán la implementación de la Agenda Departamental de Competitividad e Innovación, la cual se articulará con la Agenda Nacional en el marco del Sistema Nacional de Competitividad e Innovación.

Parágrafo 1°. La coordinación general y secretaria técnica de la Comisión Nacional de Competitividad e Innovación estará a cargo del Departamento Administrativo de la Presidencia de la República.

Parágrafo 2°. El Gobierno nacional reglamentará la organización, articulación y funcionamiento del Sistema Nacional de Competitividad e Innovación.

Artículo 173. Innovación e implementación de nuevas tecnologías en proyectos de infraestructura de transporte.

Para la promoción del emprendimiento, investigación y desarrollo de nuevas tecnologías e innovación en la infraestructura de transporte, el Invías podrá incentivar la promoción del uso de nuevas tecnologías, mediante la cofinanciación de ejecución de tramos de prueba, con cargo a los presupuestos de los respectivos proyectos de infraestructura en desarrollo de los respectivos contratos.

Parágrafo. La regulación técnica para la implementación, estandarización, seguimiento, metodologías y protocolos de nuevas tecnologías para la intervención de la infraestructura de transporte, se definirá por el Invías

Artículo 174. Incentivos a la generación de energía eléctrica con fuentes no convencionales (FNCE).

Modifíquese el artículo 11 de la Ley 1715 de 2014, el cual quedará así:

Artículo 11. Incentivos a la generación de energía eléctrica con fuentes no convencionales (FNCE). Como Fomento a la Investigación, desarrollo e inversión en el ámbito de la producción de energía eléctrica con FNCE y la gestión eficiente de la energía, los obligados a declarar renta que realicen directamente inversiones en este sentido, tendrán derecho a deducir de su renta, en un período no mayor de 15 años, contados a partir del año gravable siguiente en el que haya entrado en operación la inversión, el 50% del total de la inversión realizada.

El valor a deducir por este concepto en ningún caso podrá ser superior al 50% de la Renta Líquida del contribuyente, determinada antes de restar el valor de la inversión.

Para los efectos de la obtención del presente beneficio tributario, la inversión causante del mismo deberá ser certificada como proyecto de generación de energía eléctrica a partir de FNCE por la Unidad de Planeación Minero Energética (UPME).

Artículo 175.Partidas arancelarias para proyectos de energía solar.

Adiciónense las siguientes partidas arancelarias al cuadro del primer inciso del artículo 424 del Estatuto Tributario:

• 85.04.40.90.90 Inversor de energía para sistema de energía solar con paneles.

• 85.41.40.10.00 Paneles solares.

• 90.32.89.90.00 Controlador de carga para sistema de energía solar con paneles.

Artículo 176.Del establecimiento del seguro agropecuario.

Mediante el cual se modifica el artículo 1° de la Ley 69 de 1993.

Artículo 1°. Del establecimiento del seguro agropecuario. Establézcase el seguro agropecuario en Colombia, como instrumento para incentivar y proteger la producción de alimentos, buscar el mejoramiento económico del sector agropecuario, promover el ordenamiento económico del sector agropecuario y como estrategia para coadyuvar al desarrollo global del país.

El objeto del seguro es la protección de la totalidad o parte de las inversiones agropecuarias financiadas con recursos de crédito provenientes del sistema nacional de crédito agropecuario o con recursos propios del productor. El seguro agropecuario podrá abarcar tanto el daño emergente como el lucro cesante, previendo las necesidades de producción y comercialización, y el desarrollo integral del sector económico primario.

Parágrafo 1°. El seguro agropecuario podrá ofrecerse bajo la modalidad de seguro paramétrico, de manera que el pago de la indemnización se hará exigible ante la realización de un índice definido en el contrato de seguro.

Esta modalidad de seguro podrá ser tomada por cualquier persona natural o jurídica de derecho privado o de derecho público. En este último caso, la entidad de derecho público podrá actuar como tomador, asegurado y/o beneficiario del seguro agropecuario paramétrico, asumir el pago de la prima del seguro y disponer de los recursos recibidos por concepto de indemnización para resarcir a las personas o infraestructura afectada por el riesgo amparado en el seguro. En este último caso, tal erogación se entenderá como gasto público social.

Parágrafo 2°. La Comisión Nacional de Crédito Agropecuario definirá las condiciones para acceder al Incentivo al Seguro Agropecuario bajo la modalidad de seguro paramétrico o por índice, con el fin de garantizar que el diseño del incentivo apoye la política de Gestión de Riesgos Agropecuarios trazada por el Ministerio de Agricultura y Desarrollo Rural.

Artículo 177. Prórroga de la Ley 1556 de 2012.

Prorróguese la vigencia de la Ley 1556 de 2012 y del Fondo Fílmico Colombia allí establecido, hasta el 9 de julio de 2032. El Gobierno nacional promoverá la inclusión de las partidas presupuestales necesarias, convenientes y crecientes a los fines del Fondo Fílmico Colombia, teniendo en consideración la relación positiva de los aportes nacionales por la contraprestación allí establecida y la inversión real en servicios locales, imagen de país y otros fines de la referida Ley.

Parágrafo. La contraprestación del Fondo Fílmico Colombia establecida en la Ley 1556 de 2012, puede otorgarse igualmente a otros géneros audiovisuales realizados en Colombia conforme al Manual de Asignación de Recursos que expide el Comité Promoción Fílmica Colombia. No menos de un cincuenta por ciento (50%) del Fondo Fílmico Colombia será asignado a obras cinematográficas, salvo que no haya postulaciones suficientes o avaladas por el Comité Promoción Fílmica Colombia

Artículo 178. Contraprestación y estímulo a la producción de obras audiovisuales en Colombia.

Modifíquese el artículo 9° de la Ley 1556 de 2012, el cual quedará así:

Artículo 9°. Contraprestación y estímulo a la producción de obras audiovisuales en Colombia. Las empresas productoras de obras audiovisuales, rodadas total o parcialmente dentro del territorio colombiano que celebren los Contratos Filmación Colombia, tendrán una contra prestación equivalente al cuarenta por ciento (40%) del valor de los gastos realizados en el país por concepto de servicios cinematográficos contratados con sociedades colombianas de servicios cinematográficos y al veinte por ciento (20%) del valor de los gastos en hotelería, alimentación y transporte, siempre y cuando se cumplan las condiciones establecidas en el manual de asignación de recursos.

Las obras audiovisuales no nacionales de cualquier género o formato, producidas o posproducidas en Colombia de manera total o parcial cuando sean previamente aprobadas por el Comité Promoción Fílmica Colombia, darán derecho a la solicitud de un Certificado de Inversión Audiovisual en Colombia, descontable del impuesto de renta hasta por un valor equivalente al treinta y cinco por ciento (35%) del valor de la inversión que realicen en Colombia.

Para poder acceder al Certificado de Inversión Audiovisual en Colombia debe demostrarse que la inversión se realizó sobre la contratación de personas naturales o jurídicas colombianas que provean servicios audiovisuales necesarios para las diversas etapas de la realización, producción o posproducción, incluidos servicios de hotelería, alimentación y transporte para la obra respectiva.

Parágrafo 1°. En el caso de las empresas productoras de obras cinematográficas nacionales, estas podrán o no realizar la contratación a través de sociedades colombianas de servicios cinematográficos.

Parágrafo 2°. El titular o productor cinematográfico deberá garantizar integralmente al personal que contrate o vincule laboralmente en el país, los derechos y prestaciones sociales consagrados en la legislación colombiana.

Parágrafo 3°. Las obras audiovisuales a las que se refiere este artículo podrán optar por la contraprestación o el certificado. Ambos mecanismos de estímulo no son compatibles en una misma obra.

Parágrafo 4°. El Certificado de Inversión Audiovisual en Colombia es un valor negociable que se emite a nombre del productor extranjero responsable del proyecto, el cual puede negociarlo con personas naturales o jurídicas declarantes del impuesto de renta en Colombia. El ingreso que obtenga el productor extranjero por la transferencia del Certificado no constituye para él ingreso tributario en Colombia, y no es susceptible de retención en la fuente en el país.

Parágrafo 5°. Para el uso del certificado de inversión audiovisual el Gobierno nacional reglamentará la materia.

Parágrafo 6°. El Comité Promoción Fílmica Colombia fijará en los dos últimos meses de cada año, el monto máximo de Certificados de Inversión Audiovisual en Colombia que podrán otorgarse en el año calendario siguiente, en perspectiva de las condiciones de sector audiovisual, así como el monto mínimo de las inversiones requeridas en el país, el porcentaje de inversión para la operación del sistema de evaluación, seguimiento de proyectos y otorgamiento de los Certificados sin superar un cinco por ciento (5%), requisitos de inversión, sectores audiovisuales destinatarios y demás aspectos operativos correspondientes. El manejo del sistema pertinente de evaluación, seguimiento de proyectos y emisión de los Certificados podrá hacerse, de ser preciso según decisión del Ministerio de Cultura, mediante un contrato de asociación o cooperación con una entidad sin ánimo de lucro afín con los propósitos de esta Ley.

El Manual de Asignación de Recursos que corresponde expedir al Comité Promoción Fílmica Colombia determinará mecanismos similares de operatividad para el sistema de contraprestación del Fondo Fílmico Colombia y el de los Certificados de Inversión Audiovisual en Colombia.

Artículo 179. Áreas de desarrollo naranja.

Se entiende por áreas de desarrollo naranja (ADN) los espacios geográficos que sean delimitados y reconocidos a través de instrumentos de ordenamiento territorial o decisiones administrativas de la entidad territorial, que tengan por objeto incentivar y fortalecer las actividades culturales y creativas previstas en el artículo 2° de la Ley 1834 de 2017. Las ADN basadas en la oferta cultural y creativa son espacios que operan como centros de actividad económica y creativa, contribuyen a la renovación urbana y al mejoramiento del área de ubicación, crean un ambiente propicio en el que confluyen iniciativas en estos campos, fortalecen el emprendimiento, el empleo basado en la creatividad, el turismo, la recuperación del patrimonio cultural construido, la conservación medioambiental, la transferencia de conocimientos, el sentido de pertenencia, la inclusión social y el acceso ciudadano a la oferta cultural y creativa.

Para el desarrollo de cada ADN la autoridad competente podrá definir las actividades culturales y creativas a desarrollar, así como los beneficios normativos y tributarios respectivos.

Para estimular la localización de actividades culturales y creativas en los espacios identificados y crear un ambiente que permita atraer la inversión para mejoras locativas, se podrá promover la exención de un porcentaje del impuesto predial por un tiempo establecido, la exención de un porcentaje del impuesto por la compra o venta de inmuebles y la exención del pago del impuesto de delineación urbana.

En todo caso, las autoridades competentes deben establecer los procedimientos de identificación y registro de los beneficiarios, los procedimientos legales para su operación y los mecanismos de control y seguimiento pertinentes.

En la identificación de los beneficiarios se tendrá en cuenta a los residentes de la zona y a aquellos que realizan allí sus actividades culturales y creativas, para buscar un equilibrio con la inversión público y privada que se atraiga.

Parágrafo. Las inversiones que se realicen en Áreas de Desarrollo Naranja (ADN) tendrán el mismo beneficio de obras por impuestos previsto en el artículo 71 de la Ley 1943 de 2018, que adiciona el artículo 800-1 al Estatuto Tributario. Las entidades estales declarantes de renta y los particulares que participen en asociaciones público privadas regidas por la Ley 1508 de 2012 para la realización de proyectos de economía creativa y que desarrollen infraestructuras en la forma descrita en el precitado artículo 71, también serán destinatarias de este mecanismo.

Las instancias de evaluación, viabilización y aprobación deberán contar con el concepto previo favorable del Ministerio de Cultura. Esta entidad deberá conformar un banco de proyectos susceptibles de contar con viabilidad técnica y presupuestal para recibir el amparo de que trata este artículo y que puedan llevarse a cabo en las ADN que se establezcan.

El Gobierno nacional reglamentará lo previsto en este artículo y tendrá la facultad para definir los topes o montos máximos de los proyectos beneficiarios de obras por impuestos en Áreas de Desarrollo Naranja.

Artículo 180. Proyectos de economía creativa.

El Ministerio de Cultura podrá realizar una convocatoria anual de proyectos de economía creativa en los campos definidos en el artículo 2° de la Ley 1834 de 2017, así como planes especiales de salvaguardia de manifestaciones culturales incorporadas a listas representativas de patrimonio cultural inmaterial acordes con la Ley 1185 de 2008, e infraestructura de espectáculos públicos de artes escénicas previstos en el artículo 4° de la Ley 1493 de 2011, respecto de las cuales las inversiones o donaciones recibirán similar deducción a la prevista en el artículo 195 de la Ley 1607 de 2012. Los certificados de inversión que se generen para amparar el incentivo serán a la orden negociables en el mercado.

El Consejo Nacional de la Economía Naranja establecerá un cupo anual máximo para estos efectos.

Parágrafo 1°. El Ministerio de Cultura podrá definir, de considerarlo necesario, que la convocatoria se realice por intermedio de una entidad sin ánimo de lucro adscrita a esa entidad, para lo cual celebrará de manera directa el respectivo convenio. Las inversiones o donaciones que se canalicen mediante el mecanismo previsto en este artículo deberán cubrir los costos que la convocatoria demande.

Parágrafo 2°. El Gobierno nacional reglamentará la materia teniendo en perspectiva las tipologías de proyectos y sectores susceptibles de ser destinatarios del incentivo, los montos máximos que pueden ser cobijados con el mismo. En el caso de los proyectos diferentes a los de artes y patrimonio, el incentivo de que trata el presente artículo solo será aplicable para proyectos presentados por micro, pequeñas y medianas empresas.

Artículo 181. Acuerdos sobre derechos patrimoniales. Modifíquese el artículo 183 de la Ley 23 de 1982, el cual quedará así:

Artículo 183. Acuerdos sobre derechos patrimoniales. Los acuerdos sobre derechos patrimoniales de autor o conexos, deberán guiarse por las siguientes reglas:

Los derechos patrimoniales de autor o conexos pueden transferirse, o licenciarse por acto entre vivos, quedando limitada dicha transferencia o licencia a las modalidades de explotación previstas y al tiempo y ámbito territorial que se determinen contractualmente.

La falta de mención del tiempo limita la transferencia o licencia a cinco (5) años, y la del ámbito territorial, al país en el que se realice la transferencia o licencia.

Los actos o contratos por los cuales se transfieren, parcial o totalmente, los derechos patrimoniales de autor o conexos deberán constar por escrito como condición de validez.

Todo acto por el cual se enajene, transfiera, cambie o limite el dominio sobre el derecho de autor, o los derechos conexos, así como cualquier otro acto o contrato que implique exclusividad, deberá ser inscrito en el Registro Nacional del Derecho de Autor, para efectos de publicidad y oponibilidad ante terceros.

Será ineficaz toda estipulación en virtud de la cual el autor transfiera de modo general o indeterminable la producción futura, o se obligue a restringir su producción intelectual o a no producir.

Será ineficaz toda estipulación que prevea formas de explotación o modalidades de utilización de derechos patrimoniales de autor o conexos, que sean inexistentes o desconocidas al tiempo de convenir la transferencia, autorización o licencia.

Artículo 182. Fomento de los microcréditos.

En armonía con las Bases del “Plan Nacional de Desarrollo 2018-2022 Pacto por Colombia, Pacto por la Equidad”, el Gobierno nacional reglamentará la manera en que se profundicen los microcréditos a través de las entidades del sector financiero como instrumento de formalización de generación de empleo e instrumento para combatir el “gota a gota” o “paga diario”.

Parágrafo. El Gobierno nacional fomentará el desarrollo de cadenas productivas entre empresarios MiPymes a través de figuras como la Asociatividad que generen valor agregado al producto final y permitan mayor innovación tecnológica entre las unidades productivas.

SECCIÓN III. PACTO POR LA EQUIDAD: POLÍTICA SOCIAL MODERNA CENTRADA EN LA FAMILIA, EFICIENTE, DE CALIDAD Y CONECTADA A MERCADOS

SUBSECCIÓN 1. EQUIDAD EN LA EDUCACIÓN

Artículo 183. Fortalecimiento financiero de la educación superior pública.

La Ley Anual de Presupuesto para 2020 asignará a la base presupuestal de funcionamiento de las Instituciones de Educación Superior Pública un incremento del IPC más 4 puntos a los recursos de transferencia ordinaria. La Ley Anual de Presupuesto para 2021 asignará a la base presupuestal de funcionamiento de las Instituciones de Educación Superior Pública un incremento del IPC más 4,5 puntos a los recursos de transferencia ordinaria. La Ley Anual de Presupuesto para 2022 asignará a la base presupuestal de funcionamiento de las Instituciones de Educación Superior Pública un incremento del IPC más 4,65 puntos a los recursos de transferencia ordinaria. El Ministerio de Educación Nacional establecerá los mecanismos de distribución de estos recursos, con criterios de equidad y fortalecimiento institucional, entre otros.

La Nación asignará recursos de funcionamiento del Presupuesto General de la Nación a todas las Instituciones de Educación Superior que son establecimientos públicos del orden territorial. Para ello el Ministerio de Educación Nacional establecerá anualmente con estas instituciones, el mecanismo de inversión en los presupuestos institucionales.

La Nación financiará proyectos de inversión de las Instituciones de Educación Superior Públicas los cuales no harán parte de la base presupuestal, que incluyen saneamiento de pasivos y aportes adicionales de inversión.

Estos programas incluirán medidas orientadas al pago de acreencias laborales, reestructuración y saneamiento de pasivos, adquisición de cartera, y estarán precedidos del estudio que realizará cada Institución de Educación Superior Pública, el cual deberá ser validado por el Ministerio de Educación Nacional.

Los recursos adicionales para inversión también se podrán destinar para el mejoramiento de la calidad de las Instituciones de Educación Superior Públicas, de acuerdo con las líneas definidas por el Ministerio de Educación Nacional.

El Gobierno nacional adelantará un proceso de revisión integral de fuentes y usos de los recursos de las Instituciones de Educación Superior Públicas con miras a plantear una reforma al esquema de financiación de las mismas, que permita la garantía de su financiación y sostenibilidad en el mediano y largo plazo.

Artículo 184. Fondo de financiamiento de la infraestructura educativa.

Modifíquese el artículo 59 de la Ley 1753 de 2015, el cual quedará así:

Artículo 59. Fondo de financiamiento de la infraestructura educativa. El Fondo de Financiamiento de la Infraestructura es una cuenta especial del Ministerio de Educación Nacional sin personería jurídica, cuyo objeto es la viabilización y financiación de proyectos para la construcción, mejoramiento, adecuación, ampliaciones y dotación de infraestructura educativa física y digital de carácter público en educación inicial, preescolar, educación básica y media, en zonas urbanas y rurales, incluyendo residencias escolares en zonas rurales dispersas, así como los contratos de interventoría asociados a tales proyectos.

Con cargo a los recursos administrados por el Fondo de Financiamiento de la Infraestructura Educativa, se asumirán los costos en que se incurra para el manejo y control de los recursos y los gastos de operación del fondo.

El Fondo de Financiamiento de la Infraestructura Educativa será administrado por una junta cuya estructura y funcionamiento serán definidos por el Gobierno nacional.

Los recursos del Fondo de Financiamiento de la Infraestructura Educativa para educación inicial, preescolar, básica y media provendrán de las siguientes fuentes:

a) Los provenientes del recaudo establecido en el artículo 11 de la Ley 21 de 1982, destinados al Ministerio de Educación Nacional.

b) Las partidas que se le asignen en el Presupuesto Nacional y estén contenidas en el Marco Fiscal de Mediano Plazo y el Marco de Gastos de Mediano Plazo.

c) Los rendimientos financieros derivados de la inversión de sus recursos.

Así mismo, los proyectos de infraestructura educativa que se desarrollen a través del Fondo podrán contar con recursos provenientes de:

d) El Sistema General de Regalías destinados a proyectos específicos de infraestructura educativa, para los casos en que el OCAD designe al Ministerio de Educación Nacional como ejecutor de los mismos.

e) Los recursos de cooperación internacional o cooperación de privados que este gestione o se gestionen a su favor.

f) Aportes de los departamentos, distritos y municipios y de esquemas asociativos territoriales: regiones administrativas y de planificación, las regiones de planeación y gestión, las asociaciones de departamentos, las áreas metropolitanas, las asociaciones de distritos especiales, las provincias administrativas y de planificación, las asociaciones de municipio y la Región Administrativa de Planificación Especial (RAPE).

g) Participación del sector privado mediante proyectos de Asociaciones Público- Privadas.

h) Obras por impuestos.

En caso de que un proyecto priorizado por la Junta Administradora involucre cualquiera de los recursos de que tratan los literales d), e), f), g) y h) del presente artículo, con cargo al Fondo de Financiamiento de la Infraestructura Educativa se podrán constituir patrimonios autónomos que se regirán por normas de derecho privado en donde podrán confluir todas las fuentes de recursos con las que cuenten los proyectos. Dichos Patrimonios Autónomos, podrán celebrar operaciones de crédito interno o externo a su nombre, para lo cual la Nación podrá otorgar los avales o garantías correspondientes.

Parágrafo 1°. Todo proyecto sufragado por el Fondo de Financiamiento de la Infraestructura Educativa deberá contemplar obligatoriamente los ajustes razonables para acceso a la población con discapacidad de que trata la Ley Estatutaria 1618 de 2013 o la que la modifique o sustituya.

Parágrafo 2°. El Ministerio de Educación Nacional diseñará mecanismos para fortalecer la gestión y gobernanza del Fondo, incluyendo la participación de representantes de entidades territoriales en la Junta Directiva; mejorar la coordinación y articulación con los territorios; definir criterios de priorización para la estructuración y ejecución de proyectos, con énfasis en iniciativas de zonas rurales dispersas y propender por un sistema adecuado de rendición de cuentas.

Parágrafo 3°. El Fondo levantará la información y elaborará el diagnóstico de la infraestructura educativa a nivel nacional.

Parágrafo 4°. El régimen de contratación del Fondo de Financiamiento de Infraestructura Educativa estará orientado por los principios que rigen la contratación pública y las normas dirigidas a prevenir, investigar y sancionar actos de corrupción. La selección de sus contratistas estará precedida de procesos competitivos, regidos por los estándares y lineamientos que establezca Colombia Compra Eficiente, los cuales deberán incorporar condiciones tipo, así como elementos para evitar la concentración de proveedores y para promover la participación de contratistas locales. Los procesos de contratación deberán tener especial acompañamiento de los órganos de control.

Artículo 185. Avance en el acceso en educación superior pública.

El Gobierno nacional avanzará en un proceso gradual para el acceso, permanencia y graduación en la educación superior pública de la población en condiciones de vulnerabilidad, incluida la rural, que sea admitida en una institución de educación superior pública, de formación técnica profesional, tecnológica y universitaria. Para este fin, podrán establecerse apoyos para pago de matrícula a través del Icetex y subsidios de sostenimiento con cargo a programas del Ministerio de Educación Nacional, el Departamento Administrativo para la Prosperidad Social y otras fuentes.

Artículo 186. Excedentes del Icetex.

El Ministerio de Educación Nacional podrá utilizar los excedentes que se generen en el Icetex a partir de los recursos girados por la Nación. En caso de hacerlo, debe destinarlos prioritariamente a atender los subsidios de tasa de interés, condonación y manutención asociados a los créditos educativos; a programas de alivio de cartera para sus beneficiarios o de fortalecimiento de la educación superior; al pago de las obligaciones que el Icetex haya adquirido con dichos fines; a financiar las renovaciones o las adjudicaciones de nuevos créditos educativos o para otros objetivos similares.

Artículo 187. Armonización del plan nacional de desarrollo con el plan nacional decenal de educación 2016-2026.

En cumplimiento de lo ordenado por la Ley General de Educación (Ley 115 de 1994), la política educativa del Gobierno nacional contenida en el presente Plan Nacional de Desarrollo deberá armonizarse con los propósitos y lineamientos del Plan Nacional Decenal de Educación 2016-2026. Con el fin de fortalecer la planeación educativa en las regiones, los departamentos, distritos y municipios articularán y armonizarán sus Planes de Desarrollo en materia educativa con lo dispuesto en el Plan Decenal de Educación 2016-2026 y en el Plan Nacional de Desarrollo.

Artículo 188. Comisión para la revisión del sistema general de participaciones.

Créase una Comisión de alto nivel, que se instalará dentro de los dos (2) meses siguientes contados a partir de la expedición y entrada en vigencia del presente Plan Nacional de Desarrollo, y sesionará durante los seis (6) meses siguientes, para elaborar una propuesta de acto legislativo que incremente real y progresivamente los recursos del Sistema General de Participaciones.

La Comisión estará bajo el liderazgo del Ministerio de Hacienda y Crédito Público y el Departamento Nacional de Planeación, y harán parte de ella: el Ministerio de Educación Nacional, el Ministerio de Salud y Protección Social, el Ministerio de Vivienda, Ciudad y Territorio, el Ministerio del Interior, la Federación Colombiana de Trabajadores de la Educación, la Federación Colombiana de Municipios, Asocapitales y la Federación Nacional de Departamentos, agremiaciones, organizaciones y sectores sociales involucrados en las transferencias del Sistema General de Participaciones.

Artículo 189.Creación de la unidad administrativa especial de alimentación escolar.

Créase la unidad administrativa especial de alimentación escolar, como una entidad adscrita al Ministerio de Educación Nacional, con autonomía administrativa, personería jurídica y patrimonio independiente, su domicilio será la ciudad de Bogotá y contará con la estructura interna y la planta de personal que el Gobierno nacional establezca en desarrollo de sus facultades; tendrá como objeto fijar y desarrollar la política en materia de alimentación escolar; sus objetivos específicos serán: 1) Fortalecer los esquemas de financiación del Programa de Alimentación Escolar. 2) Definir esquemas para promover la transparencia en la contratación del Programa de Alimentación Escolar. 3) Ampliar su cobertura y garantizar la continuidad con criterios técnicos de focalización. 4) Garantizar la calidad e inocuidad de la alimentación escolar. 5) Proponer modelos de operación para fortalecer la territorialidad en esta materia. El patrimonio de la entidad estará integrado por fuentes del Presupuesto General de la Nación, fuentes locales y otras fuentes. La Unidad estará administrada y dirigida por un gerente de libre nombramiento y remoción del Presidente de la República, por un consejo directivo, integrado por el Ministro de Educación, quien lo presidirá, y por los demás delegados o representantes que indique el Gobierno nacional. La entidad deberá entrar en funcionamiento en el año 2020.

Artículo 190. Becas por impuestos.

Adiciónese el siguiente artículo al Estatuto Tributario, el cual quedará así:

Artículo 257-1. Becas por impuestos. Las personas naturales o jurídicas contribuyentes del Impuesto sobre la renta y complementarios podrán celebrar convenios con Coldeportes para asignar becas de estudio y manutención a deportistas talento o reserva deportiva, por las que recibirán a cambio títulos negociables para el pago del impuesto sobre la renta.

Coldeportes reglamentará en un plazo no mayor a seis (6) meses de la expedición de la presente ley el mecanismo de selección, evaluación y seguimiento de los deportistas beneficiados, así como los criterios de inclusión y de exclusión del programa y los criterios técnico-deportivos aplicables para el concepto de manutención.

Los descuentos de los que trata este artículo y en su conjunto los que tratan los artículos 255, 256 y 257 del Estatuto Tributario no podrán exceder en un 30% del impuesto sobre la renta a cargo del contribuyente en el respectivo año gravable.

Artículo 191.Reconocimiento de títulos en educación superior.

El Ministerio de Educación Nacional diseñará e implementará un nuevo modelo de convalidaciones, de acuerdo con las distintas tipologías existentes en la materia, cuya duración no podrá exceder en ningún caso los seis (6) meses, a partir de la fecha de inicio del trámite.

Parágrafo 1°. Para el caso de profesiones reguladas, el Ministerio contará con una reglamentación específica. No obstante, los tiempos de trámite para la convalidación no podrán exceder lo establecido previamente.

Parágrafo 2°. El Ministerio de Educación realizará las mejoras administrativas y tecnológicas para el seguimiento del trámite de convalidación. Así mismo, pondrá a disposición de los ciudadanos la información sobre las instituciones y programas acreditados o reconocidos en alta calidad por parte de una entidad gubernamental competente, u organización privada autorizada oficialmente para ello en el país de origen del título, además pondrá a disposición la información sobre los sistemas educativos del mundo.

SUBSECCIÓN 2. EQUIDAD EN EL TRABAJO

Artículo 192. Prácticas laborales. Además de lo previsto en el artículo 15 de la Ley 1780 de 2016, las prácticas laborales podrán desarrollarse por estudiantes de educación superior de posgrado, de educación para el trabajo y desarrollo humano, de formación profesional integral del SENA, así como de toda la oferta de formación por competencias.

Parágrafo 1°. El tiempo de la práctica laboral que el estudiante realice para optar a su título de profesional, tecnológico o técnico cuenta como experiencia laboral, sin perjuicio de las disposiciones vigentes en la materia.

Parágrafo 2°. Las prácticas laborales realizadas durante los veinticuatro (24) meses anteriores a la entrada en vigencia de la presente Ley, serán tenidas en cuenta al momento de contabilizar el tiempo de experiencia laboral.

Parágrafo 3°. Se exceptúan de lo dispuesto en el presente artículo, los estudiantes de posgrado del sector salud.

Parágrafo 4°. En el sector público se generarán oportunidades de prácticas laborales para estudiantes de administración pública.

Artículo 193. Piso de protección social para personas con ingresos inferiores a un salario mínimo.

Las personas que tengan relación contractual laboral o por prestación de servicios, por tiempo parcial y que en virtud de ello perciban un ingreso mensual inferior a un (1) Salario Mínimo Mensual Legal Vigente (SMLMV) deberán vincularse al Piso de Protección Social que estará integrado por:

i) el Régimen Subsidiado del Sistema General de Seguridad en Salud,

ii) el Servicio Social Complementario de Beneficios Económicos Periódicos (BEPS) como mecanismo de protección en la vejez y

iii) el Seguro Inclusivo que amparará al trabajador de los riesgos derivados de la actividad laboral y de las enfermedades cubiertas por BEPS.

En estos eventos el aporte al programa de los Beneficios Económicos Periódicos (BEPS) deberá ser asumido enteramente por el empleador o el contratante y corresponderá al 15% del ingreso mensual del trabajador o contratista. De este monto se destinará el 1% para financiar el Fondo de Riesgos Laborales, con el fin de atender el pago de la prima del Seguro Inclusivo.

Sin perjuicio de lo anterior, las personas que no tengan una vinculación laboral o no hayan suscrito un contrato de prestación de servicios y no tengan capacidad de pago para cubrir el monto total de la cotización al Sistema Integral de Seguridad Social podrán afiliarse y/o vincularse bajo la modalidad del piso de protección social de que trata este artículo y serán los responsables de realizar el aporte al programa BEPS y el pago del seguro inclusivo. En todo caso, las personas deberán cumplir con los requisitos de acceso o pertenencia a los diferentes componentes del piso de protección social.

Parágrafo 1°. En ningún caso el ahorro en el mecanismo de los Beneficios Económicos Periódicos podrá ser inferior al tope mínimo establecido para ese Servicio Social Complementario.

Parágrafo 2°. El Gobierno nacional reglamentará la materia; así mismo podrá establecer mecanismos para que los vinculados al programa BEPS, realicen ahorros en este servicio social complementario de forma conjunta con la adquisición de bienes y servicios, y para que los trabajadores dependientes cobijados por el presente artículo tengan acceso al sistema de subsidio familiar.

Parágrafo 3°. Los empleadores o contratantes que a la entrada en vigencia de la presente Ley cuenten con trabajadores o contratistas afiliados al sistema de seguridad social en su componente contributivo, y que con el propósito de obtener provecho de la reducción de sus aportes en materia de seguridad social desmejoren las condiciones económicas de dichos trabajadores o contratistas mediante la implementación de uno o varios actos o negocios jurídicos artificiosos que conlleve a su afiliación al piso mínimo de protección social, independientemente de cualquier intención subjetiva adicional, serán objeto de procesos de Fiscalización preferente en los que podrán ser sancionados por la Unidad de Gestión de Pensiones y Parafiscales (UGPP) por no realizar en debida forma los aportes a seguridad social que le correspondan, una vez surtido el debido proceso y ejercido el derecho a la defensa a que haya lugar.

Parágrafo 4°. Una vez finalizado el periodo de ahorro en el mecanismo de Beneficios Económicos Periódicos (BEPS), el ahorrador tendrá derecho a elegir si recibe la anualidad vitalicia o la devolución del valor ahorrado, caso en el cual no habrá lugar al pago del incentivo periódico, conforme a la normatividad vigente.

Artículo 194. Sistema nacional de cualificaciones.

Créase el Sistema Nacional de Cualificaciones (SNC) como un conjunto de políticas, instrumentos, componentes y procesos necesarios para alinear la educación y formación a las necesidades sociales y productivas del país y que promueve el reconocimiento de aprendizajes, el desarrollo personal y profesional de los ciudadanos, la inserción o reinserción laboral y el desarrollo productivo del país. Son componentes del SNC: el Marco Nacional de Cualificaciones (MNC), los subsistemas de aseguramiento de la calidad de la educación y la formación, de normalización de competencias y de evaluación y certificación de competencias, el esquema de movilidad educativa y formativa, así como la plataforma de información del SNC.

Se crea el Marco Nacional de Cualificaciones (MNC), para clasificar y estructurar las cualificaciones en un esquema de ocho (8) niveles ordenados y expresados en términos de conocimientos, destrezas y aptitudes, de acuerdo con la secuencialidad y complejidad de los aprendizajes que logran las personas en las diferentes vías de cualificación.

Se crea el Esquema de Movilidad Educativa y Formativa, para facilitar la movilidad de las personas entre las diferentes vías de cualificación que son la educativa, la formación para el trabajo y el reconocimiento de aprendizajes previos para la certificación de competencias, con el fin de promover las rutas de aprendizaje, las relaciones con el sector productivo y el aprendizaje a lo largo de la vida.

Como una vía de cualificación dentro del Sistema Nacional de Cualificaciones, se crea el Subsistema de Formación para el Trabajo. Esta formación se estructurará en diversos niveles de complejidad, desde los iniciales hasta los más avanzados, de acuerdo con las necesidades del sector productivo. Sus oferentes son el Servicio Nacional de Aprendizaje (SENA), las Instituciones de Educación para el Trabajo y Desarrollo Humano (ETDH) y las Instituciones de Educación Superior con oferta de formación para el trabajo que formen por competencias y cumplan los requisitos y mecanismos que para tal fin se establezcan.

Parágrafo 1°. El Gobierno nacional, con el liderazgo del Ministerio de Educación Nacional y del Ministerio del Trabajo, establecerá la estructura, las condiciones y mecanismos del Subsistema de formación para el trabajo y de sus procesos de aseguramiento de calidad. Para ello, se definirán las competencias de cada uno de estos dos ministerios. El Ministerio del Trabajo reglamentará la oferta y los niveles de la ETDH y el SENA en lo relacionado con la formación para el trabajo.

Parágrafo 2°. Los programas de formación para el trabajo por competencias serán estructurados con base en el subsistema de normalización de competencias y el Marco Nacional de Cualificaciones.

Parágrafo 3°. Las condiciones y mecanismos para la acreditación de las entidades públicas certificadoras de competencias laborales, serán reglamentadas por el Ministerio del Trabajo.

Parágrafo 4°. El Gobierno nacional reglamentará lo dispuesto en el presente artículo.

Artículo 195. Inclusión laboral.

Todos los mecanismos, instrumentos, acciones y servicios que promuevan la inclusión laboral deberán implementarse a través de la Red de Prestadores del Servicio Público de Empleo. La Unidad Administrativa Especial del Servicio Público de Empleo, como articuladora de la Red, definirá los servicios básicos y especializados de gestión y colocación de empleo y fijará las reglas para la prestación de estos servicios, para contribuir al acceso al empleo formal de las personas que enfrentan barreras, especialmente la población más vulnerable.

Parágrafo 1°. Las personas jurídicas autorizadas que presten servicios de gestión y colocación de empleo de que trata el artículo 30 de la Ley 1636 de 2013, tendrán que articularse para garantizar el acceso público y transparente a todas las vacantes ofrecidas por los empleadores, en la Red de Prestadores del Servicio Público de Empleo y estas deberán ser reportadas al Sistema de Información administrado por la UAESPE.

Parágrafo 2°. Las personas jurídicas y naturales, nacionales o internacionales, que por su experiencia, representatividad o reconocimiento en modelos de inclusión laboral puedan aportar conocimientos y herramientas para aumentar el acceso de las personas al mercado laboral, especialmente de población vulnerable, lo podrán hacer a través de asesoría técnica y alianzas con los prestadores del servicio público de empleo, previa autorización de la Unidad Administrativa Especial del Servicio Público de Empleo.

Artículo 196. Generación de empleo para la población joven del país.

Con el fin de generar oportunidades de empleo para la población joven del país y permitir superar las barreras de empleabilidad de este grupo poblacional, las entidades públicas darán prioridad a la vinculación de jóvenes entre 18 y 28 años, para lo cual deberán garantizar cuando adelanten modificaciones a su planta de personal, que el diez por ciento (10%) de los nuevos empleos no requieran experiencia profesional, con el fin de que sean provistos con jóvenes egresados de programas técnicos, tecnológicos y de pregrado. Para la creación de nuevos empleos de carácter permanente del nivel profesional, no se exigirá experiencia profesional hasta el grado once (11) y se aplicarán las equivalencias respectivas.

Parágrafo 1°. Las entidades públicas deberán adecuar sus manuales de funciones y competencias laborales para permitir el nombramiento de jóvenes entre los 18 y 28 años graduados y que no tengan experiencia, o para determinar las equivalencias que corresponda, siempre y cuando cumplan con los requisitos del cargo.

Parágrafo 2°. Las entidades y organismos que creen empleos de carácter temporal deberán garantizar que el 10% de estos empleos sean asignados para jóvenes entre los 18 y 28 años.

Parágrafo 3°. Cuando las entidades públicas vinculen provisionales a sus plantas de personal deberán dar prioridad a los jóvenes entre los 18 y 28 años para dicha vinculación.

Parágrafo 4°. Para el cumplimiento en lo consagrado en el presente artículo, tendrán prioridad los jóvenes entre los 18 y 28 años que estuvieron bajo custodia y protección del Sistema Nacional de Bienestar Familiar.

Artículo 197. Intervención en actividades financiera y aseguradora.

Adicionar un literal r) al artículo 46 del Estatuto Orgánico del Sistema Financiero el cual quedará de la siguiente manera:

r) Garantizar la suficiencia del Sistema General de Riesgos Laborales, a través de la actualización de las actividades económicas y los montos de cotización aplicables a estas

Artículo 198. Promoción de los beneficios económicos periódicos.

En el evento en que los afiliados al Sistema General de Pensiones obtengan como prestación sustituta una devolución de saldos o indemnización sustitutiva de vejez, estos recursos serán trasladados al mecanismo de los Beneficios Económicos Periódicos para el reconocimiento de una anualidad vitalicia en las condiciones legales vigentes, excepto en el evento en que el afiliado manifieste su decisión de recibir dicha prestación, dentro de los seis (6) meses siguientes a la notificación personal del documento o acto que la define. Corresponderá a Colpensiones con antelación al reconocimiento de la indemnización sustitutiva o la devolución de saldos en el Régimen de Ahorro Individual, brindar de manera obligatoria a los afiliados, asesoría respecto de los Beneficios Económicos Periódicos. El Gobierno nacional reglamentará la materia y las especificaciones para la entrega de información por parte de las administradoras de fondos de pensiones y de asesoría y asistencia técnica al afiliado.

Parágrafo. Los colombianos que residen en el exterior y no estén cotizando al Sistema de Seguridad Social Colombiano pueden voluntariamente vincularse al Programa de Beneficios Económicos Periódicos (BEPS). El Gobierno nacional reglamentará el procedimiento administrativo para hacer efectiva la participación al programa.

Artículo 199. Financiación de obligaciones pensionales con recursos del Fonpet.

Adicional a lo establecido en las normas vigentes, con cargo a los recursos del Fondo Nacional de Pensiones de las Entidades Territoriales (Fonpet) las entidades territoriales podrán pagar las siguientes obligaciones:

1) La deuda con el Fondo Nacional de Prestaciones Sociales del Magisterio (Fomag) por concepto del pasivo pensional corriente del Sector Educación.

2) Las cuotas partes pensiónales corrientes de la vigencia en curso, a las entidades públicas acreedoras.

3) Las mesadas pensionales corrientes de la vigencia a cargo de la administración central territorial.

Para determinar la cobertura de los pasivos pensionales, las entidades territoriales podrán girar voluntariamente al Fonpet otros recursos que acumulen para el pago de su pasivo pensional. El Ministerio de Hacienda y Crédito Público determinará las instrucciones operativas para el recibo de estos recursos que tendrán las mismas condiciones de administración existentes para la cuenta individual de la entidad territorial.

Los recursos que aporte la Nación al Fonpet, y los que se encuentren pendientes por distribuir de la Nación, destinados a financiar obligaciones pensionales, se distribuirán entre todas las entidades territoriales que no hayan alcanzado el cubrimiento de su pasivo pensional.

Las entidades territoriales que soliciten el retiro de recursos ahorrados en el Fonpet, deberán cumplir con la obligación de suministrar la información requerida en el artículo 9° de la Ley 549 de 1999, de lo contrario el Fondo podrá no autorizar el retiro de los mismos.

Artículo 200.Terminación del procedimiento sancionatorio laboral.

El Ministerio del Trabajo podrá dar por suspendido o terminado, mediante mutuo acuerdo, un procedimiento administrativo sancionatorio por violación de normas laborales, diferentes a las relativas a la formalización laboral.

La terminación por mutuo acuerdo estará condicionada a que los investigados reconozcan el incumplimiento de las normas laborales o de seguridad social integral, y garanticen la implementación por parte de los empleadores investigados, de medidas dirigidas a corregir las causas por las cuales se dio inicio a la actuación administrativa.

Se suspenderá el procedimiento cuando los investigados reconozcan el incumplimiento de las normas y se comprometan a implementar las medidas correctivas mediante un plan de mejoramiento que contenga plazos razonables, no superiores a un (1) año, el cual deberá ser aprobado por el Ministerio del Trabajo. Una vez se implemente el plan de mejoramiento en su totalidad, se dará por terminado el procedimiento.

Si la suspensión por mutuo acuerdo se suscribiere en la etapa de averiguación preliminar no habrá lugar a sanción alguna; si se suscribiera entre la formulación de cargos y la presentación de descargos, la sanción tendrá una rebaja de la mitad; y si se suscribiera entre el período probatorio y la presentación de alegatos, la sanción tendrá una rebaja de una tercera parte. Si no se diere cumplimiento al plan de mejoramiento, se levantará la suspensión y se continuará con las etapas restantes del procedimiento, sin que proceda reducción alguna en la sanción. Este beneficio no procederá en caso de reincidencia de las mismas infracciones.

El Ministerio del Trabajo reglamentará lo atinente a lo estipulado en el presente artículo.

Artículo 201. Fondo para el fortalecimiento de la inspección, vigilancia y control del trabajo y la seguridad social (Fivicot).

Créase el Fondo para el Fortalecimiento de la Inspección, Vigilancia, y Control del Trabajo y la Seguridad Social (Fivicot), como una cuenta especial de la Nación, sin personería jurídica, adscrita al Ministerio del Trabajo, cuyos recursos se destinarán a fortalecer la Inspección, Vigilancia y Control del Trabajo y la Seguridad Social.

El Fondo estará conformado por las multas que se impongan por las autoridades administrativas del trabajo a partir del primero (1°) de enero de 2020, por la violación de las disposiciones relativas a las condiciones de trabajo, así como a la protección de los trabajadores en el ejercicio de su profesión y del derecho de libre asociación sindical.

Parágrafo. El Gobierno nacional reglamentará el presente artículo en el plazo máximo de seis (6) meses.

Artículo 202. Objeto del fondo de riesgos laborales.

Adiciónese el literal i) al artículo 12 de la Ley 1562 de 2012, en los siguientes términos:

i) Compensar a las Administradoras de Riesgos Laborales que asuman el aseguramiento de riesgos con alta siniestralidad, alto costo operativo, o la combinación de ambos fenómenos, mediante una subcuenta de compensación que será financiada con el 50% del recaudo correspondiente a las cotizaciones a cargo de los empleadores y trabajadores independientes establecido en el artículo 89 del Decreto Ley 1295 de 1994 y las normas que lo modifiquen o adicionen.

Artículo 203. Servicios de promoción y prevención.

Modifíquese el segundo inciso del Parágrafo 5° del artículo 11 de la Ley 1562 de 2012, el cual quedará así:

En caso de que se utilice algún intermediario las ARL podrán pagar las comisiones del ramo con cargo a las cotizaciones o primas, incluidas las de riesgos laborales, o con los rendimientos financieros de las inversiones de las reservas técnicas, siempre que hayan cumplido sus deberes propios derivados de la cobertura de las prestaciones del sistema, y los destine como parte de los gastos de administración. El Gobierno nacional, con base en estudios técnicos, determinará el valor máximo de estas comisiones.

Artículo 204. Exoneración de aportes.

Adiciónese un inciso al Parágrafo 2° del artículo 114-1 del Estatuto Tributario, así:

Las entidades de que trata el artículo 19-4 del Estatuto Tributario conservan el derecho a la exoneración de que trata este artículo.

Artículo 205. Aplicaciones y plataformas tecnológicas.

El Gobierno nacional a través del Ministerio del Trabajo, en coordinación con los Ministerios de Salud y Protección Social, Hacienda y Crédito Público y de las Tecnologías de la Información y las Comunicaciones, diseñarán y formularán una política pública que permita, entre otros, caracterizar las condiciones de prestación de servicio y las modalidades de protección y seguridad social que se puedan generar del uso de estas aplicaciones y plataformas.

Las aplicaciones y plataformas, así como las personas naturales y jurídicas del sector, suministrarán la información necesaria que servirá de insumo para la política pública y los estudios sectoriales que se requiera, incluyendo la caracterización del sector.

Parágrafo. Dentro del año siguiente a la promulgación de la presente Ley, el Gobierno nacional presentará al Congreso de la República un proyecto de ley que definirá la forma de vinculación correspondiente de los actores del sector y el acceso y aporte a la seguridad social integral para las personas que presten sus servicios a través de las aplicaciones y plataformas tecnológicas.

SUBSECCIÓN 3. EQUIDAD PARA LA PROSPERIDAD SOCIAL

Artículo 206. Política de atención integral a la primera infancia, infancia y adolescencia.

Modifíquese el literal a) y adiciónese un Parágrafo al artículo 82 de la Ley 1753 de 2015, el cual quedará así:

a) Formulación e implementación de rutas integrales de atención que articulen y armonicen la oferta pública y privada, incluyendo las relacionadas con prevención de la violencia juvenil y el consumo de sustancias psicoactivas y estupefacientes.

Parágrafo. El Gobierno nacional a través de los agentes del Sistema Nacional de Bienestar Familiar (SNBF), establecerá las condiciones institucionales, técnicas y financieras para la puesta en marcha de una oferta de atención especializada a niños, niñas y adolescentes con dependencia funcional permanente, y de aquellos que presenten consumo problemático de sustancias psicoactivas (SPA), en complementariedad y concurrencia con los gobiernos territoriales y en el marco de sus competencias.

Artículo 207. Acceso preferente a la oferta del sector de inclusión social y reconciliación.

Los niños, las niñas y los adolescentes en procesos de protección y las familias en programas de acompañamiento familiar del Instituto Colombiano de Bienestar Familiar (ICBF), tendrán acceso preferente a la oferta del Sector de Inclusión Social y Reconciliación, para la superación de las condiciones sociales y económicas que incidieron en la vulneración de sus derechos.

Parágrafo. El Departamento Administrativo para la Prosperidad Social, en articulación con el Instituto Colombiano de Bienestar Familiar (ICBF), adelantarán las acciones correspondientes para el desarrollo de los instrumentos técnicos y normativos necesarios para garantizar el acceso preferencial a esta población.

Artículo 208. Medidas de restablecimiento de derechos y de declaratoria de vulneración.

Modifíquese el inciso sexto del artículo 103 de la Ley 1098 de 2006, modificado por el artículo 6° de la Ley 1878 de 2018, y adiciónense los siguientes incisos, así:

El Proceso Administrativo de Restablecimiento de Derechos con el seguimiento tendrá una duración de dieciocho (18) meses, contados a partir del conocimiento de los hechos por parte de la autoridad administrativa hasta la declaratoria de adoptabilidad o el cierre del proceso por haberse evidenciado con los seguimientos, que la ubicación en medio familiar fue la medida idónea.

Con el fin de garantizar una atención con enfoque diferencial, en los casos en que se advierta que un proceso no puede ser definido de fondo en el término máximo establecido, por las situaciones fácticas y probatorias que reposan en el expediente, el ICBF reglamentará un mecanismo para analizar el proceso y darle el aval a la autoridad administrativa para la ampliación del término.

Cuando se trata de procesos administrativos de restablecimiento de derechos de niños, niñas, adolescentes y adultos con discapacidad en los cuales se hubiere superado la vulneración de derechos, transitoriamente se continuará con la prestación del servicio de la modalidad de protección cuando se requiera, hasta tanto la entidad correspondiente del Sistema Nacional de Bienestar Familiar garantice la prestación del servicio de acuerdo con sus competencias legales.

En los casos en que se otorgue el aval, la autoridad administrativa emitirá una resolución motivada decretando la ampliación del término y relacionando el acervo documental que soporta esta decisión.

Artículo 209. Estrategia sacúdete.

El Gobierno nacional, bajo la coordinación técnica de la Dirección del Sistema Nacional de Juventud “Colombia Joven”, reglamentará e implementará la Estrategia Sacúdete, cuyo objeto es desarrollar, fortalecer y potenciar los talentos, capacidades y habilidades de los jóvenes, a través de la transferencia de conocimientos y herramientas metodológicas, que faciliten la inserción en el mercado productivo y la consolidación de proyectos de vida legales y sostenibles.

Las entidades vinculadas a la implementación de la Estrategia Sacúdete son: Ministerio de Comercio, Industria y Turismo, Ministerio de Trabajo, Ministerio de Justicia y del Derecho, Ministerio de Cultura, Ministerio de Salud y Protección Social, Ministerio de Ambiente y Desarrollo Sostenible, Ministerio de Educación Nacional, Ministerio de Tecnologías de la Información y las Comunicaciones, Ministerio de Agricultura y Desarrollo Rural, Departamento para la Prosperidad Social, Ministerio de Ciencia, Tecnología e Innovación, Departamento Administrativo Nacional de Estadística, SENA, ICBF y Coldeportes.

Para el diseño e implementación de esta estrategia, se podrán destinar recursos de las entidades públicas del orden nacional y territorial, de organismos internacionales de desarrollo, de convenios de cooperación internacional y de convenios con organizaciones privadas.

Artículo 210. Focalización de la oferta social.

Para todos los efectos, los programas del Departamento Administrativo para la Prosperidad Social focalizarán a la población que se encuentre en situación de pobreza y pobreza extrema, utilizando el Sisbén.

El Gobierno nacional definirá los lineamientos para la focalización de la población víctima del desplazamiento forzado en los programas sociales a nivel nacional y territorial, utilizando como instrumento de focalización el Sisbén.

La población pobre y pobre extrema tendrá acceso a programas y proyectos ejecutados por las entidades del Estado.

Parágrafo. Para la caracterización e identificación de necesidades en materia socioeconómica de la población víctima de desplazamiento forzado las entidades territoriales utilizarán el Sisbén

Artículo 211. Mesa de equidad.

Créase la Mesa de Equidad como instancia de alto nivel, de carácter estratégico y decisorio, presidida y convocada por el Presidente de la República, con el objetivo de establecer directrices para los sectores y entidades del Gobierno nacional para la aprobación de diseños e implementación de acciones y la destinación de recursos de acuerdo con las prioridades territoriales y poblacionales para la reducción de la pobreza y la pobreza extrema, el seguimiento de las acciones del Gobierno y la rendición de cuentas para asegurar la atención prioritaria a la población en condición de pobreza y pobreza extrema y el cumplimiento de las metas trazadoras en materia de pobreza. La Secretaría Técnica estará a cargo del Departamento Nacional de Planeación y el Departamento Administrativo para la Prosperidad Social. El Gobierno nacional reglamentará el funcionamiento de la Mesa.

Artículo 212. Acompañamiento familiar y social en los programas de vivienda gratuita.

Modifíquese el artículo 15 de la Ley 1537 de 2012 que quedará así:

Artículo 15. Acompañamiento familiar y social en los programas de vivienda gratuita. El Departamento Administrativo para la Prosperidad Social brindará acompañamiento familiar a través de la Estrategia Unidos a los hogares en condición de pobreza que sean beneficiarios de los programas de vivienda gratuita.

El acompañamiento social en los proyectos de vivienda ejecutados en el marco de los programas de vivienda gratuita, en aspectos relacionados con temas de convivencia y el cuidado de las unidades privadas y las áreas comunes será coordinado por el Ministerio de Vivienda, Ciudad y Territorio.

A nivel territorial la estrategia de acompañamiento social deberá ser implementada y ejecutada por los municipios, distritos y distritos especiales, quienes, junto con entidades privadas involucradas en los proyectos, deberán reportar al Ministerio de Vivienda, Ciudad y Territorio la información para el seguimiento al impacto del acompañamiento social en la calidad de vida de la población beneficiaria del Programa de Vivienda Gratuita.

Artículo 213. Apoyo y fortalecimiento a la atención familiar.

Las entidades encargadas de la protección de las familias, en especial aquellas que desarrollan programas y estrategias para la inclusión social, ofrecerán servicios de promoción, prevención, acompañamiento, asistencia y asesoría a las familias en el marco de sus competencias y sujeto a su disponibilidad presupuestal, en línea con lo dispuesto por la Política Pública Nacional de Apoyo y Fortalecimiento a las Familias.

El ICBF a través de sus Centros Zonales prestará el servicio de asistencia y asesoría a las familias con dificultades en sus dinámicas relacionales, brindando atención y orientación para el acceso a su oferta de promoción y prevención.

Parágrafo. La entidad que lidere la implementación de la Política Pública Nacional de Apoyo y Fortalecimiento a las Familias, en articulación con las entidades territoriales y las demás entidades del Gobierno nacional según sus competencias, formulará las orientaciones técnicas para estos servicios.

Artículo 214. Cuentas maestras para servicios de atención del Instituto Colombiano de Bienestar Familiar (ICBF).

Las personas jurídicas o naturales que defina el Instituto Colombiano de Bienestar Familiar (ICBF), de acuerdo a criterios técnicos basados en el volumen de recursos que reciban en el marco de los contratos que suscriban para la ejecución de los objetivos misionales de la entidad, con recursos provenientes del Presupuesto General de la Nación, deberán realizar la apertura de Cuentas Maestras que solo aceptarán operaciones de débito por transferencia electrónica a terceros beneficiarios previamente inscritos de manera formal como receptores de dichos recursos.

Así mismo, las operaciones de crédito que se hagan a estas cuentas maestras deberán realizarse vía electrónica.

La reglamentación asociada con la apertura, registro, y demás operaciones autorizadas en las cuentas maestras, será establecida de conformidad con la metodología que para tal efecto determine el ICBF.

Artículo 215. Subsidio de solidaridad pensional.

Tendrán acceso al Subsidio de la subcuenta de subsistencia del Fondo de Solidaridad Pensional de que trata la Ley 797 de 2003, las personas que dejen de ser madres sustitutas a partir del 24 de noviembre de 2015, que hayan desarrollado la labor por un tiempo no menor de 10 años y que no reúnan los requisitos para acceder a una pensión.

La identificación de las posibles beneficiarias de este subsidio la realizará el Instituto Colombiano de Bienestar Familiar (ICBF), entidad que complementará en una porción que se defina el subsidio a otorgar por parte de la subcuenta de subsistencia del Fondo de Solidaridad Pensional.

Artículo 216. Prevención de la explotación sexual de niñas, niños y adolescentes (ESCNNA).

El Gobierno nacional teniendo como base la Ley 1336 de 2009, implementará un programa de prevención y atención integral para niños, niñas y adolescentes, víctimas de explotación sexual y comercial. El Gobierno nacional en coordinación con las entidades territoriales priorizadas desarrollará una estrategia de asistencia técnica para incluir en los planes de desarrollo de los territorios focalizados, el programa de atención y prevención integral de acuerdo con las dinámicas específicas del territorio.

Artículo 217. Estampilla para el bienestar del adulto mayor.

Modifíquese el artículo 1° de la Ley 687 de 2001, el cual quedará así:

Artículo 1°. Autorízase a las asambleas departamentales y a los concejos distritales y municipales para emitir una estampilla, la cual se llamará Estampilla para el Bienestar del Adulto Mayor, como recurso de obligatorio recaudo para concurrir con las entidades territoriales en la construcción, instalación, mantenimiento, adecuación, dotación y funcionamiento de Centros de Bienestar, Centros de Protección Social, Centros Vida y otras modalidades de atención y desarrollo de programas y servicios sociales dirigidos a las personas adultas mayores, en sus respectivas jurisdicciones. El producto de dichos recursos se destinará en un 70% para la financiación de los Centros Vida y el 30% restante, al financiamiento de los Centros de Bienestar o Centros de Protección Social del adulto mayor, sin perjuicio de los recursos adicionales que puedan gestionarse a través de otras fuentes como el Sistema General de Regalías, el Sistema General de Participaciones, el sector privado y la cooperación internacional, principalmente.

Parágrafo 1°. El recaudo de la estampilla será invertido por la gobernación, alcaldía o distrito en los Centros de Bienestar, Centros de Protección Social, Centro Vida y otras modalidades de atención dirigidas a las personas adultas mayores de su jurisdicción, en proporción directa al número de adultos mayores con puntaje Sisbén menor al corte establecido por el programa y en condición de vulnerabilidad.

Parágrafo 2°. De acuerdo con las necesidades de apoyo social de la población adulto mayor en la entidad territorial, los recursos referidos en el presente artículo podrán destinarse en las distintas modalidades de atención, programas y servicios sociales dirigidos a las personas adultas mayores, siempre que se garantice la atención en condiciones de calidad, frecuencia y número de personas atendidas en los Centros Vida, Centros de Bienestar o Centros de Protección Social, los cuales no deben ser inferiores a las de la vigencia inmediatamente anterior.

Parágrafo 3°. Los departamentos y distritos reportarán semestralmente, conforme lo determine el Ministerio de Salud y Protección Social o la entidad que haga sus veces, la información sobre la implementación de la Estampilla para el Bienestar del Adulto Mayor en su jurisdicción.

Artículo 218. Creación del fondo para el buen vivir y la equidad de los pueblos indígenas de Colombia.

Para apoyar el desarrollo con identidad de los pueblos indígenas de Colombia se crea el Fondo para el buen vivir y la equidad de los pueblos indígenas de Colombia.

La estructura y funcionamiento del Fondo se concertarán entre el Departamento Nacional de Planeación y la organización de la Minga Nacional. Su funcionamiento iniciará en tres (3) meses.

El Fondo contará con las siguientes líneas:

1. Acceso a los derechos territoriales de los Pueblos Indígenas.

2. Emprendimiento y desarrollo económico propio de los Pueblos Indígenas.

3. Fortalecimiento de la institucionalidad de los Pueblos Indígenas de Colombia.

4. Infraestructura y servicios públicos.

5. Empoderamiento de las mujeres, familia y generaciones de los pueblos indígenas.

Los recursos del Fondo estarán constituidos por:

1. Las partidas que se le asignen o incorporen en el presupuesto nacional y los demás recursos que aporte el Gobierno nacional.

2. Los aportes a cualquier título de las entidades territoriales.

3. Recursos provenientes de operaciones de financiamiento interno o externo, que se celebren a nombre del Fondo.

4. Donaciones tanto de origen nacional como internacional con el propósito de desarrollar su objeto.

5. Empréstitos.

6. Demás recursos que obtenga o se le asignen a cualquier título.

El monto inicial del Fondo, será consultado por parte del Director del Departamento Nacional de Planeación al Presidente de la República.

Artículo 219. Trazador presupuestal.

Las entidades estatales del orden nacional conforme a sus competencias identificarán mediante un marcador presupuestal especial, las asignaciones presupuestales para los pueblos indígenas, comunidades negras, afros, raizales, palenqueros y Rrom, con el fin de preparar anualmente un informe de los recursos y los resultados obtenidos en desarrollo de estos pueblos de la vigencia inmediatamente anterior y los recursos apropiados para la vigencia en curso.

Este informe deberá ser presentado a más tardar en el mes de abril de cada año, a las instancias de concertación y consulta de nivel nacional de cada uno de estos pueblos y comunidades.

Artículo 220.Trazador presupuestal para la paz.

Para cada vigencia fiscal, las entidades estatales del orden nacional conforme a sus competencias identificarán mediante un marcador presupuestal especial denominado -Construcción de Paz- las partidas presupuestales tanto de funcionamiento como de inversión, destinadas a cumplir la implementación del Acuerdo de Paz. Esta información deberá conformar el proyecto de Ley del Presupuesto General de la Nación que se presente al Congreso anualmente, durante el tiempo de ejecución del PMI, como un anexo denominado Anexo Gasto Construcción de Paz PGN.

En la elaboración del Plan Operativo Anual de Inversiones que prioriza el Departamento Nacional de Planeación, se identificarán los proyectos de inversión que dispondrán del nuevo trazador presupuestal a que hace referencia el inciso anterior.

El Departamento Nacional de Planeación por su parte deberá garantizar que los proyectos formulados para implementar las acciones con ocasión al Plan Marco de Implementación se encuentren alineados con la implementación de la Hoja de Ruta, sean identificados de igual manera con la denominación Construcción de Paz.

Las Entidades Estatales del orden nacional conforme a sus competencias deberán reportar periódicamente el avance de los indicadores estipulados en el Plan Marco de implementación en el Sistema de Información Integral para el Posconflicto (SIIPO), o el que para estos fines disponga el Gobierno nacional, información que deberá ser pública. La Consejería Presidencial para la Estabilización y Consolidación en articulación con el Departamento Nacional de Planeación estarán a cargo del Sistema.

Artículo 221. Trazador presupuestal para la equidad de la mujer.

El Ministerio de Hacienda y Crédito Público y el Departamento Nacional de Planeación definirá un marcador de la equidad para las mujeres, con el fin de que las entidades que conforman el Presupuesto General de la Nación identifiquen las asignaciones presupuestales para la referida finalidad, preparen y presenten anualmente un informe de los recursos y los resultados obtenidos en la vigencia inmediatamente anterior, así como de los recursos apropiados para la vigencia en curso.

El informe mencionado en el inciso anterior deberá presentarse a más tardar en el mes de abril ante el Congreso de la República. En la elaboración del Plan Operativo Anual de Inversiones que prioriza el Departamento Nacional de Planeación, se identificarán los proyectos de inversión que dispondrán del trazador presupuestal a que hace referencia el inciso anterior.

Artículo 222. Sistema nacional de las mujeres.

Créase el Sistema Nacional de las Mujeres como un conjunto de políticas, instrumentos, componentes y procesos con el fin de incluir en la agenda de las diferentes ramas del poder público los temas prioritarios en materia de avance y garantía de los derechos humanos de las mujeres, con especial énfasis en el impulso de la transversalidad del enfoque de género y étnico para las mujeres en las entidades del orden nacional y en la definición de políticas públicas sobre equidad de género para las mujeres.

El Sistema estará integrado por representantes del Gobierno nacional, la Comisión Legal para la Equidad de la Mujer del Congreso de la República, la Comisión de Género de la Rama Judicial, la Procuraduría General de la Nación y la Defensoría del Pueblo. Podrán asistir como invitados representantes de organismos internacionales, de las secretarías de la mujer del nivel territorial, representantes de la academia y representantes de organizaciones de la sociedad civil que cuenten con conocimiento y experticia sobre los derechos de las mujeres. El sistema también estará integrado por el Observatorio de Asuntos de Género (OAG), a cargo de la Consejería Presidencial para la Equidad de la Mujer, con el fin de que este último suministre a sus integrantes la información cuantitativa y cualitativa relevante para el análisis y discusión en torno a la garantía de derechos de las mujeres.

El Sistema Nacional de las Mujeres dará insumos para la formulación de la Política de Equidad de Género para las Mujeres y realizará seguimiento a la implementación del Plan de acción de dicha política. En la construcción de esta política se hará énfasis en las mujeres rurales teniendo en cuenta un enfoque interseccional.

Así mismo, el Sistema realizará seguimiento a la política pública de cuidado que se construirá bajo la coordinación de la Comisión Intersectorial del Sistema de Cuidado, teniendo en cuenta los enfoques de género e interseccional para el reconocimiento, reducción y redistribución del trabajo doméstico y de cuidado remunerado y no remunerado.

Parágrafo Transitorio. El Departamento Administrativo de la Presidencia de la República, dentro de los tres (3) meses siguientes a la entrada en vigencia de la presente ley, reglamentará el funcionamiento del Sistema.

Artículo 223.Restitución del subsidio y del inmueble objeto del subsidio de arrendamiento.

El presunto incumplimiento de las obligaciones de los beneficiarios del subsidio familiar de vivienda para arrendamiento dará inicio por parte la entidad otorgante, para la revocatoria de la asignación del subsidio y la restitución del inmueble. Para el efecto se aplicará el siguiente procedimiento:

(i) Se citará a audiencia por parte de la entidad otorgante en la que detallarán los hechos, acompañados de las pruebas que sustenten la actuación, enunciando las obligaciones presuntamente incumplidas, así como las consecuencias que podrían derivarse. En la misma citación se establecerá el lugar, fecha y hora para la realización de la audiencia;

(ii) En desarrollo de la audiencia se presentarán los hechos, obligaciones presuntamente incumplidas y los elementos probatorios que dan cuenta del presunto incumplimiento conforme a la citación efectuada. Acto seguido, se concederá el uso de la palabra al beneficiario del subsidio o su representante para que presenten sus descargos, en desarrollo de lo cual, podrá rendir las explicaciones del caso, aportar pruebas y controvertir las presentadas por la entidad.

Agotada la etapa anterior, en la misma audiencia, la entidad procederá a decidir sobre el cumplimiento de las obligaciones del beneficiario del subsidio, la revocatoria del mismo y la restitución del inmueble, mediante resolución motivada, en la que se consigne lo ocurrido en desarrollo de la audiencia y la cual se entenderá notificada en dicho acto público. Contra la decisión así proferida solo procede el recurso de reposición que se interpondrá, sustentará y decidirá en la misma audiencia. La decisión sobre el recurso se entenderá notificada en la misma audiencia.

En cualquier momento del desarrollo de la audiencia, la entidad otorgante podrá suspenderla, de oficio o a petición de parte. En todo caso, al adoptar la decisión de suspensión se señalará fecha y hora para reanudar la audiencia.

A más tardar dentro de los cinco (5) días hábiles siguientes a la ejecutoria del acto administrativo, mediante el cual se revoca el Subsidio Familiar de Vivienda y se ordena la restitución de la tenencia del inmueble arrendado a su propietario, expedido por la entidad otorgante, el hogar beneficiario deberá suscribir el acta de restitución de la vivienda, a través de la cual se deja la constancia de su entrega material, so pena de que se inicien las acciones policivas y/o judiciales a que haya lugar.

La vivienda deberá ser restituida en las mismas condiciones en las que fue entregada, salvo por el deterioro normal por el transcurso del tiempo y el uso legítimo de la misma. A solicitud del hogar, este podrá contar con acompañamiento por parte del Ministerio Público durante el proceso administrativo descrito.

Para efectos del subsidio de vivienda para arrendamiento, no aplica lo establecido en el artículo 16 de la Ley 820 de 2003.

Parágrafo. El procedimiento previsto en este artículo aplicará también para la restitución formal del título de dominio del bien inmueble objeto del subsidio familiar de vivienda 100% en especie.

Artículo 224. Protección contra la pérdida del valor adquisitivo de la moneda.

Modifíquese el artículo 11 de la Ley 432 de 1998, el cual quedará así:

Artículo 11. Protección contra la pérdida del valor adquisitivo de la moneda. El Fondo Nacional de Ahorro reconocerá y abonará en la cuenta individual de cesantías de cada afiliado, como mínimo un interés equivalente a la variación anual de la Unidad de Valor Real (UVR), certificada por el Banco de la República, sobre su saldo acumulado de cesantías a 31 de diciembre del año inmediatamente anterior, y proporcional por la fracción de año que corresponda al momento de retiro, sobre el monto parcial o definitivo de la cesantía pagada.

Para el efecto, los saldos de Cesantías que administre el Fondo Nacional del Ahorro (FNA) se denominarán en UVR y se reexpresarán en pesos de acuerdo con el valor de la UVR, certificado por el Banco de la República, con base en la fecha de consignación de cada una de las fracciones.

Artículo 225. Intereses sobre cesantías.

Modifíquese el artículo 12 de la Ley 432 de 1998, el cual quedará así:

Artículo 12. Intereses sobre cesantías. El Fondo Nacional del Ahorro reconocerá y abonará en la cuenta de cesantías de cada servidor público afiliado, un interés equivalente a la variación anual de la Unidad de Valor Real (UVR), certificada por el Banco de la República, sobre las cesantías liquidadas por la entidad nominadora correspondientes al año inmediatamente anterior o proporcional por la fracción de año que se liquide definitivamente. No obstante, el cálculo del interés tendrá en cuenta las fechas en las que fue consignada cada fracción.

Para el efecto, los saldos que administre el Fondo Nacional del Ahorro por este concepto se denominarán en UVR y se reexpresarán en pesos de acuerdo con el valor de la UVR, certificado por el Banco de la República, con base en la fecha de consignación de cada una de las fracciones.

Parágrafo. El reconocimiento de intereses de que trata el presente artículo no aplicará a los servidores de las entidades públicas empleadoras del orden departamental y municipal, a quienes aplica el régimen establecido en el artículo 99 de la Ley 50 de 1990, en lo relacionado con las fechas de transferencia de cesantías, intereses y demás normas que la reglamenten, modifiquen o sustituyan.

Artículo 226. Fondo de estabilización de precios del café.

Créase el Fondo de Estabilización de Precios del Café como una cuenta especial sin personería jurídica que tendrá por objeto adoptar una variedad de mecanismos técnicamente idóneos para estabilizar el ingreso de los productores de café colombiano y protegerlo de precios extremadamente bajos.

El Congreso de la República definirá su estructura, administración, finalidades, funciones, recursos para su capitalización y funcionamiento, mecanismos y criterios para su reglamentación por parte del Gobierno nacional.

Artículo 227. Subsidio de energía para distritos de riego.

La Nación asignará un monto de recursos destinados a cubrir el valor correspondiente a un porcentaje del cincuenta por ciento (50%) del costo de la energía eléctrica y gas natural que consuman los distritos de riego que utilicen equipos electromecánicos para su operación debidamente comprobado por las empresas prestadoras del servicio respectivo, de los usuarios de los distritos de riego y de los distritos de riego administrados por el Estado o por las Asociaciones de Usuarios debidamente reconocidos por el Ministerio de Agricultura y Desarrollo Rural.

Parágrafo 1°. Para el caso de los usuarios de riego cuya facturación sea individual, este beneficio se otorgará solo para aquellos que no posean más de cincuenta (50) hectáreas.

Parágrafo 2°. Para efectos de la clasificación de los usuarios del servicio de energía eléctrica y gas natural, según la Ley 142 de 1994, la utilización de estos servicios para el riego dirigido a la producción agropecuaria se clasificará dentro de la clase especial, la cual no pagará contribución. Además, con el objeto de comercializar la energía eléctrica y el gas natural, los usuarios de los distritos de riego, se clasificarán como usuarios no regulados.

Parágrafo 3°. El subsidio aquí descrito tendrá vigencia a partir del 1° de enero del año 2019.

Artículo 228. Tarifa diferencial a pequeños productores rurales.

La Nación asignará un monto de recursos destinados a cubrir el valor correspondiente a un porcentaje del cincuenta por ciento (50%) del costo de la energía eléctrica y de gas que consuman las asociaciones de pequeños productores del campo, que utilicen equipos electromecánicos o de refrigeración, para su operación debidamente comprobado por las empresas prestadoras del servicio respectivo. Las asociaciones de pequeños productores deberán realizar la inscripción ante las secretarías departamentales de agricultura o quien haga sus veces y esta información será verificada por el Ministerio de Agricultura y Desarrollo Rural.

Parágrafo 1°. Se entenderá por asociaciones de pequeños productores del campo, quienes posean activos totales no superiores a los doscientos ochenta y cuatro (284) SMMLV, en el momento de la solicitud del subsidio, el valor de la tierra no será computable dentro de los activos totales. El Gobierno nacional reglamentará la materia.

Parágrafo 2°. Quienes hayan accedido al subsidio de energía y gas, no podrán ser beneficiarios del subsidio consagrado en el presente artículo. A menos de que renuncien al anterior subsidio.

Parágrafo 3°. El Gobierno nacional reglamentará la materia en un término no mayor de seis (6) meses a partir de la vigencia de la presente Ley.

Artículo 229. Calificación diferenciada en compras públicas de alimentos.

Las entidades públicas descentralizadas del orden nacional y las entidades territoriales cada vez que requieran productos de origen agropecuario para atender la demanda de los programas institucionales de servicios de alimentación deberán establecer en sus pliegos de condiciones puntajes adicionales y estrategias de ponderación que mejoren las calificaciones de los proponentes cuando presenten contratos de proveeduría suscritos con productores nacionales. El Gobierno nacional en un plazo máximo de no más de tres (3) meses establecerá el esquema de puntajes adicionales, previo análisis de la Agencia de Contratación Colombia Compra Eficiente.

Sin perjuicio de lo anterior, las entidades públicas contratantes deberán adquirir hasta el cuarenta por ciento (40%) de alimentos procesados o sin procesar, en donde los insumos y los productos hayan sido adquiridos de productores agropecuarios locales.

Adicionalmente, podrá establecerse un diez por ciento (10%) de puntaje adicional, a los proveedores que realicen el suministro que se pretenda contratar vinculando pequeños productores.

Parágrafo 1°. Para garantizar el derecho a la igualdad de los pequeños productores, los contratos de proveeduría que se presenten respecto de ellos podrán ser individuales u organizados bajo cualquier esquema asociativo registrado ante las Secretarías de Agricultura de sus respectivas entidades territoriales.

Parágrafo 2°. El Ministerio de Agricultura y Desarrollo Rural en coordinación con Colombia Compra Eficiente desarrollará al menos una guía que será publicada en los sitios web de ambas entidades, en el marco de las estrategias de política definidas por la Cartera del Sector Agricultura y Desarrollo Rural, que incluirán aproximaciones teóricas, estadísticas o funcionales del concepto de “pequeño productor” y de lo que se puede considerar “esquema asociativo de pequeños productores”.

Artículo 230. Bienes que se encuentran exentos del impuesto.

Adiciónese al artículo 477 del Estatuto Tributario el siguiente bien que tendrá la naturaleza de exento para efectos del impuesto sobre las ventas:

10.06 Arroz para consumo humano (excepto el arroz con cáscara o “Arroz Paddy” de la partida 10.06.10.90.00 y el arroz para la siembra de la partida 10.06.10.10.00, los cuales conservan la calidad de bienes excluidos del IVA)”.

SUBSECCIÓN 4. EQUIDAD EN LA SALUD

Artículo 231. Competencias en salud por parte de la Nación.

Adiciónese el numeral 42.24 al artículo 42 de la Ley 715 de 2001, así:

42.24. Financiar, verificar, controlar y pagar servicios y tecnologías en salud no financiadas con cargo a la Unidad de Pago por Capitación (UPC) en el Sistema General de Seguridad Social en Salud. La verificación, control y pago de las cuentas que soportan los servicios y tecnologías de salud no financiados con recursos de la UPC de los afiliados al Régimen Subsidiado prestados a partir del 1° de enero de 2020 y siguientes, estará a cargo de la Administradora de los Recursos del Sistema de Seguridad Social en Salud (ADRES), de conformidad con los lineamientos que para el efecto expida el Ministerio de Salud y Protección Social.

 Artículo 232. Competencias de los departamentos en la prestación de Servicios de Salud..

Adiciónense los siguientes numerales al artículo 43 de la Ley 715 de 2001, así:

43.2.9. Garantizar la contratación y el seguimiento del subsidio a la oferta, entendido como la cofinanciación de la operación de la prestación de servicios y tecnologías efectuada en zonas alejadas o de difícil acceso, a través de instituciones públicas o infraestructura pública administrada por terceros ubicadas en esas zonas, que sean monopolio en servicios trazadores y no sostenibles por venta de servicios, de conformidad con los criterios establecidos por el Gobierno nacional. Los subsidios a la oferta se financiarán con recursos del Sistema General de Participaciones y con los recursos propios de la entidad territorial.

43.2.10. Realizar la verificación, control y pago de los servicios y tecnologías no financiados con cargo a la UPC de los afiliados al régimen subsidiado de su jurisdicción, prestados hasta el 31 de diciembre de 2019.

43.2.11. Ejecutar los recursos que asigne el Gobierno nacional para la atención de la población migrante y destinar recursos propios, si lo considera pertinente.

Artículo 233. Destinación y distribución de los recursos del Sistema General de Participaciones para la Salud

Modifíquese el artículo 47 de la Ley 715 de 2001, el cual quedará así:

Artículo 47. Distribución de los recursos del sistema general de participaciones. Los recursos del Sistema General en Participaciones en Salud se destinarán y distribuirán en los siguientes componentes:

1. El 87% para el componente de aseguramiento en salud de los afiliados al Régimen Subsidiado.

2. El 10% para el componente de salud pública y el 3% para el subsidio a la oferta.

Parágrafo 1°. La información utilizada para determinar la asignación de los recursos será suministrada por el Departamento Administrativo Nacional de Estadística (DANE); el Ministerio de Salud y Protección Social; el Departamento Nacional de Planeación (DNP); el Instituto Geográfico Agustín Codazzi (IGAC), conforme a la que generen en ejercicio de sus competencias y acorde con la reglamentación que se expida para el efecto.

Parágrafo 2°. Los recursos destinados a salud pública que no se comprometan al cierre de cada vigencia fiscal, se utilizarán para cofinanciar los programas de interés en salud pública de que trata el numeral 13 del artículo 42 de la Ley 715 de 2001, o las normas que las sustituyan, modifiquen o adicionen.

 Artículo 234. Distribución de los recursos de aseguramiento en salud.

Modifíquese el artículo 48 de la Ley 715 de 2001, el cual quedará así:

Artículo 48.Distribución de los recursos de aseguramiento en salud. Los recursos del Sistema General de Participaciones destinados al componente de aseguramiento en salud del régimen subsidiado serán asignados a distritos, municipios y áreas no municipalizadas así:

Los recursos de este componente se dividirán por el total de la población pobre afiliada al régimen subsidiado en el país en la vigencia anterior, con el fin de estimar un per cápita nacional. El valor per cápita resultante se multiplicará por la población pobre afiliada al régimen subsidiado en cada ente territorial. La población afiliada para los efectos del presente cálculo será la del año anterior a aquel para el cual se realiza la distribución. El resultado será la cuantía que corresponderá a cada distrito, municipio o áreas no municipalizadas de los departamentos.

La población pobre afiliada al régimen subsidiado de las áreas no municipalizadas de los departamentos de Amazonas, Guainía y Vaupés hará parte del cálculo de los recursos del departamento estos serán asignados sin situación de fondos.

Artículo 235. Distribución de los recursos del componente de Salud Pública y subsidios a la oferta

Modifíquese el artículo 52 de la Ley 715 de 2001, el cual quedará así:

Artículo 52. Distribución de los recursos del componente de salud pública y de subsidio de oferta. Este componente comprende dos subcomponentes: el de acciones de salud pública y el de subsidio a la oferta. Los recursos correspondientes a estos subcomponentes se distribuirán así:

52.1 El subcomponente de Acciones de Salud Pública, se distribuirá a cada entidad territorial de acuerdo al resultado de la sumatoria de los siguientes criterios: población, porcentaje de pobreza de cada entidad territorial, ruralidad, densidad poblacional y eficiencia administrativa. Se entenderá como eficiencia administrativa el mayor o menor cumplimiento en metas prioritarias de salud pública, medidas por indicadores trazadores.

Los departamentos recibirán el 45% de los recursos destinados a este subcomponente para financiar las acciones de salud pública de su competencia, la operación y mantenimiento de los laboratorios de salud pública y el 100% de los asignados a las áreas no municipalizadas. Los municipios y distritos recibirán el 55% de los recursos asignados a este componente, con excepción del Distrito Capital que recibirá el 100%.

El Ministerio de Salud y Protección Social deberá diseñar e implementar los sistemas de monitoreo que den cuenta del uso eficiente de los recursos y los resultados en salud, acorde con las acciones de salud pública priorizadas. Para lo cual los departamentos, distritos y municipios deberán reportar la información que corresponda.

Los departamentos, distritos y municipios podrán establecer convenios de asociación para la ejecución de los recursos, en función de los planes territoriales de salud pública de intervenciones colectivas, en especial los objetivos y metas priorizadas en el respectivo territorio.

52.2 El subcomponente de Subsidio a la Oferta se define como una asignación de recursos para concurrir en la financiación de la operación de la prestación de servicios y tecnologías efectuadas por instituciones públicas o infraestructura pública administrada por terceros, ubicadas en zonas alejadas o de difícil acceso que sean monopolio en servicios trazadores y no sostenibles por venta de servicios.

Los recursos para financiar este subcomponente se distribuirán entre los municipios y distritos certificados y los departamentos con instituciones de prestación de servicios de que trata el inciso anterior, de conformidad con los siguientes criterios: población total, porcentaje de pobreza de cada entidad territorial, ruralidad y densidad poblacional.

Artículo 236. Pago de servicios y tecnologías de usuarios no afiliados.

Con el propósito de lograr la cobertura universal del aseguramiento, cuando una persona requiera la prestación de servicios de salud y no esté afiliada al Sistema General de Seguridad Social en Salud, la entidad territorial competente, en coordinación con las Entidades Promotoras de Salud (EPS) y con las Instituciones Prestadoras de Servicios de Salud (IPS) públicas o privadas afiliarán a estas personas al régimen de salud que corresponda, teniendo en cuenta su capacidad de pago; lo anterior de conformidad con los lineamientos que para el efecto se expidan.

Los gastos en salud que se deriven de la atención a población pobre que no haya surtido el proceso de afiliación definido en el presente artículo, serán asumidos por las entidades territoriales.

Artículo 237. Sostenibilidad financiera del Sistema General de Seguridad Social en Salud

Con el fin de contribuir a la sostenibilidad financiera del Sistema General de Seguridad Social en Salud (SGSSS), el Gobierno nacional definirá los criterios y los plazos para la estructuración, operación y seguimiento del saneamiento definitivo de las cuentas de recobro relacionadas con los servicios y tecnologías de salud no financiados con cargo a la UPC del régimen contributivo. Los servicios y tecnologías en salud objeto de este saneamiento deben cumplir los siguientes requisitos:

a) Que hayan sido prestados con anterioridad a la entrada en vigor de la presente Ley.

b) Que en los eventos en que se hubieren prestado con posterioridad a la entrada en vigencia de la Ley 1753 de 2015, la solicitud de pago se haya presentado dentro de los términos a que hace referencia el artículo 73 de la Ley 1753 de 2015.

c) Que la obligación derivada de la prestación del servicio o tecnología no se encuentre afectada por caducidad y/o prescripción.

d) Que hayan sido prescritos a quien le asistía el derecho, por un profesional de la salud o mediante un fallo de tutela, facturadas por el prestador o proveedor y suministradas al usuario. Para demostrar el cumplimiento de este requisito se podrán utilizar los medios de prueba establecidos en el Código General del Proceso que sean conducentes y pertinentes para acreditar la efectiva prestación del servicio, de acuerdo a la reglamentación que emita el Ministerio de Salud y Protección Social.

e) Que no se trate de insumos que no observen el principio de integralidad.

f) Que no se trate de recobros involucrados en investigación por la Contraloría General de la República, la Fiscalía General de la Nación y/o la Superintendencia Nacional de Salud.

g) Que no correspondan a uno de los criterios definidos en el artículo 15 de la Ley 1751 de 2015.

Las cuentas de recobro que cumplan los requisitos enlistados podrán ser objeto de reconocimiento y pago por parte de la Administradora de los Recursos de Sistema de Seguridad Social en Salud (ADRES), una vez se cumplan las siguientes condiciones:

1. Como requisito indispensable la entidad recobrante y la ADRES suscriban un contrato de transacción en el que la primera se obligue como mínimo a:

1.1 Aceptar los resultados producto del proceso de auditoría;

1.2 Renunciar a instaurar o desistir de cualquier acción judicial o administrativa relacionada con la solicitud de pago elevada;

1.3 Renunciar expresamente al cobro de cualquier tipo de interés y otros gastos, independientemente de su denominación sobre las cuentas presentadas, al momento de radicarlas por este mecanismo;

1.4 No celebrar negocio jurídico alguno asociado a los valores que se reconozcan;

1.5 Revelar y depurar en sus estados financieros los resultados del proceso de verificación y control.

2. La entidad interesada deberá someter las cuentas objeto de la solicitud a un proceso de auditoría. En ningún caso las actuaciones que se cumplan para efectos de lo ordenado en el presente artículo interrumpen, suspenden, o reviven los términos de prescripción. Las condiciones, metodología detallada y tablas de referencia en que se realizará dicha auditoría deberán ser informadas a las entidades interesadas de forma previa a la firma del contrato de transacción. Los costos de esta auditoría deberán ser sufragados por la entidad recobrante. El Ministerio de Salud y Protección Social fijará los términos y condiciones para el cumplimiento de esta obligación.

3. El monto a pagar por servicios y tecnologías de salud no financiadas con cargo a la UPC que resulten aprobados en el proceso de auditoría, serán reconocidos conforme a la metodología de valores que para el efecto defina el Ministerio de Salud y Protección Social.

4. La ADRES compensará los valores que resulten a favor de las EPS o IPS con las obligaciones que la entidad le adeude como producto del proceso de reintegro de recursos.

5. La ADRES aprobará los valores a pagar a la entidad recobrante.

Para financiar los valores aprobados por este mecanismo y las deudas reconocidas en el proceso liquidatario de Caprecom y los contratos de salud del Fomag liquidados en la vigencia 2019, serán reconocidos como deuda pública y podrán ser pagadas con cargo al servicio de deuda pública del Presupuesto General de la Nación o mediante operaciones de crédito público. De atenderse con operaciones de crédito público, la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público administrará, en una cuenta independiente, el cupo de emisión de deuda que se destine a la atención de las obligaciones de pago originadas en este artículo. Las operaciones de crédito público no implican operación presupuestal y solo deberá presupuestarse para efectos de su redención y pago de intereses. Para los efectos previstos en este inciso la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública.

Parágrafo 1°. La ADRES podrá adelantar directamente o contratar con un tercero la auditoría del presente artículo, contrato en el cual se entenderán incluidas las cláusulas excepcionales establecidas en la Ley 80 de 1993.

Parágrafo 2°. El resultado del saneamiento de que trata el presente artículo deberá reflejarse en los estados financieros de las entidades involucradas, dando cumplimiento a las normas de contabilidad, de información financiera y demás instrucciones vigentes sobre la materia, de tal forma que los estados financieros reflejen la realidad económica de estas entidades. La Superintendencia Nacional de Salud implementará un sistema de seguimiento que permita que el saneamiento se vea reflejado en los estados financieros de las Entidades Promotoras de Salud (EPS) y de las Instituciones Prestadoras de Servicios (IPS). Los responsables de las Instituciones Prestadoras de Servicios de Salud públicas que en el marco de este mecanismo apliquen lo dispuesto en el presente Parágrafo, no incurrirán en falta disciplinaria, fiscal o penal.

El incumplimiento de esta obligación dará lugar a las sanciones contenidas en la Ley 1949 de 2019. Los representantes legales, administradores, contadores y revisores fiscales que ordenen, toleren, hagan o encubran falsedades en los balances, incurrirán en las sanciones previstas en la Ley 599 de 2000, así como fraudes y los demás relacionados que se configuren de acuerdo a su ocurrencia.

Parágrafo 3°. Para el pago de los servicios y tecnologías no financiados con recursos de la UPC indicados en el literal c del artículo 73 de la Ley 1753 de 2015, podrán ser reconocidos con cargo a los instrumentos de deuda pública definidos en el presente artículo.

Parágrafo 4°. Los beneficiarios de este mecanismo cederán su titularidad, cuando tengan deudas asociadas a la prestación de servicios y tecnologías no financiados con la UPC del régimen contributivo, a los agentes del Sistema General de Seguridad Social en Salud (SGSSS) que hayan prestado o suministrado dichos servicios, tales como las Instituciones Prestadoras de Servicios de Salud, quienes a su vez priorizarán las deudas laborales, en caso de tenerlas. Como requisito para la cesión de su titularidad las EPS deberán acreditar haber surtido la conciliación de las cuentas a pagar.

Parágrafo 5°. Las decisiones judiciales que ordenen el pago de recobros distintos se indexarán utilizando el Índice de Precios al Consumidor (IPC), sin lugar a intereses de mora.

Parágrafo 6°. Para el trámite de presentación, registro, aprobación o reconocimiento de valores recobrados mediante factura o cualquier documento que soporte el cobro por este mecanismo, se tendrá en cuenta lo dispuesto en la Ley 599 de 2000 en términos de configuración de conductas relacionadas con la comisión de falsedades, inconsistencias, adulteraciones o cualquier situación fraudulenta o irregular constitutiva de una sanción penal, y serán puestas en conocimiento de la autoridad competente por parte de la persona que lo conozca.

Parágrafo 7. Cuando la entidad recobrante no tenga deudas por concepto de servicios y tecnologías no financiados con cargo a la Unidad de Pago por Capitación -UPC-, podrá solicitar a la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES, que los recursos aprobados en el marco de este artículo, se giren directamente a los prestadores de servicios, proveedores u otros acreedores con los que tengan cuentas pendientes derivadas de servicios de salud.

Parágrafo 8. Los recursos aprobados en el marco del saneamiento de que trata este artículo, podrán ser descontados por la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES para el pago de los valores adeudados por las entidades recobrantes por concepto de los mecanismos definidos en el artículo 9 de la Ley 1608 de 2013, así como el monto pendiente por reintegrar cuando el valor aprobado en la auditoría haya sido menor al giro previo realizado.

Parágrafo 9. Durante el término de la emergencia sanitaria declarada por el Ministerio de Salud y Protección Social, las entidades recobrantes y la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-podrán suscribir acuerdos de pago parcial para el reconocimiento anticipado del 25% del valor de las solicitudes de recobro que cumplan los requisitos establecidos en el numeral 1 del presente artículo.

El valor de los acuerdos de pago será girado, directamente a los prestadores y proveedores de servicios y tecnologías de salud, reportados previamente por las entidades recobrantes. Los proveedores y prestadores de servicios y tecnologías de salud, con esos recursos, priorizarán el pago de salarios, prestaciones económicas y demás obligaciones contractuales con el personal médico, asistencial y de apoyo.

Los acuerdos de pago deberán contener como mínimo (i) el valor del anticipo aprobado; (ii) la obligación de las entidades recobrantes de completar a satisfacción de la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-los procesos de auditoría descritos en el numeral 2 del presente artículo; y (iii) la obligación de las entidades recobrantes de celebrar el contrato de transacción previsto en el numeral 1 de este artículo. El incumplimiento de las anteriores condiciones, obliga a las entidades recobrantes a reintegrar a la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-los recursos girados por concepto de acuerdo de pago dentro de los cinco (5) días siguientes al requerimiento hecho por dicha entidad. Estos acuerdos se registrarán como un pasivo en la contabilidad de la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-.

Si luego de realizada la auditoría correspondiente el monto del anticipo supera el valor aprobado, la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -Adres realizará el descuento que corresponda, de aquellos valores que la Adres deba pagar a la entidad recobrante por cualquier concepto.

Artículo 238. Saneamiento financiero del sector salud en las entidades territoriales

Para efectos de lograr el saneamiento definitivo de las cuentas de servicios y tecnologías en salud no financiadas por la UPC del régimen subsidiado prestados hasta el 31 de diciembre de 2019, deberán cumplirse las siguientes reglas:

1. Para determinar las deudas por servicios y tecnologías en salud no financiadas con cargo a la UPC de los afiliados al régimen subsidiado, la entidad territorial deberá adelantar el proceso de auditoría que le permita determinar si es procedente el pago.

En este proceso la entidad territorial verificará que los servicios y tecnologías en salud no financiados con cargo a la UPC hayan sido prescritas por parte de un profesional de la salud u ordenados mediante un fallo de tutela facturadas por el prestador o proveedor y suministradas al usuario, para lo cual deberán acogerse a la reglamentación que expida el Ministerio de Salud y Protección Social en virtud del literal d) del artículo anterior.

Las entidades territoriales deberán adoptar lo dispuesto por la Nación para el proceso de auditoría y posterior pago de los servicios y tecnologías en salud no financiadas con cargo a la UPC del régimen contributivo.

2. No serán objeto de saneamiento las obligaciones caducadas o prescritas, aquellas que correspondan a insumos recobrados sin observancia del principio de integralidad, los cobros o recobros que se encuentren involucrados en investigación por la Contraloría General de la República, la Fiscalía General de la Nación y/o la Superintendencia Nacional de Salud o sus referentes territoriales, ni los servicios y tecnologías en salud en los que se advierta alguno de los criterios definidos en el artículo 15 de la Ley 1751 de 2015.

3. Las entidades territoriales podrán disponer de las siguientes fuentes de financiación: rentas cedidas, excedentes de las rentas cedidas, saldos de las cuentas maestras del régimen subsidiado en salud, excedentes del Sistema General de Participaciones de Salud Pública, excedentes y saldos no comprometidos con destino a la prestación de servicios en lo no cubierto con subsidios a la demanda del Sistema General de Participaciones, los recursos de transferencias realizadas por el Ministerio de Salud y Protección Social con cargo a los recursos del Fondo de Solidaridad y Garantías (Fosyga) de vigencias anteriores y los excedentes del Fondo Nacional de Pensiones de las Entidades Territoriales (Fonpet) del sector salud financiados con Lotto en línea, sin perjuicio de los usos ya definidos en la ley y del Sistema General de Regalías cuando lo estimen pertinente.

4. La entidad territorial creará un fondo al cual deberá transferir los recursos mencionados en el anterior numeral para financiar las obligaciones de que trata el presente artículo.

5. La entidad territorial deberá ajustar su Marco Fiscal de Mediano Plazo en el curso de la vigencia 2019, en lo referente a la propuesta de ingresos y gastos requerido para dar cumplimiento al saneamiento de las deudas por servicios y tecnologías en salud no financiadas con cargo a la UPC del régimen subsidiado.

6. Cuando se trate de servicios y tecnologías en salud prestados con anterioridad a la entrada en vigencia de la Resolución 1479 de 2015 del Ministerio de Salud y Protección Social, los recobros por dichos servicios y tecnologías deberán ser radicadas por la Entidad Promotora de Salud ante la entidad territorial, siempre y cuando no hayan prescrito ni caducado, para lo cual tendrán un plazo máximo de nueve (9) meses a partir de la entrada en vigencia de la presente Ley.

7. Cuando se trate de servicios prestados con posterioridad a la entrada en vigencia de la Resolución 1479 de 2015 del Ministerio de Salud y Protección Social, los cobros por servicios y tecnologías no financiados con cargo a la UPC deberán reconocerse a través de los modelos establecidos en el capítulo I y II de la mencionada resolución. Para ello, las Entidades Promotoras de Salud tendrán que trasladar todas las facturas a la entidad territorial, antes del 31 de diciembre de 2019, so pena de entenderse subrogadas en la posición de la entidad territorial.

8. Los servicios y tecnologías no financiados con cargo a la UPC prestados con posterioridad a la entrada en vigencia de la presente Ley y hasta el 31 de diciembre de 2019, deberán ser cobrados o recobrados a las entidades territoriales dentro de los seis (6) meses siguientes a su prestación. De lo contrario, no podrán ser objeto del saneamiento dispuesto en este artículo.

Cumplidas las reglas señaladas en los numerales anteriores, la entidad territorial procederá a suscribir los acuerdos de pago con las EPS e IPS de acuerdo con la disponibilidad de recursos del fondo constituido según lo dispuesto en los numerales 3 y 4 de este artículo.

La Nación podrá cofinanciar el pago de las deudas de los servicios y tecnologías en salud no financiadas con cargo a la UPC del régimen subsidiado que agoten el procedimiento descrito en este artículo, siempre y cuando se cumplan las siguientes condiciones:

a) Que se hayan agotado las fuentes de financiación con las que cuenta la entidad territorial para el pago de estas obligaciones. Para el efecto el Ministerio de Hacienda y Crédito Público, con el apoyo del Ministerio de Salud y Protección Social y del Departamento Nacional de Planeación, evaluará el esfuerzo fiscal de las entidades territoriales para el pago de estos pasivos y definirá el monto a financiar premiando a aquellas que hayan realizado mayores esfuerzos.

b) Que la entidad territorial suscriba un contrato de transacción con la entidad acreedora que incluya como mínimo:

i) La renuncia expresa de la entidad que esté realizando el cobro o recobro a instaurar o desistir de cualquier acción judicial o administrativa relacionada con la solicitud de pago elevada.

ii) La obligación de la entidad territorial y la entidad que está realizando el recobro de revelar y depurar en sus estados financieros los resultados del proceso de verificación y control.

iii) La renuncia expresa de la entidad que esté realizando el cobro o recobro a cualquier tipo de interés y otros gastos, independientemente de su denominación sobre las cuentas presentadas, al momento de radicarlas por este mecanismo.

c) Que el representante legal de la Entidad Territorial certifique los montos resultantes. El Gobierno nacional podrá remitir los resultados de las auditorías a los organismos de control para lo de su competencia.

Para cofinanciar el pago de las deudas de los servicios y tecnologías en salud no financiadas con cargo a la Unidad de Pago por Capitación -UPC- del régimen subsidiado, autorícese al Gobierno nacional a realizar operaciones de crédito en las vigencias 2020 y 2021. La Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público, administrará, en una cuenta independiente, el cupo de emisión de deuda que se destine a la atención de las obligaciones de pago originadas en este artículo. Para los efectos previstos en este inciso, la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública. Las operaciones de crédito público no implican operación presupuestal y solo deberá presupuestarse para efectos de su redención y pago de intereses. El Gobierno nacional reglamentará los términos y condiciones en ros cuales operará la cofinanciación de la Nación.

Parágrafo 1°. Los servicios y tecnologías en salud no financiadas con cargo a la UPC que resulten aprobados mediante lo definido en el presente artículo no podrán exceder el valor máximo definido por el Gobierno nacional.

Parágrafo 2°. El resultado de los procesos de saneamiento de que trata el presente artículo deberá reflejarse en los estados financieros de las entidades involucradas, dando cumplimiento a las normas de contabilidad, de información financiera y demás instrucciones vigentes sobre la materia, de tal forma que los estados financieros reflejen la realidad económica de estas entidades. La Superintendencia Nacional de Salud implementará un sistema de seguimiento que permita que el saneamiento se refleje en los estados financieros de las EPS y de las IPS.

El incumplimiento de esta obligación dará lugar a las sanciones contenidas en la Ley 1949 de 2019. Los representantes legales, administradores, contadores y revisores fiscales que ordenen, toleren, hagan o encubran falsedades cometidas en los balances, incurrirán en las sanciones previstas en la Ley 599 de 2000, así como fraudes y los demás relacionados que se configuren de acuerdo con su ocurrencia.

Parágrafo 3°. Los beneficiarios, a través de los instrumentos de crédito público, cederán su titularidad, cuando tengan deudas asociadas a la prestación de servicios y tecnologías no financiados con la UPC del régimen subsidiado, a los agentes del Sistema General de Seguridad Social en Salud (SGSSS) que hayan prestado o suministrado dichos servicios, tales como las Instituciones Prestadoras de Servicios de Salud, quienes a su vez priorizarán las deudas laborales, en caso de tenerlas. Como requisito para la cesión de su titularidad, las EPS deberán acreditar haber surtido la conciliación de las cuentas a pagar.

Parágrafo 4°. Los responsables de las Instituciones Prestadoras de Servicios de Salud públicas que en el marco de este mecanismo apliquen lo dispuesto en el presente artículo, no incurrirán en falta disciplinaria, fiscal o penal.

Parágrafo 5°. Para el trámite de presentación, registro, aprobación o reconocimiento de valores del cobro o recobro mediante factura o cualquier documento que soporte el cobro por este mecanismo, se tendrá en cuenta lo dispuesto en Ley 599 de 2000 en términos de configuración de conductas relacionadas con la comisión de falsedades, inconsistencias, adulteraciones o cualquier situación fraudulenta o irregular constitutiva de una sanción penal, y serán puestas en conocimiento de la autoridad competente por parte de la persona que lo conozca.

Parágrafo 6. Durante el término de la emergencia sanitaria declarada por el Ministerio de Salud y Protección Social, suspéndase el plazo dispuesto en el numeral 8 del presente artículo.  El término se reanudará a partir del día hábil siguiente a su culminación.

Artículo 239. Giro Directo

La Administradora de los Recursos del Sistema General de Seguridad Social en Salud (ADRES) en nombre de las Entidades Promotoras de Salud y demás Entidades Obligadas a Compensar, realizará el giro directo de los recursos de las Unidades de Pago por Capitación (UPC) de los regímenes contributivo y subsidiado destinadas a la prestación de servicios de salud, a todas las instituciones y entidades que presten dichos servicios y que provean tecnologías incluidas en el plan de beneficios, así como a los proveedores, de conformidad con los porcentajes y condiciones que defina el Ministerio de Salud y Protección Social. También aplicará transitoriamente el giro directo de los recursos asociados al pago de los servicios y tecnologías de salud no financiados con recursos de la UPC para los regímenes contributivo y subsidiado, según lo dispuesto en el presente artículo.

Parágrafo 1°. La información de este mecanismo será de consulta pública.

Parágrafo 2°. Sin perjuicio de las funciones de Inspección, Vigilancia y Control de la Superintendencia Nacional de Salud, el Ministerio de Salud y Protección Social realizará el seguimiento permanente a la oportunidad del giro de los recursos, así como a su programación, destinación y ejecución por las Entidades Administradoras de Planes de Beneficios, instituciones prestadoras y proveedores de tecnologías en salud, últimos responsables de estos procesos.

Parágrafo 3°. Lo dispuesto en el presente artículo en lo referente a los servicios y tecnologías no financiadas con cargo a la UPC del régimen subsidiado comenzará a operar a partir del 1° de enero de 2020.

Parágrafo 4°. No estarán sujetas a lo dispuesto en este artículo las EPS adaptadas del Estado y aquellas que en su desempeño financiero cumplan con el patrimonio adecuado.

Artículo 240. Eficiencia del gasto asociado a la prestación del servicio y tecnologías no financiados con cargo a los recursos de la UPC.

Los servicios y tecnologías en salud no financiados con cargo a los recursos de la UPC serán gestionados por las EPS quienes los financiarán con cargo al techo o presupuesto máximo que les transfiera para tal efecto la Administradora de los Recursos del Sistema General de Seguridad Social en Salud (ADRES). El techo o presupuesto máximo anual por EPS se establecerá de acuerdo a la metodología que defina el Ministerio de Salud y Protección Social, la cual considerará incentivos al uso eficiente de los recursos. En ningún caso, el cumplimiento del techo por parte de las EPS deberá afectar la prestación del servicio. Lo anterior, sin perjuicio del mecanismo de negociación centralizada contemplado en el artículo 71 de la Ley 1753 de 2015.

En todo caso, las Entidades Promotoras de Salud (EPS) considerarán la regulación de precios, aplicarán los valores máximos por tecnología o servicio que defina el Ministerio de Salud y Protección Social y remitirán la información que este requiera. La ADRES ajustará sus procesos administrativos, operativos, de verificación, control y auditoría para efectos de implementar lo previsto en este artículo.

Parágrafo. Las EPS podrán implementar mecanismos financieros y de seguros para mitigar el riesgo asociado a la gestión de los servicios y tecnologías no financiados con cargo a los recursos de la UPC.

Artículo 241. Incentivos a la calidad y los resultados en salud.

El Ministerio de Salud y Protección Social diseñará e implementará un mecanismo de pago por resultados en salud, el cual tendrá como mínimo un sistema de información, seguimiento y monitoreo basado en indicadores trazadores.

Para efecto de lo dispuesto en este artículo, la Administradora de los recursos del Sistema General de Seguridad Social en Salud (ADRES), podrá girar los recursos que se determinen por este mecanismo a las Instituciones Prestadoras de Salud (IPS), en función de los resultados en salud que certifique la EPS.

Los recursos destinados para el mecanismo de pago por resultado, serán los equivalentes a los asignados en cumplimiento del artículo 222 de la Ley 100 de 1993 a la entrada en vigencia de la presente Ley. El Ministerio de Salud y Protección Social establecerá la variación de estos recursos, que en todo caso deberán tener en cuenta la suficiencia de la UPC.

Adicionalmente se establecerán incentivos de reconocimiento social y empresarial por resultados con calidad para las IPS del Sistema de Salud u otros actores del Sistema de Seguridad Social en Salud.

El Ministerio de Salud y Protección Social podrá con cargo a los recursos del mecanismo, contratar a un tercero independiente que evalúe el cumplimiento de dichos resultados.

  Artículo 242. Solidaridad en el Sistema de Salud.

Los afiliados al Régimen Subsidiado en el Sistema General de Seguridad Social en Salud son las personas sin capacidad de pago para cubrir el monto total de la cotización. La población que sea clasificada como pobre o vulnerable según el Sistema de Identificación de Potenciales Beneficiarios de Programas Sociales (Sisbén), recibirá subsidio pleno y por tanto no deberá contribuir. Los afiliados al Régimen Subsidiado de salud que, de acuerdo al Sisbén, sean clasificados como no pobres o no vulnerables deberán contribuir solidariamente al sistema, de acuerdo a su capacidad de pago parcial, definida según el mismo Sisbén.

El recaudo de la contribución se efectuará por los canales que defina el Ministerio de Salud y Protección Social, recursos que se girarán a la Administradora de los Recursos del Sistema General de Seguridad Social en Salud (ADRES), donde harán unidad de caja para el pago del aseguramiento.

La base gravable será la Unidad de Pago por Capitación (UPC) del Régimen Subsidiado. El Ministerio de Salud y Protección Social fijará unas tarifas progresivas entre el 1% y el 15%, de acuerdo con la capacidad de pago parcial, las cuales se aplicarán a grupos de capacidad similar.

Cuando se identifiquen personas afiliadas al Régimen Subsidiado con capacidad de pago para cubrir el monto total de la cotización deberán afiliarse al Régimen Contributivo.

Les corresponderá a las alcaldías municipales garantizar que los afiliados al régimen subsidiado en salud cumplan con los requisitos legales para pertenecer a dicho régimen, sin perjuicio de las competencias de la Unidad de Gestión Pensional y Parafiscales (UGPP).

En caso de que se determine que el subsidio en salud se obtuvo mediante engaño sobre las condiciones requeridas para su concesión o callando total o parcialmente la verdad, se compulsará copia del expediente a la Fiscalía General de la Nación.

Parágrafo. Los afiliados al Régimen Subsidiado del Sistema General de Seguridad Social en Salud podrán adquirir un seguro para proteger su ingreso de subsistencia en momentos de enfermedad, según las condiciones que defina el Ministerio de Salud y Protección Social.

Parágrafo segundo. Los cotizantes al régimen contributivo y sus beneficiarios, podrán acceder temporalmente al régimen subsidiado de salud mediante la contribución solidaria, una ,vez finalice el beneficio estipulado en el Parágrafo primero del artículo 67 de la Ley 1753 de 2015, adicionado por el artículo 15 del Decreto Legislativo 538 ‘de 2020, cuando el cotizante

(i) no cumpla con las condiciones para pertenecer al régimen subsidiado,

(ii) haya finalizado su relación laboral durante la emergencia sanitaria o durante los seis (6) meses siguientes a su finalización, y

(iii) haya aportado al Sistema General de Seguridad Social en Salud sobre un Ingreso Base de Cotización -IBC-hasta de un (1) salario mínimo legal mensual vigente -SMLMV.

Este mecanismo estará disponible hasta por un periodo máximo de seis (6) meses después de finalizada la declaratoria de emergencia sanitaria y podrá ser prorrogado por el Ministerio de Salud y Protección Social. La permanencia en el mecanismo no podrá ser mayor a un (1) año contado a partir de la finalización de la relación laboral, el inicio del periodo de protección laboral o el mecanismo de protección al cesante, cuando aplique. En todo caso, la encuesta SISBÉN primará como criterio para determinar el pago de la contribución solidaria una vez entre en implementación la metodología IV del SISBÉN.

Artículo 243. Integrantes del Sistema General de Seguridad Social en Salud

Adiciónese el siguiente numeral al artículo 155 de la Ley 100 de 1993, así:

8. Operadores logísticos de tecnologías en salud y gestores farmacéuticos.

El Ministerio de Salud y Protección Social reglamentará los requisitos financieros y de operación de los agentes de los que trata este numeral. La Superintendencia de Industria y Comercio, en el desarrollo de sus funciones, garantizará la libre y leal competencia económica, mediante la prohibición de actos y conductas de competencia desleal.

Artículo 244. Declarado INEXEQUIBLE por sentencia C-68 DE 2020

Artículo 245. Acuerdos de pago de servicios y tecnologías en salud.

Con el fin de garantizar el derecho fundamental a la salud, la ADRES podrá, de manera transitoria y durante la vigencia de la presente Ley, suscribir acuerdos de pago con las EPS para atender el pago previo y/o acreencias por servicios y tecnologías en salud no incluidas en el Plan de Beneficios en Salud con cargo a la Unidad de Pago por Capitación del régimen contributivo prestados únicamente hasta el 31 de diciembre de 2019. Estos acuerdos de pago se registrarán como un pasivo en la contabilidad de la ADRES y se reconocerán como deuda pública y se podrán atender ya sea con cargo al servicio de la deuda del Presupuesto General de la Nación o mediante operaciones de crédito público. Este reconocimiento será por una sola vez, y para los efectos previstos en este artículo.

De atenderse con operaciones de crédito público, la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público administrará, en una cuenta independiente, el cupo de emisión de deuda que se destine a la atención de las obligaciones de pago originadas en este artículo. Para los efectos previstos en este inciso, la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública.

Parágrafo 1°. La ADRES será la entidad responsable de realizar las auditorías requeridas, así como el pago a las EPS o a las entidades que estas ordenen, de conformidad con los acuerdos de pago suscritos. Si durante el proceso de auditoría se llegase a presentar valores en exceso a los pagados, las EPS deberán proceder al reintegro de los recursos correspondientes.

Parágrafo 2°. Sin perjuicio de lo previsto en el primer inciso del presente artículo, el Ministerio de Hacienda y Crédito Público, así como el Ministerio de Salud y Protección Social deberán asignar en las vigencias presupuestales con posterioridad a la expedición de la presente Ley, los recursos suficientes para el pago a las EPS, por las Acreencias adquiridas por servicios y tecnologías en salud no incluidas en el Plan de Beneficios en Salud con cargo a la Unidad de Pago por Capitación del régimen contributivo.

Artículo 246. Interoperabilidad de la Historia Clínica

El Ministerio de Salud y Protección Social adoptará un mecanismo electrónico que desarrolle la interoperabilidad de la historia clínica. Dicho mecanismo deberá garantizar que todos los prestadores de servicios de salud públicos y privados, y demás personas naturales o jurídicas que se relacionen con la atención en salud, compartan los datos vitales definidos por el Gobierno nacional para dar continuidad a la atención en salud, los cuales deberán cumplir los estándares que se establezcan para el efecto.

El mecanismo electrónico de interoperabilidad garantizará la autenticidad, integridad, disponibilidad y fiabilidad de los datos y deberá utilizar las técnicas necesarias que minimicen el riesgo a la suplantación, alteración, pérdida de confidencialidad y cualquier acceso indebido o no autorizado a la misma, de conformidad con la Ley 1581 de 2012 y las normas que la modifiquen, adicionen o sustituyan.

Parágrafo. A partir de la entrada en vigencia de la presente Ley el Gobierno nacional, deberá en un término de doce (12) meses adoptar la reglamentación que estime necesaria para el desarrollo del presente artículo.

Artículo 247. Atención prioritaria a pacientes de regiones dispersas y de difícil acceso.

Cuando el proceso de referencia se solicite, de manera posterior a la atención de urgencias o ambulatorias prioritarias, se deberá dar prelación a aquellos pacientes que procedan de regiones dispersas y de difícil acceso, por parte de la entidad responsable de pago y de la Institución Prestadora de Servicios de Salud receptora. Igual consideración se deberá tener en cuenta para el proceso de contrarreferencia de estos pacientes.

Artículo 248. Fase de rehabilitación

Modifíquese el artículo 3° de la Ley 1471 de 2011, el cual quedará así:

Artículo 3°. Fase de rehabilitación. La Fase de Rehabilitación Inclusiva (FRI) del Sistema de Rehabilitación Integral (SRI) del Ministerio de Defensa Nacional, comprende elementos terapéuticos, educativos y de gestión que permiten alcanzar la autonomía de las personas con discapacidad y de otras poblaciones del sector defensa definidas en esta ley, para desarrollar un nuevo proyecto de vida, con miras a la inclusión al medio familiar, laboral y social.

Son beneficiarios de la Fase Inclusión: Miembros de la Fuerza Pública con discapacidad, sean estos activos, retirados, pensionados, beneficiarios mayores de edad con discapacidad de los miembros de la Fuerza Pública, veteranos, veteranos de Corea, miembros de la Fuerza Pública activos o retirados que accedan a la Jurisdicción Especial para la Paz (JEP), miembros de la Fuerza Pública que se encuentren en transición a la vida civil o en proceso de retiro, lesionados bajo las circunstancias previstas en los literales a, b, c, d del artículo 24 del Decreto 1796 de 2000 sin importar el porcentaje de pérdida de capacidad psicofísica otorgado por la junta médico laboral, víctimas militares y de policía conforme a lo definido en el artículo 3° de la Ley 1448 de 2011, personal civil con discapacidad del Ministerio de Defensa Nacional y de las Fuerzas Militares, y personal no uniformado con discapacidad de la Policía Nacional vinculados con anterioridad a la vigencia de la Ley 100 de 1993, que se encuentren en servicio activo o retirado de la institución, soldados regulares que hayan adquirido una discapacidad durante la prestación de su servicio militar obligatorio y, en general, poblaciones del sector seguridad y defensa que requieran de esta fase.

Será requisito para acceder a los servicios provistos en la Fase de Inclusión, que los titulares de los derechos de esta Ley estén afiliados y con los servicios activos al sistema de salud de las Fuerzas Militares o de la Policía Nacional o al Sistema General de Seguridad Social en Salud, según sea el caso, siempre que no implique erogación presupuestal adicional.

Los recursos que se destinen y asignen para dar cumplimiento a lo dispuesto en este artículo, deberán ser consistentes con el Marco Fiscal de Mediano Plazo y el Marco de Gasto de Mediano Plazo del Sector Defensa.

Artículo 249. Esquemas Asociativos Territoriales (EAT). 

La conformación y registro de las asociaciones de departamentos, distritos, municipios; regiones de planificación y gestión de que trata la Ley 1454 de 2011, se adelantará conforme al siguiente procedimiento:

i) Expedición de la ordenanza departamental, acuerdo municipal y/o distrital de cada una de las entidades territoriales interesadas, autorizando al gobernador o alcalde para conformar el correspondiente Esquema Asociativo Territorial (EAT);

ii) Suscripción del convenio interadministrativo con las entidades territoriales por medio del cual se conforma el respectivo EAT;

iii) Documento de los estatutos que regularán la conformación y funcionamiento del EAT de acuerdo con la ley 1551 de 2012, incluyendo la descripción del patrimonio y aportes de las entidades que conforman el respectivo EAT;

iv) Adopción de un plan estratégico de mediano plazo que contenga los objetivos, metas y líneas de acción para el cual se conforma el EAT.

Una vez conformado, el EAT deberá registrar el convenio de conformación y sus estatutos en el Registro de Esquemas Asociativos Territoriales que para el efecto ponga en funcionamiento el Gobierno nacional, quien podrá definir los requisitos, condiciones y procedimiento para el suministro de la información a que haya lugar.

Las entidades territoriales a través de los EAT conformados según el procedimiento descrito anteriormente y constituidos como persona jurídica de derecho público, podrán presentar proyectos de inversión de impacto regional a los órganos Colegiados de Administración y Decisión (OCAD), y ser designados como sus ejecutores, conforme a la normativa vigente y aplicable. Para la presentación del proyecto, este deberá contar con concepto favorable de los alcaldes o gobernadores, según sea el caso, de las entidades territoriales conformantes del EAT.

Sin perjuicio de lo establecido en la Ley 1454 de 2011 y la Ley 136 de 1994 y las normas que las modifiquen, complementen o reglamenten, los EAT podrán prestar servicios públicos, desempeñar funciones administrativas propias o las que las entidades territoriales o el nivel nacional le deleguen, ejecutar obras de interés del ámbito regional, cumplir funciones de planificación o ejecutar proyectos de desarrollo integral. Para tal fin deberán cumplir con las condiciones de experiencia, idoneidad y los demás requisitos dispuestos en las normas vigentes y aplicables, incluyendo la Ley 142 de 1994 y las que la modifiquen o sustituyan. Los EAT podrán, igualmente, asociarse con operadores autorizados por la autoridad competente para la prestación de los correspondientes servicios.

Los EAT conformados con anterioridad a la vigencia de la presente Ley continuarán sometiéndose a sus respectivas normas de conformación y funcionamiento, hasta tanto el Gobierno nacional habilite el referido sistema de registro. Una vez habilitado, los EAT ya conformados tendrán un plazo máximo de un (1) año para registrase. Sin perjuicio de lo anterior, los EAT que busquen acceder a los recursos de los OCAD y asumir las competencias definidas en el presente artículo deberán estar registrados en el sistema en mención.

Artículo 250. Pactos Territoriales

La Nación y las entidades territoriales podrán suscribir pactos regionales, departamentales y funcionales. Los pactos regionales son acuerdos marco de voluntades suscritos entre la Nación y el conjunto de departamentos que integran las regiones definidas en las bases del Plan Nacional de Desarrollo- “Pacto por Colombia – pacto por la equidad”, cuyo propósito es articular políticas, planes y programas orientados a la gestión técnica y financiera de proyectos de impacto regional conforme a las necesidades de los territorios, a fin de promover el desarrollo regional.

Los pactos departamentales son acuerdos marco de voluntades que podrán ser suscritos entre la Nación y cada uno de los departamentos priorizados para el desarrollo de las estrategias diferenciadas a las que hacen referencia las bases de la presente Ley, cuyo propósito es articular políticas, planes y programas orientados a la gestión técnica y financiera de proyectos conforme a las necesidades de los territorios, a fin de promover, entre otras cosas, la superación de la pobreza, el fortalecimiento institucional de las autoridades territoriales y el desarrollo socioeconómico de las comunidades.

Los pactos funcionales son acuerdos marco de voluntades que podrán ser suscritos entre la Nación y los municipios que tengan relaciones funcionales de acuerdo con la metodología que para el efecto defina el Departamento Nacional de Planeación, cuyo propósito es articular políticas, planes y programas orientados a la gestión técnica y financiera de proyectos conforme a las necesidades de los territorios, a fin de promover, entre otras cosas, el desarrollo subregional.

Los esquemas asociativos de entidades territoriales previstos en la Ley 1454 de 2011, podrán igualmente suscribir pactos territoriales según corresponda.

Las iniciativas o proyectos de inversión que hacen parte de los Contratos Plan piloto, los Contratos Plan para la Paz y el Posconflicto; así como en la Hoja de Ruta para la estabilización; identificados por el Departamento Nacional de Planeación como de impacto regional, podrán incorporarse a los Pactos Territoriales, y deberán articularse con las líneas programáticas y proyectos de impacto regional priorizados, en los términos y condiciones que para el efecto defina el Departamento Nacional de Planeación.

El Departamento Nacional de Planeación coordinará el proceso de transición y articulación de los Contratos Plan hacia el modelo de Pactos Territoriales y definirá los aspectos operativos correspondientes. En adelante la Nación, las entidades territoriales y los esquemas asociativos de entidades territoriales previstos en la Ley 1454 de 2011, solo podrán suscribir pactos territoriales. Se mantendrán como mecanismos para la ejecución de esta nueva herramienta los Contratos Específicos y el Fondo Regional para los Contratos Plan, en adelante Fondo Regional para los Pactos Territoriales, cuya operación se orientará a facilitar la ejecución de los Pactos Territoriales y de los Contratos Plan vigentes. Los Contratos Plan suscritos en virtud de lo dispuesto en el artículo 18 de la Ley 1454 de 2011, se mantendrán vigentes por el término de duración pactado entre las partes, que en todo caso, no podrá superar el 31 de diciembre de 2023.

Parágrafo. Dentro del marco de la conmemoración del Bicentenario de la Independencia de Colombia se celebrará por parte del Gobierno nacional un pacto territorial con las entidades territoriales afines a la mencionada celebración.

Artículo 251. Concurrencia de recursos para la financiación de iniciativas de gasto en diferentes jurisdicciones.

Las entidades territoriales podrán financiar de manera conjunta y concertada iniciativas de gasto por fuera de su jurisdicción, y en especial para la ejecución de proyectos de inversión con impacto regional, siempre y cuando este beneficie a las entidades territoriales que financian la iniciativa de propuesta.

Artículo 252. Cédula Rural

Con el propósito de formalizar la actividad de producción agropecuaria, promover la inclusión financiera, controlar el otorgamiento de créditos, subsidios, incentivos o apoyos estatales a las actividades agropecuarias y rurales; así como obtener información de la producción agropecuaria que facilite la adopción de políticas públicas para este sector, créase la cédula rural.

El Ministerio de Agricultura y Desarrollo Rural, en coordinación con el Ministerio de Hacienda y Crédito Público, reglamentará todos los aspectos requeridos para el funcionamiento y operación de este mecanismo.

El Ministerio de Agricultura y Desarrollo Rural podrá delegar en otras entidades públicas la administración y operación de la cédula rural.

Los recursos que se destinen y asignen para la implementación, administración y operación de la cédula rural deberán ser consistentes con el Marco Fiscal de Mediano Plazo y el Marco de Gasto del Sector de Agricultura y Desarrollo Rural.

Parágrafo. El Gobierno nacional tendrá en consideración las experiencias existentes en los procesos de cedulación rural, con el propósito de evitar duplicidades, precisar los alcances y enriquecer los procesos.

 Artículo 253. Política pública del sector campesino.

El Gobierno nacional construirá una política pública para la población campesina. El proceso de elaboración de dicha política se realizará a partir de la recolección de insumos de diferentes espacios de participación que incluyan a las organizaciones campesinas, la academia y las entidades especializadas en el tema campesino, se tendrán en cuenta los estudios de la Comisión de Expertos del campesinado, entre otros.

El proceso será liderado por el Ministerio de Agricultura con el acompañamiento del Ministerio del interior y el Departamento Nacional de Planeación.

Parágrafo. Una vez sancionada la presente Ley se iniciará la construcción de la ruta de elaboración de la política pública del sector campesino.

  Artículo 254. Diagnóstico, prevención y control de la salmonella

Autorícese al Gobierno nacional para que dentro del Plan Plurianual de Inversiones se asigne con cargo al Presupuesto General de la Nación, recursos con destino al Instituto Colombiano Agropecuario (ICA) para el diagnóstico, prevención y control de Salmonella Enteritides y Typhimurium a nivel de los productores.

Artículo 255. Vivienda rural efectiva

El Gobierno nacional diseñará un plan para la efectiva implementación de una política de vivienda rural. A partir del año 2020 su formulación y ejecución estará a cargo del Ministerio de Vivienda, Ciudad y Territorio, por lo que será esa entidad la encargada de coordinar y liderar la ejecución de los proyectos de vivienda y mejoramiento de vivienda encaminados a la disminución del déficit habitacional rural.

Para este efecto el Gobierno nacional realizará los ajustes presupuestales correspondientes, respetando tanto el Marco de Gasto de Mediano Plazo, así como el Marco Fiscal de Mediano Plazo, y reglamentará la materia.

Parágrafo. A partir del año 2020 el Ministerio de Vivienda, Ciudad y Territorio, a través del Fondo Nacional de Vivienda “Fonvivienda”, administrará y ejecutará los recursos asignados en el Presupuesto General de la Nación en inversión para vivienda de interés social urbana y rural, en los términos del artículo 6 de la Ley 1537 de 2012 o la norma que lo modifique, sustituya o complemente, así como los recursos que se apropien para la formulación, organización, promoción, desarrollo, mantenimiento y consolidación del Sistema Nacional de Información de Vivienda, tanto urbana como rural.

Artículo 256. Servicio Público de adecuación de tierras

Modifíquese el artículo 3° de la Ley 41 de 1993 así:

Artículo 3°. Servicio público de adecuación de tierras. El servicio público de adecuación de tierras (ADT) comprende la construcción de obras de infraestructura destinadas a dotar a un área determinada con riego, drenaje, o protección contra inundaciones, reposición de maquinaria; así como las actividades complementarias de este servicio para mejorar la productividad agropecuaria. Esto último de acuerdo con la reglamentación del Ministerio de Agricultura y Desarrollo Rural, de conformidad con lo dispuesto en el literal d) sobre costos del artículo “Sistema y método para la determinación de las tarifas”.

  Artículo 257. Creación de la tasa, hecho generador, sujeto pasivo y activo del Servicio Público de adecuación de tierras.

Adiciónese el siguiente artículo a la Ley 41 de 1993.

Artículo 16A. Creación de la tasa, hecho generador, sujeto pasivo y activo del servicio público de adecuación de tierras. Créase la tasa del servicio público de Adecuación de Tierras para recuperar los costos asociados a su prestación y que se constituyen como la base gravable para la liquidación. Estos costos se determinarán, a través del sistema y método tarifario establecido en la presente ley.

Serán hechos generadores de la tasa del servicio público de ADT los siguientes:

1. Suministro de agua para usos agropecuarios;

2. Drenaje de aguas en los suelos;

3. Protección contra inundaciones;

4. Desarrollo de actividades complementarias para mejorar la productividad agropecuaria.

La entidad pública propietaria del distrito que preste el servidor público de ADT, será sujeto activo de la tasa del Servicio Público de Adecuación de Tierras y todo usuario de los Distritos de Adecuación de Tierras será sujeto pasivo.

Artículo 258. Sistema y Método para la determinación de las tarifas.

Adiciónese el siguiente artículo a la Ley 41 de 1993.

Artículo 16B. Sistema y método para la determinación de las tarifas. El sistema y método para la fijación de las tarifas que se cobrarán como recuperación de los costos asociados a la prestación del servicio público de adecuación de tierras, es el siguiente:

1. Sistema: Para la definición de los costos sobre cuya base haya de calcularse la tarifa de adecuación de tierras, se aplicará el siguiente sistema:

a) Tarifa Fija: se calcula a partir de la sumatoria de los costos de administración y de la proporción de los costos de operación y conservación que establezca el Ministerio de Agricultura y Desarrollo Rural, dividida sobre el área del distrito de Adecuación de Tierras. Para establecer el valor que le corresponde pagar a cada usuario por concepto de esta tarifa, se multiplica por el área beneficiada de cada predio.

b) Tarifa Volumétrica o de aprovechamiento: se calcula a partir de la sumatoria de la proporción de los costos de operación y conservación, más el costo por utilización de aguas que el distrito de Adecuación de Tierras cancela a la autoridad ambiental competente, dividida por el volumen de agua anual derivado en bocatoma. Para establecer el valor que le corresponde pagar a cada usuario por concepto de esta tarifa, se multiplica por el volumen del agua entregado a cada usuario.

c) Tarifa por prestación de actividades para mejorar la productividad agropecuaria: se calcula a partir de la sumatoria de los costos fijos y variables de las actividades complementarias para mejorar la productividad agropecuaria, dividido entre el número de beneficiados por dichas actividades. Esta tarifa se cobrará únicamente a los usuarios del distrito de Adecuación de Tierras que soliciten al prestador del servicio público la prestación de dichas actividades.

d) Tarifa para reposición de maquinaria: se calcula a partir del valor anual de depreciación de la maquinaria, dividido sobre el área total del distrito de Adecuación de Tierras. Para establecer el valor que le corresponde pagar a cada usuario por concepto de esta tarifa, se multiplica por el área de cada predio.

Para el cálculo de las tarifas se utilizará:

I. El presupuesto anual de costos asociados a la prestación del servicio público de adecuación de tierras, elaborado por el prestador del servicio público.

II. El registro general de usuarios actualizado.

III. El plan de adecuación de tierras proyectado.

2. Método: Definición de los costos asociados a la prestación del servicio público de Adecuación de Tierras, sobre cuya base se hará la fijación del monto tarifario de la tasa del servicio público:

a) Costos de administración del distrito. Comprenden la remuneración del personal administrativo, costos generales, costos de facturación, arriendos, vigilancia, servicios públicos, seguros, impuestos y costos no operacionales relacionados con la administración del respectivo distrito.

b) Costos de operación del distrito. Comprenden la remuneración del personal operativo, energía eléctrica para bombeo, costos de operación y mantenimiento de vehículos, maquinaria y equipo, y movilización del personal de operación del distrito.

c) Costos de conservación. Comprenden la remuneración del personal de conservación y los costos de la conservación, limpieza, reparación y reposición de infraestructura y equipos del distrito.

d) Costos de actividades complementarias para mejorar la productividad agropecuaria. Comprenden los costos asociados al fortalecimiento organizacional y extensión agropecuaria; promoción de prácticas adecuadas para el uso del agua en el riego; apoyo a la producción agropecuaria; investigación, innovación, transferencia tecnológica y transformación; comercialización; manejo eficiente del agua y suelo; aprovechamiento de los materiales resultantes del mantenimiento y conservación del distrito de adecuación de tierras.

e) Costo de la Tasa por Utilización de Aguas (TUA). De conformidad con lo dispuesto en el artículo 43 de la Ley 99 de 1993 y el Decreto 1076 de 2015 o las disposiciones que hagan sus veces. Se calcula a partir del volumen de agua medido que se utiliza para la prestación del servicio de riego a los usuarios del Distrito de riego.

f) Costos de Reposición de Maquinaria. Son los costos en que se incurre para reemplazar la maquinaria del distrito destinada para la prestación del servicio público de adecuación de tierras a los usuarios, una vez haya cumplido su vida útil.

Parágrafo 1°. El Ministerio de Agricultura y Desarrollo Rural fijará mediante resolución, antes del 31 de diciembre de cada año y para la vigencia siguiente, la tarifa fija, la tarifa volumétrica y la tarifa para reposición de maquinaria del servicio público de riego, con el fundamento en el método y sistema establecidos en la presente ley. Asimismo, fijará anualmente la proporción de los costos de operación y conservación para las tarifas fija y volumétrica para cada distrito de Adecuación de Tierras, teniendo en cuenta su naturaleza, así como los sistemas de captación y distribución del agua.

Parágrafo 2°. El valor a pagar por el administrador del Distrito de Adecuación de Tierras por concepto de la Tasa por Utilización de Aguas (TUA) será con cargo a cada usuario del servicio y debe calcularse proporcionalmente al área beneficiada de cada uno por el servicio prestado.

Parágrafo 3°. En el caso de las asociaciones de usuarios, la factura del servicio público de adecuación de tierras constituye título ejecutivo y en consecuencia, su cobro se hará conforme con las reglas de procedimiento establecidas en el Código General del Proceso.

Artículo 259. Fondo de adecuación de tierras.

Modifíquese el artículo 16 de la Ley 41 de 1993 así:

Artículo 16. Fondo de Adecuación de Tierras. Créase el Fondo Nacional de Adecuación de Tierras (Fonat) como una unidad administrativa de financiamiento del Subsector de Adecuación de Tierras, cuyo objetivo es financiar los estudios, diseños y construcción de las obras de riego, avenamiento, reposición de maquinaria y las actividades complementarias al servicio de ADT para mejorar la productividad agropecuaria, esto último de acuerdo con la reglamentación del Ministerio de Agricultura y Desarrollo Rural, de conformidad con lo dispuesto en el literal d) sobre costos del artículo “Sistema y método para la determinación de las tarifas”.

El Fondo funcionará como una cuenta separada en el presupuesto de la Agencia de Desarrollo Rural (ADR), quien lo manejará y su representante legal será el Presidente de dicha Agencia.

Artículo 260. Entidad responsable inspección, vigilancia y control de ADT.

Adiciónese el siguiente artículo de la Ley 41 de 1993.

Artículo 16C. Entidad responsable inspección, vigilancia y control de ADT. El Ministerio de Agricultura y Desarrollo Rural será la entidad responsable de adelantar labores de inspección, vigilancia y control de la prestación del servicio público de adecuación de tierras conforme lo dispuesto en la ley.

Parágrafo. Para el ejercicio de estas funciones, el Ministerio de Agricultura y Desarrollo Rural organizará dentro de su estructura interna, una dependencia encargada de conocer de los procesos sancionatorios en primera y segunda instancia, de conformidad con el procedimiento aplicable contenido en la Ley 1437 de 2011.

 Artículo 261. Infracciones en la prestación del Servicio Público de ADT

Adiciónese el siguiente artículo de Ley 41 de 1993.

Artículo 16D. Infracciones en la prestación del servicio público de ADT. Serán infractores del servicio público de adecuación de tierras los usuarios y operadores en la prestación de este servicio público. Las infracciones serán las siguientes:

1. No suministrar oportunamente a las autoridades la información y los documentos necesarios para el ejercicio de la inspección, vigilancia y control.

2. No suministrar oportunamente a la asamblea general de la asociación de usuarios la información y documentos relevantes para la administración del distrito de adecuación de tierras.

3. Extraviar, perder o dañar bienes del distrito de adecuación de tierras o de la asociación de usuarios que se tengan bajo administración o custodia.

4. Asumir compromisos sobre apropiaciones presupuestales inexistentes en exceso del saldo disponible de apropiación o que afecten el presupuesto de la asociación de usuarios sin contar con las autorizaciones pertinentes.

5. Llevar de forma indebida los libros de registro de ejecución presupuestal de ingresos y gastos, así como los libros de contabilidad financiera.

6. Efectuar inversión de recursos públicos en condiciones que no garantizan seguridad, rentabilidad y liquidez.

7. Omitir o retardar injustificadamente el ejercicio de las funciones que le son propias de su naturaleza.

8. Extraviar, perder o dañar maquinaria, equipos técnicos necesarios para la debida operación y conservación del distrito de adecuación de tierras.

9. Extraviar, perder o dañar información administrativa financiera, técnica o legal relacionada con la operación del distrito de adecuación de tierras.

10. Alterar, falsificar, introducir, borrar, ocultar o desaparecer información de cualquiera de los sistemas de información del distrito de adecuación de tierras o permitir el acceso a ella a personas no autorizadas.

11. Recibir dádivas o beneficios por la prestación del servicio público de adecuación de tierras que no correspondan a las tarifas establecidas legalmente.

12. No asegurar por el valor real los bienes del distrito de adecuación de tierras que tenga bajo custodia.

13. Obtener o beneficiarse de la prestación del servicio público de adecuación de tierras de forma irregular, clandestina o a través de la alteración de los mecanismos de medición y control.

Artículo 262. Sanciones a la prestación del Servicio Público ADT

Adiciónese el siguiente artículo a la Ley 41 de 1993.

Artículo 16E. Sanciones a la prestación del servicio público ADT. Las sanciones señaladas en este artículo se impondrán como principales o accesorias a los responsables de las infracciones en calidad de operadores o usuarios del servicio público de adecuación de tierras y demás disposiciones vigentes que las adicionen, sustituyan o modifiquen, las cuales se incorporarán atendiendo a la graduación establecida en el artículo 50 de la Ley 1437 del 2011 o las disposiciones legales que hagan sus veces.

Las sanciones contenidas en el presente artículo, sin perjuicio de las sanciones penales y demás a que hubiere lugar, se impondrán al infractor de acuerdo con la gravedad de la infracción mediante resolución motivada.

1. Multas pecuniarias hasta por 241.644,6 UVT.

2. Suspensión temporal de la autorización para ejercer la función de prestador del servicio público de adecuación de tierras.

3. Revocatoria de la autorización para ejercer la función de prestador del servicio público de adecuación de tierras.

4. Inhabilidad hasta por veinte (20) años para ejercer la función de prestador del servicio público de adecuación de tierras.

Parágrafo 1°. Los actos administrativos que impongan sanciones pecuniarias prestarán mérito ejecutivo y su cobro podrá realizarse a través de jurisdicción coactiva.

Parágrafo 2°. En caso de que la entidad prestadora del servicio público de adecuación de tierras tenga un contrato de administración delegada sobre un distrito de propiedad del Estado y sea sancionada en los términos de los numerales 3 y/o 4, se terminará inmediata y unilateralmente el contrato.

Artículo 263. Reducción de la provisionalidad en el empleo público

Las entidades coordinarán con la Comisión Nacional del Servicio Civil (CNSC) la realización de los procesos de selección para el ingreso a los cargos de carrera administrativa y su financiación; definidas las fechas del concurso las entidades asignarán los recursos presupuestales que le corresponden para la financiación, si el valor del recaudo es insuficiente para atender los costos que genere el proceso de selección, de acuerdo con lo señalado en el artículo 9° de la Ley 1033 de 2006.

Los procesos de selección para proveer las vacantes en los empleos de carrera administrativa en los municipios de quinta y sexta categoría serán adelantados por la CNSC, a través de la Escuela Superior de Administración Pública (ESAP), como institución acreditada ante la CNSC para ser operador del proceso. La ESAP asumirá en su totalidad, los costos que generen los procesos de selección.

Parágrafo 1°. Las entidades públicas deberán adelantar las convocatorias de oferta pública de empleo en coordinación con la CNSC y el Departamento Administrativo de la Función Pública.

Parágrafo 2°. Los empleos vacantes en forma definitiva del sistema general de carrera, que estén siendo desempeñados con personal vinculado mediante nombramiento provisional antes de diciembre de 2018 y cuyos titulares a la fecha de entrada en vigencia de la presente ley le falten tres (3) años o menos para causar el derecho a la pensión de jubilación, serán ofertados por la CNSC una vez el servidor cause su respectivo derecho pensional.

Surtido lo anterior los empleos deberán proveerse siguiendo el procedimiento señalado en la Ley 909 de 2004 y en los decretos reglamentarios. Para el efecto, las listas de elegibles que se conformen en aplicación del presente artículo tendrán una vigencia de tres (3) años.

El jefe del organismo deberá reportar a la CNSC, dentro de los dos (2) meses siguientes a la fecha de publicación de la presente ley, los empleos que se encuentren en la situación antes señalada.

Para los demás servidores en condiciones especiales, madres, padres cabeza de familia y en situación de discapacidad que vayan a ser desvinculados como consecuencia de aplicación de una lista de elegibles, la administración deberá adelantar acciones afirmativas para que en lo posible sean reubicados en otros empleos vacantes o sean los últimos en ser retirados, lo anterior sin perjuicio del derecho preferencial de la persona que está en la lista de ser nombrado en el respectivo empleo.

  Artículo 264. Infraestructura para Proyectos Turísticos especiales (PTE)

Modifíquese el artículo 18 de la Ley 300 de 1996, cuyo texto será el siguiente:

Artículo 18. Infraestructura para Proyectos Turísticos Especiales (PTE). Son el conjunto de acciones técnica y jurídicamente definidas y evaluadas que están orientadas a la planeación, reglamentación, financiación y ejecución de la infraestructura que se requiere para el desarrollo de proyectos turísticos de gran escala en áreas del territorio nacional en la que teniendo en cuenta su ubicación geográfica, valores culturales y/o ambientales y/o sociales, así como la factibilidad de conectividad, se convierten en sitios de alta importancia estratégica para el desarrollo o mejoramiento del potencial turístico del país.

La definición de lo que debe entenderse por Proyecto Turístico Especial de Gran Escala, así como la determinación, delimitación, reglamentación, priorización y aprobación de los sitios en los cuales se desarrollará la infraestructura para Proyectos Turísticos Especiales (PTE), así como de sus esquemas de financiación y ejecución corresponde al Ministerio de Comercio, Industria y Turismo quien adelantará dichas acciones en coordinación con los alcaldes municipales y distritales de los territorios incluidos; los Proyectos Turísticos Especiales y la ejecución de su infraestructura constituyen determinante de superior jerarquía en los términos del artículo 10 de la Ley 388 de 1997.

Quedan excluidos del desarrollo de esta infraestructura, las áreas del Sistema de Parques Nacionales Naturales y los Parques Naturales Regionales. Cuando los proyectos en referencia incluyan o afecten las demás áreas del Sistema Nacional de Áreas Protegidas (Sinap) sus áreas de influencia o sus áreas con función amortiguadora según corresponda, o Bienes de Interés Cultural del ámbito nacional, deberá tener en cuenta la reglamentación sobre zonificación y régimen de usos vigentes para cada una de estas áreas, expedidas por las autoridades competentes.

En todo caso, para la ejecución de la infraestructura de los Proyectos Turísticos Especiales (PTE) de gran escala localizado en suelo rural donde estos se puedan desarrollar se requerirá tramitar previamente ante la Autoridad Nacional de Licencias Ambientales – el Plan de Manejo Ambiental que incluya de manera detallada las medidas y actividades para prevenir, mitigar, corregir o compensar los posibles impactos ambientales que se puedan generar con la ejecución de dicha infraestructura. De ser necesario, la ANLA previo concepto de la autoridad ambiental regional correspondiente, otorgará los permisos ambientales para el uso de los recursos naturales requeridos para la ejecución y funcionamiento de dicha infraestructura turística.

En el acto administrativo que determine el desarrollo del proyecto de infraestructura para el Proyecto Turístico Especial se hará el anuncio del proyecto para los efectos del Parágrafo 1° del artículo 61 de la Ley 388 de 1997.

Los recursos para la adquisición de los predios pueden provenir de terceros y se podrá aplicar el procedimiento previsto en los artículos 63 y siguientes de la Ley 388 de 1997.

Las entidades públicas podrán participar en la ejecución de los proyectos mediante la celebración de, entre otros, contratos de fiducia con sujeción a las reglas generales y del derecho comercial, sin las limitaciones y restricciones previstas en el numeral 5 del artículo 32 de la Ley 80 de 1993.

Artículo 265. Articulación del Plan Nacional de Desarrollo con el Plan Especial para el Desarrollo de Buenaventura

A través del presente Plan Nacional de Desarrollo, se garantiza la inclusión y articulación del plan integral especial para el desarrollo de Buenaventura y las llamadas “inversiones prioritarias”, según los términos del artículo 5° Parágrafos 4° y 5° y del artículo 10 de la Ley 1872 de 2017.

Artículo 266. Subcuenta pacto por el Chocó-Tumaco

Créase una Subcuenta dentro del Fondo para el Desarrollo del Plan Todos Somos PAZcífico, denominada PACTO POR EL CHOCÓ-TUMACO, que tendrá como objeto promover el desarrollo sostenible en las tres (3) cuencas hidrográficas principales del Departamento del Chocó (Atrato, Sanjuán y Baudó y Tumaco), y en especial:

a) La recuperación de la navegabilidad y de la actividad portuaria;

b) La adecuación y conservación de tierras;

c) La generación y distribución de energía;

d) La ejecución de obras de infraestructura y saneamiento básico;

e) El fortalecimiento de las políticas de comunicación;

f) La seguridad alimentaria;

g) El fomento y promoción del turismo;

h) La explotación acuícola sostenible;

i) Proyectos de desarrollo social.

El Gobierno nacional tendrá seis (6) meses a partir de la expedición de la presente ley para reglamentar la operación y funcionamiento de esta Subcuenta.

Artículo 267. Reconocimiento costos de transporte

Durante la vigencia de la presente ley, la Nación, a través del Ministerio de Minas y Energía, sin perjuicio de lo establecido en el artículo 55 de la Ley 191 de 1995, podrá reconocer el costo del transporte terrestre de los combustibles líquidos derivados del petróleo que se suministre desde las plantas de abastecimiento ubicados en el departamento de Nariño hasta la capital de dicho departamento y sus demás municipios.

Artículo 268. Zona Económica y Social Especial (ZESE) para la Guajira, norte de Santander y Arauca.

Créese un régimen especial en materia tributaria para los departamentos de La Guajira, Norte de Santander y Arauca, para atraer inversión nacional y extranjera y así contribuir al mejoramiento de las condiciones de vida de su población y la generación de empleo.

Este régimen aplica a las sociedades comerciales que se constituyan en la ZESE, dentro de los tres (3) años siguientes a la entrada en vigencia de la presente ley, bajo cualquiera de las modalidades definidas en la legislación vigente o las sociedades comerciales existentes que durante ese mismo término se acojan a este régimen especial y demuestren un aumento del 15% del empleo directo generado, tomando como base el promedio de los trabajadores vinculados durante los dos últimos años, el cual se debe mantener durante el periodo de vigencia del beneficio, y cuya actividad económica principal consista en el desarrollo de actividades industriales, agropecuarias, comerciales, turísticas o de salud. 

El beneficiario deberá desarrollar toda su actividad económica en la ZESE y los productos que prepare o provea podrán ser vendidos y despachados en la misma o ser destinados a lugares del territorio nacional o al exterior.

La tarifa del impuesto sobre la renta aplicable a los beneficiarios de la ZESE será del 0% durante los primeros cinco (5) años contados a partir de la constitución de la sociedad, y del 50% de la tarifa general para los siguientes cinco (5) años.

Cuando se efectúen pagos o abonos en cuenta a un beneficiario de la ZESE, la tarifa de retención en la fuente se calculará en forma proporcional al porcentaje de la tarifa del impuesto sobre la renta y complementarios del beneficiario.

Parágrafo 1°. Durante los diez (10) años siguientes los beneficiarios de la ZESE enviarán antes del 30 de marzo del año siguiente gravable a la Dirección Seccional respectiva o la que haga sus veces de la Unidad Administrativa Especial de Impuestos y Adunas Nacionales (DIAN), los siguientes documentos, los cuales esta entidad verificará con la declaración de impuesto sobre la renta correspondiente.

1. Declaración juramentada del beneficiario ante notario público, en la cual conste que se encuentra instalado físicamente en la jurisdicción de cualquiera de los departamentos a los que se refiere el presente artículo y que se acoge al régimen de la ZESE.

2. Certificado de Existencia y Representación Legal.

3. Las sociedades constituidas a la entrada en vigencia de la presente ley, además deben acreditar el incremento del 15% en el empleo directo generado, mediante certificación de revisor fiscal o contador público, según corresponda en la cual conste el promedio de empleos generados durante los dos últimos años y las planillas de pago de seguridad social respectivas.

Parágrafo 2°. El Gobierno nacional reglamentará cualquiera de los asuntos y materias objeto de la ZESE para facilitar su aplicación y eventualmente su entendimiento, y podrá imponer las sanciones administrativas, penales, disciplinarias, comerciales y civiles aplicables y vigentes tanto a las sociedades como a sus representantes en caso de que se compruebe que incumplen las disposiciones aquí previstas.

Parágrafo 3°. El presente artículo no es aplicable a las empresas dedicadas a la actividad portuaria o a las actividades de exploración y explotación de minerales e hidrocarburos.

Parágrafo 4°. El presente artículo no es aplicable a las sociedades comerciales existentes que trasladen su domicilio fiscal a cualquiera de los Municipios pertenecientes a los Departamentos de que trata este artículo.

Parágrafo 5°. Extiéndanse los efectos del presente artículo a aquellas ciudades capitales cuyos índices de desempleo durante los cinco (5) últimos años anteriores a la expedición de la presente ley hayan sido superiores al 14%.

  Artículo 269. Reducción de la vulnerabilidad fiscal del Estado frente a los desastres

Modifíquese el artículo 220 de la Ley 1450 de 2011, el cual quedará así:

Artículo 220. Reducción de la vulnerabilidad fiscal del Estado frente a desastres. El Ministerio de Hacienda y Crédito Público diseñará una estrategia para la gestión financiera, el aseguramiento y la mitigación ante riesgos de desastres de origen natural y/o antrópico no intencional. Dicha estrategia estará orientada a la reducción de la vulnerabilidad fiscal del Estado.

Parágrafo 1°. Como parte de la estrategia de la que trata el inciso primero, el Ministerio de Hacienda y Crédito Público evaluará, entre otros, la estructuración y/o implementación de mecanismos de protección financiera de diversa índole, incluyendo mecanismos de aseguramiento que permitan aprovechar los beneficios de la diversificación, así como la formulación de esquemas, mandatos o incentivos que promuevan y/o posibiliten en las entidades estatales la gestión financiera del riesgo de desastres de origen natural y/o antrópico no intencional.

Parágrafo 2°. El Ministerio de Hacienda y Crédito Público podrá, con cargo a los recursos del Presupuesto General de la Nación gestionar, adquirir y/o celebrar con entidades nacionales y/o extranjeras los instrumentos y/o contratos que permitan el aseguramiento y/o cubrimiento de dichos eventos.

Parágrafo 3°. La modalidad de selección para los instrumentos y/o contratos de los que trata el presente artículo se contratarán en forma directa; y se someterán a la jurisdicción que decidan las partes.

 Artículo 270. Obligación de pronto pago en contratos y actos mercantiles

El Gobierno nacional establecerá las condiciones para reglamentar el pago en plazos justos de operaciones comerciales derivadas de actos mercantiles entre particulares con los objetivos de promover la competitividad empresarial, mejorar la liquidez de las empresas proveedoras y reducir las demoras en el pago una vez se ha finalizado la provisión de los bienes y servicios.

Artículo 271. Transferencia de Zonas Francas de frontera a entidades

Con el propósito de Incentivar el desarrollo industrial, el crecimiento económico de los territorios de frontera, los flujos de inversión extranjera directa y las cadenas de valor global para el aumento de la productividad, el Ministerio de Comercio, Industria y Turismo, transferirá a título gratuito las Zonas Francas localizadas en municipios de frontera a los entes territoriales donde ellas se ubican; esta transferencia implicará el derecho real de dominio y posición sobre el predio, sus construcciones, instalaciones y obras de infraestructura, sin restricción alguna del uso, goce y disposición de esos derechos, salvo la relativa a la destinación del predio, para un único y exclusivo de regímenes de Zonas Francas, el cual no podrá ser modificado sino por reglamentación expresa del Gobierno Nacional, en virtud de lo previsto en el artículo 4° de la Ley 1004 de 2005. Esta previsión será de aplicación a las transferencias realizadas en virtud del artículo 258 de la Ley 1753 de 2015.

  Artículo 272. Bienes que no causan el impuesto

Modifíquese el numeral 13 del artículo 424 del Estatuto Tributario, el cual quedará así:

13. El consumo humano y animal, vestuario, elementos de aseo y medicamentos para uso humano o veterinario, materiales de construcción que se introduzcan y comercialicen a los departamentos de Amazonas, Guainía, Guaviare, Vaupés y Vichada, siempre y cuando se destinen exclusivamente al consumo dentro del mismo departamento. El Gobierno nacional reglamentará la materia para garantizar que la exclusión del IVA se aplique en las ventas al consumidor final.

  Artículo 273. Bienes que se encuentran exentos del impuesto

Adiciónese el numeral 6 al artículo 477 del Estatuto Tributario, el cual quedará así.

6. Las bicicletas y sus partes; motocicletas y sus partes y motocarros y sus partes, que se introduzcan y comercialicen en los departamentos de Amazonas, Guainía, Guaviare, Vaupés y Vichada, siempre y cuando se destinen exclusivamente al consumo dentro del mismo departamento y las motocicletas y motocarros sean registrados en el departamento. También estarán exentos los bienes indicados anteriormente que se importen al territorio aduanero nacional y que se destinen posteriormente exclusivamente a estos departamentos.

El Gobierno nacional reglamentará la materia con el fin de que la exención del IVA se aplique en las ventas al consumidor final y para que los importadores de las referidas mercancías ubicados fuera de los citados territorios, puedan descontar a su favor en la cuenta corriente del IVA, el valor total del mismo, pagado en la nacionalización y las compras nacionales a que hubiere lugar, cuando estas mercancías se comercialicen con destino exclusivo al consumo en los referidos departamentos.

  Artículo 274. Arancel a las importaciones

Se establecerá un arancel de treinta y siete punto nueve por ciento (37.9%) a las importaciones de productos clasificados en los capítulos 61 y 62 del Arancel de Aduanas Nacional, cuando el precio FOB declarado sea inferior o igual a 20 dólares de los Estados Unidos de América por kilo bruto.

Artículo 275. Arancel de Aduanas Nacionales

Se establecerá un arancel del 10% ad valórem, más tres dólares de los Estados Unidos de América por kilogramo bruto, para precios por kilogramo a partir de los 20 dólares USD, en los capítulos 61 y 62 del Arancel de Aduanas Nacional.

Artículo 276. Transferencia de dominio de bienes inmuebles fiscales entre entidades

Los bienes inmuebles fiscales de propiedad de las entidades públicas del orden nacional de carácter no financiero, que hagan parte de cualquiera de las Ramas del Poder Público, así como de los órganos autónomos e independientes, que no los requieran para el ejercicio de sus funciones, podrán ser transferidos a título gratuito a las entidades del orden nacional y territorial con el fin de atender necesidades en materia de infraestructura y vivienda, sin importar el resultado de la operación en la entidad cedente. Cuando la entidad territorial no necesite dicho inmueble, la Nación aplicará lo dispuesto en el artículo 163 de la Ley 1753 de 2015.

Las entidades territoriales podrán igualmente ceder a título gratuito a entidades del orden nacional bienes inmuebles fiscales de su propiedad, sin importar el resultado de la operación en el patrimonio de la entidad cedente.

Transferido el inmueble la entidad receptora será la encargada de continuar con el saneamiento y/o titulación del mismo.

Parágrafo. En cualquier caso la transferencia a título gratuito de la que se habla en este artículo, mantendrá, en concordancia con el POT, el uso del suelo que posee el inmueble transferido.

Artículo 277. Cesión a título gratuito o enajenación de bienes fiscales

Modifíquese el artículo 14 de la Ley 708 de 2001, el cual quedará así:

Artículo 14. Cesión a título gratuito o enajenación de dominio de bienes fiscales. Las entidades públicas podrán transferir mediante cesión a título gratuito la propiedad de los bienes inmuebles fiscales o la porción de ellos, ocupados ilegalmente con mejoras y/o construcciones de destinación económica habitacional, siempre y cuando la ocupación ilegal haya sido efectuada por un hogar que cumpla con las condiciones para ser beneficiario del subsidio de vivienda de interés social y haya ocurrido de manera ininterrumpida con mínimo diez (10) años de anterioridad al inicio del procedimiento administrativo. La cesión gratuita se efectuará mediante resolución administrativa, la cual constituirá título de dominio y una vez inscrita en la correspondiente Oficina de Registro de Instrumentos Públicos, será plena prueba de la propiedad.

En ningún caso procederá la cesión anterior tratándose de inmuebles con mejoras construidas sobre bienes de uso público o destinados a la salud y a la educación. Tampoco procederá cuando se trate de inmuebles ubicados en zonas insalubres o zonas de alto riesgo no mitigable o en suelo de protección, de conformidad con las disposiciones locales sobre la materia.

Parágrafo 1°. Para bienes inmuebles fiscales ocupados ilegalmente con mejoras que no cuenten con destinación económica habitacional, procederá la enajenación directa del predio fiscal por su valor catastral vigente a la fecha de la oferta. El Gobierno nacional reglamentará la materia.

Parágrafo 2°. Para los procesos de cesión a título gratuito o enajenación de dominio de bienes fiscales, no aplicarán las restricciones de transferencia de derecho real o aquella que exige la residencia transcurridos diez (10) años desde la fecha de la transferencia, establecidas en el artículo 21 de la Ley 1537 de 2012.

Parágrafo 3°. En las resoluciones administrativas de transferencia mediante cesión a título gratuito, se constituirá patrimonio de familia inembargable.

Parágrafo 4°. La cesión de la que trata el presente artículo solo procederá siempre y cuando el beneficiario asuma y acredite el cumplimiento de las obligaciones fiscales pendientes de pago con la entidad territorial, generadas por el inmueble a titular por concepto de impuesto predial.

Parágrafo 5°. Las administraciones municipales o distritales podrán suprimir de los registros y cuentas de los contribuyentes de su jurisdicción mediante los procedimientos de saneamiento contable, las deudas a cargo del cedente por conceptos de tributos a la propiedad raíz respecto al bien cedido en el marco de este artículo.

Artículo 278. Instrumento para la financiación de la renovación urbana

Los municipios de categorías especial, 1 y 2, que gestionen sus propios catastros directamente o a través de esquemas asociativos territoriales y que cumplan con criterios de eficiencia en el recaudo del impuesto predial definidos por el Gobierno nacional, podrán financiar infraestructura urbana vinculada a los proyectos estratégicos de renovación urbana contemplados en sus planes de ordenamiento territorial y planes de desarrollo territorial, a través de la titularización de la totalidad o parte de los mayores valores de recaudo futuro del impuesto predial que se genere en las zonas de influencia de los respectivos proyectos estratégicos de renovación urbana durante el período necesario para cubrir el monto de la emisión.

Para estos efectos, el mayor valor del recaudo futuro del impuesto predial que se genere en las zonas de influencia de los respectivos proyectos estratégicos de renovación urbana se cederá como aporte de la entidad territorial a los patrimonios autónomos autorizados por el artículo 121 de la Ley 1450 de 2011, los cuales podrán realizar la respectiva titularización y ejecutar el proyecto de renovación urbana, sin sujeción a la limitación prevista en el artículo 76 de la Ley 617 de 2000. Tales recursos se considerarán como un menor valor del ingreso por concepto de impuesto predial, se descontarán de la capacidad de endeudamiento y por ende no se reflejarán en el presupuesto de gastos de la entidad territorial.

Para la autorización de la titularización del recaudo futuro del impuesto predial y del aporte al fideicomiso de las rentas a ceder para el desarrollo de los proyectos, por parte de los concejos municipales o distritales, las entidades territoriales deberán aplicar los procedimientos que defina el Gobierno nacional para el control de riesgos, definición de proyecto estratégico, validación de la necesidad del instrumento, y validación de la insuficiencia de los demás instrumentos de captura de valor autorizados para financiar parte de la infraestructura urbana vinculada a proyectos estratégicos de renovación urbana; así como los criterios de eficiencia en el recaudo del impuesto predial.

Parágrafo. Los procesos de titularización de que trata el presente artículo quedarán excluidos de la autorización del Ministerio de Hacienda y Crédito Público a que hace referencia el inciso 2° del artículo 3° de la Ley 358 de 1997.

  Artículo 279. Dotación de soluciones adecuadas de agua para consumo humano y doméstico, manejo de aguas residuales y residuos sólidos en áreas urbanas de difícil gestión y en zonas rurales.

Los municipios y distritos deben asegurar la atención de las necesidades básicas de agua para consumo humano y doméstico y de saneamiento básico de los asentamientos humanos de áreas urbanas de difícil gestión, y en zonas rurales, implementando soluciones alternativas colectivas o individuales, o mediante la prestación del servicio público domiciliario de acueducto, alcantarillado o aseo, de acuerdo con los esquemas diferenciales definidos por el Gobierno nacional y la reglamentación vigente en la materia.

Con el fin de orientar la dotación de infraestructura básica de servicios públicos domiciliarios o de soluciones alternativas, el Ministerio de Vivienda, Ciudad y Territorio establecerá lo que debe entenderse por asentamientos humanos rurales y viviendas rurales dispersas que hacen parte del componente rural del Plan de Ordenamiento Territorial. Las autoridades ambientales y sanitarias y la Superintendencia de Servicios Públicos Domiciliarios definirán criterios de vigilancia y control diferencial para quienes, de acuerdo con sus competencias provean el servicio de agua potable.

No obstante, este uso deberá ser inscrito en el Registro de Usuarios del Recurso Hídrico, bajo el entendido de que la autorización en el presente inciso, sustituye la respectiva concesión. Las soluciones individuales de saneamiento básico para el tratamiento de las aguas residuales domésticas provenientes de viviendas rurales dispersas que sean diseñados bajo los parámetros definidos en el reglamento técnico del sector de agua potable y saneamiento básico no requerirán permiso de vertimientos al suelo; no obstante deberán ser registro de vertimientos al suelo que para tales efectos reglamente el Gobierno nacional. Esta excepción no aplica para hacer vertimientos directos de aguas residuales a cuerpos de aguas superficiales, subterráneas o marinas.

La Infraestructura de agua para consumo humano y doméstico o de saneamiento básico en zonas rurales, podrá ser entregada de manera directa para operación y mantenimiento, como aporte bajo condición, a las comunidades organizadas beneficiadas con la infraestructura, de acuerdo con la reglamentación que para tal efecto expida el Gobierno nacional.

Parágrafo 1°. El uso del agua para consumo humano y doméstico en viviendas rurales dispersas deberá hacerse con criterios de ahorro y uso eficiente del recurso hídrico, teniendo en cuenta los módulos de consumo establecidos por la autoridad ambiental competente.

Parágrafo 2°. Las excepciones que en el presente artículo se hacen en favor de las viviendas rurales dispersas no aplican a otros usos diferentes al consumo humano y doméstico, ni a parcelaciones campestres o infraestructura de servicios públicos o privados ubicada en zonas rurales. Tampoco aplica a los acueductos que se establezcan para prestar el servicio de agua potable a viviendas rurales dispersas.

Artículo 280. Destinación de los recursos de la participación de agua potable y saneamiento básico en los distritos y municipios

Modifíquese el literal h) del artículo 11 de la Ley 1176 de 2007, el cual quedará así:

h) Adquisición de los equipos requeridos y pago del servicio de energía por concepto de la operación de los sistemas de acueducto y alcantarillado en los municipios de categorías 5a y 6a que presten directamente estos servicios, conforme a la reglamentación que establezca el Gobierno nacional, siempre y cuando estos costos no estén incluidos en las tarifas cobradas a los usuarios.

Artículo 281. Hoja de Ruta Única

Créase la Hoja de Ruta para la implementación de la política de estabilización como una herramienta que articule los instrumentos derivados del Acuerdo Final, (Plan de Acción de Transformación Regional, Planes Nacionales Sectoriales, Planes Integrales de Sustitución y Desarrollo Alternativo, Planes Integrales de Reparación Colectiva, y el Plan Marco de Implementación cuando haya lugar) los planes de las Zonas Estratégicas de Intervención Integral donde coincidan territorial y temporalmente los planes y programas sectoriales y territoriales, así como con los mecanismos de financiación y de ejecución para garantizar la concurrencia de entidades, de recursos y consolidar la acción coordinada del Gobierno nacional, las autoridades locales, la participación del sector privado y la cooperación internacional, entre otros, en los 170 municipios que componen las 16 subregiones PDET definidas en el Decreto-ley 893 de 2017. La coordinación de la Hoja de Ruta estará a cargo de la Consejería para la Estabilización y la Consolidación, o quien haga sus veces, con el acompañamiento técnico del Departamento Nacional de Planeación y la Agencia para la Renovación del Territorio. Esta Hoja de Ruta deberá tener un acuerdo de inversión y cronograma de ejecución anualizado por cada subregión, en el cual se identifiquen los proyectos, responsables, compromisos, fuentes de financiación y recursos apropiados en las entidades competentes del orden nacional y en las entidades territoriales, de acuerdo con sus competencias y autonomía. Los proyectos definidos como de impacto regional podrán ser gestionados a través de los pactos territoriales, en concordancia con el artículo 250 de la presente ley.

La Consejería para la Estabilización y la Consolidación dará los lineamientos para la articulación de los acuerdos y proyectos de inversión incluidos en la Hoja de Ruta, así como para la planeación de largo plazo, de acuerdo con las metas del Plan Nacional de Desarrollo y los compromisos del Plan Marco de Implementación (PMI).

La Consejería para la Estabilización y la Consolidación, o el funcionario que designe el Presidente de la República, formará parte del OCAD PAZ con voz y voto. Los proyectos que se financien con cargo a los recursos del OCAD PAZ, deben orientarse al desarrollo de las inversiones previstas en la Hoja de Ruta en los municipios PDET, promoviendo la eficiencia en la utilización de los recursos públicos y complementando la oferta interinstitucional del Gobierno nacional.

Parágrafo 1°. Los planes para las Zonas Estratégicas de Intervención Integral (ZEII), creadas mediante la Ley 1941 de 2018, en las zonas en que coincidan con PDET, deberán coordinarse con la Consejería para la Estabilización y la Consolidación y construirse a partir de los resultados de los procesos participativos de los Planes de Acción para la Transformación Regional.

Parágrafo 2°. Los recursos destinados a la financiación de las Zonas Estratégicas de Intervención Integral (ZEII), en ningún caso podrán comprometer los recursos definidos por el Plan Marco de Implementación para los PDET.

Parágrafo 3°. Los proyectos contemplados en la Hoja de Ruta se implementarán en articulación con las entidades nacionales y territoriales. Para el efecto las entidades territoriales gozarán de plena autonomía legal para alinear sus instrumentos de planeación a lo previsto en la Hoja de Ruta y los lineamientos generados por la Consejería para la Estabilización y la Consolidación.

Parágrafo 4°. Para el cumplimiento e implementación de la política de estabilización, en especial lo contemplado en el presente artículo, con la expedición de la presente ley, la Agencia de Renovación del Territorio cambiará su adscripción del Sector Agricultura y Desarrollo Rural al sector Presidencia de la República. En desarrollo de lo anterior, el desarrollo y ejecución del Programa Nacional de Sustitución de Cultivos Ilícitos, se efectuará por parte de la Agencia de Renovación del Territorio. Con base en las facultades permanentes que se asisten al Gobierno nacional, dentro de los seis meses siguientes a la expedición de la presente ley, se procederán a efectuar los arreglos institucionales a que haya lugar.

Artículo 282. Fortalecimiento del Fondo de Reparación para las víctimas de la violencia

Los recursos líquidos derivados de los bienes extintos que no hayan sido entregados por las FARC-EP en los términos del artículo 2° del Decreto-ley 903 de 2017, tendrán como destinación el Fondo de Reparación para las Víctimas de la Violencia al que se refiere la Ley 1448 de 2011, a excepción de los predios rurales de los que trata el inciso segundo del artículo 91 de la Ley 1708 de 2014.

La Fiscalía General de la Nación determinará los bienes que se encuentran vinculados a procesos de extinción de dominio que no correspondan al inventario de que trata el Decreto-ley 903 de 2017.

Parágrafo. Los recursos líquidos que ingresen al Fondo de Reparación para las Víctimas en cumplimiento de este artículo serán destinados a la reparación colectiva administrativa de las víctimas en el marco de lo establecido en la Ley 1448 de 2011.

 Artículo 283. Administración y destinación de bienes.

Adicionar un Parágrafo al artículo 91 de la Ley 1708 de 2017, modificada por el artículo 22 de la Ley 1849 de 2017, así:

Parágrafo 4°. Los predios rurales donde se desarrollen o vayan a desarrollar proyectos productivos por parte de la población en proceso de reincorporación serán transferidos directamente por la Sociedad de Activos Especiales a los beneficiarios de estos proyectos que indique la Agencia Nacional de Reincorporación, en los plazos que defina el Gobierno Nacional. En estos casos se configurará una excepción frente a la obligación de transferir todos los bienes rurales a la Agencia Nacional de Tierras. Se excluyen de esta previsión los bienes a que se refiere el artículo 144 de la presente ley.

  Artículo 284. Renta Básica

Modifíquese el artículo 8° del Decreto-ley 899 de 2017, así:

Artículo 8°. Renta básica. La renta básica es un beneficio económico que se otorgará a cada uno de los integrantes de las FARC-EP, una vez surtido el proceso de acreditación y tránsito a la legalidad y a partir de la terminación de las Zonas Veredales Transitorias de Normalización y durante veinticuatro (24) meses, siempre y cuando no tengan un vínculo contractual, laboral, legal y reglamentario, o un contrato de cualquier naturaleza que les genere ingresos. Este beneficio económico equivaldrá al 90% del Salario Mínimo Mensual Legal Vigente en el momento de su reconocimiento.

Una vez cumplidos los veinticuatro (24) meses anteriormente señalados, se otorgará una asignación mensual equivalente al 90% del Salario Mínimo Mensual Legal Vigente, sujeta al cumplimiento de la ruta de reincorporación, la cual se compone de: Formación Académica, Formación para el Trabajo y Desarrollo Humano, Acompañamiento Psicosocial, Generación de Ingresos, entre otros componentes que disponga el Gobierno nacional. Este beneficio no será considerado fuente de generación de ingresos y su plazo estará determinado por las normas en materia de implementación del Acuerdo Final para la Terminación del Conflicto y el Establecimiento de una Paz Estable y Duradera contenidas en este Plan Nacional de Desarrollo. Las condiciones y términos para el reconocimiento de este beneficio serán establecidas por el Gobierno nacional.

Parágrafo. Para aquellos integrantes de las FARC-EP privados de la libertad que sean beneficiados con indulto o amnistía, en el marco del Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera, el desembolso de la renta básica se realizará a partir del mes siguiente de aquel en que recupere su libertad y una vez se realicen los trámites administrativos correspondientes.

  Artículo 285. Ampliación de las obras por impuestos

El mecanismo dispuesto en el artículo 71 de la Ley 1943 de 2018 se priorizará para beneficiar a los municipios definidos en el Decreto 893 de 2017 o la reglamentación que lo modifique o sustituya.

La Agencia de Renovación del Territorio (ART) efectuará una priorización de las iniciativas para conformar el banco de proyectos de que trata el inciso tercero del artículo 71 de la Ley 1943 de 2018, de conformidad con la identificación y priorización que se haya dado en el Plan de Acción para la Trasformación Regional (PATR) o la Floja de Ruta correspondiente.

SUBSECCIÓN 6. EQUIDAD EN LOS SERVICIOS PÚBLICOS

Artículo 286. Inversión de recursos públicos en infraestructura concesionada en áreas de servicio exclusivo

La Nación y las entidades territoriales podrán continuar celebrando y ejecutando contratos para realizar obras complementarias que no correspondan a inversiones obligatorias del concesionario en Áreas de Servicio Exclusivo, con el objeto de garantizar la efectiva prestación del servicio público domiciliario de energía eléctrica, o su prestación en condiciones eficientes, sin que por ello se entienda afectado el respectivo contrato de concesión.

La entidad interesada en realizar las obras deberá informar a la entidad concedente del Área de Servicio Exclusivo su propósito para que este último informe lo pertinente al concesionario. La entidad estatal concedente y el concesionario podrán acordar los términos en que este último colaborará y apoyará la realización de las obras, sin que ello implique afectación alguna al contrato de concesión.

En todo caso, las inversiones en obras complementarias de las que trata el presente artículo serán de propiedad de la Nación y/o de las entidades territoriales, según corresponda.

Artículo 287. Servicio Público domiciliario de energía eléctrica en Zonas No Interconectadas (ZNI).

El Servicio Público Domiciliario de Energía Eléctrica en ZNI es el transporte de energía eléctrica desde la barra de entrega de energía de un Generador al Sistema de Distribución hasta el domicilio del usuario final, incluida su conexión y medición. El suministro de energía eléctrica a un domicilio mediante soluciones individuales de generación también se considera, servicio público domiciliario de energía eléctrica en ZNI.

Los recursos del Fondo de Apoyo Financiero para la Energización de las Zonas No Interconectadas (Fazni), y del Fondo de Apoyo Financiero para la Energización de las Zonas Rurales Interconectadas (FAER) se podrán utilizar para la reposición de los activos necesarios para la prestación de este servicio.

El Fondo de Energías no Convencionales y Gestión Eficiente de la Energía (Fenoge) podrá financiar proyectos de gestión eficiente de la energía y sistemas individuales de autogeneración con FNCE en ZNI y en el Sistema Interconectado Nacional, incluyendo el mantenimiento y reposición de equipos y la transferencia del dominio de los activos a los beneficiarios de los respectivos proyectos. Estas soluciones no serán objeto de asignación de subsidios de los que trata el artículo 99 de la Ley 142 de 1994.

Artículo 288. Soluciones energéticas para proyectos del Fondo de Apoyo financiero para la energización de las Zonas No Interconectadas (FAZNI).

Las entidades territoriales o entes prestadores del servicio que soliciten recursos del FAZNI y/o al Instituto de Planificación y Promoción de Soluciones Energéticas para las Zonas No Interconectadas (IPSE) para la implementación de soluciones energéticas, deberán ejecutar directa o indirectamente su administración, operación y mantenimiento, garantizando su sostenibilidad, durante el tiempo que se indique en el respectivo contrato. Si transcurridos seis (6) meses a la terminación de la implementación de la solución energética, la entidad territorial o el prestador del servicio no recibe la infraestructura y no ha gestionado su administración, operación y mantenimiento, quien haga las veces de entidad contratante dará por terminado unilateralmente el respectivo contrato o carta compromisoria e iniciará la búsqueda de prestadores del servicio u operadores de red de la región que estén debidamente inscritos en el Sistema Único de Información (SUI), para que se encarguen de la administración, operación y mantenimiento de la solución energética, según el procedimiento que para el efecto defina el Ministerio de Minas y Energía.

La entidad territorial o el prestador que solicite el proyecto y no reciba la solución energética para su administración, operación y mantenimiento, garantizando su sostenibilidad, no podrá volver a acceder a recursos de Fazni y/o del IPSE, por los siguientes cuatro años al no recibo de la solución. En caso de que la entidad territorial o el prestador del servicio subsanen la situación descrita, la entidad administradora de los recursos del Fazni o el IPSE si son recursos de dicha entidad podrá modificar o exceptuar el cumplimiento de la medida a la que hace referencia este artículo, de conformidad con los requerimientos que para tal fin establezca el Ministerio de Minas y Energía. Dichos requerimientos podrán incluir, entre otros, el pago de una compensación a favor de la entidad administradora del Fazni o del IPSE, según corresponda, por parte de la entidad territorial o del prestador incumplido, o periodos de moratoria diferentes a los acá dispuestos para el acceso a los recursos.

Aquellas entidades territoriales o entes prestadores del servicio que se comprometieron a recibir la infraestructura para la administración, operación y mantenimiento de las soluciones energéticas con recursos del Fazni o con recursos del IPSE, con antelación a la presente ley y que aún no lo han hecho, tendrán seis (6) meses a partir de la entrada en vigencia de esta ley, para recibirlas e iniciar su administración, operación y mantenimiento. Transcurrido dicho plazo, si la entidad territorial o el ente prestador del servicio no inicia la administración, operación y mantenimiento del proyecto, se aplicarán las medidas dispuestas en este artículo.

Artículo 289. Transferencias del Sector Eléctrico.

Modifíquese el artículo 54 de la Ley 143 de 1994, el cual quedará así:

Artículo 54. Los autogeneradores, las empresas que vendan excedentes de energía eléctrica, así como las personas jurídicas privadas que entreguen o repartan, a cualquier título, entre sus socios y/o asociados, la energía eléctrica que ellas produzcan, están obligados a cancelar la transferencia en los términos de que trata el artículo 45 de la Ley 99 de 1993, que será calculada sobre las ventas brutas por generación propia, de acuerdo con la tarifa que señale la Comisión de Regulación de Energía y Gas para el efecto. Para la liquidación de esta transferencia, las ventas brutas se calcularán como la generación propia multiplicada por la tarifa que señale la Comisión de Regulación de Energía y Gas para el efecto.

Para el caso de la energía producida a partir de fuentes no convencionales a las que se refiere la Ley 1715 de 2014, cuyas plantas con potencia nominal instalada total supere los 10.000 kilovatios, deberán cancelar una transferencia equivalente al 1% de las ventas brutas de energía por generación propia de acuerdo con la tarifa que para ventas en bloque señale la Comisión de Regulación de Energía y Gas (CREG). Los recursos recaudados por este concepto se destinarán así:

a) 60% se destinará en partes iguales a las comunidades étnicas ubicadas en el área de influencia del proyecto de generación para la ejecución de proyectos de inversión en infraestructura, servicios públicos, saneamiento básico y/o de agua potable, así como en proyectos que dichas comunidades definan, siempre que incidan directamente en su calidad de vida y bienestar.

En caso de no existir comunidades étnicas acreditadas por el Ministerio del Interior en el respectivo territorio, el porcentaje aquí establecido se destinará a los municipios ubicados en el área del proyecto para inversión en infraestructura, servicios públicos, saneamiento básico y/o agua potable en las comunidades del área de influencia del proyecto.

b) 40% para los municipios ubicados en el área del proyecto que se destinará a proyectos de inversión en infraestructura, servicios públicos, saneamiento básico y/o de agua potable previstos en el plan de desarrollo municipal.

Parágrafo 1°. Para efectos de la liquidación y pago de la transferencia, se entenderá que el área de influencia será la establecida en el Estudio de Impacto Ambiental y en la licencia ambiental que expida la autoridad ambiental competente.

Parágrafo 2°. En caso de comunidades étnicas, la transferencia se hará a las comunidades debidamente acreditadas por el Ministerio del Interior, que se encuentren ubicadas dentro del área de influencia del proyecto de generación, en los términos que defina el Gobierno nacional.

Parágrafo 3°. Se exceptúa de las transferencias establecidas en este artículo, a la energía producida por la que ya se paguen las transferencias por generación térmica o hidroeléctrica, establecidas en el artículo 45 de la Ley 99 de 1993 o las normas que lo modifiquen o adicionen.

Parágrafo 4°. La tarifa de la transferencia de que trata el presente artículo se incrementará a 2% cuando la capacidad instalada de generación eléctrica a partir de fuentes no convencionales de energía renovables, reportada por el Centro Nacional de Despacho, sea superior al 20% de la capacidad instalada de generación total del país.

Artículo 290. Nuevos Agentes

La Comisión de Regulación de Energía y Gas (CREG), en el marco de la función de garantizar la prestación eficiente del servicio público, de promover la competencia, evitar los abusos de posición dominante y garantizar los derechos de los usuarios, dentro de la regulación sobre servicios de gas combustible, energía eléctrica y alumbrado público, incluirá:

1. Definición de nuevas actividades o eslabones en la cadena de prestación del servicio, las cuales estarán sujetas a la regulación vigente.

2. Definición de la regulación aplicable a los agentes que desarrollen tales nuevas actividades, los cuales estarán sujetos a la regulación vigente.

3. Determinación de la actividad o actividades en que cada agente de la cadena puede participar.

4. Definición de las reglas sobre la gobernanza de datos e información que se produzca como resultado del ejercicio de las actividades de los agentes que interactúan en los servicios públicos.

5. Optimización de los requerimientos de información y su validación a los agentes de los sectores regulados.

Parágrafo 1°. No obstante, lo dispuesto en el artículo 126 de la Ley 142 de 1994, la CREG podrá modificar las fórmulas tarifarias durante su vigencia cuando ello sea estrictamente necesario y motivado en la inclusión de nuevos agentes, actividades o tecnologías, cumpliendo con los criterios establecidos en dicho artículo para la implementación de la regulación.

Parágrafo 2°. El objeto de las Empresas de Servicios Públicos Domiciliarios, junto con sus actividades complementarias, en lo que tiene que ver con la prestación de los servicios de que trata la Ley 142 de 1994, continuará siendo prevalente con respecto a las demás actividades desarrolladas por aquellas en los términos de lo dispuesto en los artículos 99 y siguientes del Código de Comercio.

Parágrafo 3°. Las competencias establecidas en este artículo podrán ser asumidas por el Presidente de la República o por el Ministerio de Minas y Energía según a quien corresponda la función delegada en la CREG.

Artículo 291. Programa de energización para la Región Pacífica

Se dará continuidad y financiación al programa de energización para zonas rurales apartadas y dispersas de la región Pacífica para el período 2018-2022, a través del fondo creado en el artículo 185 de la Ley 1753 de 2015.

  Artículo 292. Edificios pertenecientes a las Administraciones Públicas

Modifíquese el artículo 30 de la Ley 1715 de 2014, el cual quedará así:

Artículo 30. Edificios pertenecientes a las administraciones públicas. El Gobierno nacional, y el resto de administraciones públicas, en un término no superior a un año, a partir del 1° de junio de 2019, realizarán la auditoría energética de sus instalaciones y establecerán objetivos de ahorro de energía a ser alcanzadas a través de medidas de eficiencia energética y de cambios y/o adecuaciones en su infraestructura. Tales objetivos deberán implicar para el primer año un ahorro en el consumo de energía de mínimo 15% respecto del consumo del año anterior y a partir del segundo año con metas escalonadas definidas a partir de la auditoría y a ser alcanzadas a más tardar en el año 2022. Para tal efecto, cada entidad deberá destinar los recursos (presupuesto) necesarios para cumplir con tales medidas de gestión eficiente de la energía.

Artículo 293. Proyectos de expansión de redes de GLP

El Ministerio de Minas y Energía fomentará la promoción y cofinanciación de proyectos de expansión de redes de GLP para conectar a los usuarios donde sea técnica y económicamente viable y priorizará los municipios con niveles altos e intermedios de Necesidades Básicas Insatisfechas, municipios rurales y zonas de difícil acceso.

Parágrafo 1°. El Ministerio de Minas y Energía definirá los términos y condiciones para la asignación de recursos públicos destinados a la ampliación de cobertura del servicio público domiciliario de gas combustible, entre las que se incluirán las condiciones de eficiencia económica incluidas en el Plan indicativo de expansión de cobertura de gas combustible elaborado por la UPME.

Parágrafo 2°. El Ministerio de Minas y Energía definirá los términos y condiciones para la asignación de recursos del Fondo Especial Cuota de Fomento de Gas Natural (FECFGN) destinados a la ampliación de cobertura del servicio público domiciliario de gas combustible, entre las que se incluirán las condiciones de eficiencia económica incluidas en el Plan Indicativo de Expansión de cobertura de gas combustible elaborado por la UPME.

Artículo 294. Gestión del Servicio Público domiciliario de gas combustible en zonas apartadas sin servicio.

De conformidad con las competencias establecidas en el artículo 8° de la Ley 142 de 1994 y el Decreto 381 de 2012, y las normas que lo sustituyan o lo complementen, el Ministerio de Minas y Energía dirigirá la forma en que se podrán gestionar los recursos que sociedades decidan aportar para extender el uso de gas natural distribuido por redes y/o gas licuado de petróleo distribuido por redes a cabeceras municipales que no cuenten con el servicio respectivo y/o a centros poblados diferentes a la cabecera municipal, como por ejemplo las veredas, los corregimientos, caseríos y/o inspecciones de policía, que no cuenten con el servicio respectivo. Para el efecto, la persona jurídica deberá depositar los recursos mencionados en una fiducia mercantil que la misma deberá contratar, a través de la cual se aportarán los recursos a empresas prestadoras de servicios públicos domiciliarios que ejecuten proyectos dirigidos a la prestación del servicio público de gas combustible. Los aportes de estos recursos se regirán por lo establecido en el numeral 87.9 del artículo 87 de la Ley 142 de 1994.

Por otra parte, la Comisión de Regulación de Energía y Gas (CREG), establecerá los mecanismos para que los valores de los recursos de que trata este artículo, y que sean entregados a título de aporte a las empresas seleccionadas, no se incluyan en el cálculo de las tarifas correspondientes, sin perjuicio de lo establecido en el artículo 126 de la Ley 142 de 1994, de tal forma que el usuario final se beneficie durante el período tarifario correspondiente. Las empresas de servicios públicos que resulten seleccionadas y que reciban estos aportes deberán solicitar la aprobación de las tarifas por parte de la CREG, una vez reciban los recursos.

Artículo 295. Subsidios para combustibles líquidos, biocombustibles y GLP.

Los subsidios a nivel nacional para los combustibles líquidos, biocombustibles y Gas combustible, se revisarán con el fin de establecer una metodología eficiente que garantice un precio competitivo y la mejor señal de consumo para los usuarios, sostenibilidad fiscal y la pertinencia de su ajuste gradual, sin que exista concurrencia de subsidios entre estos. Así mismo, se hará una revisión al Fondo de Estabilización de Precios de los Combustibles (FEPC) a fin de establecer una metodología que posibilite una estructura con sostenibilidad fiscal a largo plazo. El Ministerio de Minas y Energía revisará los subsidios de transporte de combustibles líquidos, gas combustible y crudo, así como lo de transporte en zonas especiales y diésel marino. El Ministerio de Hacienda y Crédito Público, el Ministerio de Transporte y el Ministerio de Minas y Energía revisarán el esquema de sobretasa que aplican los municipios para considerar los nuevos energéticos que se incorporarán a la matriz para movilidad.

Los subsidios a nivel nacional para los combustibles líquidos, biocombustibles y Gas combustible para los departamentos ubicados para la zona de frontera continuarán rigiéndose por el artículo 220 de la Ley 1819 de 2016.

 Artículo 296. Matriz Energética

En cumplimiento del objetivo de contar con una matriz energética complementaria, resiliente y comprometida con la reducción de emisiones de carbono, los agentes comercializadores del Mercado de Energía Mayorista estarán obligados a que entre el 8 y el 10% de sus compras de energía provengan de fuentes no convencionales de energía renovable, a través de contratos de largo plazo asignados en determinados mecanismos de mercado que la regulación establezca. Lo anterior, sin perjuicio de que los agentes comercializadores puedan tener un porcentaje superior al dispuesto en este artículo.

El Ministerio de Minas y Energía, o la entidad a la que este delegue, reglamentará mediante resolución el alcance de la obligación establecida en el presente artículo, así como los mecanismos de seguimiento y control, sin perjuicio de la función sancionatoria de la Superintendencia de Servicios Públicos Domiciliarios (SSPD). Las condiciones de inicio y vigencia de la obligación serán definidas en dicha reglamentación.

Artículo 297. Subsidios de energía eléctrica y gas

Los subsidios establecidos en el artículo 3° de la Ley 1117 de 2006, prorrogados a su vez por el artículo 1° de la Ley 1428 de 2010, además por el artículo 76 de la Ley 1739 de 2014 y por el artículo 17 de la Ley 1753 de 2015 se prorrogan, como máximo, hasta el 31 de diciembre de 2022.

Parágrafo. Buscando la eficiencia de los recursos presupuestales destinados para financiar subsidios de energía eléctrica y gas a usuarios de menores ingresos, se implementarán medidas que permitan el cruce entre la estratificación y la información socioeconómica de los usuarios como parámetro de focalización del subsidio.

Artículo 298. Actividades relacionadas con la prestación del Servicio Público de Energía Eléctrica

Sustitúyase el artículo 74 de la Ley 143 de 1994 por el siguiente:

Las Empresas de Servicios Públicos Domiciliarios que tengan por objeto la prestación del servicio público de energía eléctrica y que hagan parte del Sistema Interconectado Nacional, podrán desarrollar las actividades de generación, distribución y comercialización de energía de manera integrada. Esta disposición aplicará también para las empresas que tengan el mismo controlante o entre las cuales exista situación de control en los términos del artículo 260 del Código de Comercio y el artículo 45 del Decreto 2153 de 1992, o las normas que las modifiquen o adicionen.

La Comisión de Regulación de Energía y Gas establecerá la regulación diferencial que fuere pertinente para la promoción de la competencia y la mitigación de los conflictos de interés en los casos de que trata el presente artículo y en los casos en que la integración existiere previamente a la expedición de la presente ley.

Parágrafo 1°. La Comisión de Regulación de Energía y Gas deberá adoptar medidas para la adecuada implementación de lo dispuesto en el presente artículo, en relación con la concurrencia de actividades de comercialización, generación y distribución en una misma empresa o en empresas con el mismo controlante o entre las cuales exista situación de control, incluyendo posibles conflictos de interés, conductas anticompetitivas y abusos de posición dominante y las demás condiciones que busquen proteger a los usuarios finales.

Parágrafo 2°. Ninguna empresa de servicios públicos domiciliarios que desarrolle en forma combinada la actividad de generación de energía, y/o la de comercialización y/o la de distribución, que represente más del 25% del total de la demanda del Sistema Interconectado Nacional, podrá cubrir con energía propia o con energía de filiales o empresas controladas, más del 40% de la energía requerida para atender la demanda de su mercado regulado. Esta restricción no aplicará a los contratos bilaterales que sean asignados en procesos competitivos en los que expresamente el Ministerio de Minas y Energía o la Comisión de Regulación de Energía y Gas en ejercicio de las funciones delegadas, dispongan que están exceptuados de esta restricción. El Gobierno nacional o la Comisión de Regulación de Energía y Gas en ejercicio de las funciones delegadas, podrá establecer un porcentaje inferior a este 40%.

 Artículo 299. Equidad regional en la prestación de los servicios de acueducto y alcantarillado.

El Ministerio de Vivienda, Ciudad y Territorio solicitará a la Comisión de Regulación de Agua Potable y Saneamiento Básico el inicio de una actuación administrativa en el marco de lo establecido en el numeral 14 del artículo 73 de la Ley 142 de 1994, cuando cuente con estudios que indiquen que es necesario para garantizar condiciones de equidad regional en la prestación de los servicios públicos de acueducto y/o alcantarillado de dos o más municipios, orientada a incrementar la cobertura, disminuir los costos en la prestación o mejorar la calidad.

El Gobierno nacional reglamentará la oportunidad, alcance y contenido de los estudios que deben soportar dicha solicitud, y definirá los criterios de participación accionaria en la creación de nuevas empresas.

Artículo 300. Zonas diferenciales para el transporte

Modifíquese el artículo 182 de la Ley 1753 de 2015, el cual quedará así:

Artículo 182. Zonas diferenciales para el transporte. Para garantizar las condiciones de accesibilidad y seguridad, promover la formalización del servicio de transporte público y garantizar a los pobladores los servicios de tránsito, el Ministerio de Transporte podrá crear zonas diferenciales para el transporte y el tránsito. Dichas zonas estarán constituidas por un municipio y/o grupos de municipios, donde no existan sistemas de transporte cofinanciados por la Nación, y cuya vocación rural o características geográficas, económicas, sociales, étnicas u otras propias del territorio impidan la normal prestación de los servicios de transporte o tránsito en las condiciones de la normativa vigente y aplicable. La extensión geográfica de la zona diferencial será determinada por el Ministerio de Transporte.

El Ministerio de Transporte y los gobiernos locales, en forma coordinada, podrán expedir reglamentos de carácter especial y transitorio en materia de servicio de transporte público o servicios de tránsito con aplicación exclusiva en estas zonas.

Los actos administrativos expedidos conforme a lo determinado como Zonas Estratégicas para el Transporte (ZET), con anterioridad a la presente ley, se entenderán sujetos a lo establecido en este artículo para las Zonas Diferenciales de Transporte y mantendrán su vigencia.

Parágrafo. En lo relacionado con el transporte escolar, el Ministerio de Educación Nacional acompañará al Ministerio de Transporte en el proceso de caracterización de las zonas diferenciales para el transporte dando prioridad a zonas rurales o de frontera, con el fin de que las autoridades territoriales en el marco de sus competencias, puedan garantizar el acceso efectivo de la población al sistema de educación.

Artículo 301. Inserción de los sistemas ferroviarios

La zona de protección, la zona de seguridad, así como las franjas de retiro obligatorio o área de reserva o de exclusión de los sistemas ferroviarios serán definidas por la entidad encargada de la administración o gestión de dicha infraestructura o por la ejecutora del proyecto, dependiendo del tipo de sistema ferroviario a ser desarrollado, previa justificación técnica. Dichas zonas deberán ser aprobadas por el Ministerio de Transporte o la Comisión de Regulación de Infraestructura y Transporte (CRIT).

En todos los casos, la zona de protección y las franjas de retiro obligatorio o las áreas de reserva o de exclusión no podrán ser inferiores al Galibo Libre de Obstáculos (GLO).

El Ministerio de Transporte definirá los parámetros técnicos y de seguridad, bajo los cuales operen, diseñen y construyan los cruces de carreteras u otras vías de comunicación, con líneas férreas existentes o que se proyecte construir. Para la fijación de estos parámetros se tendrán en cuenta, entre otras, las condiciones de tráfico, seguridad y tecnología.

Parágrafo 1°. El Ministerio de Transporte asumirá las funciones que se asignan en el presente artículo, hasta tanto la CRIT entre en funcionamiento.

Parágrafo 2°. El Instituto Nacional de Vías podrá permitir a las entidades territoriales la intervención de la totalidad o parte de las fajas de los corredores férreos, o los derechos de vía de los mismos de su propiedad, o su eventual transferencia de dominio para la construcción de infraestructura de sistemas urbanos de transporte público masivo de pasajeros de otros modos de transporte. Lo anterior, cuando se cumplan las siguientes condiciones:

(i) que el proyecto a ser ejecutado sobre un corredor férreo haya sido declarado de importancia estratégica nacional;

(ii) que el proyecto sea cofinanciado por la Nación;

(iii) que sobre el corredor actualmente no sea posible el transito férreo; y,

(iv) que no haga parte de los planes de reactivación de la red férrea nacional.

Para el efecto se deberá suscribir un convenio interadministrativo en el que se definan los términos y condiciones de la respectiva intervención, incluyendo la obligación de la entidad territorial de compensar con la administración, operación y/o mantenimiento de otro corredor férreo nacional, que haga parte de un proyecto declarado de importancia estratégica nacional. La compensación se dará por:

(i) el permiso de intervención y la modificación del respectivo modo de transporte y/o

(ii) la eventual transferencia de dominio de las áreas a que haya lugar a la respectiva entidad territorial, realizada mediante acto administrativo inscrito en la oficina de registro de instrumentos públicos.

 Artículo 302. Subvenciones rutas sociales Satena.

Modifíquese el artículo 240 de la Ley 1753 de 2015, el cual quedará así:

Artículo 240. Subvenciones rutas sociales Satena. Con el fin de promover la prestación del servicio de transporte aéreo en las regiones de difícil acceso y conectividad, el Gobierno nacional podrá otorgar subvenciones a Satena S. A., a través del presupuesto del Ministerio de Defensa Nacional, para la prestación del servicio público esencial de transporte aéreo, en aquellas rutas sociales en las cuales Satena S. A. sea el único operador.

La Unidad Administrativa Especial de Aeronáutica Civil determinará las rutas y el Gobierno nacional las condiciones de estas subvenciones, que en ningún caso podrán ser superiores al déficit que registre la empresa como resultado de atender las denominadas rutas sociales en las cuales opere de manera exclusiva.

Esta subvención tendrá una vigencia del 1° de enero al 31 de diciembre de cada anualidad y estará sujeta a la disponibilidad presupuestal del Ministerio de Defensa Nacional.

Artículo 303. Empresa de transporte naviero de Colombia

Créase una Empresa Industrial y Comercial del Estado del nivel nacional, vinculada al Ministerio de Defensa Nacional, denominada Empresa de Transporte Naviero de Colombia, con personería jurídica, patrimonio propio, autonomía administrativa y financiera, cuyo domicilio es la ciudad de Bogotá y su objeto será fomentar el desarrollo de zonas apartadas a través de la prestación del servicio público de transporte de personas y mercancías por medios marítimos y fluviales, facilitando la conexión de estas zonas con el resto del país.

Su patrimonio estará constituido por los recursos propios que generen y aquellos que recibe del Presupuesto General de la Nación.

Son órganos de administración y dirección de la Empresa de Transporte Naviero de Colombia la Junta Directiva y el Director General, sin perjuicio de los demás órganos que sean definidos por el decreto que para el efecto expida el Gobierno nacional.

Parágrafo. Por un término de cinco (5) años la disposición consagrada en el Parágrafo 2° del artículo 8° de la Ley 185 de 1995 no será aplicable para Empresa de transporte naviero de Colombia pudiendo el Gobierno nacional capitalizar la empresa para cubrir el déficit operacional.

 Artículo 304. Otras fuentes de financiación para la sostenibilidad de infraestructura de transporte

Para el financiamiento de la infraestructura, las entidades del sector transporte podrán implementar estrategias de financiación, tales como enajenación directa de activos, cobro por derechos por uso de la infraestructura de los distintos modos de transporte de su competencia. Los recursos obtenidos se destinarán al sector transporte, previa incorporación presupuestal.

Con el mismo fin, el sector transporte podrá obtener ingresos a través de publicidad en la infraestructura o anexidades existentes, en los distintos modos de transporte propiedad de la Nación administrada por obra pública o concesión.

Artículo 305. Cofinanciación de Sistemas de Transporte masivo que se conecten con los aeropuertos 

Créese una Tasa que coadyuve a la financiación de sistemas de transporte público de pasajeros del modo férreo, de alimentación eléctrica, que brinden conexión directa con los aeropuertos.

El Ministerio de Transporte establecerá la tarifa de la Tasa bajo los siguientes parámetros.

El hecho generador es la prestación efectiva del servicio público de transporte masivo de pasajeros del modo férreo conectado con el modo aéreo, siempre y cuando exista una infraestructura operativa que dé derecho al usuario a acceder a la infraestructura intermodal y a usar el servicio férreo.

Serán sujetos activos las autoridades de transporte del municipio, distrito o área metropolitana, encargados de la prestación del servicio público de transporte férreo.

Serán sujetos pasivos los usuarios del transporte público férreo que tengan como origen o destino el aeropuerto.

La metodología para fijar la tarifa es la de recuperación de costos y gastos para construcción, operación y mantenimiento de la infraestructura adicional necesaria para llegar al aeropuerto. La recuperación de costos y gastos se debe calcular en valor presente a la tasa de descuento del proyecto.

Artículo 306. Destinación de multas y sanciones.

Modifíquese el artículo 160 de la Ley 769 de 2002, el cual quedará así:

Artículo 160. Destinación de multas y sanciones. De conformidad con las normas presupuestales respectivas, el recaudo por concepto de multas y sanciones por infracciones de tránsito, se destinará a la ejecución de los planes y proyectos del sector movilidad, en aspectos tales como planes de tránsito, transporte y movilidad, educación, dotación de equipos, combustible, seguridad vial, operación e infraestructura vial del servicio de transporte público de pasajeros, transporte no motorizado, y gestión del sistema de recaudo de las multas, salvo en lo que corresponde a la Federación Colombiana de Municipios.

Parágrafo. En lo que se refiere al servicio de transporte público las entidades territoriales que cuenten con sistemas de transporte cofinanciados por la Nación priorizarán la financiación de estos sistemas.

Artículo 307. Fondo Nacional de modernización del parque automotor de carga

Créase el Fondo Nacional de Modernización del Parque Automotor de Carga, como un patrimonio autónomo constituido mediante la celebración de un contrato de fiducia mercantil por parte del Ministerio de Transporte, con el objeto de financiar el programa de modernización del parque automotor de carga.

El Fondo se financiará con:

i) el saldo de los recursos pendientes por ejecutar del “Programa de Promoción para la Reposición y Renovación del Parque Automotor de Carga”;

ii) los recursos provenientes del pago efectuado por los interesados dentro del proceso de normalización del registro inicial de vehículos de carga y/o del pago de un porcentaje del valor comercial del vehículo nuevo de carga, que reglamente el Gobierno nacional como requisito para su matrícula inicial;

iii) los recursos aportados por particulares y organismos multilaterales; y,

iv) los recursos que de manera subsidiaria aporte el Gobierno nacional de acuerdo con el marco de gasto del sector y el Marco Fiscal de Mediano Plazo.

  Artículo 308. Contribución de las concesiones al funcionamiento de la Agencia Nacional de Infraestructura (ANI) y la Unidad Administrativa Especial de Aeronáutica Civil.

De los recursos percibidos por la Nación por concepto de las concesiones férreas y aéreas se destinará un porcentaje para el funcionamiento de estas entidades, de la siguiente manera:

En las concesiones férreas y aéreas, el Gobierno nacional definirá y aplicará una fórmula que permita repartir porcentualmente los recursos recaudados por el uso de la infraestructura de cada uno de los modos para los gastos de funcionamiento de la Agencia Nacional de Infraestructura y la Unidad Administrativa Especial de Aeronáutica Civil. El porcentaje restante por concepto de recaudo por uso de la infraestructura, será destinado a financiar la construcción, mantenimiento y operación de cada modo, según corresponda.

Parágrafo. En todo caso, el porcentaje señalado en este artículo no podrá ser superior al 15% por modo para la financiación del presupuesto del funcionamiento de la ANI.

Artículo 309. Acceso a las TIC y despliegue de la infraestructura

Modifíquese el Parágrafo 1° del artículo 193 de la Ley 1753 de 2015, el cual quedará así.

Parágrafo 1°. Los alcaldes podrán promover las acciones necesarias para implementar la modificación de los planes de ordenamiento territorial y demás normas distritales o municipales que contengan barreras al despliegue de infraestructura para la prestación de servicios de telecomunicaciones. El Ministerio de Tecnologías de la Información y las Comunicaciones priorizará a aquellas entidades territoriales que hayan levantado tales barreras, incluyéndolas en el listado de potenciales candidatos a ser beneficiados con las obligaciones de hacer que el Ministerio puede imponer a los proveedores de redes y servicios de telecomunicaciones móviles, como mecanismo de ampliación de cobertura de servicios de telecomunicaciones. Para constatar la inexistencia y remoción de las barreras en mención, el alcalde deberá solicitar a la Comisión de Regulación de Comunicaciones o a quien haga sus veces que, en ejercicio de las facultades que le confiere el presente artículo, constate si las barreras ya fueron levantadas. Una vez la Comisión de Regulación de Comunicaciones acredite que la respectiva entidad territorial no presenta barreras al despliegue de infraestructura de telecomunicaciones, el Ministerio de Tecnologías de la Información incluirá al municipio en el listado antes mencionado.

Artículo 310. Expansión de las Telecomunicaciones

Modifíquese el artículo 194 de la Ley 1753 de 2015, el cual quedará así:

Artículo 194. Expansión de las telecomunicaciones. El Gobierno nacional, a través del Ministerio de Tecnologías de la Información y las Comunicaciones (MinTIC), diseñará e implementará planes, programas y proyectos que promuevan en forma prioritaria el acceso y el servicio universal a las Tecnologías de la Información y las Comunicaciones (TIC). Igualmente, en coordinación con la Autoridad Nacional de Televisión (ANTV), o quien haga sus veces, se promoverá el diseño o implementación de planes, programas y proyectos para el desarrollo de la Televisión Digital Terrestre (TDT) y Direct to Home (DTH) para que estas lleguen a todo el territorio nacional. Para el efecto:

1. El MinTIC priorizará las iniciativas de acceso público a Internet, en beneficio de la población pobre y vulnerable, o en zonas apartadas.

2. El MinTIC podrá adelantar iniciativas de masificación del acceso a Internet con participación del sector privado, mediante cualquiera de los mecanismos de contratación dispuestos en las normas vigentes.

3. El MinTIC y la ANTV, o quien haga sus veces, promoverán, respectivamente, que las entidades públicas e instituciones educativas del orden nacional y territorial financien sus necesidades de conectividad a Internet, TDT y DTH, sin perjuicio de la cooperación para el desarrollo de proyectos orientados a la satisfacción de necesidades de acceso y uso de Internet y acceso a TDT y DTH de la población pobre y vulnerable, o en zonas apartadas.

4. El MinTIC, para la implementación de las iniciativas de acceso público a Internet, podrá impulsar estrategias que fomenten el uso de tecnologías costo-eficientes bajo condiciones regulatorias especiales que sean definidas para el efecto por el regulador y mecanismos que optimicen la inversión en capacidad satelital u otras alternativas.

5. El MinTIC implementará iniciativas de estímulo a la oferta y a la demanda de servicios de telecomunicaciones en beneficio de la población pobre y vulnerable, incluyendo el fomento al despliegue de redes de acceso y expansión de cobertura, así como subsidios o subvenciones para la prestación de los servicios o el suministro de terminales, entre otros.

6. El Fondo de las Tecnologías de la Información y las Comunicaciones (Fontic), o quien haga sus veces, podrá promover la prestación del servicio de internet a través de los operadores de televisión comunitaria, previa inscripción e incorporación de estos en el registro TIC. Para el efecto, podrá suscribir convenios de asociación con entidades sin ánimo de lucro, de reconocida idoneidad, en los términos de los artículos 355 de la Constitución Política y 96 de la Ley 489 de 1998.

7. El MinTIC podrá establecer obligaciones de hacer como forma de pago de la contraprestación económica por el otorgamiento o renovación de los permisos de uso del espectro radioeléctrico, para ampliar la calidad, capacidad y cobertura del servicio, que beneficie a población pobre y vulnerable, o en zonas apartadas, en escuelas públicas ubicadas en zonas rurales y otras instituciones oficiales como centros de salud, bibliotecas públicas e instituciones educativas, así como prestar redes de emergencias. Las inversiones a reconocer serán determinadas por el MinTIC de acuerdo con la reglamentación que expida al respecto;

El Fontic, o quien haga sus veces, podrá financiar el desarrollo de las iniciativas contenidas en los numerales 1 al 6 del presente artículo.

Parágrafo 1°. Los estímulos de que trata el presente artículo tendrán un periodo máximo de aplicación definido en la reglamentación del programa y un desmonte ajustado a una senda gradual decreciente, siempre que guarden consistencia con la proyección de ingresos del Fontic, o quien haga sus veces.

Parágrafo 2°. Los recursos que se destinen y asignen para dar cumplimiento a lo dispuesto en este artículo, deberán ser consistentes con el Marco Fiscal de Mediano Plazo y el Marco de Gasto del Sector Tecnologías de la Información y las Comunicaciones.

Artículo 311. Contraprestaciones a cargo de los operadores postales

Adiciónese el Parágrafo 3° al artículo 14 de la Ley 1369 de 2009, así:

Parágrafo 3°. La contraprestación periódica de que trata este artículo y el valor que deben pagar los operadores postales para ser inscritos en el Registro de Operadores Postales o renovar su inscripción podrá pagarse mediante la ejecución de obligaciones de hacer, que serán previamente autorizadas por el Ministerio de Tecnologías de la Información y las Comunicaciones, de acuerdo con la reglamentación que este defina al respecto. Estas obligaciones deberán ejecutarse mediante proyectos que permitan masificar el acceso universal a Internet en todo el territorio nacional, a través del aprovechamiento de las redes postales, que beneficie a población pobre y vulnerable, o en zonas apartadas. Las inversiones por reconocer serán determinadas por el Ministerio de Tecnologías de la Información y las Comunicaciones. Estas obligaciones contarán con una supervisión o interventoría técnica, administrativa y financiera a cargo del Ministerio, que garantice transparencia y cumplimiento de las obligaciones de hacer. Los recursos necesarios para financiar la supervisión o interventoría deberán ser garantizados por el Fondo de Tecnologías de la Información y las Comunicaciones, o quien haga sus veces.

La ejecución de las obligaciones de hacer de que trata el presente artículo, por parte de los operadores postales, no implica la modificación de la clasificación legal de los servicios postales para los cuales se encuentra habilitado conforme lo define la Ley 1369 de 2009. Esto incluye el cumplimiento de todas las demás obligaciones de origen legal, reglamentario, regulatorio, aplicables al servicio.

 SUBSECCIÓN 7. EQUIDAD PARA LA EFICIENTE PRESTACIÓN DEL SERVICIO PÚBLICO DE ENERGÍA EN LA COSTA CARIBE

Artículo 314. Declarado INEXEQUIBLE mediante Sentencia de la Corte Constitucional C-464 de 2020.

Artículo 315. Sostenibilidad del Servicio Público mediante la asunción de pasivos

Con el fin de asegurar la prestación eficiente y sostenible del servicio público de distribución y comercialización de electricidad en la Costa Caribe del país, en desarrollo del artículo 365 de la Constitución Política, autorícese a la Nación a asumir directa o Indirectamente el pasivo pensional y prestacional, así como el pasivo de Electrificadora del Caribe S.A. E.S.P. asociado al Fondo Empresarial de la siguiente manera:

i) el pasivo pensional y prestacional correspondiente a la totalidad de las pensiones y cesantías, ciertas o contingentes, pagaderas a los pensionados de Electrificadora del Caribe S.A. E.S.P. y a las obligaciones convencionales, ciertas o contingentes, adquiridas por la causación del derecho a recibir el pago de la pensión convencional de jubilación y/o legal de vejez;

ii) el pasivo de Electrificadora del Caribe S.A. E.S.P. con el Fondo Empresarial correspondiente a las obligaciones en las cuales el Fondo haya incurrido o incurra, incluyendo garantías emitidas.

Parágrafo 1°. Para viabilizar el desarrollo de esta Subsección, autorícese a la Nación para constituir patrimonios autónomos, fondos necesarios para tal efecto, o una o más sociedades por acciones cuyo objeto principal sea adelantar las operaciones actualmente adelantadas por Electrificadora del Caribe S.A. E.S.P., para lo cual sus patrimonios podrán estar integrados, entre otros, por los activos de Electrificadora del Caribe S.A. E.S.P. Estas sociedades que el Gobierno nacional decida constituir serán empresas de servicios públicos domiciliarios, sometidas a la Ley 142 de 1994 y demás normas complementarias, vinculadas al Ministerio de Hacienda y Crédito Público, con domicilio en la Costa Caribe. Su denominación y demás requisitos de estructura orgánica serán definidos por el Gobierno nacional. Los activos de estos podrán incluir, entre otras, rentas, tasas, contribuciones, recursos del Presupuesto General de la Nación, y las demás que determine el Gobierno nacional tales como los derechos litigiosos, cuentas por cobrar de la Nación y otras entidades públicas a Electrificadora del Caribe S.A. E.S.P. y/o a los causantes de la necesidad de la toma de posesión.

Parágrafo 2°. Para la gestión y el pago del pasivo pensional y prestacional, la Nación – Superintendencia de Servicios Públicos Domiciliarios, mediante la celebración de un contrato de fiducia mercantil, constituirá el patrimonio autónomo – Foneca cuyo objeto será recibir y administrar los recursos que se transfieran, así como, pagar el pasivo pensional y prestacional, como una cuenta especial, sin personería jurídica cuyos recursos serán administrados por quien determine el Gobierno nacional. Los recursos y los rendimientos de este fondo tendrán destinación específica para pagar el pasivo pensional y prestacional, así como los gastos de administración del patrimonio autónomo. Los recursos que el Foneca pueda recibir como consecuencia de un proceso de vinculación de capital para la operación de la prestación del servicio de energía eléctrica en la Costa Caribe, se transferirán directamente al patrimonio autónomo sin que se requiera operación presupuestal para tales efectos.

Parágrafo 3°. La Nación, el Fondo Empresarial o cualquier entidad del orden nacional, podrán llevar a cabo los actos necesarios para cumplir con los objetivos aquí planteados, incluyendo, entre otros, la cancelación de garantías y la condonación de obligaciones y los demás modos de extinción de las obligaciones. La asunción de los pasivos en los términos de esta Subsección no requerirá autorizaciones adicionales a las aquí previstas.

Parágrafo 4°. Ninguna actuación por parte de la Nación, la SSPD o el Fondo Empresarial desplegada para el cumplimiento de lo dispuesto en los artículos de esta Subsección, podrá interpretarse como reconocimiento de su responsabilidad por la situación de Electrificadora del Caribe S.A. E.S.P. ni como una renuncia a obtener cualquier indemnización frente a los responsables de los perjuicios causados, lo anterior teniendo en cuenta la situación financiera y operativa de la citada que dieron origen al proceso de toma de posesión que se adelanta por la SSPD, con el fin de salvaguardar la prestación del servicio de energía eléctrica en los 7 departamentos de la Costa Atlántica.

  Artículo 316. Términos y condiciones de las medidas de sostenibilidad

Como contraprestación por la asunción de los pasivos la Nación – Ministerio de Hacienda y Crédito Público directa o indirectamente adquirirá una o más cuentas por cobrar a cargo de Electrificadora del Caribe S.A. E.S.P. El Conpes determinará: a) el monto de las cuentas por cobrar con base en el concepto previo emitido por la Dirección General de Regulación Económica de la Seguridad Social del MHCP, a partir de la información que reciba del agente interventor de Electricaribe S.A. E.S.P., en cuanto al pasivo pensional y al pasivo prestacional, y de la SSPD en cuanto al pasivo asociado al Fondo Empresarial; b) los mecanismos para actualizar dichos montos hasta la fecha efectiva de la asunción del pasivo previsto en esta Subsección.

El Gobierno nacional reglamentará los términos y condiciones de la asunción de pasivos y aquellos aspectos conexos de la vinculación de capital privado, público o mixto, a través de uno o varios oferentes, a la solución estructural de la prestación del servicio público de energía eléctrica en la Costa Caribe en el marco de esta Subsección. La eventual insuficiencia de las fuentes de pago de las deudas de Electrificadora del Caribe S.A. E.S.P. con la Nación o el Fondo Empresarial, se entenderán como gastos necesarios para asegurar la prestación eficiente del servicio público de distribución y comercialización de electricidad en la Costa Caribe del país. En consecuencia, dicha gestión no se enmarcará en lo dispuesto por el artículo 6° de la Ley 610 de 2000 para servidores y contratistas del Estado o las normas que la modifiquen, por cuanto obedecen al cumplimiento de los cometidos y de los fines esenciales del Estado. Lo anterior sin perjuicio de las reclamaciones que pueda instaurar la nación y otras entidades públicas para el cobro de las indemnizaciones que correspondan contra Electrificadora del Caribe S.A. E.S.P. y/o a los causantes de la necesidad de la toma de posesión.

Los documentos relacionados con la asunción de la deuda y el desarrollo del objeto de esta ley inciden en la estabilidad macroeconómica y financiera del país y se considerarán estudios técnicos de valoración de los activos de la Nación. En caso de que la asunción de los pasivos de los que trata el artículo anterior, se dé en virtud de un proceso de vinculación de capital privado, público o mixto, el Consejo de Ministros o una comisión conformada por dicho órgano, podrá determinar un valor de referencia a partir del cual se habilita la asunción de pasivos para el caso en que ello esté ligado a un proceso de vinculación de capital, que estará sujeto a reserva. El Gobierno nacional podrá decidir que dicha reserva se levante en cualquier momento del curso del proceso de vinculación de capital, o en un momento posterior.

La cuenta por cobrar que corresponda al pasivo pensional y al pasivo prestacional tendrá prelación sobre la parte de la cuenta por cobrar que corresponda al pasivo asociado al Fondo Empresarial. Por tratarse de medidas de salvamiento, estas cuentas por cobrar tendrán prelación en su pago sobre todos los pasivos a cargo de Electrificadora del Caribe S.A. E.S.P.

Parágrafo 1°. Sin perjuicio de las cuentas por cobrar y las acciones indemnizatorias a las que haya lugar, una vez asumidos los pasivos, para viabilizar la sostenibilidad de las nuevas empresas prestadoras de servicios públicos, la Nación-MHCP, o quien esta determine, será el único deudor frente a los acreedores de las deudas asumidas, sin que se predique solidaridad.

Parágrafo 2°. El reconocimiento y pago de los derechos pensionales y prestacionales que sea asumido directa o indirectamente por la Nación de conformidad con esta ley, seguirán rigiéndose por las normas vigentes sobre la materia. En todo caso para garantizar el derecho fundamental a la seguridad social y la sostenibilidad del Fondo Empresarial, la Nación-MHCP será el garante subsidiario de dichos pasivos.

Artículo 317. Preservación del servicio

Para la preservación del servicio son aplicables al desarrollo de esta Subsección, los artículos 38 y 61 de la Ley 142 de 1994. En consecuencia, los actos jurídicos mediante los cuales se implemente el objeto de esta subsección no se afectarán como consecuencia de la ineficacia que pueda declararse respecto de los demás actos relacionados con la toma de posesión o liquidación de Electrificadora del Caribe S.A. E.S.P. Esto incluye los actos necesarios para asegurar la continuidad en la prestación del servicio público domiciliario, en razón a la situación de la empresa al momento de la intervención incluyendo una eventual capitalización de Electrificadora del Caribe S.A. E.S.P. (o las sociedades creadas en el marco de la toma de posesión), la cual se autoriza mediante lo aquí dispuesto, el pago por parte de uno o varios particulares a Electrificadora del Caribe S.A. E.S.P, o cualquier solución empresarial que se adopte para garantizar la prestación del servicio de energía eléctrica en el corto, mediano y largo plazo.

Para efectos del proceso de vinculación de capital que se efectúe en desarrollo de esta Subsección, no causarán tasa, contribución o impuestos de cualquier orden, los siguientes actos:

a) Las actuaciones llevadas a cabo por entidades públicas o por particulares, o los efectos percibidos por las mismas, en desarrollo de lo previsto en los artículos anteriores de esta Subsección, excluyendo las actividades para la operación de Electricaribe S.A. E.S.P. o la operación de las sociedades que se creen para la prestación del servicio público de electricidad en la Costa Caribe;

b) La constitución y la realización de aportes a las sociedades que se lleguen a constituir como parte del proceso de adopción de medidas para asegurar la prestación eficiente del servicio público de distribución y comercialización de electricidad en la Costa Caribe; y

c) La enajenación de acciones de los vehículos jurídicos que se desarrollen o constituyan en el marco del proceso de adopción de medidas para asegurar la prestación eficiente del servicio público de distribución y comercialización de electricidad en la Costa Caribe para la vinculación de un Inversionista.

Electrificadora del Caribe S.A. E.S.P. podrá realizar, mediante documento privado, un listado individualizado de los bienes inmuebles que considere transferir a terceros, incluyendo los vehículos que se constituyan en el marco del proceso de toma de posesión de Electrificadora del Caribe S.A. E.S.P. Dicho listado será el título suficiente para llevar a cabo la tradición de los Inmuebles, la cual se perfeccionará con la inscripción de dicho listado en las respectivas oficinas de instrumentos públicos.

El registro de cualquiera de estos actos no causará el Impuesto de registro.

Parágrafo 1°. Cualquier transferencia de activos que Electrificadora del Caribe S.A. E.S.P. lleve a cabo a favor de cualquier vehículo jurídico que se desarrolle o constituya en el marco del proceso de toma de posesión de esta sociedad, no estará sujeta a las normas sobre la transferencia de establecimientos de comercio establecidas en los artículos 525 y siguientes del Código de Comercio.

Parágrafo 2°. Las disposiciones tributarias a las que se refiere este artículo, no se aplicarán a las actividades propias de la operación y la prestación del servicio público de energía por parte de Electricaribe S.A. E.S.P. o de las sociedades que se creen para la prestación del servicio público de electricidad en la Costa Caribe.

Parágrafo 3°. Las Comisiones Cuartas Permanentes Constitucionales de Cámara y Senado designarán a dos representantes de cada una de esas Comisiones para adelantar el seguimiento y la implementación de lo señalado en el presente artículo.

  Artículo 318. Régimen transitorio especial para asegurar la sostenibilidad de la prestación eficiente del servicio

Con el fin de asegurar la prestación eficiente y sostenible del servicio público domiciliario de energía eléctrica en la Costa Caribe, teniendo en cuenta el estado de Electricaribe S.A. E.S.P. al momento de su Intervención, autorícese al Gobierno nacional para establecer un régimen transitorio especial en materia tarifaria para las actividades de distribución y comercialización del actual mercado de Electrificadora del Caribe S.A. E.S.P. o las empresas derivadas de Electrificadora del Caribe S.A. E.S.P. que se constituyan en el marco del proceso de toma de posesión de esta sociedad para las regiones en las se preste el servicio público. Para estos efectos, los límites en la participación de la actividad de comercialización de energía eléctrica podrán ser superiores hasta en diez puntos porcentuales adicionales al límite regulatorio corriente.

Este régimen regulatorio especial deberá establecer que la variación en las tarifas para esta región sea al menos igual a la variación porcentual de tarifas del promedio nacional, en la medida en que refleje, como mínimo, las inversiones realizadas, el cumplimiento de las metas de calidad y de reducción de pérdidas. El Gobierno nacional definirá el plazo máximo de aplicación del este régimen transitorio especial.

Parágrafo 1°. Con recursos provenientes del sistema general de regalías se podrán financiar inversiones en infraestructura eléctrica, como aportes que no incidirán en la tarifa.

Parágrafo 2°. Las entidades estatales que sean deudoras de Electricaribe S.A. E.S.P. deberán tomar las medidas necesarias para cumplir con las obligaciones que se derivan del servicio público de energía. El incumplimiento por parte de cualquier entidad estatal de sus deberes como usuarios de servicios públicos, especialmente en lo relativo a la incorporación en los respectivos presupuestos de apropiaciones suficientes y al pago efectivo de los servicios utilizados, es causal de mala conducta para sus representantes legales y los funcionarios responsables, sancionable con destitución.

SUBSECCIÓN 8. EQUIDAD EN MATERIA AMBIENTAL

Artículo 319. Pago por servicios ambientales en territorios indígenas

Modifíquese el inciso segundo del artículo 3° del Decreto-ley 870 de 2017 y adiciónense dos Parágrafos, así:

El Gobierno nacional y las organizaciones indígenas que asisten a la Mesa Permanente de Concertación (MPC) construirán de manera conjunta la propuesta de reglamentación de Pago por Servicios Ambientales (PSA) y otros incentivos de conservación para los pueblos y comunidades indígenas, y radicarán esta propuesta ante la MPC una vez entre en vigencia la Ley del Plan Nacional de Desarrollo (PND), para incluir su respectivo proceso de consulta previa con los pueblos y organizaciones indígenas.

Parágrafo 1°. El presente artículo, se interpretará sin detrimento del derecho a la consulta previa sobre el PSA e incentivos a la conservación para los demás grupos étnicos del país.

Parágrafo 2°. Aplicación del incentivo de Pago por Servidos Ambientales (PSA) en territorios de Pueblos Indígenas. Para el diseño e implementación de PSA en territorios indígenas de que trata el artículo 3° de Decreto-ley 870 de 2017, se aplicará con carácter transitorio lo dispuesto por el Decreto 1007 de 2018 y las normas que les modifiquen o complementen, y adicionalmente se tendrán en cuenta las siguientes consideraciones:

1. Los Proyectos de PSA en territorios indígenas serán de carácter voluntario entre las partes, reconocerán las prácticas tradicionales de producción, estarán en armonía con los instrumentos de planificación propios y garantizarán la adecuada participación, autonomía y libre autodeterminación de las comunidades indígenas.

2. Los pueblos indígenas serán beneficiarios del incentivo de manera colectiva de acuerdo a los procedimientos que de manera autónoma se establezcan en sus territorios.

3. La concertación en el marco del PND 2018-2022 sobre el incentivo de PSA servirá de marco para el diseño e implementación de proyectos específicos de PSA en territorios indígenas.

  Artículo 320. Aplicación del incentivo de Pago por Servicios Ambientales (PSA) en consejos comunitarios u organizaciones de base de Comunidades Negras, Afrocolombianas, Raizales y Palenqueras

Para el diseño e implementación de proyectos de PSA en sus territorios de que trata el artículo 3° del Decreto-ley 870 de 2017, se aplicará lo establecido por el Decreto 1007 de 2018 y las normas que le modifiquen o complementen, y adicionalmente se tendrán en cuenta las siguientes consideraciones:

1. Los proyectos de PSA en territorios de comunidades negras, afrodescendientes, raizales y palenqueras serán de carácter voluntario entre las partes, reconocerán las prácticas tradicionales de producción, estarán en armonía con los instrumentos de planificación propios y garantizarán la adecuada participación, autonomía y libre autodeterminación de las comunidades étnicas.

2. Las comunidades negras, afrocolombianas, raizales y palenqueras serán beneficiarias del incentivo de manera colectiva de acuerdo con los procedimientos que de manera autónoma se establezcan en sus territorios.

3. La consulta previa del presente articulado sobre el incentivo de pago por servicios ambientales servirá de marco para el diseño e implementación de proyectos específicos de pago por servicios ambientales en territorios de las comunidades negras, afrocolombianas, raizales y palenqueras.

 Artículo 321. Actualización del valor de la inversión de no menos del 1%, de competencia de la Autoridad Nacional de Licencias Ambientales (ANLA)

Todos aquellos titulares de una licencia ambiental que tengan inversiones pendientes a la fecha de promulgación de la presente ley, relativas a la inversión forzosa de no menos del 1% de que trata el Parágrafo del artículo 43 de la Ley 99 de 1993, podrán acogerse al porcentaje de incremento del valor de la base de liquidación de la inversión forzosa de no menos del 1%, según el año de inicio de actividades autorizadas en la licencia ambiental, de acuerdo con lo señalado en la siguiente tabla:

Año de inicio de actividades                                       Porcentaje de incremento del valor

autorizadas en la Licencia Ambiental                      de la base de liquidación de la inversión

                                                                                              forzosa de no menos del 1%

1993-2000                                                                         45%

2001-2006                                                                         35%

2007-2018                                                                         10%

Las inversiones ejecutadas o que estén en proceso de ejecución en el marco de un plan de inversión del 1% aprobado por la Autoridad Nacional de Licencias Ambientales (ANLA), no serán tenidas en cuenta para efectos del cálculo de la actualización del valor de la base de liquidación de la inversión del 1%.

Para acogerse deberán presentar la solicitud dentro de los seis (6) meses siguientes a la promulgación de la presente ley, junto con:

a) el certificado que soporta el cálculo de la base de liquidación;

b) el plan de inversión con la base actualizada aplicando el porcentaje de incremento definido en la tabla anterior;

c) la proyección financiera para la ejecución del plan de inversión y

d) el cronograma del plan de inversión del 1% con inicio de ejecución no superior a los seis (6) meses siguientes de la aprobación de la solicitud de acogimiento.

En caso de no ejecutar las inversiones de acuerdo con el cronograma, por un tiempo superior a un año fiscal, deberán actualizar los valores no ejecutados, de acuerdo con la fórmula señalada en el Parágrafo 1° del presente artículo.

Para los que se acojan o no al presente artículo y los nuevos titulares de licencia, la liquidación de la inversión se realizará de conformidad con los siguientes ítems:

a) adquisición de terrenos e inmuebles,

b) obras civiles,

c) adquisición y alquiler de maquinaria y equipo utilizado en las obras civiles y

d) constitución de servidumbres.

Los costos y gastos, incluidos los capitalizados en el activo, a que se refieren los literales anteriores, corresponden a los realizados en las etapas previas a la producción de proyectos, obras o actividades sujetos de licenciamiento ambiental o aquellas modificaciones de proyectos, obras o actividades que tengan como instrumento de control un plan de manejo ambiental, siempre y cuando dicha modificación cumpla con las condiciones establecidas en la reglamentación vigente.

Parágrafo 1°. Para aquellos que no se acojan al presente artículo, deberán presentar la actualización de la base de inversión del 1% de los valores no ejecutados, dentro de los siete (7) meses siguientes a la promulgación de la presente ley, junto con: a) el certificado que soporta la actualización del cálculo de la base de liquidación, b) el plan de inversión con la base actualizada aplicando la fórmula del presente Parágrafo, c) la proyección financiera para la ejecución del plan de inversión y d) el cronograma del plan de inversión del 1% con inicio de ejecución no superior a los seis (6) meses siguientes de la aprobación del plan de inversión actualizado. El incremento de la actualización de la base de liquidación de la inversión forzosa de no menos del 1%, será calculado así:

VBL = VIRa *(IPC actual/ IPC inicial), donde, VBL (Valor de la base de liquidación): es el valor en pesos (COP) de la base de liquidación de la inversión forzosa del 1% certificado de acuerdo con lo señalado en el Parágrafo 3 del presente artículo, actualizada al mes de diciembre del año anterior a la fecha de presentación de la actualización.

VIRa (Valor de la Inversión realizada para cada año): es el valor en pesos (COP) correspondiente a las inversiones realizadas del proyecto para cada año, durante su ejecución.

IPC actual: corresponde al último valor del IPC a diciembre del año anterior reportado por el DAÑE, en índice – serie de empalme, con respecto a la fecha de presentación del plan de inversiones actualizado ante la ANLA.

IPC inicial: corresponde al valor del IPC reportado por el DANE, en índice – serie de empalme, para el año en el que se ejecutó la inversión o actividad del proyecto, tomando el que corresponda al mes de diciembre.

El valor total de la base actualizada de liquidación de la Inversión de no menos del 1% será la sumatoria de los VBL de cada año. Las inversiones ejecutadas o que estén en proceso de ejecución en el marco de un plan de inversión del 1% aprobado por la ANLA, no serán tenidas en cuenta para efectos del cálculo de la actualización del valor de la base de liquidación de la inversión del 1%. La actualización del valor de la base de liquidación del 1% deberá ser realizada con corte a 31 de diciembre de cada año fiscal y deberá ser presentada a más tardar a 31 de marzo del año siguiente.

Parágrafo 2°. Para los titulares de licencias ambientales expedidas a partir del primero de enero de 2019, que no ejecuten las inversiones obligatorias del 1% en los años definidos en el cronograma del plan de inversiones aprobado por la ANLA, deberán actualizar los valores no ejecutados, de acuerdo con la fórmula señalada en el Parágrafo 1° del presente artículo.

Parágrafo 3°. El certificado de la base de liquidación será suscrito por el revisor fiscal o contador público, según el caso, o mediante documento equivalente firmado por el representante legal de la empresa, cuyo contenido se presumirá veraz en virtud del principio constitucional de buena fe, sin perjuicio de la posibilidad de ejercer las acciones legales procedentes en caso de falta de veracidad de la información.

Artículo 322. Reforestación con árboles nativos

Los programas de reforestación propuestos por el Gobierno nacional deberán dar prioridad a la siembra de árboles nativos con esquemas de georreferenciación.

Artículo 323. Plan Maestro de erosión costera

El Gobierno nacional implementará el “Plan Maestro de Erosión Costera” para la recuperación de playas, ecosistemas marinos y de manglares como estrategia de fortalecimiento, fomento y promoción del turismo, que a su vez permita contrarrestar el devastador efecto que produce la erosión costera en el litoral Caribe, litoral Pacífico y en el archipiélago de San Andrés, Providencia y Santa Catalina.

Adicionalmente, se deberán crear estrategias que permitan identificar, cuantificar, priorizar y recuperar los ecosistemas afectados como herramienta de desarrollo ambiental, turístico y económico, además de cumplir con la responsabilidad que en materia ambiental deben tener el Estado y sus entidades descentralizadas, fomentando la inclusión del sector privado.

  Artículo 324. Política de Protección y Bienestar de animales domésticos y silvestres

El Gobierno nacional, bajo el liderazgo del Ministerio de Ambiente y Desarrollo Sostenible, con la participación del Ministerio de Salud y la Protección Social, Ministerio de Agricultura y Desarrollo Rural, Ministerio del Interior, Departamento Nacional de Planeación y demás entidades competentes, formulará la Política Nacional de Protección y Bienestar de Animales Domésticos y Silvestres, para lo cual tendrá un plazo de seis (6) meses contados a partir de la expedición de la presente ley.

Esta política establecerá lineamientos en materia de bienestar de animales de granja; animales en situación de calle; animales maltratados; especies silvestres objeto de tráfico ilegal; entre otros, y definirá estrategias, programas y propuestas de normatividad para la protección animal, tales como la formación en tenencia responsable; las campañas de esterilización; la creación de centros territoriales de bienestar, la rehabilitación y asistencia integral de fauna doméstica y silvestre; la sustitución progresiva de vehículos de tracción animal; y el fortalecimiento de la investigación y procesamiento de los delitos contra los animales, con el fin de erradicar en el país toda forma de violencia, crueldad, tráfico y comercio ilegal de animales.

  Artículo 325. Trámite solicitudes de formalización de minería tradicional.

Las personas naturales, grupos o asociaciones que presentaron solicitud de formalización de minería tradicional hasta el 10 de mayo de 2013 ante la autoridad minera competente y que a la fecha de promulgación de esta ley se encuentran vigentes y en área libre, continuarán su trámite con el fin de verificar la viabilidad técnica del desarrollo del proyecto minero de pequeña minería. Si la solicitud no se encuentra en área libre esta se rechazará salvo lo dispuesto en el inciso tercero del presente artículo. En caso de que la superposición sea parcial se procederá a los recortes respectivos. La autoridad minera resolverá estas solicitudes en el término de un (1) año contado a partir de la viabilidad técnica de la solicitud.

Una vez verificada la viabilidad de la solicitud, la autoridad minera requerirá al solicitante para que presente en un plazo máximo de cuatro (4) meses el Programa de Trabajos y Obras (PTO) a ejecutar y la licencia ambiental temporal para la formalización en los términos del artículo 22 de esta ley, so pena de entender desistido el trámite de formalización. En caso de que se formulen objeciones al PTO y estas no sean subsanadas se procederá al rechazo de la solicitud. Una vez aprobado el PTO y el Plan Manejo Ambiental (PMA) o licencia ambiental temporal se procederá con la suscripción del contrato de concesión.

En el evento en que las solicitudes de formalización de minería tradicional se hayan presentado en un área ocupada totalmente por un título minero y se encuentre vigente a la fecha de promulgación de la presente ley, la autoridad minera procederá a realizar un proceso de mediación entre las partes. De negarse el titular minero a la mediación o de no lograrse un acuerdo entre las partes, se procederá por parte de la autoridad minera al rechazo de la solicitud de formalización.

A partir de la promulgación de esta ley y mientras no se resuelva de fondo el trámite de la solicitud de formalización de minería tradicional no habrá lugar a la aplicación de las medidas previstas en los artículos 161 y 306 de la Ley 685 de 2001, ni a proseguir las acciones penales señaladas en los artículos 159 y 160 de esta misma ley, sin perjuicio de la aplicación de las medidas preventivas y sancionatorias de carácter ambiental, así como las relacionadas con la seguridad minera.

Artículo 326. Requisitos diferenciales para contrato de concesión minera.

El Gobierno nacional definirá los requisitos diferenciales para el otorgamiento del contrato de concesión a los mineros de pequeña escala, beneficiarios de devolución de área y comunidades étnicas. Así mismo, el Ministerio de Ambiente y Desarrollo Sostenible establecerá los términos de referencia diferenciales para la elaboración del estudio de impacto ambiental requerido para el licenciamiento ambiental a estos proyectos mineros.

Los mineros de pequeña escala, los beneficiarios de devolución de áreas y las comunidades étnicas una vez suscriban el contrato de concesión minera, contarán con un acompañamiento técnico integral y serán objeto de fiscalización diferencial.

En los contratos de concesión de comunidades étnicas en zonas mineras declaradas, el canon superficiario se pagará anualmente de manera anticipada, sobre la totalidad del área de la concesión y de acuerdo con los siguientes valores, siempre y cuando la actividad sea desarrollada por la misma comunidad.

NÚMERO DE HECTÁREAS                             SMDLV/h* 

0-150                                                                   0.125

151-5.000                                                          0.19

5.001 – 10.000                                                  0.25

Artículo 327. Minería de Subsistencia.

Los mineros de subsistencia, definidos por el Gobierno nacional, sólo requerirán para el desarrollo de su actividad la inscripción personal y gratuita ante la alcaldía del municipio donde realizan la actividad y de efectuarse en terrenos de propiedad privada deberá obtener la autorización del propietario. La alcaldía del municipio donde se realiza la actividad minera podrá mediar en la obtención de dicha autorización. En la minería de subsistencia se entienden incluidas las labores de barequeo.

La minería de subsistencia no comprende la realización de actividades subterráneas, hacer uso de maquinaria o explosivos, ni puede exceder los volúmenes de producción señalados por el Ministerio de Minas y Energía. Para el ejercicio de esta actividad los mineros deberán cumplir con las restricciones establecidas en los artículos 157 y 158 de la Ley 685 de 2001.

Los municipios deberán implementar la validación biométrica en el Sistema Automatizado de Identificación Dactilar de la Registraduría Nacional del Estado Civil, con el fin de verificar la plena identidad de los mineros de subsistencia al momento de la inscripción.

La inscripción deberá realizarse con el cumplimiento de los siguientes requisitos:

i) Presentación de la cédula de ciudadanía;

ii) Registro Único Tributario con Indicación específica de la actividad económica relacionada con la actividad minera,

 iii) Certificado de afiliación a Sisbén, o el documento que haga sus veces;

iv) Indicación del mineral objeto de explotación;

v) Descripción de la actividad y la indicación de la zona donde se va a realizar (municipio, corregimiento, caserío, vereda, río).

Estos mineros no podrán estar inscritos en más de un municipio a la vez, en cuya jurisdicción deberán realizar la actividad. La inscripción deberá ser renovada anualmente de manera personal, y la información podrá ser actualizada por los mineros en cualquier tiempo, en caso de efectuarse un cambio en la ejecución de la actividad. Los mineros que se encuentren inscritos contarán con el término de seis (6) meses para renovar su inscripción con el cumplimiento de los requisitos antes establecidos.

La inscripción de los mineros de subsistencia deberá realizarse por los municipios en el sistema de información que para el efecto disponga el Ministerio de Minas y Energía.

Los alcaldes vigilarán el cumplimiento de lo dispuesto en este artículo e impondrán las medidas a que haya lugar, sin perjuicio de las medidas preventivas y sancionatorias que imponga la autoridad ambiental para la prevención o por la comisión de un daño ambiental de acuerdo con lo dispuesto en la Ley 1333 de 2009, o la norma que la modifique, adicione o sustituya.

El alcalde se abstendrá de inscribir o cancelará la inscripción del minero de subsistencia en los siguientes eventos:

a) Si la actividad se realiza en zonas excluidas o prohibidas de las actividades mineras;

b) Si la actividad no se realiza con las restricciones establecidas en los artículos 157 y 158 de la Ley 685 de 2001;

c) Si la actividad se realiza en un lugar diferente al señalado en la inscripción;

d) Cuando exceda los volúmenes de producción señalados por el Ministerio de Minas y Energía o la autoridad competente;

e) Cuando utilice maquinaria, equipos mecanizados o explosivos para el arranque de los minerales;

f) Si las actividades se realizan de manera subterránea;

g) Cuando extraiga un mineral diferente al establecido en la inscripción.

Al minero de subsistencia que se le cancele la inscripción no podrá inscribirse ante cualquier municipio por un término de seis (6) meses. De no cumplirse con los requisitos exigidos en este artículo para el desarrollo de la minería de subsistencia, los mineros se considerarán explotadores ilícitos de yacimientos mineros en los términos del Código Penal Colombiano o la norma que lo modifique o sustituya.

PARÁGRAFO 1°. La autoridad minera brindará las herramientas de actualización de la plataforma de inscripción de mineros de subsistencia, con las necesidades de información que requieran los municipios para llevar a cabo las labores de inscripción conociendo las restricciones en tiempo real.

PAR 2°. En las zonas de minería de subsistencia, la DIAN implementará, en coordinación con las autoridades territoriales, campañas para agilizar el registro del RUT para los explotadores mineros.

ARTÍCULO 328. ESTÁNDAR COLOMBIANO PARA EL REPORTE PÚBLICO DE RESULTADOS DE EXPLORACIÓN, RECURSOS Y RESERVAS MINERALES. Con ocasión de las actividades de exploración y explotación minera, para la presentación de la información de los recursos y reservas existentes en el área concesionada, se adopta el Estándar Colombiano para el Reporte Público de Resultados de Exploración, Recursos y Reservas Minerales de la Comisión Colombiana de Recursos y Reservas Minerales, o cualquier otro estándar internacionalmente reconocido por Committe for Mineral Reserves International Reporting Standards (Crirsco), para su presentación. La información sobre los recursos y reservas existentes en el área concesionada estructurada en las condiciones previstas en el mencionado estándar, debe presentarse por el titular minero junto con el Programa de Trabajos y Obras o el documento técnico correspondiente o su actualización, sin perjuicio de que dicha información pueda ser requerida por la autoridad minera en cualquier momento durante la etapa de explotación.

La autoridad minera expedirá los términos de referencia que establezcan, entre otros aspectos, condiciones y periodicidad para la presentación de la información de que trata el presente artículo, y su incumplimiento dará lugar a las multas previstas en el artículo 115 del Código de Minas o la norma que lo modifique o sustituya. La información suministrada por los titulares mineros será divulgada y usada por parte de la autoridad minera, en los términos del artículo 88 del Código de Minas o la norma que lo modifique o sustituya.

ARTÍCULO 329. INTEGRACIÓN DE ÁREAS. Adiciónese el Parágrafo segundo al artículo 101 de la Ley 685 de 2001, así:

Parágrafo 2°. En el evento en que una solicitud de integración de áreas o un trámite de integración ya iniciado o un título ya integrado, presente franjas o corredores respecto de los cuales se hubieren presentado propuestas de contrato de concesión y estas no resulten viables para la realización de un proyecto minero, la autoridad minera procederá a su rechazo. En este evento, las respectivas franjas o corredores se incorporarán al contrato que resulte de la integración de áreas o a los contratos otorgados antes de la vigencia de esta ley en virtud de una integración de áreas. En todo caso, la integración de áreas y las incorporaciones de corredores se realizarán de acuerdo con la metodología del sistema de cuadrículas.

La autoridad minera nacional definirá el área mínima para las franjas o corredores donde no es viable realizar un proyecto minero de acuerdo con las dimensiones adoptadas por el sistema de cuadrícula para las celdas mineras.

Artículo 330. Monto de la regalías para reconocimientos de propiedad privada

Establézcanse para las regalías de que trata el inciso 2° del artículo 227 del Código de Minas, por la explotación de recursos naturales no renovables de propiedad privada, sobre el valor de la producción en boca o borde de mina según corresponde para cada explotación, los siguientes porcentajes:

Mineral y Tipo de Minería                                                          Regalía

Carbón a cielo abierto con producción

igual o mayor a 3 millones de toneladas anuales               3,27%

Carbón a cielo abierto con producción menor a

3 millones de toneladas anuales                                              1,64%

Oro y plata veta                                                                              0,4%

Oro y Plata aluvión                                                                        2,0%

Platino                                                                                                1.0 %

El precio base para la liquidación de regalías generadas por cada explotación u operación minera del carbón se calculará anualmente según la producción y se regirá según lo establecido en el artículo 15 de la Ley 1530 de 2012.

El titular de las minas de Reconocimiento de Propiedad Privada, deberá declarar, liquidar y demostrar el pago de las regalías de cada explotación u operación minera a partir del 2019 ante la Agencia Nacional de Minería, de conformidad con lo señalado en el presente artículo.

La Agencia Nacional de Minería deberá recaudar y transferir las regalías generadas por cada explotación u operación minera de los recursos naturales no renovables de propiedad privada, conforme lo estipulado en la Ley 1530 de 2012 y demás normas que la modifiquen o adicionen a partir de 2019.

Para la aplicación del porcentaje para las explotaciones con producción igual o mayor a 3 millones de toneladas anuales se establece un periodo de transición de tres (3) años para permitir un aumento escalonado y progresivo.

SECCIÓN IV. FACULTADES EXTRAORDINARIAS

Artículo 331. Modernización y eficiencia de las Entidades Públicas del Sector Financiero.

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístase al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Fusionar entidades públicas del sector financiero, tales como, Aseguradoras Públicas y Fiduciarias Públicas; con el fin de evitar duplicidades y crear una entidad de la Rama Ejecutiva del orden nacional responsable de la gestión del servicio financiero público que incida en mayores niveles de eficiencia.

Artículo 332. Reestructuración de la Contraloría General de la República

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístase al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Reestructurar jerárquica y funcionalmente la Contraloría Delegada para el Sector Defensa, Justicia y Seguridad, la Contraloría Delegada para el Sector Social, la Contraloría Delegada para el Sector Infraestructura Física y Telecomunicaciones, Comercio Exterior y Desarrollo Regional, la Contraloría Delegada para Investigaciones, Juicios Fiscales y Jurisdicción Coactiva, la Gerencia de Gestión Administrativa y Financiera, la Contraloría Delegada para la Participación Ciudadana, la Unidad de Investigaciones Especiales contra la Corrupción y la Unidad Delegada para el Posconflicto, y crear la Dirección de Información, Análisis y Reacción Inmediata, en la Contraloría General de la República, para lo cual podrá desarrollar la estructura de la entidad, creando nuevas dependencias, modificar o establecer sus funciones y su planta de personal creando los empleos a que haya lugar.

Parágrafo 1°. La Gerencia Administrativa y Financiera tiene la función de dirigir y controlar las actividades y procesos de contratación administrativa, para lo cual ordenará el gasto y suscribirá los actos, contratos y convenios requeridos para el funcionamiento de la entidad.

Parágrafo 2°. El Fondo de Bienestar Social de la Contraloría General de la República podrá contratar seguro de vida colectivo con cobertura general, para los servidores de la Contraloría General de la República.

Artículo 333. Supresión de trámites, procesos y procedimientos para la modernización y eficiencia de la Administración Pública

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístese al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Simplificar o suprimir o reformar trámites, procesos y procedimientos innecesarios existentes en la administración pública.

Artículo 334. Fortalecimiento de la equidad, el emprendimiento y la legalidad desde la modernización y eficiencia de la Administración Pública.

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístese al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Realizar las modificaciones presupuestales necesarias para apropiar los gastos de funcionamiento e inversión necesarios para el cumplimiento de las facultades extraordinarias conferidas en la presente ley.

Artículo 335. Autonomía presupuestal del Consejo Nacional Electoral.

Para efectos de la autonomía administrativa y presupuestal del Consejo Nacional Electoral de que trata el artículo 265 de la Constitución, revístase al Presidente de la República de facultades extraordinarias para que dentro de los 6 meses siguientes a la expedición de la presente ley, adopte la estructura y organización del Consejo Nacional Electoral, que mantendrá el régimen especial establecido en la Ley 1350 de 2009 para lo cual tendrá en cuenta los estudios que ha adelantado dicha Corporación y el Departamento Administrativo de la Función Pública sobre el particular.

En la Ley Anual de Presupuesto se asignarán las apropiaciones necesarias con sujeción a las disposiciones de la gestión presupuestal para el desarrollo de la estructura y organización del Consejo Nacional Electoral.

Parágrafo 1°. En ejercicio de su autonomía administrativa le corresponde al Consejo Nacional Electoral a través de su presidente, nombrar a los servidores públicos de acuerdo con la estructura y organización dispuesta para el efecto, así como crear grupos internos de trabajo y definir todos los aspectos relacionados con el cumplimiento de sus funciones, en armonía con los principios consagrados en la Constitución Política y la ley, así como suscribir los contratos que debe celebrar en cumplimiento de sus funciones, sin perjuicio de la delegación que para el efecto, realice conforme a lo dispuesto en las disposiciones legales y en la presente ley.

Parágrafo 2°. En desarrollo de las facultades de que trata el presente artículo el Presidente de la República adoptará la estructura orgánica e interna y la planta de personal para el Consejo Nacional Electoral, que le permita desarrollar la autonomía administrativa y presupuestal de que trata el artículo 265 de la Constitución Política. El régimen laboral para sus servidores será el establecido en la Ley 1350 de 2009. El presidente del Consejo estará facultado para nombrar a los empleados del Consejo y para celebrar los contratos en cumplimiento de sus funciones.

Artículo 336. Vigencias y derogatorias.

La presente ley rige a partir de su publicación y deroga todas las disposiciones que le sean contrarias.

Los artículos de las Leyes 812 de 2003, 1151 de 2007, 1450 de 2011, y 1753 de 2015 no derogados expresamente en el siguiente Inciso o por otras leyes continuarán vigentes hasta que sean derogados o modificados por norma posterior.

Se derogan expresamente el artículo 4° de la Ley 14 de 1983; el artículo 84 de la Ley 100 de 1993; el artículo 174 del Decreto-ley 1333 de 1986; el artículo 92 de la Ley 617 de 2000; el artículo 167 de la Ley 769 de 2002, el artículo 56 y 68 de la Ley 962 de 2005; el Parágrafo 1° del artículo 4° de la Ley 1393 de 2010; los artículos 51 a 59 de la Ley 1429 de 2010; el artículo 81 de la Ley 1438 de 2011; los artículos 69, 90, 91, 131, 132, 133, 134, 138,141, 149, 152 a 155, 159, 161, 171,194, 196, 212, 223, 224, 272 de la Ley 1450 de 2011; los artículos 7°, 32, 34, 47, 58, 60, 90, 95, 98, 106, 135, 136, 186, 219, 222, 259, 261, 264 y los Parágrafos de los artículos 55 y 57 de la Ley 1753 de 2015; el artículo 7° de la Ley 1797 de 2016; el Parágrafo transitorio del artículo 12 de la Ley 1904 de 2018; el artículo 110 de la Ley 1943 de 2018; y el artículo 4° de la Ley 1951 de 2019.

Parágrafo 1°. Los artículos 231, 232, 233, 234, 235 y 236 de la presente ley entrarán en vigencia a partir del 1° de enero de 2020.

Parágrafo 2°. El artículo 49, 58 y el numeral 43.2.2. del artículo 43 de la Ley 715 de 2001; el artículo 7° de la Ley 1608 de 2013 y los artículos 2° y 3° incisos 6° y 7° de la Ley 1797 de 2016, perderán vigencia el 31 de diciembre de 2019.

Parágrafo 3°. Las disposiciones del Capítulo VI de la Parte V del Estatuto Orgánico del Sistema Financiero perderán vigencia en el término de 24 meses contados a partir de la vigencia de la presente ley.

El Presidente del Honorable Senado de la República, ERNESTO MACÍAS TOVAR. 

El Secretario General del Honorable Senado de la República, GREGORIO ELJACH PACHECO. 

El Presidente de la Honorable Cámara de Representantes, ALEJANDRO CARLOS CHACÓN CAMARGO. 

El Secretario General de la Honorable Cámara de Representantes, JORGE HUMBERTO MANTILLA SERRANO. 

REPÚBLICA DE COLOMBIA – GOBIERNO NACIONAL 

  Publíquese y ejecútese.

Dada en Valledupar, a 25 de mayo de 2019.

IVÁN DUQUE MÁRQUEZ 

La Ministra del Interior, NANCY PATRICIA GUTIÉRREZ CASTAÑEDA. 

El Ministro de Relaciones Exteriores, CARLOS HOLMES TRUJILLO GARCÍA. 

El Ministro de Hacienda y Crédito Público, ALBERTO CARRASQUILLA BARRERA. 

El Viceministro de Política Criminal y Justicia Restaurativa, encargado del empleo de Ministro de Justicia y del Derecho, JUAN FRANCISCO ESPINOSA PALACIOS. 

El Ministro de Defensa Nacional, LORENZO GUILLERMO BOTERO NIETO. 

El Viceministro de Desarrollo Rural, encargado de las funciones del despacho del Ministro de Agricultura y Desarrollo Rural, JAVIER IGNACIO PÉREZ BURGOS. 

El Ministro de Salud y Protección Social, JUAN PABLO EUSEBIO URIBE RETREPO. 

La Ministra del Trabajo, ALICIA VICTORIA ARANGO OLMOS. 

El Ministro de Comercio, Industria y Turismo, JOSÉ MANUEL RESTREPO ABONDANO. 

La Ministra de Educación Nacional, MARÍA VICTORIA ANGULO GONZÁLEZ. 

La Ministra de Minas y Energía, MARÍA FERNANDA SUÁREZ LONDOÑO. 

El Ministro de Ambiente y Desarrollo Sostenible, RICARDO JOSÉ LOZANO PICÓN. 

El Ministro de Vivienda, Ciudad y Territorio, JONATHAN TYBALT MALAGÓN GONZÁLEZ. 

La Ministra de Tecnologías de la Información y las Comunicaciones, SYLVIA CRISTINA CONSTAIN RENGIFO. 

El Viceministro de Transporte, encargado de las funciones del despacho de la Ministra de Transporte, JUAN CAMILO OSTOS ROMERO. 

La Ministra de Cultura, CARMEN INÉS VÁSQUEZ CAMACHO. 

La Directora del Departamento Nacional de Planeación, GLORIA AMPARO ALONSO MÁSMELA.

27Oct/20

COM 2020/65 final, de 19 de febrero de 2020

COM 2020/65 final de 19 de febrero de 2020. Libro blanco sobre la inteligencia artificial. Un enfoque europeo orientado a la excelencia y la confianza

Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza

La inteligencia artificial se está desarrollando rápido. Cambiará nuestras vidas, pues mejorará la atención sanitaria (por ejemplo, incrementando la precisión de los diagnósticos y permitiendo una mejor prevención de las enfermedades), aumentará la eficiencia de la agricultura, contribuirá a la mitigación del cambio climático y a la correspondiente adaptación, mejorará la eficiencia de los sistemas de producción a través de un mantenimiento predictivo, aumentará la seguridad de los europeos y nos aportará otros muchos cambios que de momento solo podemos intuir. Al mismo tiempo, la inteligencia artificial (IA) conlleva una serie de riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de género o de otro tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos.

En un contexto de feroz competencia mundial, se requiere un enfoque europeo sólido basado en la Estrategia Europea para la IA presentada en abril de 2018 (1). Para aprovechar las oportunidades que ofrece la inteligencia artificial y abordar los retos que presenta, la UE debe actuar conjuntamente y determinar de qué manera, a partir de los valores europeos, promoverá su desarrollo y adopción.

La Comisión se ha comprometido a facilitar el avance científico, preservar el liderazgo tecnológico de la UE y garantizar que las nuevas tecnologías estén al servicio de todos los europeos, de manera que mejoren sus vidas al mismo tiempo que respetan sus derechos.

La presidenta de la Comisión, Ursula von der Leyen, anunció en sus orientaciones políticas (2) un enfoque europeo coordinado en torno a las implicaciones éticas y humanas de la inteligencia artificial y un análisis sobre cómo mejorar la utilización de los macrodatos en la innovación.

Consecuentemente, la Comisión respalda un enfoque basado en la regulación y en la inversión, que tiene el doble objetivo de promover la adopción de la inteligencia artificial y de abordar los riesgos vinculados a determinados usos de esta nueva tecnología. La finalidad del presente Libro Blanco es formular alternativas políticas para alcanzar estos objetivos; no aborda ni el desarrollo ni el uso de la inteligencia artificial para fines militares. La Comisión invita a los Estados miembros, a otras instituciones europeas y a todas las partes interesadas, como la industria, los interlocutores sociales, las organizaciones de la sociedad civil, los investigadores, el público general y demás personas con interés en la materia, a que presenten sus opiniones con respecto de las opciones que se muestran a continuación y a que contribuyan a la futura toma de decisiones de la Comisión en este ámbito.

1. INTRODUCCIÓN

A medida que la tecnología digital adquiere un carácter cada vez más primordial en los distintos aspectos de la vida de las personas, es necesario que estas últimas puedan confiar en ella. Generar confianza es un requisito previo para su adopción, y ello supone una oportunidad para Europa, dada su estrecha vinculación con los valores y el Estado de Derecho y su capacidad demostrada de crear productos seguros, fiables y sofisticados en sectores que van desde la aeronáutica a la energía, pasando por la automoción y los equipos médicos.

El crecimiento económico sostenible y el bienestar social presentes y futuros de Europa se valen cada vez más de los valores creados por los datos. La inteligencia artificial es una de las partes más importantes de la economía de los datos. Hoy en día, la mayor parte de los datos son relativos a los consumidores y se almacenan y tratan en infraestructuras ubicadas en nubes centralizadas. Frente a esto, una enorme proporción de los datos del futuro, que serán mucho más abundantes, procederá de la industria, las empresas y el sector público, y se almacenará en diversos sistemas, entre los que destacan los dispositivos informáticos que operan en el borde de la red. Este hecho ofrece nuevas oportunidades a Europa, que cuenta con una posición sólida en la industria digitalizada y las aplicaciones de comunicación empresarial, pero con una posición relativamente frágil en las plataformas de consumidores.

En otras palabras, la inteligencia artificial es una combinación de tecnologías que agrupa datos, algoritmos y capacidad informática. Los avances en computación y la creciente disponibilidad de datos son, por tanto, un motor fundamental en el pronunciado crecimiento actual de la inteligencia artificial. Europa puede aunar su potencial tecnológico e industrial con una infraestructura digital de gran calidad y un marco regulador basado en sus valores fundamentales para convertirse en líder mundial de la innovación en la economía de los datos y sus aplicaciones, tal como se establece en la Estrategia Europea de Datos (3). Sobre estos cimientos, puede desarrollar un ecosistema de inteligencia artificial que acerque las ventajas de la tecnología a la sociedad y la economía europeas en su conjunto:

  • a los ciudadanos, para que obtengan nuevos beneficios, como una mejor atención sanitaria, una menor cantidad de averías de los aparatos domésticos, unos sistemas de transporte más seguros y limpios, o mejores servicios públicos;
  • al desarrollo empresarial, por ejemplo, mediante una nueva generación de productos y de servicios en áreas en las que Europa es particularmente fuerte (maquinaria, transporte, ciberseguridad, agricultura, economía verde y circular, atención sanitaria y sectores de gran valor añadido, como la moda y el turismo); y
  • a los servicios de interés público, por ejemplo mediante una reducción de los costes de la prestación de servicios (transporte, educación, energía y gestión de los residuos), una mayor sostenibilidad de los productos (4), o proporcionando a los servicios y fuerzas de seguridad las herramientas adecuadas para que aseguren la protección de los ciudadanos (5), garantizando correctamente el respeto de sus derechos y libertades.

Teniendo en cuenta el enorme impacto que puede tener la inteligencia artificial en nuestra sociedad y la necesidad de que suscite confianza, resulta clave que la inteligencia artificial europea se asiente en nuestros valores y derechos fundamentales, como la dignidad humana y la protección de la privacidad.

Por otra parte, el impacto de los sistemas de IA debe considerarse no solo desde una perspectiva individual, sino también desde la perspectiva de la sociedad en su conjunto. El uso de sistemas de inteligencia artificial puede tener un papel importante en la consecución de los Objetivos de Desarrollo Sostenible y en el respaldo de los procesos democráticos y los derechos sociales. Con sus recientes propuestas sobre el Pacto Verde Europeo (6), Europa va a la vanguardia de la lucha contra el cambio climático y los retos medioambientales asociados. Las tecnologías digitales como la inteligencia artificial son motores clave para alcanzar los objetivos del Pacto Verde. Dada la importancia creciente de la inteligencia artificial, es necesario tomar en debida consideración las repercusiones medioambientales de sus sistemas a lo largo de su ciclo de vida y durante toda la cadena de suministro, por ejemplo, en lo que se refiere a la utilización de recursos para el entrenamiento de los algoritmos y el almacenamiento de datos.

A fin de alcanzar una envergadura suficiente y de evitar la fragmentación del mercado único, se necesita un enfoque europeo común en torno a la inteligencia artificial. Introducir iniciativas nacionales presenta el riesgo de hacer peligrar la seguridad jurídica, de reducir la confianza de los ciudadanos y de impedir el surgimiento de una industria europea dinámica.

El presente Libro Blanco ofrece alternativas políticas para facilitar un desarrollo de la inteligencia artificial seguro y fiable en Europa, que respete plenamente los valores y los derechos de los ciudadanos de la UE. Los pilares fundamentales del presente Libro Blanco son:

  • El marco político por el que se establecen medidas para armonizar los esfuerzos a escala regional, nacional y europea. En colaboración con los sectores público y privado, los objetivos del marco son movilizar recursos para obtener un «ecosistema de excelencia» a lo largo de toda la cadena de valor, partiendo de la investigación y la innovación, así como crear los incentivos adecuados para acelerar la adopción de soluciones basadas en la inteligencia artificial, también por parte de las pequeñas y medianas empresas (pymes).
  • Los elementos clave de un futuro marco normativo para la inteligencia artificial en Europa que generen un «ecosistema de confianza» exclusivo. Para hacerlo, este marco debe velar por el cumplimiento de las normas de la UE, especialmente las normas de protección de los derechos fundamentales y los derechos de los consumidores, y en concreto con relación a los sistemas de inteligencia artificial que operan en la UE y presentan un riesgo elevado (7). Generar un ecosistema de confianza constituye un objetivo político en sí mismo, y debe ofrecer seguridad a los ciudadanos para que adopten las aplicaciones de la inteligencia artificial y seguridad jurídica a las empresas y organismos públicos para que innoven usando esta última. La Comisión respalda firmemente un enfoque antropocéntrico que se base en la Comunicación Generar confianza en la inteligencia artificial centrada en el ser humano (8), y tendrá en cuenta también los resultados obtenidos durante la fase de prueba de las directrices éticas elaboradas por el grupo de expertos de alto nivel sobre la IA.

La Estrategia Europea de Datos, que acompaña al presente Libro Blanco, tiene por objeto ayudar a Europa a convertirse en la economía con agilidad en el manejo de los datos más atractiva, segura y dinámica del mundo, lo que fortalecerá a Europa con información para reforzar sus decisiones y mejorar las vidas de todos sus ciudadanos. La Estrategia establece varias medidas políticas, como la movilización de inversiones públicas y privadas, necesarias para alcanzar este objetivo. Finalmente, en el informe de la Comisión adjunto al presente Libro Blanco, se analizan las repercusiones de la inteligencia artificial, el internet de las cosas y otras tecnologías digitales en la legislación en materia de seguridad y responsabilidad civil.

2. APROVECHAR LOS PUNTOS FUERTES DE LOS MERCADOS INDUSTRIALES Y PROFESIONALES

Europa se encuentra en buena posición para beneficiarse del potencial de la inteligencia artificial, no solo como usuaria sino también como creadora y productora de esta tecnología. Cuenta con excelentes centros de investigación y con empresas emergentes innovadoras, es líder mundial en los sectores de la robótica, la fabricación y los servicios competitivos, desde la automoción hasta la atención sanitaria, pasando por la energía, los servicios financieros y la agricultura. Europa ha desarrollado una infraestructura informática sólida (mediante, por ejemplo, ordenadores de elevado rendimiento), lo que resulta fundamental para el funcionamiento de la inteligencia artificial. Además, posee un gran volumen de datos públicos y de la industria, cuyo potencial está infrautilizado actualmente. Cuenta con una capacidad industrial reconocida en sistemas digitales seguros y protegidos de bajo consumo de energía que son fundamentales para continuar desarrollando la IA.

Aprovechar la capacidad de la UE para invertir en tecnologías e infraestructuras de la siguiente generación, así como en competencias digitales como la alfabetización sobre datos, reforzará la soberanía tecnológica de Europa en el sector de las tecnologías y las infraestructuras clave para dinamizar la economía de los datos. Las infraestructuras deben respaldar la creación de repositorios de datos que permitan materializar una inteligencia artificial fiable, es decir, una inteligencia artificial basada en los valores y las normas europeos.

Europa debe aprovechar sus puntos fuertes para ampliar su posición en los ecosistemas y en toda la cadena de valor, desde determinados sectores de fabricación de equipos informáticos al despliegue de los programas informáticos durante todo su recorrido hasta los servicios. En cierta medida, esto ya es realidad. Europa produce más de un cuarto de todos los robots de servicios industriales y profesionales (por ejemplo, para la agricultura de precisión, la seguridad, la sanidad, la logística, etc.), y desempeña un papel importante en el desarrollo y el uso de las aplicaciones informáticas para empresas y organizaciones (aplicaciones interempresariales como los programas informáticos de planificación de recursos, de diseño y de ingeniería), así como de aplicaciones para el fomento de la administración digital y las «empresas inteligentes».

Europa se sitúa a la vanguardia de la utilización de la inteligencia artificial en la fabricación. Más de la mitad de los mayores fabricantes aplican al menos un elemento de IA en sus operaciones de fabricación (9).

Una razón de la sólida posición de Europa en lo que se refiere a la investigación es el programa de financiación de la UE, que ha demostrado ser fundamental en las actividades de recopilación, así como a la hora de evitar duplicaciones y de movilizar inversiones públicas y privadas en los Estados miembros. A lo largo de los últimos tres años, la financiación de la UE para investigación e innovación en inteligencia artificial ha aumentado a 1.500 millones EUR, es decir, un incremento del 70 % en comparación con el período anterior.

No obstante, la inversión en investigación e innovación de Europa se sigue representando una proporción menor que la de las inversiones públicas y privadas en otras regiones del mundo. En 2016, se invirtieron unos 3.200 millones EUR en inteligencia artificial en Europa, frente a los cerca de 12.100 millones EUR en América del Norte y 6.500 millones EUR en Asia (10). Ante este hecho, Europa debe aumentar significativamente sus niveles de inversión. El Plan coordinado sobre inteligencia artificial (11) desarrollado con los Estados miembros está demostrando ser un buen punto de partida para estrechar la cooperación en materia de inteligencia artificial en Europa y crear sinergias que optimicen la inversión en la cadena de valor correspondiente.

3. APROVECHAR LAS PRÓXIMAS OPORTUNIDADES: LA SIGUIENTE OLEADA DE DATOS

Aunque Europa todavía se encuentra en una posición más menos consolidada con relación a las aplicaciones de consumidores y las plataformas en línea (lo que se traduce en una desventaja competitiva en el acceso a los datos), se están experimentando cambios importantes en el valor y la reutilización de los datos en los distintos sectores. El volumen de datos producido en el mundo va en aumento rápidamente, de 33 zetabytes en 2018 a una previsión de 175 zetabytes en 2025 (12). Cada nueva oleada de datos ofrece la oportunidad a Europa de posicionarse en la economía ágil en el manejo de los datos y convertirse en líder mundial en este ámbito. Además, la manera en que se almacenan y tratan los datos cambiará drásticamente a lo largo de los próximos cinco años. A día de hoy, el 80 % del tratamiento y el análisis de datos que se produce en la nube tiene lugar en centros de datos e instalaciones informáticas centralizadas, y el 20 % en aparatos inteligentes conectados, como automóviles, utensilios domésticos o robots de fabricación, e instalaciones informáticas cercanas al usuario («computación en el borde»). Está previsto que, de aquí a 2025, estos porcentajes cambien de manera notable (13).

Europa es líder mundial en electrónica de bajo consumo, lo que resulta fundamental para la siguiente generación de procesadores especializados en relación con la inteligencia artificial. Actualmente, este mercado está dominado por terceros de fuera de la UE. Este hecho podría cambiar con ayuda de iniciativas como la Iniciativa Europea en materia de Procesadores, centrada en desarrollar sistemas informáticos de bajo consumo de energía tanto de computación en el borde como de computación de alto rendimiento de la siguiente generación, y del trabajo de la empresa común de tecnología digital clave, cuyo inicio se ha propuesto para 2021. Europa también es líder en soluciones neuromórficas (14) que están perfectamente adaptadas para automatizar los procesos industriales (industria 4.0) y los modos de transporte. Estas soluciones pueden mejorar la eficiencia energética mediante varios órdenes de magnitud.

Los avances recientes en computación cuántica generarán aumentos exponenciales en la capacidad de tratamiento (15). Europa puede situarse a la vanguardia de esta tecnología gracias a su fortaleza académica en computación cuántica, así como a la sólida posición de la industria europea en materia de simuladores cuánticos y entornos de programación para la computación cuántica. Las iniciativas europeas que tienen por objeto incrementar la disponibilidad de pruebas y de instalaciones de ensayo cuánticos contribuirán a aplicar estas nuevas soluciones cuánticas en varios sectores industriales y académicos.

Paralelamente, Europa seguirá liderando el progreso de los fundamentos algorítmicos de la inteligencia artificial a partir de su propia excelencia científica. Existe la necesidad de tender puentes entre disciplinas que actualmente trabajan de manera independiente, tales como el aprendizaje automático y el aprendizaje profundo (caracterizados por su naturaleza interpretable limitada y por la necesidad de un gran volumen de datos para entrenar a los modelos y aprender mediante correlaciones) y los enfoques simbólicos (en los que las normas se crean mediante intervención humana). La combinación de razonamiento simbólico con redes neurales profundas puede ayudarnos a mejorar la capacidad de explicar los resultados de la inteligencia artificial.

4. UN ECOSISTEMA DE EXCELENCIA

Para crear un ecosistema de excelencia que pueda respaldar el desarrollo y la adopción de la inteligencia artificial en el conjunto de la economía y la administración pública de la UE, es necesario redoblar las acciones en varios niveles.

A. COLABORACIÓN CON LOS ESTADOS MIEMBROS

En cumplimiento de su Estrategia sobre la Inteligencia Artificial adoptada en abril de 2018 (16), en diciembre del mismo año la Comisión presentó un Plan coordinado, preparado con los Estados miembros, para fomentar el desarrollo y la utilización de la inteligencia artificial en Europa (17).

Este Plan propone cerca de 70 acciones conjuntas para hacer que la cooperación entre los Estados miembros y la Comisión en áreas clave como la investigación, la inversión, la introducción en el mercado, las capacidades y el talento, los datos y la cooperación internacional, sea más estrecha y eficiente. Está programado que el Plan esté operativo hasta 2027, y se prevé hacer un seguimiento y revisarlo de manera regular.

El objetivo es optimizar las repercusiones de la inversión en la investigación, la innovación y la utilización de la inteligencia artificial, evaluar las estrategias nacionales sobre esta tecnología y aprovechar y ampliar el Plan coordinado sobre la inteligencia artificial junto con los Estados miembros:

  • Acción 1: Teniendo en cuenta los resultados de la consulta pública sobre el Libro Blanco, la Comisión propondrá a los Estados miembros una revisión del Plan coordinado que debe adoptarse a finales de 2020.

La financiación en inteligencia artificial a escala de la UE debe atraer y poner en común inversiones en sectores en los que se requieren acciones que van más allá de lo que un Estado miembro puede conseguir por sí solo. El objetivo es atraer más de 20.000 millones EUR (18) de inversión total anual en inteligencia artificial en la UE a lo largo de la próxima década. A fin de estimular la inversión pública y privada, la UE facilitará recursos del programa Europa Digital, de Horizonte Europa y de los Fondos Estructurales y de Inversión Europeos para abordar las necesidades de las regiones menos desarrolladas y de las zonas rurales.

El Plan coordinado también puede ayudar a integrar el bienestar social y medioambiental como principios clave de la inteligencia artificial. Los sistemas de IA prometen ayudar a combatir las preocupaciones más acuciantes, como el cambio climático y la degradación medioambiental. Además, es importante que todo ello tenga lugar de una manera respetuosa con el medio ambiente. La IA puede y debe analizar por sí misma de manera crítica el uso de los recursos y el consumo de energía y ser entrenada para optar por alternativas que resulten positivas para el medio ambiente. La Comisión valorará opciones para fomentar y promover las soluciones de inteligencia artificial que se encarguen de ello junto con los Estados miembros.

B. CENTRAR LOS ESFUERZOS DE LA COMUNIDAD DE INVESTIGACIÓN E INNOVACIÓN

Europa no puede permitirse mantener el panorama actual de fragmentación de los centros de competencia, en el que ninguno de ellos alcanza la envergadura suficiente para competir con los organismos que se sitúan a la vanguardia mundial. Resulta clave crear más sinergias y redes entre los distintos centros de investigación europeos sobre la IA y armonizar los esfuerzos para mejorar la excelencia, mantener y atraer a los mejores investigadores y desarrollar las mejores tecnologías. Europa necesita un centro adalid en materia de investigación, innovación y conocimientos técnicos que coordine estos esfuerzos, que sirva de referente mundial de la excelencia en inteligencia artificial y que pueda atraer inversiones, así como a los mejores talentos del sector.

Los centros y las redes deben centrarse en los sectores en los que Europa cuenta con potencial para convertirse en líder mundial, como la industria, la sanidad, el transporte, las finanzas, las cadenas de valor agroalimentarias, la energía y el medio ambiente, la silvicultura, la observación terrestre y el espacio. En todos estos sectores, sigue librándose la carrera por el liderazgo mundial, y Europa ofrece un potencial, unos conocimientos y una pericia significativos (19). Resulta igualmente importante crear emplazamientos de ensayo y experimentación que respalden el desarrollo y posterior adopción de las nuevas aplicaciones de inteligencia artificial.

  • Acción 2: La Comisión facilitará la creación de centros de excelencia y pruebas que puedan combinar las inversiones europeas, nacionales y privadas, probablemente con la introducción de un nuevo instrumento jurídico. La Comisión ha propuesto un importe ambicioso y dirigido a respaldar centros de ensayo de referencia mundial en Europa en el marco del Programa Europa Digital, completado, cuando así se requiera, por acciones de investigación e innovación de Horizonte Europa, como parte del marco financiero plurianual para el período 2021-2027.

C. HABILIDADES

El enfoque europeo sobre la inteligencia artificial requerirá ser apuntalado por un sólido interés en las habilidades para hacer frente a la escasez de competencias (20). La Comisión presentará pronto un apoyo a la Agenda de Capacidades que pretende garantizar que todo el mundo en Europa pueda beneficiarse de las transformaciones verde y digital de la economía de la UE. Las distintas iniciativas también pueden contar con el respaldo de los reguladores sectoriales para fomentar sus habilidades en IA, a fin de aplicar de manera eficiente y eficaz las normas pertinentes. El Plan de acción sobre educación digital actualizado contribuirá a hacer un mejor uso de los datos y de las tecnologías basadas en la inteligencia artificial, como el análisis del aprendizaje y el análisis predictivo, con el objetivo de mejorar los sistemas educativos y formativos y adaptarlos a la era digital. El Plan también incrementará la concienciación en torno a la inteligencia artificial en todos los niveles de la educación a fin de capacitar a los ciudadanos para que tomen decisiones con fundamento bajo una influencia cada vez mayor de la IA.

Desarrollar las habilidades necesarias para trabajar en el ámbito de la inteligencia artificial y mejorar las cualificaciones profesionales de los trabajadores para adaptarlas a la transformación que implica esta tecnología será una prioridad del Plan coordinado sobre la IA revisado que debe desarrollarse con los Estados miembros. Ello puede implicar transformar la lista de evaluación de las directrices éticas en un «currículo» indicativo para los desarrolladores de IA que se pondrá a disposición de las instituciones de formación. Es necesario realizar esfuerzos específicos para incrementar el número de mujeres que se forman y son contratadas en esta área.

Además, el centro de referencia de investigación e innovación en IA de Europa debe atraer a talentos de todo el mundo gracias a las posibilidades que puede ofrecer. También desarrollará y ampliará la excelencia de las habilidades que se originan y propagan por toda Europa.

  • Acción 3: Mediante el pilar de capacidades avanzadas del Programa Europa Digital, establecer y respaldar redes de universidades y centros de educación superior pioneros, a fin de atraer a los mejores académicos y científicos y de ofrecer programas de máster en IA que se sitúen a la vanguardia mundial.

Más allá de la mejora de las cualificaciones profesionales, los trabajadores y las empresas experimentan las consecuencias directas del diseño y el uso de los sistemas de inteligencia artificial en el lugar de trabajo. La participación de los interlocutores sociales será un factor decisivo para garantizar un enfoque antropocéntrico de la IA en el trabajo.

D. PREOCUPARSE POR LAS PYMES

También será importante garantizar que las pymes puedan acceder a la inteligencia artificial y que la utilicen. Para ello, los centros de innovación digital (21) y la plataforma de «inteligencia artificial a la carta» (22) deben seguir reforzándose y potenciar la cooperación entre pymes. El Programa Europa Digital será clave para alcanzar este objetivo. Si bien todos los centros de innovación digital deben apoyar a las pymes para que entiendan y adopten la inteligencia artificial, será importante que al menos un centro de innovación por Estado miembro cuente con un elevado nivel de especialización en inteligencia artificial.

Las pymes y empresas emergentes necesitarán tener acceso a la financiación para adaptar sus procedimientos o innovar usando la IA. Mediante el inminente fondo de inversión piloto de 100 millones EUR para la inteligencia artificial y la cadena de bloques, la Comisión prevé seguir incrementando el acceso a la financiación en la IA en el marco de InvestEU (23). La inteligencia artificial figura de manera explícita como uno de los sectores admisibles en InvestEU.

  • Acción 4: La Comisión trabajará con los Estados miembros para garantizar que al menos un centro de innovación digital por Estado miembro cuente con un elevado nivel de especialización en inteligencia artificial. Los centros de innovación digital pueden contar con el respaldo del Programa Europa Digital.
  • La Comisión y el Fondo Europeo de Inversiones pondrán en marcha un plan piloto de 100 millones EUR en el primer cuatrimestre de 2020 con el objetivo de ofrecer financiación mediante fondos propios para el desarrollo innovador de la inteligencia artificial. A la espera de un acuerdo definitivo sobre el marco financiero plurianual, la intención de la Comisión es incrementar significativamente estos importes de 2021 en adelante, a través de InvestEU.

E. ASOCIACIONES CON EL SECTOR PRIVADO

Además, resulta fundamental asegurarse de que el sector privado participe plenamente en la elaboración de la agenda de investigación e innovación y ofrezca el nivel de coinversión necesario. Ello exige que se establezca una asociación público-privada con carácter amplio, y que se garantice el compromiso de los altos cargos de las empresas.

  • Acción 5: En el marco de Horizonte Europa, la Comisión creará una nueva asociación público-privada en materia de inteligencia artificial, datos y robótica, a fin de aunar esfuerzos, garantizar la coordinación de la investigación y la innovación en inteligencia artificial, colaborar con otras asociaciones público-privadas de Horizonte Europa y trabajar conjuntamente con las instalaciones de ensayo y los centros de innovación digital ya mencionados.

F. PROMOVER LA ADOPCIÓN DE LA IA POR PARTE DEL SECTOR PÚBLICO

Resulta fundamental que las Administraciones Públicas, los hospitales, los servicios públicos y de transporte, los supervisores financieros y otras áreas de interés público empiecen a adoptar rápidamente productos y servicios que se basen en la inteligencia artificial en sus actividades. Se hará especial hincapié en los sectores de la atención sanitaria y el transporte, en los que la tecnología está suficientemente desarrollada para una adopción a gran escala.

  • Acción 6: La Comisión iniciará conversaciones por sector abiertas y transparentes, en las que dará prioridad a la atención sanitaria, las administraciones rurales y los operadores de servicios públicos, para presentar un plan de acción que facilite el desarrollo, la experimentación y la adopción de la inteligencia artificial. Las conversaciones por sector se emplearán para preparar un «Programa de adopción de la IA» específico que respaldará la contratación pública de sistemas de inteligencia artificial, y ayudará a transformar los propios procesos de esta contratación.

G. ASEGURAR EL ACCESO A LOS DATOS Y LAS INFRAESTRUCTURAS INFORMÁTICAS

Las áreas de acción establecidas en el presente Libro Blanco completan el plan presentado en paralelo en el marco de la Estrategia Europea de Datos. Mejorar el acceso a los datos y la gestión de estos últimos resulta fundamental. Sin datos, el desarrollo de la IA y otras aplicaciones digitales resulta imposible. El enorme volumen de datos nuevos que está por generarse es una oportunidad para que Europa se posicione en la primera línea de la transformación en materia de datos e inteligencia artificial. Promover prácticas de gestión responsable de los datos e incentivar el cumplimiento, en lo que respecta a estos últimos, de los principios FAIR contribuirá a generar confianza y a posibilitar su reutilización (24). La inversión en infraestructuras y tecnologías informáticas clave es igualmente importante.

La Comisión ha propuesto más de 4.000 millones EUR en el marco del Programa Europa Digital para respaldar la computación de alto rendimiento y la computación cuántica, especialmente la computación en el borde y la inteligencia artificial, así como las infraestructuras de la nube y de datos. La Estrategia Europea de Datos desarrolla estas prioridades con mayor detalle.

H. ASPECTOS INTERNACIONALES

Europa se encuentra en una buena posición para asumir el liderazgo mundial a la hora de crear alianzas en torno a valores compartidos y promover el uso ético de la inteligencia artificial. El trabajo de la UE sobre inteligencia artificial ya ha tenido influencia en distintas negociaciones internacionales. A la hora de elaborar sus directrices éticas, el grupo de expertos de alto nivel contó con la participación de varias organizaciones de fuera de la UE y de diversos observadores gubernamentales. Paralelamente, la UE colaboró estrechamente en la elaboración de los principios éticos de la OCDE en materia de IA (25). Posteriormente, el G20 suscribió estos principios en su Declaración Ministerial sobre Comercio y Economía Digital de junio de 2019.

De manera simultánea, la UE admite que está realizando una importante labor sobre la inteligencia artificial en otros foros multilaterales, como el Consejo de Europa, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la Organización Mundial del Comercio y la Unión Internacional de Telecomunicaciones (UIT). En las Naciones Unidas, la UE participa en el seguimiento del informe del Panel de Alto Nivel sobre la Cooperación Digital, incluida su recomendación sobre inteligencia artificial.

La UE seguirá cooperando en torno a la IA con países de mentalidad similar, pero también con terceras partes de todo el mundo, sobre la base de un enfoque fundamentado en las normas y valores de la UE (por ejemplo, respaldando una mayor convergencia normativa; mediante el acceso a recursos clave, como los datos; o creando un entorno de igualdad de condiciones). La Comisión seguirá de cerca las políticas de terceros países que limitan los flujos de datos y hará frente a las restricciones indebidas en las negociaciones comerciales bilaterales y mediante acciones en el contexto de la Organización Mundial del Comercio. La Comisión está convencida de que la cooperación internacional sobre cuestiones relativas a la IA debe basarse en un enfoque que promueva el respeto de los derechos fundamentales, especialmente la dignidad humana, el pluralismo, la inclusión, la ausencia de discriminación y la protección de la privacidad y de los datos personales (26), y se esforzará por exportar estos valores al resto del mundo (27). Igualmente, resulta evidente que un desarrollo y un uso responsables de la IA pueden ser un motor para alcanzar los Objetivos de Desarrollo Sostenible y progresar en la Agenda 2030.

5. UN ECOSISTEMA DE CONFIANZA: EL MARCO REGULADOR DE LA IA

Como sucede con toda nueva tecnología, el uso de la IA presenta tanto oportunidades como amenazas.  Los ciudadanos temen quedarse indefensos a la hora de proteger sus derechos y su seguridad frente a los desequilibrios informativos de la toma de decisiones mediante algoritmos, y las empresas sienten inquietud debido a la inseguridad jurídica. Si bien la inteligencia artificial puede ayudar a proteger la seguridad de los ciudadanos y permitirles gozar de sus derechos fundamentales, a estos también les preocupa el hecho de que la IA pueda tener efectos imprevistos o incluso que pueda utilizarse con fines malintencionados. Es preciso tener en cuenta esos recelos. Además, a la falta de inversión y de habilidades, es preciso añadir la falta de confianza como uno de los principales obstáculos para una adopción más amplia de la IA.

Esta es la razón por la que, el 25 de abril de 2018, la Comisión estableció una estrategia sobre IA (28) que abordaba los aspectos socioeconómicos junto con un aumento de la inversión en investigación, innovación y capacidad en materia de IA en toda la UE. También aprobó un Plan coordinado (29) con los Estados miembros para armonizar estrategias. La Comisión creó, además, un grupo de expertos de alto nivel que, en abril de 2019, publicó directrices para una IA fiable (30).

La Comisión publicó una Comunicación (31) según la cual acogía favorablemente los siete requisitos esenciales contemplados en las directrices del grupo de expertos de alto nivel, a saber:

  • acción y supervisión humanas;
  • solidez técnica y seguridad;
  • gestión de la privacidad y de los datos;
  • transparencia;
  • diversidad, no discriminación y equidad;
  • bienestar social y medioambiental;
  • rendición de cuentas.

Además, las directrices facilitan una lista para que las empresas comprueben en la práctica si se cumplen los requisitos. Durante la segunda mitad de 2019, más de 350 organizaciones probaron esta lista y enviaron sus observaciones al respecto. El grupo de expertos de alto nivel está revisando las directrices a partir de estas observaciones y terminará esta labor de aquí a junio de 2020. Una observación fundamental tras el proceso de consultas es que, si bien varios de los requisitos se recogen ya en los regímenes jurídicos o reguladores, aquellos relativos a la transparencia, el seguimiento y la supervisión humana no se contemplan de manera específica en la legislación en vigor de numerosos sectores económicos.

Además de este conjunto de directrices no vinculantes del grupo de expertos de alto nivel, y de conformidad con las orientaciones políticas de la presidenta, un marco regulador claro para Europa generaría confianza entre los consumidores y las empresas con relación a la IA, y, por consiguiente, aceleraría su adopción. Dicho marco regulador debe ser coherente con otras acciones destinadas a promover la capacidad innovadora y la competitividad de Europa en el sector. Además, debe garantizar resultados óptimos desde el punto de vista social, medioambiental y económico, así como su conformidad con la legislación, los principios y los valores de la UE. Ello resulta especialmente relevante en sectores en los que los derechos de los ciudadanos se vean afectados de manera más directa; por ejemplo, en el caso de las aplicaciones de IA empleadas por los cuerpos y fuerzas de seguridad y el poder judicial.

Los desarrolladores e implementadores de la inteligencia artificial ya están sujetos a la legislación europea en materia de derechos fundamentales (la protección de datos, la privacidad o la no discriminación, entre otros), protección de los consumidores y normas sobre la seguridad de los productos y responsabilidad civil. Los consumidores esperan el mismo nivel de seguridad y respeto de sus derechos independientemente de si un producto o un sistema está basado en la IA o no. Sin embargo, algunas características específicas de la IA (como la opacidad) pueden hacer que la aplicación y ejecución de la legislación sea más compleja. Por esta razón, resulta necesario analizar si la legislación actual puede hacer frente a los riesgos de la IA y si su observancia es factible o si, por el contrario, es necesario adaptarla o se requiere nueva legislación.

Debido a la rapidez con la que evoluciona la inteligencia artificial, el marco regulador debe dejar margen para abordar su desarrollo en el futuro. Toda modificación debe limitarse a aquellos problemas detectados con claridad para los que existan soluciones factibles.

Los Estados miembros señalan la actual falta de un marco común europeo. El Comité alemán sobre ética en materia de datos propone un sistema de regulación de cinco niveles basado en el riesgo, que va desde la ausencia de regulación en el caso de los sistemas de IA más inocuos hasta la prohibición absoluta en el caso de los más peligrosos. Dinamarca acaba de poner en marcha un prototipo de «sello de ética de los datos». Malta ha incorporado un sistema voluntario de certificación de la IA. Si la UE no es capaz de ofrecer un enfoque a escala de la Unión, existe un riesgo real de fragmentación del mercado interior, que pondría en peligro los objetivos de la confianza y la seguridad jurídica, así como el de la adopción de la IA en el mercado.

Un marco regulador europeo sólido que garantice una IA fiable protegerá a todos los ciudadanos europeos y contribuirá a crear un mercado interior sin fricciones de cara al desarrollo y adopción futuros de la IA, y reforzará los cimientos industriales de Europa en el sector de la inteligencia artificial.

A. DEFINICIÓN DE LOS PROBLEMAS

Aunque la IA puede ofrecer muchas ventajas, por ejemplo, mejorando la seguridad de los productos y los procedimientos, también puede resultar nociva. Los daños pueden ser tanto materiales (para la seguridad y la salud de las personas, con consecuencias como la muerte, y menoscabos al patrimonio) como inmateriales (pérdida de privacidad, limitaciones del derecho de libertad de expresión, dignidad humana, discriminación en el acceso al empleo, etc.) y pueden estar vinculados a una gran variedad de riesgos. El marco regulador debe centrarse en cómo minimizar los distintos riesgos de sufrir daños, especialmente los más significativos.

Los principales riesgos relacionados con el uso de la inteligencia artificial afectan a la aplicación de las normas diseñadas para proteger los derechos fundamentales (como la protección de los datos personales y la privacidad, o la no discriminación) y la seguridad (32), así como a las cuestiones relativas a la responsabilidad civil.

Riesgos para los derechos fundamentales, especialmente la protección de los datos personales y de la privacidad y la no discriminación

El uso de la inteligencia artificial puede afectar a los valores sobre los que se fundamenta la UE y provocar la conculcación de derechos fundamentales (33), como la libertad de expresión, la libertad de reunión, la dignidad humana, la ausencia de discriminación por razón de sexo, raza u origen étnico, religión o credo, discapacidad, edad u orientación sexual, y, en su aplicación en determinados ámbitos, la protección de los datos personales y de la vida privada (34), el derecho a una tutela judicial efectiva y a un juicio justo, o la protección de los consumidores. Estos riesgos pueden ser resultado de defectos en el diseño general de los sistemas de IA (especialmente en lo que se refiere a la supervisión humana) o del uso de datos que puedan ser sesgados sin una corrección previa (por ejemplo, se entrena un sistema utilizando única o principalmente datos relativos a hombres, y ello se traduce en resultados peores con relación a las mujeres).

La inteligencia artificial puede desempeñar muchas funciones que antes solo podían realizar los humanos. Como resultado, los ciudadanos y las personas jurídicas serán, cada vez más, objeto de acciones y decisiones adoptadas por sistemas de inteligencia artificial o con ayuda de estos; dichas acciones y decisiones, en ocasiones, pueden resultar difíciles de entender o de rebatir eficazmente cuando se requiera. Además, la IA incrementa las posibilidades de hacer un seguimiento y un análisis de las costumbres cotidianas de las personas. Por ejemplo, existe el riesgo potencial de que, incumpliendo las normas de la UE en materia de protección de datos u otras normas, las autoridades estatales y otros organismos recurran a la IA para la vigilancia masiva, o las empresas la utilicen para observar cómo se comportan sus empleados. Al analizar grandes cantidades de datos y detectar la conexión existente entre ellos, la IA también puede utilizarse para rastrear y desanonimizar datos relativos a personas, y generar así nuevos riesgos en torno a la protección de los datos personales con relación a conjuntos de datos que, en sí mismos, no contienen datos personales. Los intermediarios de la red también utilizan la IA para ordenar la información para sus usuarios por prioridades y moderar los contenidos. El tratamiento de los datos, el modo en el que se diseñan las aplicaciones y la envergadura de la intervención humana pueden afectar a los derechos de libertad de expresión, protección de los datos personales, privacidad y libertad política.

——————————————————————————————————————

Puede suceder que el uso de determinados algoritmos de la IA para predecir la reincidencia delictiva dé lugar a prejuicios raciales o de género, y prevea una probabilidad de reincidencia distinta para hombres y mujeres o para nacionales y extranjeros. Fuente: Tolan S., Miron M., Gomez E. and Castillo C. “Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia”, Best Paper Award, International Conference on AI and Law, 2019.

Algunos programas de IA de análisis facial muestran prejuicios raciales o de género, y presentan un bajo nivel de error a la hora de determinar el género de hombres de piel más clara, pero un elevado nivel de error al determinar el género de mujeres de piel más oscura. Fuente: Joy Buolamwini, Timnit Gebru; Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018.

—————————————————————————————————————–

Los prejuicios y la discriminación son riesgos inherentes a toda actividad social o económica. La toma de decisiones de las personas no es ajena al error ni a la subjetividad. No obstante, en el caso de la IA, esta misma subjetividad puede tener efectos mucho más amplios, y afectar y discriminar a numerosas personas sin que existan mecanismos como los de control social que rigen el comportamiento humano (35). Puede suceder también que el sistema de IA «aprenda» mientras está funcionando. En tales casos, cuando los resultados no puedan preverse ni anticiparse en la fase de diseño, los riesgos no se deberán a fallos en el diseño original del sistema, sino más bien a las repercusiones prácticas de las correlaciones o de los modelos que reconozca el sistema en un gran conjunto de datos.

Las características particulares de numerosas tecnologías de IA, como la opacidad («efecto caja negra»), la complejidad, la imprevisibilidad y un comportamiento parcialmente autónomo, pueden hacer difícil comprobar el cumplimiento de la legislación vigente de la UE sobre la protección de los derechos fundamentales e impedir su cumplimiento efectivo. Puede ser que las fuerzas y cuerpos de seguridad y las personas afectadas carezcan de los medios para comprobar cómo se ha tomado una decisión determinada con ayuda de la IA y, por consiguiente, si se han respetado las normas pertinentes. Las personas físicas y las personas jurídicas pueden enfrentarse a dificultades en el acceso efectivo a la justicia en situaciones en las que estas decisiones les afecten negativamente.

Riesgos para la seguridad y el funcionamiento eficaz del régimen de responsabilidad civil

Las tecnologías de IA pueden presentar nuevos riesgos de seguridad para los usuarios cuando estén integradas en productos y servicios. Por ejemplo, como resultado de un defecto en la tecnología de reconocimiento de objetos, un vehículo autónomo puede detectar erróneamente un objeto en la carretera y causar un accidente que provoque heridos y daños materiales. Como sucede con los riesgos para los derechos fundamentales, estos riesgos pueden proceder de defectos en el diseño de la tecnología de IA, estar relacionados con problemas de disponibilidad o calidad de los datos, u otros derivados del aprendizaje de las máquinas. Aunque algunos de estos riegos no se limitan a los productos o servicios que dependen de la IA, el uso de esta última puede aumentar o agravar los riesgos.

Además de los riesgos a los que se enfrentan estas personas, la falta de disposiciones claras en materia de seguridad para abordarlos puede crear inseguridad jurídica entre las empresas que comercializan productos que utilicen IA en la UE. Las autoridades encargadas de supervisar el mercado o de ejecutar las normas pueden encontrarse en una situación en la que les resulte confuso cómo intervenir, puesto que tal vez no estén facultadas para tomar medidas o no cuenten con la capacidades técnicas adecuadas para examinar los sistemas (36). Por consiguiente, la inseguridad jurídica puede reducir los niveles globales de seguridad y minar la competitividad de las empresas europeas.

Si los riesgos de seguridad se materializan, la falta de requisitos claros y las características de las tecnologías de IA mencionadas anteriormente pueden complicar la trazabilidad de las decisiones potencialmente problemáticas que se hayan tomado con ayuda de sistemas de IA. A su vez, esto puede dificultar a las personas damnificadas recibir compensaciones en el marco de la normativa en materia de responsabilidad civil en vigor en la UE y los distintos países (37).

——————————————————————————————————————–

En el marco de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, un fabricante es responsable de los daños causados por un producto defectuoso. No obstante, en el caso de un sistema basado en la IA, como un vehículo autónomo, puede resultar difícil demostrar la existencia de un defecto en el producto, el daño que este ha generado y el nexo causal entre ambos. Además, hay cierta incertidumbre sobre cómo y en qué medida resulta aplicable la Directiva sobre responsabilidad por los daños causados por productos defectuosos en el caso de algunos tipos de defectos, por ejemplo, cuando estos se deban a una falla en la ciberseguridad del producto

——————————————————————————————————————–

Por consiguiente, la dificultad para hacer un seguimiento retrospectivo de las decisiones potencialmente problemáticas adoptadas mediante sistemas de IA y contempladas anteriormente con relación a los derechos fundamentales es aplicable tanto a los problemas de seguridad como de responsabilidad civil. Es posible que las personas que hayan sufrido daños no dispongan de un acceso efectivo a las pruebas necesarias para llevar un caso ante los tribunales, por ejemplo, y tengan menos probabilidades de obtener una reparación efectiva en comparación con situaciones en las que los daños sean causados por tecnologías tradicionales. Estos riesgos aumentarán a medida que se generaliza el uso de la IA.

B. POSIBLES ADAPTACIONES DEL MARCO NORMATIVO EN VIGOR EN LA UE CON RELACIÓN A LA IA

Un amplio volumen de la legislación en vigor en la UE en materia de seguridad de los productos y responsabilidad civil (38), especialmente determinadas normas sectoriales, completadas a su vez por la legislación nacional, resulta pertinente y de potencial aplicación a varias de las nuevas aplicaciones de IA.

En lo que se refiere a la protección de los derechos fundamentales y los derechos de los consumidores, el marco normativo de la UE contiene legislación como la Directiva sobre igualdad racial (39), la Directiva sobre igualdad de trato en el empleo y la ocupación (40), las Directivas relativas a la igualdad de trato entre mujeres y hombres con relación al empleo y el acceso a los bienes y servicios (41), varias normas de protección de los consumidores (42) y normas sobre la protección de los datos personales y la privacidad, especialmente el Reglamento General de Protección de Datos y otra legislación sectorial en la que se contempla la protección de los datos personales, como la Directiva sobre protección de datos en el ámbito penal (43). Además, a partir de 2025, resultarán de aplicación las normas sobre los requisitos de accesibilidad de bienes y servicios establecidas en el Acta Europea de Accesibilidad (44). Por otra parte, es necesario respetar los derechos fundamentales cuando se ejecuten otras normas de la UE, como las relativas al sector de los servicios financieros, la migración o la responsabilidad de los intermediarios en línea.

Si bien la legislación de la UE resulta, en principio, plenamente aplicable independientemente del uso de IA, resulta importante evaluar si puede ejecutarse de manera adecuada para abordar los riesgos que generan los sistemas de IA, o si se requiere adaptar instrumentos jurídicos específicos.

Por ejemplo, los agentes económicos siguen siendo plenamente responsables de que la IA respete las normas existentes en materia de protección de los consumidores. Igualmente, debe prohibirse todo uso de los algoritmos con relación al comportamiento de los consumidores cuando se vulneren las normas existentes, y tales vulneraciones deben sancionarse en consecuencia.

La Comisión considera que conviene mejorar el marco normativo para abordar los riesgos y situaciones siguientes:

  • Aplicación y ejecución efectivas de la legislación nacional y de la UE en vigor: Las características fundamentales de la IA entrañan dificultades para garantizar la correcta aplicación y ejecución de la legislación nacional y de la UE. La falta de transparencia (opacidad de la IA) hace difícil detectar y demostrar los posibles incumplimientos de la legislación, especialmente las disposiciones legales que protegen los derechos fundamentales, imputan responsabilidades y permiten reclamar una indemnización. Por tanto, a fin de garantizar una aplicación y ejecución efectivas, puede resultar necesario adaptar o clarificar la legislación en vigor en algunos sectores, como sucede en el caso de la responsabilidad civil, tal como se detalla en el informe adjunto al presente Libro Blanco.
  • Limitaciones del ámbito de aplicación de la legislación existente de la UE: Uno de los centros de interés fundamentales de la legislación sobre seguridad de los productos en la UE lo constituye la comercialización de los productos. Aunque, en la legislación de la UE en materia de seguridad de los productos, los programas informáticos que forman parte de un producto final deben respetar las normas de seguridad del producto pertinentes, existe la duda de si un programa autónomo se rige por la legislación de seguridad de los productos de la UE, salvo en aquellos sectores que cuentan con normas explícitas (45). La legislación general de la UE en materia de seguridad en vigor resulta de aplicación a los productos y no a los servicios, y, por consiguiente, a priori no se aplica tampoco a los servicios basados en las tecnologías de IA (como servicios sanitarios, financieros o de transporte).
  • Cambios en la funcionalidad de los sistemas de IA: La incorporación de programas informáticos, incluida la IA, en los productos puede modificar el funcionamiento de tales productos y sistemas a lo largo de su ciclo de vida. Ello resulta particularmente cierto en el caso de los sistemas que requieren actualizaciones informáticas frecuentes o que se basan en el aprendizaje automático. Estas características pueden dar lugar a nuevos riesgos que no existían en el momento en que se introdujo el sistema en el mercado. Estos riesgos no se abordan adecuadamente en la legislación en vigor, que se centra sobre todo en los riesgos de seguridad en el momento de la comercialización.
  • Incertidumbre en lo que se refiere a la imputación de responsabilidades entre los distintos agentes económicos de la cadena de suministro: En general, la legislación de la UE sobre la seguridad de los productos imputa la responsabilidad al productor del producto comercializado, incluidos todos sus componentes, como los sistemas de IA. Sin embargo, estas normas pueden resultar poco claras cuando la IA es incorporada al producto, una vez que este se ha comercializado, por alguien que no es el productor. Además, la legislación de la UE sobre la responsabilidad civil por los productos regula la responsabilidad de los productores y deja que las normas nacionales en materia de responsabilidad civil se encarguen de los demás participantes en la cadena de suministro.
  • Cambios en el concepto de seguridad: El uso de la IA en los productos y los servicios puede generar riesgos que la legislación de la UE no aborda de manera explícita en la actualidad. Estos riesgos pueden estar vinculados a ciberamenazas, a la seguridad personal (por ejemplo, con relación a nuevos usos de la IA, como en el caso de los aparatos domésticos), a la pérdida de conectividad, etc., y pueden existir en el momento de comercializar los productos o surgir como resultado de la actualización de los programas informáticos y del aprendizaje automático del producto cuando este último se está utilizando. La UE debe hacer un uso pleno de las herramientas que están a su disposición para reforzar su base empírica sobre los riesgos potenciales asociados a las aplicaciones de IA, y aprovechar especialmente la experiencia de la Agencia de Seguridad de las Redes y de la Información de la Unión Europea (ENISA) para evaluar el panorama de amenazas de la IA.

Como se ha señalado, ya hay varios Estados miembros que están valorando alternativas en su legislación nacional para hacer frente a los retos que presenta la IA. Esto a su vez conlleva el riesgo de que se fragmente el mercado único. Es probable que las diferencias entre normas nacionales creen obstáculos para las empresas que deseen vender y utilizar sistemas de IA en el mercado único. Garantizar un enfoque común a escala de la UE permitirá a las empresas europeas beneficiarse de un acceso sencillo al mercado único y respaldar su competitividad en los mercados mundiales.

—————————————————————————————————————-

Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica

El informe, adjunto al presente Libro Blanco, analiza el marco jurídico pertinente. Señala las incertidumbres sobre la aplicación de este marco con relación a los riesgos concretos que presentan los sistemas de IA y otras tecnologías digitales.

Llega a la conclusión de que la legislación vigente sobre seguridad de los productos ya recoge un concepto amplio de protección de la seguridad frente a todo tipo de riesgos derivados del producto en función de su uso. No obstante, cabe introducir disposiciones que aborden de manera explícita los nuevos riesgos derivados de las tecnologías digitales emergentes, a fin de ofrecer mayor seguridad jurídica.

  • El comportamiento autónomo de algunos sistemas de IA a lo largo de su ciclo de vida puede conllevar importantes cambios en los productos y tener repercusiones en la seguridad, lo que puede requerir una nueva evaluación de riesgos. Además, es probable que se requiera la supervisión humana como garantía, desde la fase de diseño y a lo largo de todo el ciclo de vida de los productos y sistemas de IA.
  • También pueden valorarse obligaciones explícitas para los productores con relación a los riesgos para la salud mental de los usuarios cuando así se requiera (por ejemplo, en el caso de la colaboración con robots humanoides).
  • La legislación de la UE sobre seguridad de los productos puede prever requisitos específicos para abordar los riesgos derivados de los datos incorrectos en la fase de diseño, así como mecanismos para garantizar que la calidad de los datos se mantenga mientras se usen los productos y sistemas de IA.
  • La opacidad de los sistemas basados en algoritmos puede abordarse mediante requisitos de transparencia.
  • Es posible que sea necesario adaptar y clarificar las normas en vigor en el caso de los programas autónomos comercializados separadamente o descargados en un producto tras la comercialización de este último, cuando tengan repercusiones en la seguridad.
  • Dada la complejidad creciente de las cadenas de suministro en lo que se refiere a las nuevas tecnologías, las disposiciones que exigen de manera específica colaboración entre los agentes económicos de la cadena y los usuarios pueden aportar seguridad jurídica.

Las características de las tecnologías digitales emergentes, como la inteligencia artificial, el internet de las cosas y la robótica, pueden poner en cuestión algunos elementos de los marcos de responsabilidad civil y reducir su eficacia. Algunas de estas características podrían dificultar la trazabilidad de los daños sufridos por una persona, lo que resultaría necesario en el caso de una demanda de responsabilidad civil subjetiva según la mayoría de las normas nacionales. Ello podría aumentar significativamente los costes para las víctimas, y haría más difícil exigir o demostrar la responsabilidad civil de los agentes que no sean los productores.

  • Las personas damnificadas por sistemas de IA deben poder disfrutar del mismo nivel de protección que las personas que hayan sufrido daños causados por otras tecnologías, aunque al mismo tiempo es necesario permitir el avance de la innovación tecnológica.
  • Es necesario valorar todas las alternativas para alcanzar este objetivo, incluidas las posibles modificaciones de la Directiva sobre responsabilidad por los daños causados por productos defectuosos o la posibilidad de seguir adaptando las medidas nacionales en materia de responsabilidad civil. Por ejemplo, la Comisión está recabando opiniones sobre cómo y en qué medida puede ser necesario atenuar las consecuencias de la complejidad mediante una adaptación de la carga de la prueba exigida por las normas nacionales sobre responsabilidad civil en el caso de los daños causados por el funcionamiento de las aplicaciones de IA.

——————————————————————————————————————–

A la luz de todo lo expuesto, la Comisión llega a la conclusión de que, además de las posibles adaptaciones de la legislación vigente, puede que se requiera nueva legislación específica sobre IA, a fin de adaptar el marco jurídico de la UE a la evolución tecnológica y comercial actual y futura.

C. ÁMBITO DE APLICACIÓN DE UN FUTURO MARCO REGULADOR DE LA UE

Un elemento clave para la elaboración de un futuro marco regulador específico sobre la IA es determinar su ámbito de aplicación. La hipótesis de trabajo es que el marco regulador debe resultar de aplicación a los productos y servicios basados en la IA. Por consiguiente, es necesario definir claramente la IA a los efectos del presente Libro Blanco y de toda posible iniciativa de elaboración de políticas del futuro.

En su Comunicación sobre la inteligencia artificial para Europa, la Comisión ofrecía una primera definición de la IA (46). El grupo de expertos de alto nivel perfeccionó esta definición (47).

En los nuevos instrumentos jurídicos, la definición de la IA tendrá que ser suficientemente flexible para adaptarse al progreso técnico al tiempo que mantiene un nivel de precisión adecuado para ofrecer la seguridad jurídica necesaria.

A los efectos del presente Libro Blanco, así como de todo posible debate sobre iniciativas políticas en el futuro, parece importante clarificar cuáles son los principales elementos que integran la IA, a saber: los «datos» y los «algoritmos». La IA puede incorporarse en los equipos informáticos. En lo que se refiere a las técnicas de aprendizaje automático, que constituyen un subapartado de la IA, los algoritmos son entrenados para inferir determinados modelos a partir de un conjunto de datos, a fin de determinar las acciones que se requieren para alcanzar un objetivo determinado. Los algoritmos pueden seguir aprendiendo mientras se utilizan. Aunque los productos basados en la IA pueden funcionar de manera autónoma a partir de su percepción del entorno y sin seguir un conjunto predefinido de instrucciones, su comportamiento lo definen y restringen en gran medida sus desarrolladores. Los objetivos los definen y programan las personas, y los sistemas de IA deben optimizarse para alcanzarlos.

————————————————————————————————————–

En el caso de la conducción automática, por ejemplo, el algoritmo usa, en tiempo real, los datos del vehículo (velocidad, consumo del motor, amortiguadores, etc.) y de los sensores que examinan el entorno global (carretera, señales, otros vehículos, peatones, etc.) para determinar qué dirección tomar, o qué aceleración y velocidad requiere el vehículo para llegar a determinado destino. A partir de los datos observados, el algoritmo se adapta a la situación de la carretera y las condiciones exteriores, como el comportamiento de otros conductores, para ofrecer la conducción más cómoda y segura posible.

—————————————————————————————————————–

La UE cuenta con un marco jurídico estricto para garantizar, entre otros, la protección de los consumidores, la lucha contra las prácticas comerciales desleales y la protección de los datos personales y la privacidad. Además, el acervo de la UE cuenta con normas específicas en el caso de algunos sectores (como la sanidad o el transporte). Estas disposiciones del Derecho de la UE seguirán siendo de aplicación con relación a la IA, aunque puede que se requieran algunas actualizaciones del marco correspondiente a fin de reflejar la transformación digital y el uso de la IA (véase el apartado B). Como consecuencia, aquellos elementos que ya se abordan en la legislación horizontal y sectorial vigente (como es el caso de los equipos médicos (48) o de los sistemas de transporte) seguirán rigiéndose por dicha legislación.

En principio, el nuevo marco regulador en materia de IA debe ser eficaz para alcanzar sus objetivos sin ser excesivamente prescriptivo, lo que podría generar una carga  desproporcionada, en especial para las pymes. Para alcanzar este equilibrio, la Comisión considera que debe seguir un enfoque basado en el riesgo.

Un enfoque basado en el riesgo resulta importante para asegurar que la intervención reguladora sea proporcionada. No obstante, requiere de criterios claros para establecer diferencias entre las distintas aplicaciones de IA, en especial para determinar si entrañan un riesgo elevado o no (49). La definición de qué es una aplicación de IA de riesgo elevado debe ser clara y fácil de entender y de aplicar para todas las partes interesadas. No obstante, incluso cuando no se considere que una aplicación de IA entraña un riesgo elevado, esta debe seguir estando sujeta a las normas vigentes en la UE.

La Comisión considera que, en general, una aplicación de IA determinada debe considerarse de riesgo elevado en función de lo que esté en juego, y considerando si tanto el sector como el uso previsto suponen riesgos significativos, en especial desde la perspectiva de la protección de la seguridad, los derechos de los consumidores y los derechos fundamentales. De manera más específica, una aplicación de IA debe considerarse de riesgo elevado cuando presente la suma de los dos criterios siguientes:

  • En primer lugar, que la aplicación de IA se emplee en un sector en el que, por las características o actividades que se llevan a cabo normalmente, es previsible que existan riesgos significativos. El primer criterio vela por que la intervención reguladora se centre en aquellas áreas en las que, de manera general, se considere que hay más probabilidad de que surjan riesgos. En el nuevo marco regulador deben detallarse de manera específica y exhaustiva los sectores que englobe. Por ejemplo, la sanidad, el transporte, la energía y determinados ámbitos del sector público (50). Esta lista debe revisarse periódicamente y modificarse cuando proceda en función de los desarrollos pertinentes en la práctica.
  • En segundo lugar, que la aplicación de IA en el sector en cuestión se use, además, de manera que puedan surgir riesgos significativos. Este segundo criterio refleja el reconocimiento de que no toda utilización de la IA en los sectores señalados implica necesariamente riesgos significativos. Por ejemplo, si bien la atención sanitaria puede ser un sector importante, un fallo en el sistema de asignación de citas de un hospital no supondrá en principio un riesgo significativo que justifique la intervención legislativa. La evaluación del nivel de riesgo de un uso determinado puede basarse en las repercusiones para las partes afectadas. Por ejemplo, el uso de aplicaciones de IA con efectos jurídicos o similares en los derechos de un particular o de una empresa; aplicaciones que presenten el riesgo de causar lesiones, la muerte, o daños materiales o inmateriales significativos; aplicaciones que produzcan efectos que las personas físicas o jurídicas no puedan evitar razonablemente.

La aplicación de los dos criterios debe garantizar que el ámbito del marco regulador se adapte a lo necesario y ofrezca seguridad jurídica. En principio, los requisitos obligatorios contemplados en el nuevo marco regulador en materia de IA (véase el apartado D a continuación) deben resultar de aplicación únicamente a las aplicaciones que se consideren de elevado riesgo de conformidad con la suma de los dos criterios esbozados.

No obstante lo anterior, también puede haber casos excepcionales en los que, debido a lo que esté en peligro, el uso de aplicaciones de IA para determinados fines se considere de elevado riesgo en sí mismo; es decir, independientemente del sector de que se trate y cuando los requisitos que se presentan más abajo sigan siendo de aplicación (51). Por ejemplo, cabría pensar en lo siguiente:

  • En vista de su importancia para las personas y del acervo de la UE en materia de igualdad de empleo, el uso de las aplicaciones de IA en los procedimientos de contratación y en situaciones que repercutan en los derechos de los trabajadores debe considerarse siempre de «riesgo elevado» y, por consiguiente, los requisitos que se presentan a continuación han de ser aplicables en todos los casos. También pueden considerarse otras aplicaciones específicas con repercusiones en los derechos de los consumidores.
  • El uso de aplicaciones de IA para la identificación biométrica remota52 y otras tecnologías de vigilancia intrusiva deben considerarse siempre de «riesgo elevado» y, por tanto, los requisitos que se presentan a continuación deben resultar de aplicación en todos los casos.

D. TIPOS DE REQUISITOS

Cuando se diseñe el futuro marco regulador de la IA, será necesario determinar los tipos de requisitos legales obligatorios a los que deben atenerse las partes pertinentes. Estos requisitos pueden concretarse mediante normas. Como se señala en el apartado C, además de la legislación vigente, dichos requisitos deben aplicarse a las aplicaciones de IA que entrañen un riesgo elevado únicamente, para garantizar que toda intervención reguladora sea específica y proporcionada.

Teniendo en cuenta las directrices del grupo de expertos de alto nivel y lo previsto hasta el momento, los requisitos para las aplicaciones de IA que entrañen un riesgo elevado pueden contar con las características clave siguientes, que se abordan en mayor detalle en los subapartados posteriores:

  • datos de entrenamiento;
  • datos y registros de datos;
  • información que debe facilitarse;
  • solidez y exactitud;
  • supervisión humana;
  • requisitos específicos en el caso de determinadas aplicaciones de IA, como las empleadas para la identificación biométrica remota.

Con objeto de garantizar la seguridad jurídica, estos requisitos se detallarán para ofrecer una referencia clara a todas las partes que deban respetarlos.

          a) Datos de entrenamiento

Es más importante que nunca promover, reforzar y defender los valores y normas de la UE, en especial los derechos que concede a los ciudadanos el Derecho de la UE. Sin duda, estos esfuerzos pueden extrapolarse a las aplicaciones de IA en venta y empleadas en la UE, y que se analizan en el presente documento.

Como se ha señalado anteriormente, sin datos, no hay inteligencia artificial. El funcionamiento de muchos sistemas de IA y las acciones y decisiones a las que pueden llevar dependen en gran medida del conjunto de datos que se haya utilizado para entrenar los sistemas. Por consiguiente, deben adoptarse las medidas necesarias para garantizar que, en lo que se refiere a los datos utilizados para entrenar los sistemas de IA, se respeten los valores y normas de la UE, concretamente con relación a la seguridad y la legislación vigente para la protección de los derechos fundamentales. Es posible prever los requisitos siguientes con relación a los conjuntos de datos que se empleen para entrenar los sistemas de IA:

  • Requisitos destinados a ofrecer garantías razonables de que el uso posterior de los productos o servicios mediante IA es seguro, en la medida en que cumple los estándares previstos en la normativa de la UE aplicable en materia de seguridad (tanto la vigente como la que puede completarla). Por ejemplo, requisitos que garanticen que los sistemas de IA se entrenan con conjuntos de datos suficientemente amplios y que engloban todos los escenarios pertinentes para evitar situaciones peligrosas.
  • Requisitos destinados a adoptar medidas razonables para velar por que dicho uso posterior de los sistemas de IA no genere resultados que conlleven una discriminación ilícita. Estos requisitos pueden suponer, en particular, la obligación de utilizar conjuntos de datos que sean suficientemente representativos, especialmente para garantizar que todas las dimensiones de género, etnicidad y otras posibles razones de discriminación ilícita queden correctamente reflejadas en estos conjuntos de datos.
  • Requisitos destinados a garantizar que la privacidad y los datos personales estén adecuadamente protegidos mientras se usen los productos y servicios basados en IA. En cuanto a las cuestiones que correspondan a los ámbitos de aplicación del Reglamento General de Protección de Datos y de la Directiva sobre protección de datos en el ámbito penal respectivamente, son estos instrumentos los que las regulan.

          b) Conservación de registros y datos

Teniendo en cuenta algunos elementos como la complejidad y la opacidad de muchos sistemas de IA y las dificultades que pueden surgir al respecto para verificar de manera efectiva el cumplimiento de las normas aplicables y ejecutarlas, se necesitan requisitos con relación a la conservación de registros sobre la programación de algoritmos, los datos empleados para entrenar sistemas de IA de elevado riesgo y, en algunos casos, la conservación de los datos en sí mismos. Básicamente, estos requisitos facilitan el seguimiento y la comprobación de las acciones o decisiones de los sistemas de IA potencialmente problemáticas. Con ello, no solo se facilita la supervisión y la ejecución, sino que además aumentan los incentivos para que los agentes económicos afectados tengan en cuenta desde el principio la necesidad de respetar estas normas.

Para ello, el marco regulador puede exigir la conservación de lo siguiente:

  • registros exactos sobre el conjunto de datos utilizado para entrenar y probar los sistemas de IA, especialmente una descripción de sus principales características y el modo en que se escogió el conjunto de datos;
  • en determinados casos justificados, los propios conjuntos de datos;
  • documentación sobre las metodologías de programación (53) y entrenamiento, los procesos y las técnicas utilizados para construir, probar y validar los sistemas de IA; especialmente con el fin de proteger la seguridad y de evitar sesgos que puedan dar lugar a un quebrantamiento de la prohibición de discriminación, cuando sea necesario.

Los registros, la documentación y, cuando proceda, los conjuntos de datos, deben conservarse durante un período de tiempo limitado y razonable para garantizar la aplicación efectiva de la legislación pertinente. Deben adoptarse medidas para garantizar que todos ellos se faciliten previa solicitud, especialmente para los ensayos o las inspecciones efectuadas por las autoridades competentes. Cuando sea necesario, deben adoptarse medidas para proteger la información confidencial, como los secretos comerciales.

          c) Suministro de información

La transparencia también se requiere más allá de los requisitos de conservación de registros enumerados en el apartado C. A fin de alcanzar los objetivos perseguidos, en particular la promoción del uso responsable de la IA, la creación de confianza y las garantías de reparación cuando proceda, resulta importante que se facilite información adecuada de manera proactiva en torno a cómo usar los sistemas de IA de elevado riesgo.

En este sentido, cabe valorar los siguientes requisitos:

  • Facilitar información clara con respecto de las capacidades y limitaciones del sistema de IA, en especial sobre el objetivo al que se destinan los sistemas, las condiciones en las que se espera que funcione según lo previsto y el nivel de exactitud esperado en la consecución del objetivo mencionado. Esta información es especialmente importante en el caso de los implementadores de los sistemas, pero también puede ser pertinente para las autoridades competentes y las partes afectadas.
  • Independientemente, debe informarse claramente a los ciudadanos de cuándo están interactuando con un sistema de IA y no con un ser humano. Si bien la legislación de protección de datos de la UE ya recoge algunas normas de este tipo (54), es posible que se necesiten requisitos adicionales para alcanzar los objetivos anteriormente mencionados. En tal caso, deben evitarse las cargas innecesarias. Así, no es necesario facilitar dicha información, por ejemplo, en situaciones en las que sea inmediatamente evidente para los ciudadanos que están interactuando con un sistema de IA. Es importante también que la información facilitada sea objetiva, concisa y fácilmente comprensible. La manera en que ha de presentarse la información debe adaptarse al contexto específico.

          d) Solidez y exactitud

Los sistemas de IA (y desde luego las aplicaciones de IA de riesgo elevado) deben ser técnicamente sólidos y exactos para ser fiables. Esto supone que estos sistemas deben desarrollarse de manera responsable y tras una valoración previa adecuada de los riesgos que conllevan. Su desarrollo y funcionamiento han de ser de tal manera que garanticen que los sistemas de IA se comporten con la fiabilidad prevista. Deben adoptarse todas las medidas razonables para reducir al mínimo el riesgo de que se produzcan daños.

En este sentido, cabe valorar los siguientes elementos:

  • Requisitos que garanticen que los sistemas de IA son sólidos y exactos, o al menos que reflejan correctamente su nivel de exactitud, a lo largo de todas las fases de su ciclo de vida.
  • Requisitos que garanticen la reproducibilidad de los resultados.
  • Requisitos que garanticen que los sistemas de IA son capaces de lidiar correctamente con los errores o las incoherencias a lo largo de todas las fases de su ciclo de vida.
  • Requisitos que garanticen que los sistemas de IA son resilientes ante los ataques abiertos y los intentos más sutiles de manipulación de los propios datos o algoritmos, y que, llegado el caso, aseguren que se toman medidas para combatirlos.

          e) Supervisión humana

La supervisión humana ayuda a garantizar que un sistema de IA no socave la autonomía humana o provoque otros efectos adversos. El objetivo de una IA fiable, ética y antropocéntrica solo puede alcanzarse garantizando una participación adecuada de las personas con relación a las aplicaciones de IA de riesgo elevado.

A pesar de que todas las aplicaciones de IA que se tienen en cuenta en el presente Libro Blanco de cara a un régimen jurídico específico se consideran de riesgo elevado, el tipo y nivel adecuado de supervisión humana puede variar de un caso a otro. Dependerá en particular del uso previsto de los sistemas y de los efectos que el uso pueda tener en el caso de las personas físicas o jurídicas afectadas. Ello se entenderá sin perjuicio de los derechos legales previstos en el RGPD cuando el sistema de IA trate datos personales. La supervisión humana puede traducirse en las consecuencias siguientes, entre otras:

  • El resultado del sistema de IA no es efectivo hasta que un humano no lo haya revisado y validado (por ejemplo, la decisión de denegar una solicitud de prestaciones de seguridad social solo podrá adoptarla un ser humano).
  • El resultado del sistema de IA es inmediatamente efectivo, pero se garantiza la intervención humana posterior (por ejemplo, la decisión de denegar una solicitud de tarjeta de crédito puede tramitarse a través de un sistema de IA, pero debe posibilitarse un examen humano posterior).
  • Se realiza un seguimiento del sistema de IA mientras funciona y es posible intervenir en tiempo real y desactivarlo (por ejemplo, un vehículo sin conductor cuenta con un procedimiento o botón de apagado para las situaciones en las que un humano determine que el funcionamiento del vehículo no es seguro).
  • En la fase de diseño, se imponen restricciones operativas al sistema de IA (por ejemplo, un vehículo sin conductor dejará de funcionar en determinadas condiciones de visibilidad reducida en las que los sensores sean menos fiables, o mantendrá una cierta distancia con el vehículo que lo preceda en una situación dada).

          f) Requisitos específicos en el caso de la identificación biométrica remota

La recopilación y el uso datos biométricos (55) para la identificación remota (56), por ejemplo mediante la instalación de sistemas de reconocimiento facial en lugares públicos, entraña riesgos específicos para los derechos fundamentales (57). Las repercusiones de la utilización de sistemas de IA de identificación biométrica remota en los derechos fundamentales pueden variar considerablemente en función del objetivo, el contexto y el alcance de dicho uso.

Las normas de protección de datos de la UE ya prohíben, en principio, el tratamiento de datos biométricos dirigido a identificar de manera unívoca a una persona física, excepto en  condiciones específicas (58). En concreto, con arreglo al RGPD, este tratamiento solo puede tener lugar en un número limitado de situaciones, principalmente por motivos de interés público significativo. En este caso, el tratamiento debe tener lugar sobre la base del Derecho nacional o de la UE, estar sujeto al requisito de proporcionalidad, al respeto del derecho a la protección de los datos y a garantías adecuadas. Con arreglo a la Directiva sobre protección de datos en el ámbito penal, para efectuar dicho tratamiento debe existir una necesidad estricta al respecto; en principio, una autorización de la legislación nacional o de la UE y garantías adecuadas. Puesto que todo tratamiento de datos biométricos dirigido a identificar a una persona física de manera unívoca estaría vinculado con una excepción a una prohibición establecida en la legislación de la UE, dicho tratamiento ha de atenerse a la Carta de Derechos Fundamentales de la UE.

Por consiguiente, de conformidad con las normas vigentes en materia de protección de datos y con la Carta de Derechos Fundamentales de la UE, la IA solo puede utilizarse con fines de identificación biométrica remota cuando dicho uso esté debidamente justificado, sea proporcionado y esté sujeto a garantías adecuadas.

A fin de abordar las posibles preocupaciones sociales con relación al uso de la IA para tales fines en lugares públicos, y con el objetivo de evitar la fragmentación del mercado interior, la Comisión abrirá un debate europeo sobre las circunstancias específicas, si las hubiera, que puedan justificar dicho uso, así como sobre las garantías comunes.

E. DESTINATARIOS

En lo que se refiere a los destinatarios de los requisitos legales que resulten de aplicación en el caso de las aplicaciones de IA de elevado riesgo contempladas anteriormente, existen dos cuestiones fundamentales que deben tenerse en cuenta.

En primer lugar, se plantea la cuestión de cómo repartir las obligaciones entre los agentes económicos que participen en el proceso. Hay numerosas partes involucradas en el ciclo de vida de un sistema de IA. Entre ellas, el desarrollador, el implementador (la persona que utiliza un producto o servicio provisto de IA) y otras partes potenciales (productor, distribuidor o importador, proveedor de servicios, usuario profesional o particular).

La Comisión considera que, en un futuro marco regulador, cada obligación debe dirigirse a la(s) persona(s) que esté(n) en mejor posición para abordar todo posible riesgo. Por ejemplo, mientras que los desarrolladores de IA pueden ser los que estén en mejor posición para abordar los riesgos derivados de la fase de desarrollo, su capacidad de controlar los riesgos durante la fase de uso puede ser más limitada. En este caso, el implementador debe ser objeto de la obligación correspondiente. Ello debe entenderse sin perjuicio de determinar qué parte debe ser responsable de los daños causados, a efectos de la responsabilidad civil ante los usuarios finales u otras partes que sufran daños, y de ofrecer un acceso efectivo a la justicia. Con arreglo a la legislación de la UE sobre responsabilidad con relación a los productos, la responsabilidad civil por los productos defectuosos se atribuye al productor, sin perjuicio de la legislación nacional, que también puede contemplar una indemnización a cargo de otras partes.

En segundo lugar, se plantea la cuestión del alcance geográfico de la intervención legislativa. Según la Comisión, es esencial que todos los agentes económicos que ofrezcan productos o servicios provistos de IA en la UE, independientemente de que estén o no establecidos en la Unión, estén sujetos a los requisitos. De lo contrario, los objetivos de la intervención legislativa, a los que se hacía referencia anteriormente, no podrán alcanzarse plenamente.

F. CUMPLIMIENTO Y EJECUCIÓN

A fin de garantizar que la IA sea fiable y segura y que respete los valores y normas europeos, deben cumplirse en la práctica los requisitos jurídicos aplicables, y las autoridades nacionales y europeas competentes, así como las partes interesadas, deben garantizar su cumplimiento eficazmente. Las autoridades competentes deben ser capaces de investigar los casos particulares y de evaluar su impacto en la sociedad.

En vista del alto riesgo que suponen determinadas aplicaciones de IA para los ciudadanos y nuestra sociedad (véase el apartado A), la Comisión considera en esta fase que sería necesario un control objetivo previo de la conformidad para verificar y garantizar el cumplimiento de algunos de los requisitos obligatorios previamente mencionados por parte de las aplicaciones de elevado riesgo (véase el apartado D). El control previo de la conformidad puede incluir procedimientos de ensayo,

inspección o certificación (59). Puede contar también con controles de los algoritmos y de los conjuntos de datos utilizados en la fase de desarrollo.

Los controles de la conformidad de las aplicaciones de IA de elevado riesgo deben ser parte de los mecanismos de evaluación de la conformidad que ya existen en el caso de un gran número de productos comercializados en el mercado interior de la UE. Cuando ninguno de estos mecanismos existentes sea fiable, puede que sea necesario establecer mecanismos similares, a partir de las mejores prácticas y de la posible aportación de las partes interesadas y de las organizaciones europeas de normalización. Todo nuevo mecanismo debe ser proporcionado y no discriminatorio y utilizar criterios transparentes y objetivos que cumplan con las obligaciones internacionales.

Al diseñar e implantar un sistema que dependa de una evaluación de conformidad previa, debe prestarse especial atención a lo siguiente:

  • Puede que no todos los requisitos enumerados anteriormente se adecúen a una evaluación de conformidad previa. Por ejemplo, el requisito relativo a la información que debe facilitarse no suele prestarse a una verificación compatible con este tipo de evaluación.
  • Debe tenerse especialmente en cuenta la posibilidad de que determinados sistemas de IA evolucionen y aprendan de la experiencia, lo que puede requerir evaluaciones reiteradas a lo largo del ciclo de vida de dichos sistemas.
  • La necesidad de verificar los datos utilizados en el entrenamiento, así como las técnicas, procesos y metodologías de programación y entrenamiento empleados para construir, probar y validar los sistemas de IA.
  • Cuando una evaluación de la conformidad muestre que un sistema de IA no cumple los requisitos, por ejemplo, los relativos a los datos empleados para entrenarlo, los fallos detectados tendrán que ser corregidos mediante, por ejemplo, un nuevo entrenamiento del sistema en la UE de tal manera que se garantice el cumplimiento de todos los requisitos aplicables.

Las evaluaciones de conformidad deben ser de obligado cumplimiento para todos los agentes económicos sujetos a los requisitos, independientemente del lugar en que estén establecidos (60). A fin de limitar la carga para las pymes, puede preverse alguna estructura de apoyo, especialmente mediante los centros de innovación digital. Además, es posible contar con medidas y herramientas especializadas en línea para facilitar el cumplimiento.

Toda evaluación previa de la conformidad debe realizarse sin perjuicio de la supervisión del cumplimiento y de la posterior ejecución por parte de las autoridades nacionales competentes. Este es

el caso de las aplicaciones de IA de riesgo elevado, pero también de otras aplicaciones de IA sujetas a requisitos legales, aunque el elevado riesgo de las aplicaciones en cuestión pueda justificar que las autoridades nacionales competentes presten especial atención a las primeras. Los controles ex post deben facilitarse mediante una adecuada documentación de la aplicación de IA pertinente (véase el apartado E) y, cuando proceda, ofreciendo la posibilidad de que terceros (como las autoridades competentes) prueben dichas aplicaciones. Ello puede resultar especialmente importante cuando surjan riesgos para los derechos fundamentales que dependan del contexto. Este control del cumplimiento debe ser parte de un sistema de vigilancia constante del mercado. Los aspectos relativos a la gobernanza se tratan más detalladamente en el apartado H.

Además, en el caso de las aplicaciones de IA de riesgo elevado y de otras aplicaciones de IA, debe garantizarse una acción judicial efectiva para las partes que hayan sufrido repercusiones negativas derivadas de los sistemas de IA. Las cuestiones relativas a la responsabilidad civil se tratan más detalladamente en el informe sobre el marco de seguridad y responsabilidad civil, adjunto al presente Libro Blanco.

G. SISTEMA DE ETIQUETADO VOLUNTARIO PARA LAS APLICACIONES QUE NO SE CONSIDERAN DE RIESGO ELEVADO

En el caso de las aplicaciones de IA que no se consideren de riesgo elevado (véase el apartado C) y que, por tanto, no estén sujetas a los requisitos obligatorios esbozados (véanse los apartados D, E y F), existe la opción de establecer un sistema de etiquetado voluntario, además de la legislación aplicable.

Con este sistema, los agentes económicos interesados que no estén sujetos a los requisitos obligatorios pueden optar por someterse, con carácter voluntario, bien a dichos requisitos, bien a un conjunto de requisitos similares, creados de manera específica a los efectos del sistema voluntario. Los agentes económicos interesados obtendrán entonces una etiqueta de calidad para sus aplicaciones de IA.

La etiqueta voluntaria permitirá a los agentes económicos interesados mostrar que los productos y servicios provistos de IA que ofrecen son fiables. Además, permitirá a los usuarios distinguir fácilmente si los productos y servicios en cuestión respetan ciertos referentes objetivos y normalizados a escala de la UE, que van más allá de las obligaciones legales aplicables normalmente. Ello contribuirá a incrementar la confianza de los usuarios en los sistemas de IA y fomentará una adopción generalizada de esta tecnología.

Esta opción conlleva la creación de un nuevo instrumento jurídico para establecer un marco de etiquetado voluntario para los desarrolladores y/ o implementadores de los sistemas de IA que no se consideren de alto riesgo. Si bien la participación en el sistema de etiquetado debe ser voluntaria, una vez que el desarrollador o implementador opte por usar la etiqueta, todos los requisitos serán vinculantes. La combinación de estas imposiciones ex ante y ex post debe garantizar que se cumplan todos los requisitos.

H. GOBERNANZA

Se requiere una estructura de gobernanza europea sobre IA en forma de un marco para la cooperación de las autoridades nacionales competentes, a fin de evitar la fragmentación de responsabilidades, incrementar las capacidades de los Estados miembros y garantizar que Europa se provea a sí misma de la capacidad necesaria para probar y certificar los productos y servicios provistos de IA. En este contexto, conviene respaldar a las autoridades nacionales competentes para que puedan cumplir su mandato cuando se utilice la IA.

La estructura de gobernanza europea puede desempeñar diversas funciones, como la de foro para el intercambio periódico de información y mejores prácticas, la detección de tendencias emergentes y el asesoramiento sobre la actividad de normalización y sobre la certificación. Además, debe desempeñar un papel clave a la hora de facilitar la ejecución del marco jurídico, por ejemplo, mediante la formulación de orientaciones, emitiendo dictámenes y compartiendo sus conocimientos técnicos. Para ello, debe apoyarse en una red de autoridades nacionales, así como en redes sectoriales y autoridades reguladoras, tanto a escala nacional como de la UE. Además, un comité de expertos puede prestar asistencia a la Comisión.

La estructura de gobernanza debe garantizar la mayor participación de partes interesadas posible. Debe consultarse a las partes interesadas (organizaciones de consumidores e interlocutores sociales, empresas, investigadores y organizaciones de la sociedad civil) sobre la aplicación y futuro desarrollo del marco.

Dadas las estructuras vigentes en ámbitos como el financiero, el farmacéutico, el de la aviación, el de los productos sanitarios, el de la protección de los consumidores o el de la protección de datos, la estructura de gobernanza propuesta no debe duplicar funciones existentes. Por el contrario, debe establecer vínculos estrechos con otras autoridades competentes nacionales y de la UE en los distintos sectores, a fin de completar los conocimientos técnicos y de ayudar a las autoridades actuales a controlar y supervisar las actividades de los agentes económicos en lo que respecta a los sistemas de IA y los productos y servicios provistos de IA.

Finalmente, si se opta por esto, el desarrollo de las evaluaciones de conformidad podrá encomendarse a organismos notificados designados por los Estados miembros. Los centros de ensayo deben facilitar la auditoría y evaluación independientes de los sistemas de IA, de acuerdo con los requisitos expuestos anteriormente. Las evaluaciones independientes incrementarán la confianza y garantizarán la objetividad. También pueden facilitar el trabajo de las autoridades competentes.

La UE dispone de excelentes centros de ensayo y evaluación y debe desarrollar sus capacidades también en el ámbito de la IA. Los agentes económicos establecidos en terceros países que deseen acceder al mercado interior pueden recurrir tanto a los organismos designados establecidos en la UE como a organismos de terceros países designados para llevar a cabo dicha evaluación, previo acuerdo de reconocimiento mutuo con terceros países.

La estructura de gobernanza relativa a la IA y las posibles evaluaciones de la conformidad que se tratan en el presente documento deben mantener inalteradas las competencias y responsabilidades derivadas del Derecho vigente de la UE en lo que se refiere a las autoridades competentes en sectores o cuestiones específicos (financiero, farmacéutico, aviación, productos sanitarios, protección de los consumidores, protección de datos, etc.).

6. CONCLUSIÓN

La inteligencia artificial es una tecnología estratégica que ofrece numerosas ventajas a los ciudadanos, las empresas y la sociedad en su conjunto, siempre y cuando sea antropocéntrica, ética y sostenible y respete los derechos y valores fundamentales. La IA aporta importantes mejoras de la eficiencia y la productividad que pueden reforzar la competitividad de la industria europea y mejorar el bienestar de los ciudadanos. También puede contribuir a encontrar soluciones a algunos de los problemas sociales más acuciantes, como la lucha contra el cambio climático y la degradación medioambiental, los retos relacionados con la sostenibilidad y los cambios demográficos, la protección de nuestras democracias y, cuando sea necesario y proporcionado, la lucha contra la delincuencia.

Para que Europa aproveche plenamente las oportunidades que ofrece la IA, debe desarrollar y reforzar las capacidades industriales y tecnológicas necesarias. Tal como se establece en la Estrategia Europea de Datos adjunta, ello también requiere de medidas que permitan a la UE convertirse en un centro de datos mundial.

El enfoque europeo sobre la IA aspira a promover la capacidad de innovación de Europa en el sector de la IA, e incentiva el desarrollo y la adopción de una IA ética y fiable en toda la economía de la UE. La IA debe estar al servicio de las personas y ser una fuerza positiva para la sociedad.

Con el presente Libro Blanco y el informe sobre el marco de seguridad y responsabilidad civil adjunto, la Comisión pone en marcha una amplia consulta de la sociedad civil, la industria y el mundo académico de los Estados, para que ofrezcan propuestas concretas en torno a un enfoque europeo sobre la IA. Ambos prevén medios estratégicos para incentivar las inversiones en investigación e innovación, reforzar el desarrollo de habilidades y respaldar la adopción de la IA por parte de las pymes, y ofrecen propuestas en relación con los elementos clave para un futuro marco regulador. Esta consulta permitirá desarrollar un diálogo amplio con todas las partes interesadas que servirá de base a los siguientes pasos que dé la Comisión.

La Comisión invita a que se envíen observaciones sobre las propuestas recogidas en el Libro Blanco mediante una consulta pública abierta disponible en https://ec.europa.eu/info/consultations_es. La consulta será accesible hasta el 19 de mayo de 2020.

Es práctica habitual de la Comisión publicar los comentarios recibidos en respuesta a una consulta pública. Sin embargo, se puede solicitar que los comentarios o ciertas partes de los mismos sean confidenciales. De ser así, indique claramente en la portada de su documento que no deben hacerse públicos y remita también una versión no confidencial a la Comisión para su publicación

——————————————————————————————————————–

(1) Inteligencia artificial para Europa [COM(2018) 237 final].

(2) https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_es.pdf

(3) COM(2020) 66 final.

(4) La inteligencia artificial y la digitalización en general son motores clave de las ambiciones contempladas en el Pacto Verde Europeo. No obstante, se estima que la huella medioambiental actual del sector de las TIC se sitúa por encima del 2 % del conjunto de emisiones mundiales. La Estrategia Digital Europea que acompaña al presente Libro Blanco propone medidas de transformación ecológica para el sector digital.

(5) Las herramientas de inteligencia artificial pueden ofrecer una oportunidad para proteger mejor a los ciudadanos de la UE de la delincuencia y los actos de terrorismo. Este tipo de herramientas podrían, por ejemplo, ayudar a detectar propaganda terrorista en línea, descubrir transacciones sospechosas en la venta de productos peligrosos, detectar objetos peligrosos ocultos o productos y sustancias ilícitos, ofrecer asistencia a los ciudadanos en situaciones de emergencia y servir de orientación al personal de primera intervención.

(6) COM(2019) 640 final.

(7) Aunque puede que se requieran medidas adicionales para evitar y combatir el uso abusivo de la inteligencia artificial con fines delictivos, se trata de una cuestión independiente del ámbito del presente Libro Blanco.

(8) COM(2019) 168.

(9) Por delante de Japón (30 %) y los EE. UU. (28 %). Fuente: CapGemini (2019).

(10) «10 imperatives for Europe in the age of AI and automation», McKinsey, 2017.

(11) COM(2018) 795.

(12) IDC (2019).

(13) Gartner (2017).

(14) Por soluciones neuromórficas se entiende todo sistema de muy gran escala compuesto por circuitos integrados que imitan la arquitectura neuronal biológica  del sistema nervioso.

(15) Los ordenadores cuánticos tendrán la capacidad de procesar en fracciones de segundos conjuntos de datos mucho más amplios y numerosos que los ordenadores de mayor rendimiento de la actualidad, lo que permitirá el desarrollo de nuevas aplicaciones de IA en los distintos sectores.

(16) Inteligencia artificial para Europa [COM(2018) 237].

(17) Plan coordinado sobre la inteligencia artificial [COM(2018) 795].

(18) COM(2018) 237.

(19) El futuro Fondo Europeo de Defensa y la Cooperación Estructurada Permanente (CEP) también ofrecerán oportunidades de investigación y desarrollo en el ámbito de la inteligencia artificial. Estos proyectos  deben sincronizarse con los programas civiles de inteligencia artificial más generales de la UE.

(20)  https://ec.europa.eu/jrc/en/publication/academic-offer-and-demand-advanced-profiles-eu.

(21) ec.europe.eu/digital-single-market/en/news/digital-innovation-hubs-helping-companies-across-economy-make-most- digital-opportunities.

(22) www.Ai4eu.eu.

(23) https://europa.eu/investeu/home_es.

(24) Fáciles de encontrar, accesibles, interoperables y reutilizables, tal como se contempla en el informe final y el Plan de Acción del Grupo de Expertos en datos FAIR de la Comisión, de 2018 (https://ec.europa.eu/info/sites/info/files/turning_fair_into_reality_1.pdf).

(25) https://www.oecd.org/going-digital/ai/principles/.

(26) En el marco del Instrumento de Asociación, la Comisión financiará un proyecto de 2,5 millones EUR que facilitará la cooperación con socios de mentalidad similar, a fin de promover las directrices éticas en materia de IA de la UE y de adoptar principios y conclusiones operativas.

(27) Presidenta von der Leyen, «Una Unión que se esfuerza por lograr más resultados. Mi agenda para Europa», página 17.

(28) COM(2018) 237.

(29) COM(2018) 795.

(30) https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top.

(31) COM(2019) 168.

(32) Como la ciberseguridad, los problemas vinculados a las aplicaciones de IA en infraestructuras clave, o el uso malintencionado de la IA.

(33) Según el trabajo de investigación del Consejo de Europa, un gran número de derechos fundamentales podría verse afectado por el uso de la IA (https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5).

(34) El Reglamento General de Protección de Datos y la Directiva sobre la privacidad y las comunicaciones electrónicas (nuevo Reglamento sobre la privacidad y las comunicaciones electrónicas en fase de negociación) aborda estos riesgos, aunque puede que sea necesario examinar si los sistemas de IA plantean riesgos adicionales. La Comisión supervisará y evaluará la aplicación del RGPD de manera continuada.

(35) El Comité consultivo para la igualdad de oportunidades entre mujeres y hombres de la Comisión está preparando en la actualidad un dictamen sobre la inteligencia artificial, que analiza, entre otras cuestiones, las repercusiones de esta última en la igualdad de género, y cuya adopción por el Comité está prevista a principios de 2020. La Estrategia de la UE para la igualdad de género 2020-2024 también aborda el vínculo entre la IA y la igualdad de género. La red europea de organismos para la igualdad (Equinet) publicará un informe (de Robin Allen y Dee Masters) titulado «La regulación de la IA: el nuevo papel de los organismos para la igualdad. Cómo hacer frente a los retos en materia de igualdad y no discriminación derivados de la mayor digitalización y uso de la IA», previsto para principios de 2020.

(36) Un ejemplo pueden ser los relojes de pulsera inteligentes para niños. Es posible que este producto no cause daños directos a quienes lo utilizan, pero si no se prevé un nivel mínimo de seguridad, puede convertirse fácilmente en una herramienta de acceso al niño. Es posible que las autoridades encargadas de supervisar el mercado tengan dificultades para intervenir en casos en los que el riesgo no esté vinculado al producto en sí mismo.

(37) Finalmente, en el informe de la Comisión adjunto al presente Libro Blanco, se analizan las repercusiones de la inteligencia artificial, el internet de las cosas y otras tecnologías digitales para la normativa en materia de seguridad y responsabilidad civil.

(38) El marco jurídico de la UE sobre la seguridad de los productos lo componen la Directiva sobre seguridad general de los productos (Directiva 2001/95/CE), a modo de red de seguridad, y varias normas sectoriales que engloban distintas categorías de productos, que van desde las máquinas, los aviones y los vehículos, hasta los juguetes y los productos sanitarios, destinadas a ofrecer un alto nivel de salud y seguridad. La legislación sobre responsabilidad civil por los productos la completan distintos sistemas responsabilidad civil por los daños ocasionados por los productos o servicios.

(39) Directiva 2000/43/CE.

(40) Directiva 2000/78/CE.

(41) Directiva 2004/113/CE; Directiva 2006/54/CE.

(42) Como la Directiva sobre las prácticas comerciales desleales (Directiva 2005/29/CE) y la Directiva sobre los derechos de los consumidores (Directiva 2011/83/CE).

(43) Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos.

(44) Directiva (UE) 2019/882, sobre los requisitos de accesibilidad de los productos y servicios.

(45) Por ejemplo, de acuerdo con el Reglamento sobre los productos sanitarios [Reglamento (UE) 2017/745], los programas informáticos destinados a fines médicos por el fabricante se consideran productos sanitarios.

(46) COM(2018) 237 final, p. 1: «El término “inteligencia artificial” (IA) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía— con el fin de alcanzar objetivos específicos.

Los sistemas basados en la IA pueden consistir simplemente en un programa informático (p. ej. asistentes de voz, programas de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la IA también puede estar incorporada en dispositivos de hardware (p. ej. robots avanzados, automóviles autónomos, drones o aplicaciones del internet de las cosas)».

(47) Según la definición del grupo de expertos de alto nivel, p. 8: Los sistemas de inteligencia artificial (IA) son programas informáticos (y posiblemente también equipos informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno mediante la adquisición de datos, la interpretación de los datos estructurados o no estructurados, el razonamiento sobre el conocimiento o el tratamiento de la información, fruto de estos datos y la decisión de las mejores acciones que se llevarán a cabo para alcanzar el objetivo fijado.

(48) Por ejemplo, las consideraciones de seguridad y las implicaciones jurídicas son distintas en el caso de los sistemas de IA que ofrecen información médica especializada a los médicos, los sistemas de IA que ofrecen información médica al paciente y los sistemas de IA que ofrecen por sí solos prestaciones médicas al paciente directamente. La Comisión está examinando estos retos de seguridad y responsabilidad civil, que son distintos de la asistencia sanitaria.

(49) Puede que la legislación de la UE ofrezca categorías de «riesgos» distintas a las que se presentan aquí, en función del sector, como sucede, por ejemplo, en el caso de la seguridad de los productos.

(50) El sector público debe incluir ámbitos como el asilo, la migración, los controles fronterizos y el poder judicial, la seguridad social y los servicios de empleo.

(51) Cabe destacar que también otros ámbitos de la legislación de la UE pueden resultar de aplicación. Por ejemplo, cuando las aplicaciones de IA se integren en un producto de consumo, puede que su seguridad esté sujeta a la Directiva sobre seguridad general de los productos.

(52) La identificación biométrica remota debe distinguirse de la autenticación biométrica (esta última es un procedimiento de seguridad que se basa en las características biológicas exclusivas de una persona para comprobar que es quien dice ser). La identificación biométrica remota consiste en determinar la identidad de varias personas con la ayuda de identificadores biométricos (huellas dactilares, imágenes faciales, iris, patrones vasculares, etc.) a distancia, en un espacio público y de manera continuada o sostenida contrastándolos con datos almacenados en una base de datos.

(53) Por ejemplo, información sobre el algoritmo, especialmente sobre qué debe mejorar el modelo, qué importancia se asigna a ciertos parámetros desde el principio, etc.

(54)  En concreto, de acuerdo con el artículo 13, apartado 2, letra f) del RGPD, el responsable del tratamiento facilitará al interesado, en el momento en que se obtengan los datos personales,  la información necesaria sobre la existencia de decisiones automatizadas y determinada información adicional, a fin de garantizar un tratamiento de datos leal y transparente.

(55) Por «datos biométricos» se entienden los «datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física que permitan o confirmen la identificación única de dicha persona, como imágenes faciales o datos dactiloscópicos [huella dactilar]» [artículo 3, apartado 13 de la Directiva sobre protección de datos en el ámbito penal; artículo 4, apartado 14, del RGPD; artículo 3, apartado 18, del Reglamento (UE) 2018/1725].

(56) En lo que se refiere al reconocimiento facial, por «identificación» se entiende que la plantilla de la imagen facial de una persona se compara con otras muchas plantillas almacenadas en una base de datos para averiguar si su imagen está almacenada en ella. La «autenticación» (o «verificación»), por su parte, se refiere habitualmente a la búsqueda de correspondencias entre dos plantillas concretas. Permite la comparación de dos plantillas biométricas que, en principio, se supone que pertenecen a la misma persona; así, las dos plantillas se comparan para determinar si la persona de las dos imágenes es la misma. Este procedimiento se emplea, por ejemplo, en las puertas de control automatizado de fronteras empleadas en los controles fronterizos de los aeropuertos.

(57) Por ejemplo, la dignidad de las personas. Con relación a este aspecto, los derechos al respeto de la vida privada y a la protección de los datos personales son parte primordial de la preocupación en torno a los derechos fundamentales cuando se utiliza la tecnología de reconocimiento facial. Tiene, además, un efecto fundamental en el derecho a la no discriminación y los derechos de grupos específicos, como los niños, las personas mayores o las personas con discapacidad. Además, no deben socavarse los derechos de expresión, asociación y reunión mediante el uso de esta tecnología. Véase: «La tecnología del reconocimiento facial: consideraciones relativas a los derechos fundamentales en el marco de la aplicación de las leyes» (en inglés)  https://fra.europa.eu/en/publication/2019/facial-recognition.

(58) Artículo 9 del RGPD y artículo 10 de la Directiva sobre protección de datos en el ámbito penal. Véase también el artículo 10 del Reglamento (UE) 2018/1725 (aplicable a las instituciones y organismos de la UE).

(59) El sistema debe basarse en los procedimientos de evaluación de la conformidad de la UE —véase la Decisión nº 768/2008/CE o el Reglamento (UE) 2019/881 (Reglamento sobre ciberseguridad)—, teniendo en cuenta las especificidades de la IA. Véase la «Guía azul» sobre la aplicación de la normativa europea relativa a los productos, de 2014.

(60) En lo que se refiere a la estructura de gobernanza pertinente, como los organismos designados para llevar a cabo las evaluaciones de conformidad, véase el apartado H.

27May/10

Modelos de Negocio de Inteligencia Artificial

Modelos de Negocio de Inteligencia Artificial

Las tecnologías de la información y las comunicaciones, TIC´s, manifiestan su incidencia en dos especies principales de modelos de gestión. En primer lugar en un sentido instrumental conforme al cual sirven como un medio transaccional. En un segundo enfoque a nivel finalista que permite replantear las nociones tradicionales de la cadena de producción, la acción estatal, y la interacción social.

Por lo tanto, existe una nueva dimensión en los servicios que son y deben ser provistos por el sector jurídico. Al interior de la Sociedad de la Información, entendida como una nueva era antropológica caracterizada por una estructura innovadora de organización de datos y acceso a los mismos (datos de voz, audio, video, imagen, texto, o sus combinaciones debido a la convergencia), el abogado puede actuar como un consultor experto en la implementación de proyectos tecnológicos amigables basados en la innovación y la creatividad.

El presente documento es una simple contribución para erradicar la brecha digital e ilustrar las bondades que se pueden obtener con la adecuada interpretación de las TIC´s, conllevando a la generación de modelos de desarrollo soportados en una amalgama armónica de los enfoques jurídicos, tecnológicos, económicos, y sociales, en el particular escrito dirigido al campo de la inteligencia artificial (última generación computacional de acuerdo al lex artis de la Sociedad de la Información a la fecha de creación de ésta obra literaria)

Download the PDF file .

Descargar