Archivos de la etiqueta: Falso

31Oct/24
Proyecto de Ley

Proyecto de Ley. Expediente 2469-S-2023, de 14 de diciembre de 2023

Proyecto de Ley. Expediente 2469-S-2023, de 14 de diciembre de 2023. Modificación del artículo 128 del Código Penal, Ley 11179 respecto de sancionar delitos contra la integridad sexual.

PROYECTO DE LEY

El Senado y Cámara de Diputados,…

Artículo 1°:

 Modifícase el artículo 128 del Código Penal, el que quedará redactado de la siguiente manera:

“Será reprimido con prisión de tres (3) a seis (6) años el que produjere, financiare, ofreciere, comerciare, publicare, facilitare, divulgare o distribuyere, por cualquier medio, toda representación real o simulada de un menor de dieciocho (18) años dedicado a actividades sexuales explícitas o toda representación real o simulada de sus partes genitales con fines predominantemente sexuales, al igual que el que organizare espectáculos en vivo de representaciones sexuales explícitas reales o simuladas en que participaren dichos menores.

Será reprimido con prisión de cuatro (4) meses a un (1) año el que a sabiendas tuviere en su poder representaciones de las descriptas en el párrafo anterior.

Será reprimido con prisión de seis (6) meses a dos (2) años el que tuviere en su poder representaciones de las descriptas en el primer párrafo con fines inequívocos de distribución o comercialización.

Será reprimido con prisión de un (1) mes a tres (3) años el que facilitare el acceso a espectáculos pornográficos o suministrare material pornográfico a menores de catorce (14) años.

Todas las escalas penales previstas en este artículo se elevarán en un tercio en su mínimo y en su máximo cuando la víctima fuere menor de trece (13) años.”

Artículo 2°: Comuníquese al Poder Ejecutivo.

Juan C. Romero

FUNDAMENTOS

Señora Presidente:

Motiva el presente proyecto la necesidad de cubrir un vacío legal en nuestro Código Penal ante la exposición de las personas, especialmente de menores de edad, a nuevas tecnologías cuyo uso indebido socaban su integridad física, psíquica y moral.

La Deepfake -o ultrafalso-, o también conocida como Deep Synthesis, es una técnica que está revolucionando la creación y distribución de contenidos falsos a una velocidad exponencial en todo el mundo. El término resulta de una combinación de dos palabras “deep” (“profundo”, pero con origen en deep learning-aprendizaje profundo-) y “fake” (falso).

A través del uso de inteligencia artificial (IA), que utiliza algoritmos de síntesis generativa, representados por el aprendizaje profundo y la realidad virtual, se reemplaza la apariencia y la voz de una persona en imágenes o vídeos de manera realista, sin que los hechos hayan sucedido. De esta manera, el rostro, la voz o los movimientos que aparecen en pantalla o material gráfico no pertenecen a esa persona, sino a las de otra, o bien, a una construcción totalmente irreal, planteando desafíos nunca vistos en términos de ética, privacidad y seguridad.

Lo preocupante del caso, es que el uso de las Deepfakes no sólo está revolucionado la creación y distribución de contenido falso, sino también la distribución de material pornográfico y de abuso infantil.

Tal como lo señala un documento reciente del Instituto de Políticas Públicas de Prevención del Grooming de la Cámara de Diputados de la Prov. de Buenos Aires, “la suplantación de identidad de menores de edad en material pornográfico falso, con el consiguiente riesgo de daño psicológico, social y reputacional, plantea cuestiones legales que requieren una respuesta firme y coordinada”. Y agrega que “los riesgos que enfrentan los menores de edad al ser expuestos a Deepfakes pornográficos son inmensos, por lo que es esencial abordar este problema de manera urgente para proteger a los menores de edad y salvaguardar su bienestar emocional, en un mundo cada vez más permeado por tecnologías que pueden ser utilizadas en su contra”.

Un análisis reciente compartido por la revista estadounidense Wired, especializada en tecnología, señala que, en los últimos siete años, al menos 244.625 clips han sido cargados en los 35 principales sitios web dedicados total o parcialmente a alojar videos de pornografía Deepfake.

Solo en los primeros nueve meses de este año, se subieron 113.000 videos a estas plataformas, marcando un aumento del 54% en comparación con todo el 2022 (73.000 piezas de contenido). Según las proyecciones de la investigación, se anticipa que a finales de 2023 se habrán producido más videos que en todos los años anteriores combinados. A pesar de que muchas de estas páginas aclaran que los contenidos, con millones de visualizaciones, no son auténticos, raramente mencionan el consentimiento de quienes aparecen en ellos.

En los Estados Unidos varios estados han regulado las Deepfakes, planteando debates sobre cómo abordar jurídicamente los vídeos pornográficos generados por esta tecnología. Existen algunas corrientes que argumentan que estas restricciones deberían recibir el mismo tratamiento bajo la Primera Enmienda que las prohibiciones de pornografía no consensual, en lugar de estar sujetas a la ley de difamación.

En julio de 2019, se implementó en el Estado de Virginia una ampliación de las leyes dirigidas contra la “pornografía no consensuada”, comúnmente conocida como “pornovenganza”. Esta modificación busca abarcar en su definición las Deepfakes pornográficas, así como cualquier contenido visual manipulado mediante herramientas digitales.

La difusión de falsos desnudos en Virginia, con la intención de coaccionar, acosar o intimidar a otra persona, puede acarrear una pena de hasta un año de prisión y una multa de 2.500 dólares.

Por su parte, la Unión Europea aprobó recientemente el Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial y se modifican determinados actos legislativos de la Unión.

Si bien las Deepfakes no tienen una legislación específica, en el caso de España diversas opiniones de juristas de ese país señalan que podrían ser penalizadas por delitos que van desde la violación del derecho a la propia imagen hasta la injuria o delito de odio, dependiendo de sus objetivos y consecuencias.

La Unión Europea, preocupada por el impacto en el número de víctimas femeninas, abordó el fenómeno de la Deepfake como un problema de género. Esto condujo a un exhaustivo estudio realizado por un “Think Tank” europeo compuesto por participantes de Alemania, República Checa y Holanda. Dicho estudio analiza detalladamente el fenómeno desde perspectivas sociológicas y legales, centrándose en las técnicas de Inteligencia Artificial para la manipulación de imágenes, la creación de videos falsos y el clonado de voz.

El análisis abarca la normativa actual en países clave, destacando el desarrollo exponencial en EE. UU. y China, así como la problemática en países sensibles como Taiwán debido a la desinformación generada por estas tecnologías. El marco legal europeo, basado en el Convenio de Estambul del Consejo de Europa, aborda la posibilidad de tipificar el acoso cuando se presenta un comportamiento amenazador que genera temor por la seguridad de otra persona, y regula los actos de carácter sexual no consentidos.

El Protocolo Facultativo de la Convención sobre los Derechos del Niño relativo a la venta de niños, la prostitución infantil y la utilización de niños en la pornografía de las Naciones Unidas, ratificado en nuestro país por Ley N° 25.763, establece que la explotación sexual contra la infancia comprende “toda representación, por cualquier medio, de un niño dedicado a actividades sexuales explícitas, reales o simuladas”.

También incluye este concepto el Convenio de Budapest, primer tratado internacional creado con el objetivo de proteger a la sociedad frente a los delitos informáticos y los delitos en Internet, y que nuestro país ratificó en 2018 a partir de la Ley N° 27.411. Allí se entiende por pornografía infantil, entre otros conceptos, a “…imágenes realistas que representen a un menor adoptando un comportamiento sexualmente explícito”.

Ambos antecedentes, incorporados a nuestro ordenamiento legislativo, refuerzan el sentido del presente proyecto.

Resulta insoslayable entonces, avanzar en un proyecto de ley que incorpore en nuestro Código Penal la regulación de la explotación sexual infantil simulada o virtual, donde un niño, niña o adolescente ha sido incluido, a través de la alteración de imágenes, como partícipe de un acto sexual.

Es crucial señalar que este tipo de contenido no solo viola el derecho a la privacidad y la integridad personal de los menores involucrados, sino que también puede tener consecuencias a largo plazo en su bienestar psicológico y emocional. La divulgación de este material destaca la urgencia de implementar medidas legales para proteger a los niños y garantizar un entorno adecuado para un desarrollo saludable.

Un caso reciente expone el vacío legal de esta problemática. En la provincia de San Juan, Leandro Pérez González, fue eximido este año de toda responsabilidad penal por haber “desnudado” mediante una aplicación de inteligencia artificial a 15 compañeras de la universidad, para luego venderlas como material pornográfico en un sitio web. Las jóvenes pidieron una perimetral y expusieron un vacío legal penal que las dejaba desamparadas. Sin embargo, la investigación viró cuando en los dispositivos del sospechoso se detectaron archivos con contenido de abuso sexual infantil. Pérez González fue detenido este año y la Justicia le dictó tres años de prisión de ejecución condicional por tenencia y distribución de este tipo de material, delito que sí está contemplado en nuestro Código Penal.

En resumen, en nuestro país, cuando hay una producción de imágenes de explotación sexual infantil generadas por inteligencia artificial, o por cualquier mecanismo tecnológico, aún no es delito. La actividad criminal de la explotación sexual infantil es un fenómeno en expansión que exige no sólo la cooperación trasnacional, sino también, y fundamentalmente, una normativa actualizada de los países, que esté a la altura de dicho fenómeno criminal.

Por todo lo expuesto, solicito a mis Pares que acompañen el presente Proyecto de Ley.

Juan C. Romero