Un blog desde la diáspora y para la diáspora

lunes, 14 de octubre de 2024

La Amenaza de los «Deep Fake»

Cuando se dio a conocer eso a lo que llaman Inteligencia Artificial, comúnmente referida com AI o IA, nos dijeron que no se iba a poder hacer desnudos de las personas como los mandamientos robóticos de Isaac Asimov.

Pero más tardaron en decirlo...

Aquí lo que se nos informa desde Naiz:


Nafarroa registra los dos primeros casos de «deep fake»

La violencia digital contra las mujeres es un fenómeno en auge y que se desarrolla de forma preocupante a edades muy bajas, particularmente, entre menores de edad. Nafarroa ha registrado los dos primeros casos de ‘deep fake’ (realización de falsos desnudos de chicas de su entorno mediante IA).

Aritz Intxusta

En Nafarroa ha habido dos casos de gravedad en los que se ha utilizado la inteligencia artificial para desnudar virtualmente a mujeres jóvenes. En uno de ellos se alcanzó una sentencia de conformidad entre las partes, mientras que el segundo se encuentra en proceso de investigación por parte de la Fiscalía de Menores. Los especialistas de Policía Foral muestran su preocupación por esta práctica, que consideran una faceta más del fenómeno que se denomina violencia digital contra las mujeres, cuya incidencia va en aumento, especialmente, entre quienes no han cumplido aún 18 años.

Koldo Martínez, jefe del Grupo de Delitos Informáticos de Policía Foral, precisa a NAIZ que en estos dos casos sucedidos en Nafarroa las herramientas de inteligencia artificial empleadas lograron un resultado muy creíble, que resultaba difícil detectar que se trataba de un montaje. De ahí, precisamente, viene el nombre de esta práctica, deep fake, que en inglés viene a significar falsedad profunda, precisamente, por su grado de realismo y sofisticación.

El uso de herramientas de deep fake para atentar contra la integridad sexual mediante la generación de desnudos falsos o incluso vídeos mediante AI se conoció primero con mujeres famosas como Taylor Swift o Rosalía (agosto de 2023), pero pronto se tuvo noticia de jóvenes que convertían a mujeres de su entorno en víctimas de este tipo de herramientas.

El primer caso con trascendencia en el Estado español tuvo lugar en Almendralejo (Badajoz) con varias víctimas menores y múltiples autores, que eran compañeros de instituto, lo que despertó una importante alarma social, así como tratamientos periodísticos morbosos. Fueron condenados a un año de libertad vigilada.

En el primero de los casos acaecidos en Nafarroa (en el que se alcanzó la conformidad) se detectó en diciembre de 2023, tres meses después de estallar el de Almendralejo. El segundo fue posterior y se registró en una localidad de Erribera –cuyo nombre se obviará en este artículo– y afectó a víctimas menores de edad.

Por su parte, la portavocía de la Ertzaintza ha comunicado por escrito a este medio «no haber tenido conocimiento de infracciones penales relacionadas con los deep fakes ni con la utilización de inteligencia artificial». Sin embargo, a renglón seguido, este cuerpo policial añadía que «ha habido algún caso en que se ha orientado, casos residuales y se está realizando una labor preventiva a nivel de charlas en colegios, publicación de consejos, etc.».

Las charlas de concienciación en colegios e institutos de Nafarroa se han convertido, precisamente, en un motivo de preocupación para los especialistas de Policía Foral que las realizan y de ahí que se hayan prestado a colaborar con este reportaje. «Lo que evidencia nuestro trabajo es que los alumnos es que no tienen ni idea de la gravedad de estas conductas, incluso aquellos que están en el rango 14-16 años», asegura Juan Santiago, agente del citado cuerpo policial encargado de estas formaciones en centros educativos, que aclara en asuntos de menores tienen instrucción de funcionar bajo «el principio de intervención mínima».

«Los chavales admiten en ocasiones que hay más de este tipo de casos, pero nosotros no intervenimos si no hay una denuncia», prosigue.

Mediación e investigación

Los frenos para que la violencia digital no llegue al ámbito penal-policial son muchos, según la experiencia del Grupo de Delitos Informáticos. «Vemos situaciones de miedo a un potencial aislamiento, y en este tipo de situaciones el criterio de las víctimas cobra mucho peso», relata Santiago. Frases como «Aita, ama, que no quiero seguir adelante» acaban deteniendo el proceso sancionador o evitan que aflore siquiera. «Nosotros lo que hacemos es mediar para encontrar una solución cuando hay menores de por medio. En muchas ocasiones, consiguen arreglarse y es lo mejor», corrobora el jefe de Delitos Informáticos.

Pese a la sofisticación de la herramienta utilizada, a los autores de violencia digital hacia las mujeres les identifica con facilidad. El responsable suele ser alguien que conoce a la víctima y emplea una foto suya (extraída de una foto personal o de un perfil de una red social) para que un programa de IA haga el resto. La clave es que luego lo difunde en su entorno cercano y, entonces, seguir la pista es más fácil. «Un adolescente realiza algo así para pavonearse, para lucirse, no las quiere para sí mismo», asegura Santiago.

En caso de autores menores, la experiencia con los padres es que pasan primero por una fase de negación y sorpresa. «Primero sus hijos no han podido ser y luego se les cae el mundo encima», según Santiago. Pronto esto cambia y entran en una fase de colaboración, incluso dejando que la Policía inspeccione el móvil. Operación que, de no haber consentimiento, requiere de autorización judicial, pero a la que los jueces no suelen poner problemas. Asimismo, durante la instrucción se puede reclamar información a la empresa o red social a través de la cual se difunden estas imágenes.

Siempre contra mujeres

Santiago asegura que hay diferentes programas capaces de realizar deep fakes –en los casos de Nafarroa se emplearon dos diferentes–. El descubrimiento de estas herramientas suele llegar a través de conocidos. «Alguien da con un programa así, aprende a manejarlo y lo difunde a través de grupos de Whatsapp o un canal similar», relata Santiago. Este agente subraya que son herramientas de IA diseñadas específicamente para desnudar mujeres y no pueden hacer lo mismo con varones.

Al ser un fenómeno tan novedoso, su encuadre legal no es demasiado preciso. Se suelen iniciar como delitos contra la integridad moral, aunque si hay elementos periféricos (lo que resulta bastante común) puede encuadrarse en un delito de amenazas o de acoso. Además, cuando la víctima es menor de edad, también se abre la vía a un eventual proceso por creación (o difusión) de pornografía infantil.

«Algunos programas de deep fake se descargan en el móvil y otras funcionan directamente online y únicamente te descargas una copia de la imagen generada. Por tanto, no existe ningún control de lo que puede hacer la página con esa imagen», asegura Martínez.

El Jefe de Delitos Informáticos insiste en que no es solo el autor del deep fake el responsable penal. También quien difunde este tipo de materiales o añade comentarios degradantes puede estar cometiendo un delito (como los citados de acoso o amenazas).

Preguntados por su experiencia personal sobre la afección que han visto en las propias víctimas, los agentes ponen de relieve la fragilidad propia de la adolescencia. «A raíz de delitos informáticos como estos de los que hablamos, hemos tenido en esta sala a víctimas que han tenido ideaciones suicidas», confiesa Martínez.

Aunque los dos primeros casos registrados han consistido únicamente en imágenes, los expertos temen que habrá una evolución hacia el vídeo, como se ha visto en países del entorno. En Reino Unido se han dado varios casos de relevancia y la BBC realizó un documental de gran impacto, en el que una mujer anónima (que se dio a conocer como Jodie) relataba su angustia después de que un vídeo suyo falso se subiera a páginas pornográficas y alcanzara un nivel de difusión tal que ha sido imposible eliminarlo de la red.

Posteriormente, el Ministerio de Justicia ha realizado vídeos llamando a la concienciación ciudadana, como el que se ha incluido a continuación.  

Fenómeno social

«La respuesta a esta problemática no se encuentra necesaria y exclusivamente en el ámbito penal, sino en más amplias estrategias de intervención y prevención de la violencia de género, estrategias sociales y educativas que rebasen lo punitivo», sostiene Lisett Páez, profesora de la UPNA e Investigadora colaboradora de I-Communitas.

Páez subraya que no solo existe «un problema social basado en las desigualdades estructurales entre hombres y mujeres», sino también «la confluencia de otras modalidades de violencia vinculadas a los entornos digitales». Esto es, los entornos digitales han dado canales nuevos a la violencia contra las mujeres, como los correos electrónicos o los espacios generados por las aplicaciones de mensajería móvil y redes sociales.

Otro elemento para analizar es la edad, subraya Páez. «Resultan significativas las cifras de menores enjuiciados por violencia contra la mujer, ya que, según datos ofrecidos por el Consejo General del Poder Judicial, en 2023 se constató un aumento del 9,91% de los enjuiciamientos en relación con el año anterior».

Páez reclama una «alfabetización digital crítica». Y esta formación debe preparar a los internautas «para reaccionar ante las conductas discriminatorias», Y, además de ello, para «criticar y evaluar la relevancia de los contenidos digitales». La formación en estos conceptos les hará capaces de «prevenir y condenar la violencia hacia la mujer en todas sus manifestaciones».

 

 

 

°

No hay comentarios.:

Publicar un comentario