«Desviste a cualquiera con nuestro servicio gratuito»: el peligroso uso de la IA para crear imágenes pornográficas falsas

"Desviste a cualquiera con nuestro servicio gratuito": el peligroso uso de la IA para crear imágenes pornográficas falsas

La tecnología deepfake representa un avance transformador en inteligencia artificial y manipulación digital, de esta manera, se pueden crear vídeos o imágenes falsas en menos de un minuto. En el caso de la pornografía, esta práctica vulnera la normativa de protección de datos.

La inteligencia artificial (IA) está cada vez más presente en nuestro día a día y, junto a ella, crecen las preocupaciones sobre las normativas que deben regular esta tecnología. Para aliviar las tensiones de los usuarios, la Unión Europea está a punto de hacer oficial la primera regulación que apuesta por clasificar los sistemas de IA en tres grandes niveles de prestaciones para, posteriormente, aplicar diversas restricciones según el alcance de cada uno de ellos; mientras tanto, España también podría cerrar el acuerdo sobre el reglamento europeo para regular la inteligencia artificial de cara un futuro.

A pesar de que hay muchas leyes en camino, algunas veces se incumplen dichos principios para hacer un mal uso de la IA con el fin de perjudicar a los usuarios. Un ejemplo de ello es el caso de las jóvenes de Almendralejo (Badajoz), unas menores que habían sido víctimas de la difusión de unas fotografías irreales creadas por una herramienta de inteligencia artificial en las que salían desnudas. Pero, ¿qué aplicaciones son capaces de hacer este delito? ClothOff y DeepNude son algunas de las apps que utilizan la IA para desnudar tanto a chicas como a chicos con una simple fotografía de cuerpo entero, además, a medida que la tecnología evoluciona, los algoritmos de aprendizaje profundo ya son capaces de crear vídeos pornográficos.

Al hilo de este último contenido multimedia mencionado, según el informe State of deepfakes 2023 de Home Security Heroes, se necesitan 25 minutos, una imagen del rostro de alguien y cero euros para crear un vídeo pornográfico deepfake de 60 segundos. Añadiendo que «la pornografía deepfake representa el 98% de todos los vídeos deepfake online» y que «una de cada tres herramientas permite a los usuarios crear este tipo de pornografía».

La pornografía deepfake vulnera los derechos

Por si no lo sabías, este tipo de pornografía infringe dos derechos, la protección de datos o privacidad, y también la intimidad, honor y propia imagen. Es decir, «se vulnera la normativa de protección de datos porque existe una difusión de información que, aunque sea esencialmente falsa, se utilizan datos personales reales, como el rostro de una persona o a veces incluso la voz, y esto conlleva frecuentemente un tratamiento de datos personales sin consentimiento del afectado», explica Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Política de la Universitat Oberta Catalunya (UOC, por sus siglas) en blog oficial de la UOC.

Asimismo, es importante resaltar el impacto sobre los sujetos afectados. En particular, Blasi agrega que «estas imágenes conllevan a menudo un tratamiento de datos sensibles, ya que la información se encuentra relacionada con la vida íntima o sexual de una persona y, en función de la imagen generada mediante esta tecnología, se puede ocasionar también una lesión al derecho al honor, intimidad y/o propia imagen de la persona».

¿Quiénes son los más afectados por deepfakes pornográficos?

El informe mencionado señala que «el 99% de la pornografía deepfake presenta a mujeres como sujetos principales, mientras que solo el 1% del contenido presenta a hombres».

«Desafortunadamente, existe un mercado muy grande que está más orientado a generar imágenes de mujeres desnudas. No significa que sea más fácil crear imágenes de mujeres que de hombres, pero básicamente hacia aquí donde están orientados estos servicios o hacia aquí se busca llamar la atención. Además, los grandes consumidores de pornografía son hombres y, por tanto, estos son el público al que están apuntando», afirma Cristina Pujol, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC e investigadora del grupo GAME.

¿Qué puedo hacer si soy víctima de un deepfake pornográfico?

Los afectados pueden acudir al canal prioritario de la Agencia Española de Protección de Datos para exponer las situaciones donde exista una sensibilidad, ya sea por cuestiones sexuales o en compartición de imágenes íntimas, o bien donde se vean agresiones, en temas de acoso, de acoso escolar. Y en menos de 24 horas, a través de la Agencia de Datos, se intentará evitar que se comparta esta información o que se siga difundiendo para cortar así la cadena de transmisión.

Tras hacer esta acción, los usuarios deben poner una denuncia en el cuerpo de policía indicado para que puedan identificar quién ha sido el creador y perseguir ese delito en particular.

Por Ana Higuera

Artículos Relacionados

Deja tu comentario