Deepfake IA desnudo

La Inteligencia Artificial es sin duda una tecnología maravillosa. Pero no se puede decir lo mismo de los potenciales usos que le pueda dar la humanidad… Es el caso de lo que se ha venido a denominar como «deepfake IA«, en referencia al uso de la IA para generar material falso.

Y a medida que técnicas como por ejemplo la generación de imágenes con IA va en aumento, así lo hace esta práctica del deepfake, que según un nuevo informe, se está disparando de forma alarmante. Y en concreto, uno de sus usos, el lamentablemente ya famoso «desnudo mediante IA”, o como se conoce técnicamente, «non-consensual intimate imagery (NCII)».

Está práctica está en aumento, según indicó el viernes un informe de la firma de análisis de redes sociales Graphika, que describe la práctica como el uso de herramientas de IA generativa ajustadas para quitar la ropa de las imágenes subidas por los usuarios.

La comunidad de gaming y streaming de Twitch se enfrentó al problema a principios de este año cuando el destacado locutor Brandon ‘Atrioc’ Ewing reveló accidentalmente que había estado viendo pornografía deepfake generada por IA de streamers femeninas a las que llamaba sus amigas, según un informe de Kotaku.

Ewing regresó a la plataforma en marzo, arrepentido e informando sobre semanas de trabajo que había realizado para mitigar el daño que había causado. Pero el incidente abrió las compuertas para toda una comunidad online.

El informe de Graphika muestra que el incidente fue sólo la gota que colma el vaso..

Utilizando los datos proporcionados por Meltwater, medimos la cantidad de comentarios y publicaciones en Reddit y X que contienen enlaces de referencia a 34 sitios web y 52 canales de Telegram que brindan servicios sintéticos NCII. Estos totalizaron 1.280 en 2022 en comparación con los más de 32.100 en lo que va del año, lo que representa un aumento del volumen del 2.408% interanual.

Analista de inteligencia de Graphika, Santiago Lakatos

Graphika, con sede en Nueva York, expone que la explosión en NCII muestra que las herramientas han pasado de foros de discusión especializados a una industria artesanal.

Estos modelos permiten que un mayor número de proveedores creen NCII fotorrealistas a escala de forma fácil y económica. Sin dichos proveedores, sus clientes necesitarían alojar, mantener y ejecutar sus propios modelos de difusión de imágenes personalizados, un proceso que requiere mucho tiempo y, a veces, es costoso.

Analista de inteligencia de Graphika, Santiago Lakatos

Graphika advierte que el aumento de la popularidad de las herramientas de inteligencia artificial para «desvestir» podría conducir no solo a material pornográfico falso, sino también a acoso dirigido, sextorsión y generación de material de abuso sexual infantil (CSAM).

La empresa de vigilancia de Internet, Internet Watch Foundation (IWF), con sede en el Reino Unido, vuelve a hacer sonar la alarma sobre la rápida difusión de material de abuso sexual infantil (CSAM) generado por IA. En un nuevo informe publicado el miércoles, el grupo informó que se encontraron más de 20.254 imágenes CSAM generadas por IA en un solo foro de la darkweb en solo un mes, y que una avalancha de contenido tan abominable podría “abrumar” Internet.

Según el informe Graphika, los desarrolladores de herramientas de desnudez de IA se anuncian en las redes sociales para llevar a los usuarios potenciales a sus sitios web, al chat privado de Telegram o a los servidores de Discord donde se pueden encontrar las herramientas.

Algunos proveedores son abiertos en sus actividades, afirmando que brindan servicios de ‘desnudarse’ y publicando fotos de personas que, según afirman, han sido ‘desnudadas’ como prueba. Otros son menos explícitos y se presentan como servicios de arte de IA o galerías de fotografías Web3, al tiempo que incluyen términos clave asociados con NCII sintético en sus perfiles y publicaciones.

Analista de inteligencia de Graphika, Santiago Lakatos

Si bien las IA para desnudar normalmente se centran en imágenes, la IA también se ha utilizado para crear videos deepfakes utilizando la imagen de celebridades, incluida la personalidad de YouTube Mr. Beast y el icónico actor de Hollywood Tom Hanks.

Algunos actores como Scarlett Johansson y el actor indio Anil Kapoor están recurriendo al sistema legal para combatir la amenaza actual de los deepfakes de IA. Aún así, si bien los artistas convencionales pueden obtener más atención de los medios, los artistas adultos dicen que sus voces rara vez se escuchan.

Los actores de entretenimiento para adultos dicen que sus defensas contra la IA son más difíciles de alcanzar. A medida que la pornografía generada por IA se vuelve más avanzada, los artistas de películas para adultos, al igual que sus pares tradicionales, exigen más protecciones contra el uso no autorizado de sus imágenes y una compensación justa por su contenido. Para la legendaria actriz adulta y directora de relaciones públicas de Star Factory, Tanya Tate, el auge de la inteligencia artificial y los deepfakes le resulta inquietantemente familiar. “Me siento igual que cuando hubo un aumento en el contenido pirateado, y el contenido que habíamos creado fue tomado y reutilizado o re-subido…«