¡No te pierdas de nada! 👽

Sucribirme! Let's go!

Un resumen de historias para leer, mirar y escuchar cada semana. 0% Spam. GDPR.

No quiero, gracias

Es inválido 💣

Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Music Technology

La proliferación de imágenes explícitas de Taylor Swift generadas por IA ponen el punto de mira sobre esta tecnología sin regulación

Taylor Swift. Fotografía: AFP
Words mor.bo Reading 4 minutos

La semana pasada, imágenes sexualmente explícitas de Taylor Swift generadas por IA comenzaron a circular en diversos sitios de redes sociales, particularmente ganando terreno en X/Twitter. Al parecer, una imagen de la megaestrella fue vista 47 millones de veces durante las aproximadamente 17 horas que estuvo en vivo en X antes de ser eliminada. El grupo de detección de deepfake Reality Defender dijo a la agencia de noticias The Associated Press que rastreó docenas de imágenes únicas que se difundieron a millones de personas en Internet antes de ser eliminadas.

Ahora, días después, X prohibió la búsqueda del nombre de Swift y las consultas relacionadas con las fotos, y en su lugar muestra un mensaje de error. Instagram y Threads, si bien permiten búsquedas de Swift, muestran un mensaje de advertencia cuando se buscan específicamente las imágenes. La cuenta de seguridad de X emitió un comunicado que reiteró la “política de tolerancia cero” de la plataforma respecto a la publicación de imágenes de desnudos no consensuales. Dijo que la plataforma estaba eliminando imágenes y tomando medidas contra las cuentas que violan la política. Meta también emitió un comunicado condenando el contenido y agregó que “tomará las medidas apropiadas según sea necesario” y que estabam “monitoreando de cerca la situación para asegurarnos de que cualquier otra infracción se aborde de inmediato y que el contenido se elimine”, dijo la compañía.

Por su parte, OpenAI dijo que cuenta con salvaguardas para limitar la generación de contenido dañino en sus plataformas como ChatGPT y rechaza “solicitudes que soliciten el nombre de una figura pública, incluida Taylor Swift“. Microsoft, que ofrece un generador de imágenes basado en parte en el sitio web DALL-E, dijo el viernes que estaba en el proceso de investigar si su herramienta fue mal utilizada. Más del 96% de las imágenes deepfake actualmente en línea son de naturaleza pornográfica y casi todas están dirigidas a mujeres, según un informe de Sensity AI, una empresa de inteligencia centrada en detectar deepfakes.

Tras lo sucedido, la portavoz de la Casa Blanca de Estados Unidos, Karine Jean-Pierre, dijo que las empresas de redes sociales tienen un papel importante que desempeñar en la prevención de la difusión de información errónea e imágenes íntimas no consensuadas, y dijo que la “aplicación laxa” de sus propias reglas por parte de las empresas afecta desproporcionadamente a mujeres y niñas. “Esto es muy alarmante, por lo que haremos todo lo que podamos para abordar este problema”, dijo Jean-Pierre a los periodistas el viernes. De igual manera, diversos políticos estadounidenses hicieron un llamado a hacer nuevas leyes para penalizar la creación de imágenes deepfake, incluyendo al diputado Joe Morelle, quien está tratando de introducir la Ley de Prevención de Deepfakes de Imágenes Íntimas en el congreso de EE.UU.

Lo ocurrido nos lleva a una reflexión importante: Si esto le puede pasar a Taylor Swift, una de las mujeres más poderosas del mundo, ¿qué queda para las demás mujeres que se encuentran cualquier día afectadas por imágenes y vídeos similares? No es inusual ver cómo mujeres denuncian el uso de sus rostros en pornografía deepfake como una forma de pornovenganza, que es una de las formas más insidiosas de la violencia de género, y para lo cual aún no existe un verdadero marco regulatorio que proteja a las víctimas. Cada día se publican en internet miles y miles de imágenes y clips generados con IA que cada día parecen más realistas sin que al parecer alguien pueda hacer algo al respecto. Como dice Wired, “el acoso a las mujeres famosas es frecuente y a menudo se deja de lado, pero los deepfakes las perjudican a ellas y a otras personas sin el mismo poder. Este podría ser el momento para que Swift utilice su poderosa plataforma o, al menos, para que sus fans denuncien el problema ante la opinión pública. Swift no ha hablado públicamente sobre las imágenes, pero el Daily Mail informó que su equipo está “considerando emprender acciones legales” contra el sitio que publicó las imágenes generadas por IA.

Despues de leer, ¿qué te pareció?

  • Me gustó
  • Me prendió
  • Lo amé
  • Me deprime
  • WTF!
  • Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE