¡No te pierdas de nada! 👽

Sucribirme! Let's go!

Un resumen de historias para leer, mirar y escuchar cada semana. 0% Spam. GDPR.

No quiero, gracias

Es inválido 💣

Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Society

Corea del Sur penalizará la posesión o visualización de vídeos deepfake sexualmente explícitos

Manifestantes surcoreanas con máscaras exigen medidas más duras, justicia para las víctimas y responsabilidad por parte del gobierno para hacer frente al deepfake porn. Fotografía: Getty
Words mor.bo Reading 3 minutos

Los legisladores surcoreanos aprobaron esta semana una ley que prohíbe la posesión y visualización de imágenes y vídeos deepfake sexualmente explícitos, según informa la agencia de noticias Reuters. La nueva ley fue aprobada el jueves por la Asamblea Nacional de Corea del Sur, y ahora sólo falta la firma de aprobación del presidente Yoon Suk Yeol para que pueda ser promulgada.

Según los términos del nuevo proyecto de ley, cualquiera que compre, guarde o vea este tipo de material podría enfrentarse a una pena de hasta tres años de cárcel o a una multa de hasta el equivalente a USD $22.600. En Corea del Sur ya es ilegal crear material deepfake de contenido sexual explícito con la intención de distribuirlo, y los infractores se enfrentan a una pena de hasta cinco años de cárcel o una multa de unos USD $38.000 en virtud de la Ley de Prevención de la Violencia Sexual y Protección de las Víctimas.

Corea del Sur ordena investigar el aumento de delitos sexuales digitales y la difusión de vídeos sexuales generados por IA

Si la nueva legislación se convierte en ley, la pena máxima por el delito de creación de pornografía deepfake aumentaría a siete años, independientemente de si el creador tenía intención de distribuir las imágenes. En los últimos años, se ha producido en Corea del Sur un escándalo público por el intercambio de imágenes sexualmente explícitas manipuladas por inteligencia artificial y deepfakes, y el mes pasado las autoridades iniciaron una investigación sobre este tipo de contenidos que supuestamente se compartían a través de chats en la aplicación de mensajería Telegram, incluso por menores de edad.

Una investigación de la periodista surcoreana Ko Narin para el periódico Hankyoreh, publicada en agosto, descubrió que los rostros de varias graduadas de la Universidad Nacional de Seúl habían aparecido en material de deepfakes sexualmente explícito producido y distribuido por hombres con los que habían estudiado. “Me sorprendió lo sistemático y organizado que era el proceso”, declaró Ko a BBC News. “Lo más horrible que descubrí fue un grupo para alumnos menores de edad de una escuela [para compartir contenidos] que tenía más de 2.000 miembros”.

La Internet está inundada de porno deepfake, según investigación

La distribución de este tipo de imágenes entre los jóvenes de Corea del Sur parece ser un problema generalizado. Un total de 387 personas han sido detenidas sólo este año por delitos relacionados con contenidos sexuales deepfake, de las cuales el 80% eran adolescentes, según informó esta semana la agencia de noticias nacional surcoreana Yonhap, citando datos policiales. En respuesta, muchas mujeres han decidido eliminar sus fotos y vídeos de sus redes sociales.

Despues de leer, ¿qué te pareció?

  • Me gustó
  • Me prendió
  • Lo amé
  • Me deprime
  • WTF!
  • Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE