Un padre arremete contra Character.AI después de que su hija asesinada fuera “resucitada” como un chatbot

Drew Crecente, un padre que perdió a su hija Jennifer Ann luego de que su novio la asesinara en 2006, se enfrentó recientemente a una nueva ola de dolor cuando descubrió que se había creado un chatbot de inteligencia artificial para hacerse pasar por ella. El chatbot, alojado en Character.ai, utilizaba el nombre y la foto del anuario de Jennifer, y afirmaba falsamente ser experta en periodismo. Esta inquietante revelación salió a la luz a través de una alerta de Google que desencadenó dolorosos recuerdos para Crecente, que lleva años luchando contra la violencia en las citas entre adolescentes en memoria de su hija. El impacto emocional fue profundo, ya que describió la experiencia como volver a enfrentarse a un trauma.
“Tenía el pulso acelerado”, recuerda Crecente a The Washington Post. “Buscaba un gran botón rojo parpadeante que pudiera pulsar para detener todo”. Al conocer el chatbot, que ya había participado en numerosas conversaciones, Crecente se sintió desolado e indignado. El hecho de que la IA presentara a Jennifer como un personaje amable y bien informado le resultó especialmente angustioso, teniendo en cuenta los años de trabajo de defensa que había dedicado a su legado. Rápidamente se puso en contacto con Character.AI para exigir la retirada del chatbot y solicitó información sobre su creador, expresando su deseo de proteger la identidad de su hija de una explotación no autorizada.

En un principio, las preocupaciones de Crecente no fueron atendidas por Character.AI hasta que su hermano, el periodista Brian Crecente, pidió públicamente que se actuara en las redes sociales. Esta petición llamó la atención sobre la situación e hizo que Character.AI reconociera el problema y retirara el chatbot por violar su política de suplantación de identidad. Sin embargo, la empresa no dio más detalles sobre cómo evitaría incidentes similares en el futuro, dejando sin respuesta muchas preguntas sobre sus prácticas éticas.
Hace unas semanas atrás, Character.AI ya había estado en los titulares: En una demanda presentada en Florida, Megan García, cuyo hijo de 14 años, Sewell Setzer, se suicidó en febrero, acusó al website de complicidad en la muerte de su hijo después de que éste entablara una relación virtual con un chatbot basado en la identidad del personaje de Game of Thrones, Daenerys Targaryen, dejando en claro que es necesaria una mayor regulación en estos chatbots.
Tras lo sucedido con el chatbot de su hija, Drew Crecente pidió una normativa más estricta en el sector de la IA para proteger la imagen de las personas después de su muerte, subrayando que el problema va más allá de su experiencia personal, destacando la vulnerabilidad de quienes carecen de una plataforma o de voz para defender su memoria frente a tales violaciones. “Necesitamos desesperadamente que los legisladores y los reguladores presten atención a las repercusiones reales que estas tecnologías están teniendo en sus electores”, dijo. “No pueden limitarse a escuchar a los directores ejecutivos de las tecnológicas sobre cuáles deberían ser las políticas… tienen que prestar atención a las familias y las personas que se han visto perjudicadas”.
Despues de leer, ¿qué te pareció?
-
1Me gustó
-
-
-
2Me deprime
-
2WTF!
-