

Generación de desnudos con IA impulsa ola de sextorsión mortal
En julio de 2025, la alarmante situación del uso de inteligencia artificial (IA) para crear imágenes sexuales explícitas ha cobrado relevancia tras el suicidio del adolescente Elijah “Eli” Heacock, de 16 años, en Kentucky. Elijah fue víctima de un esquema de sextorsión: recibió mensajes amenazantes con una supuesta foto suya desnudo, generada por IA, en la que se exigían 3 000 USD bajo amenaza de incluso compartirla con sus familiares y amigos (ABC News). Según sus padres, no existían señales de depresión previa, y el chantaje fue tan eficaz que culminó en su trágica muerte (ABC News, WPLN News).
El uso de IA para sextorsión ha crecido de forma alarmante. Organizaciones como Thorn informan que el 6 % de los adolescentes estadounidenses ha sido directamente blanco de fotos o videos íntimos generados por IA (El Universal). El FBI también ha denunciado un “aumento espantoso” en casos de sextorsión que involucran a menores, principalmente varones entre 14 y 17 años, muchos de ellos en riesgo extremo debido a la presión emocional (El Universal). De hecho, se calcula que más de 20 menores han tomado su vida desde 2021 al verse atrapados en estas dinámicas de chantaje (CBS News, Thorn, NZ Herald).
Estas estafas con IA suelen emplear “nudify apps”, herramientas que eliminan digitalmente la ropa o generan desnudos falsos a partir de imágenes inocuas, incluso perfiles de redes sociales (The Economic Times). De acuerdo con la fundación británica Internet Watch Foundation (IWF), estas imágenes pueden ser “tan dañinas como las reales” y a menudo se distribuyen junto con guías de sextorsión dirigidas a pedófilos, enfocadas en extorsionar a menores (El Universal).
El modelo de chantaje es calculado y sistemático: los atacantes exigen grandes sumas de dinero y amenazan con una supuesta difusión pública. En el caso de Elijah, su madre confirmó que incluso se entregó un primer pago, tras lo cual el chantajista respondió: “esto no es suficiente” (People.com, ABC News, https://www.wwnytv.com).
Frente a esta realidad, diversas organizaciones y autoridades han activado mecanismos de respuesta:
- Acciones legislativas: En EE.UU., el “Take It Down Act” criminaliza la distribución de imágenes sexuales reales o generadas por IA sin consentimiento, estableciendo plazos máximos de 48 horas para su remoción (CBS News). En el Reino Unido y otras regiones existen leyes específicas contra el deepfake sexual (unotv.com, El Colombiano, El Universal, NZ Herald).
- Iniciativas de prevención: Thorn impulsa la campaña “Safety By Design”, que insta a las empresas de IA a incorporar barreras de protección desde las fases de creación tecnológica (CBS News). Fondos como eSafety en Australia también lanzan alertas y protocolos para educar a padres y jóvenes (esafety.gov.au).
- Apoyo emocional y educativo: Thorn ha detectado que 1 de cada 7 jóvenes que vive sextorsión sufre daño autoinfligido, y esa cifra asciende al 28 % en jóvenes LGBTQ+ (Thorn). La recomendación general es educar a adolescentes sobre los riesgos digitales, denunciar cualquier tentativa de chantaje y conservar pruebas, además de ofrecer acompañamiento psicológico inmediato (unotv.com, es-us.noticias.yahoo.com, Thorn, Thorn).
- Investigación y respuesta policial: En el caso de Elijah, el FBI y autoridades locales iniciaron una investigación tras detectar el contenido en su teléfono, y el Estado de Kentucky propuso un proyecto de ley para penalizar la sextorsión financiera (People.com).