Unicef pide tipificar como delito la creación de contenido de abuso sexual infantil con IA: Estas son las razones
Debido al aumento del número de imágenes de IA que sexualizan a niños y niñas la UNICEF pidió a los países tipificar como delito este contenido
Sextorsión con IA: un adolescente de 16 años en EU se quitó la vida tras recibir amenazas con una imagen falsa de desnudo generada con inteligencia artificial.
/Foto: Especial
La agencia de las Naciones Unidas para la infancia (UNICEF) hizo un llamado a lo países a que tipifiquen como delito la creación de contenido de abuso sexual infantil generado por inteligencia artificial (IA), así como a los desarrolladores a implementar enfoques de seguridad desde el diseño y medidas de protección, con el objetivo de evitar el uso indebido de esta herramienta tecnológica.
Lee | España prohíbe el uso de redes sociales a menores de edad: ¿Cuál es la razón y...
UNICEF pide tipificar el abuso sexual a menores que involucre contenido hecho con IA
En un comunicado de la UNICEF señaló que existe un aumento en el número de imágenes creadas con IA en la que sexualizan a niños y niñas. Por lo que normaliza la explotación sexual infantil e impulsa la demanda de contenidos abusivos y que dañan a este sector de la población en todo el mundo.
La UNICEF solicitó a los países tipificar como delito la creación, posesión y difusión de contenidos sexuales de menores generados con IA en las que se incluyan imágenes y vídeos manipulados digitalmente que sexualizan a niños, niñas y adolescentes.
Está petición forma parte de una alerta global por el uso creciente de IA para producir “deepfakes” sexualizados, lo que UNICEF define como una forma de abuso real aunque la víctima no sea física.
Lee | ¿Por qué razón India considera restringir acceso a redes sociales ...
Según un comunicado oficial publicado en febrero de 2026, UNICEF afirma que:
- Las imágenes generadas o alteradas con IA que sexualizan a menores deben considerarse material de abuso sexual infantil (CSAM) y no algo “menos grave” o ficticio.
- Los gobiernos deben ampliar las definiciones legales existentes de abuso sexual infantil para incluir este tipo de contenido y penalizar su creación, posesión, difusión y adquisición.
- UNICEF insta también a que las empresas de tecnología adopten enfoques de “seguridad desde el diseño” (safety-by-design) en sus modelos de IA para evitar que sean usados con fines abusivos, y a que refuercen la moderación de contenidos con mejores tecnologías de detección.
¿Qué está haciendo Unicef?
Asimismo, el organismo internacional también pidió a los desarrolladores a implementar enfoques de seguridad desde el diseño y medidas de protección para evitar el uso indebido de los modelos de IA e indicó que las empresas digitales deben impedir la circulación de estas imágenes reforzando la moderación de contenidos con inversiones en tecnologías de detección.
“El daño causado por el abuso de los deepfake es real y urgente. Los niños no pueden esperar a que la ley se ponga al día”, dijo UNICEF en un comunicado.
Los deepfake son imágenes, vídeos y audios generados por IA que imitan de forma convincente a personas reales.
Tambien existe una preocupación por el uso de la IA para quitar o alterar la ropa en las fotos con el fin de crear imágenes falsas de desnudos o sexualizadas, en donde al menos 1,2 millones de niños de 11 países revelaron que sus imágenes habían sido manipuladas para crear deepfake sexualmente explícitos durante el último año, según UNICEF.
AM3