Padres recibirán alertas si sus hijos intentan buscar contenido de autolesiones o suicidio en Instagram ¿Cómo funciona la nueva herramienta?
Instagram enviará alertas a padres si detecta que adolescentes buscan repetidamente términos sobre suicidio o autolesiones en la plataforma
Las notificaciones llegarán por correo, SMS, WhatsApp y en la app, e incluirán recursos para abordar conversaciones delicadas con los hijos
/Foto: AFP
En un nuevo ajuste a sus herramientas de supervisión, Instagram comenzará a avisar a madres y padres cuando detecte que un adolescente intenta buscar de forma reiterada términos vinculados con el suicidio o la autolesión dentro de la red social.
El anuncio fue realizado por su empresa matriz, Meta, en un comunicado fechado en febrero de 2026.
La función se activará inicialmente en Estados Unidos, Reino Unido, Australia y Canadá para quienes ya utilizan los controles de supervisión parental.
La compañía adelantó que la herramienta llegará a otras regiones “a finales de este año”.
Las alertas se generarán cuando un menor busque repetidamente frases que sugieran intención de autolesionarse o términos directos como “suicidio” o “autolesión”.
Sigue leyendo: Uso excesivo de redes sociales eleva riesgo de depresión en jóvenes estudiantes ¿Qué es la epidemia de la soledad?
¿Cómo operarán las notificaciones de prevención del suicidio en Instagram y qué incluirán?
Los avisos se enviarán por distintos canales, dependiendo de la información de contacto registrada: correo electrónico, SMS o WhatsApp, además de una notificación dentro de la aplicación.
“Al hacer clic la notificación, se abrirá un mensaje a pantalla completa explicando que su hijo adolescente ha intentado buscar repetidamente en Instagram términos relacionados con el suicidio o la autolesión en un corto período de tiempo. Los padres también tendrán la opción de consultar recursos de expertos diseñados para ayudarles a abordar conversaciones potencialmente delicadas con su hijo adolescente”, anota Meta.
La empresa explicó que estas notificaciones buscan ofrecer herramientas para que las familias puedan intervenir y acompañar a sus hijos en momentos sensibles.
También reiteró que mantiene “políticas estrictas contra el contenido que promueve o glorifica el suicidio o la autolesión”, aunque permite que usuarios compartan experiencias personales sobre estas problemáticas.
Ese tipo de contenido, precisó, se oculta a adolescentes, incluso cuando proviene de cuentas que siguen.
También te podría interesar: Eslovenia se suma a la tendencia europea y prepara ley para prohibir redes sociales a menores de 15 años
¿Conversaciones de suicidio con inteligencia artificial?
Meta añadió que trabaja en mecanismos similares relacionados con el uso de inteligencia artificial dentro de sus plataformas.
“Sabemos que los adolescentes recurren cada vez más a la inteligencia artificial (IA) en busca de apoyo. Si bien nuestra IA ya está entrenada para responder de forma segura a los adolescentes y proporcionar recursos sobre estos temas según corresponda, ahora estamos creando alertas parentales similares para ciertas experiencias de IA”, adelantó la compañía.
Estas advertencias se activarán cuando un adolescente intente sostener determinados tipos de conversaciones relacionadas con suicidio o autolesión con la IA.
Según la empresa, se trata de un proceso en desarrollo y compartirá más detalles en los “próximos meses”.
El anuncio ocurre en un contexto de presión judicial contra la tecnológica. El director ejecutivo de Meta y creador de Facebook, Mark Zuckerberg, compareció recientemente ante el Tribunal Superior de Los Ángeles por una demanda presentada por una usuaria que asegura haber desarrollado adicción a sus plataformas durante la adolescencia.
Durante su declaración, sostuvo que la verificación de edad debería recaer en los propietarios de sistemas operativos y tiendas de aplicaciones, como Apple y Google.
En paralelo, la Comisión Federal de Comercio informó que no sancionará a ciertos operadores que recopilen datos para desarrollar tecnologías de verificación de edad, pese a las restricciones de la normativa conocida como COPPA.
Además, en documentos legales divulgados en Nuevo México se mencionan intercambios internos sobre cómo el cifrado podría dificultar reportes de abuso sexual infantil. Meta ha rechazado las acusaciones en los procesos abiertos en California y Nuevo México.
No te lo pierdas: Juicio contra Redes Sociales EU: Mark Zuckerberg testifica; ¿qué dijo el director de Meta?
QT