Hace dos semanas publiqué una columna titulada Princesas y depredadores. En ella documenté el caso de “La princesa de papá”, un grupo de Facebook que, bajo la apariencia inofensiva de un espacio para compartir consejos de crianza, ocultaba una red dedicada a la difusión de contenido sexualizado de niñas y adolescentes. El objetivo del texto eradenunciar, alertar y poner sobre la mesa una realidad incómoda que sigue ocurriendo dentro de las propias plataformas de Meta, empresa que en México encabeza Marco Casarín.
El resultado fue otro. Días después, mis cuentas de Facebook e Instagram fueron suspendidas tras una determinación automática del algoritmo, que concluyó erróneamente que el contenido violaba las normas comunitarias relacionadas con la explotación sexual infantil. En otras palabras, se me acusaba de promover justamente lo que denunciaba. La paradoja es brutal: una plataforma incapaz de detectar —o remover con eficacia— redes de pederastia activas en su interior, pero extraordinariamente eficiente para castigar a quien las expone.
No se trata de un caso aislado ni de un error menor. Es una muestra clara de cómo los sistemas automatizados de moderación de contenido están fallando en lo esencial: el contexto. El algoritmo no distingue entre quien denuncia un delito y quien lo promueve. No separa el señalamiento periodístico de la apología criminal. Ejecuta sanciones sin matices y, lo que es peor, sin mecanismos de respuesta ágiles y humanos cuando el error es evidente.
Mientras tanto, muchos de los perfiles que integraban “La princesa de papá” continúan activos. Algunos siguen publicando. Otros migran de grupo en grupo, replicando las mismas dinámicas. Meta presume políticas estrictas contra la explotación infantil, pero en la práctica permite que estas comunidades se reconfiguren, se oculten y sobrevivan dentro de su ecosistema digital. La vigilancia es laxa donde debería ser implacable; la sanción es severa donde debería ser cuidadosa.
Este desorden de prioridades revela un problema más profundo. Las plataformas han delegado decisiones complejas a sistemas opacos, sin supervisión suficiente ni rendición de cuentas. Cuando el algoritmo se equivoca, no hay rostro, no hay explicación, no hay urgencia. Solo un formulario, una apelación automática y el silencio administrativo.
Que esto le ocurra a un periodista por exponer un caso documentado no es anecdótico. Es un síntoma. Si la denuncia se castiga y el abuso permanece, el mensaje es peligroso: señalar tiene consecuencias; delinquir, no necesariamente.
Meta necesita revisar con seriedad cómo están operando sus mecanismos de moderación. Porque cuando la tecnología pierde el sentido de proporción, la justicia digital se convierte en un espejismo. Y en ese espejo roto, quienes terminan pagando no son los depredadores, sino quienes se atreven a nombrarlos.
Villancico contra la guerra
SHE NO MORE mantiene su línea activista con el lanzamiento de “Happy Xmas (War Is Over)”, versión de rock sinfónico del clásico de John Lennon y Yoko Ono. El sencillo, disponible en plataformas digitales, extiende un mensaje de solidaridad hacia quienes viven en zonas de guerra y no podrán celebrar la Navidad, recordando que millones enfrentan conflictos armados mientras el resto del mundo festeja. Este segundo lanzamiento de la campaña NAVIDARKS, que en 2024 posicionó su arreglo de “Carol of the Bells” como tendencia viral en TikTok e Instagram y acumula millones de reproducciones desde noviembre, consolidándose como referencia de temporada digital.
La banda mexicana retoma el rock y el metal como vías para hablar de temas sociales sin perder potencia musical. En un contexto global marcado por guerras, su propuesta invita a reflexionar sobre la empatía y solidaridad, trasfondo real de estas fechas festivas.