Apple detectará abuso infantil con galería de fotos de usuarios

19 de Abril de 2024

Apple detectará abuso infantil con galería de fotos de usuarios

Apple_AFP
Foto: AFP
Foto: AFP

La famosa empresa probará un nuevo sistema en iPhone y iCloud para detectar casos de abuso y alertar a las autoridades

El gigante informático Apple presentó nuevas herramientas para detectar de manera más eficaz en los iPhone, iPad y su servidor iCloud en Estados Unidos, las imágenes de contenido sexual que involucran a niños, lo que suscita preocupaciones entre los defensores de la privacidad en internet.

Este proyecto se llevará a cabo solo en Estados Unidos, funcionará como una detección de abuso sexual infantil contenido en fotografías de sus dispositivos mediante un algoritmo que automáticamente las convertirá en imágenes ilegibles para que no puedan subirse a iCloud y así mejorar la seguridad y privacidad de las personas.

Además, Apple dice que solo se incluirán coincidencias de imágenes en la base de datos, y por coincidencias se refieren a que si se encuentra una imagen inofensiva como de un bebé en pañales no se marcará como delito.

“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, dijo el grupo en su página.

El grupo también incrementará la información de prevención que difunde la asistente de voz Siri cuando los niños o los padres pidan consejo sobre determinadas situaciones.

Siri y Search también pueden intervenir cuando los usuarios busquen imágenes de pornografía infantil advirtiéndoles que dicho contenido es problemático.

Estas herramientas estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos en iPhone, iPad, iWatch e iMac.

En caso de encontrar contenido explícito de abuso infantil, la empresa alertará al Centro Nacional para Niños Desaparecidos y Explotados y a la policía, sin embargo, si se acusa a algún usuario injustamente, éste podrá apelar contra Apple en los juzgados

Privacidad

Los ajustes “suponen una cambio significativo de los protocolos de privacidad y seguridad establecidos hace tiempo”, estimó el Centro para la Democracia y la Tecnología (CDT).

“La explotación infantil es un problema grave, y Apple no es la primera empresa tecnológica que cambia su postura sobre la protección de la privacidad en un intento de combatirla”, recalcaron India McKinney y Erica Portnoy, de la ONG en defensa de la libertad en internet Electronic Frontier Foundation.

Pero incluso desarrollado con la mejor de las intenciones, un sistema diseñado para detectar la pornografía infantil “abre la puerta a nuevos abusos”, temen en una entrada del blog.

Basta que Apple modifique un poco la configuración para buscar otro tipo de contenidos o escanear las cuentas no sólo de los niños, sino de todo el mundo, explican. VN

Con información de CNN BUSINESS y AFP

ES DE INTERÉS:

Detienen a la youtuber YosStop por pornografía infantil

Extrabajador de la Embajada de EU admite cargos por abuso sexual

Desmantelan red de pornografía infantil en Alemania