APPLE NOTICIAS PORTADA

Apple pospone las funciones que iban a escanear las fotos subidas a iCloud

Apple está dando marcha atrás en su plan de implementar un conjunto de nuevas y controvertidas funciones de protección infantil en sus dispositivos, luego de una importante reacción violenta de clientes y expertos por igual.

Las nuevas funciones, que solo afectarían a los usuarios de EE. UU. incluían una herramienta que escaneaba automáticamente las imágenes guardadas en las Fotos de iCloud de un usuario, identificaba materiales de abuso sexual infantil (CSAM) y los denunciaba a los moderadores de Apple. Quien luego podría comunicarse con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Las funciones, aunque bien intencionadas, están siendo criticadas por estar mal diseñadas y violar la privacidad del usuario en el dispositivo.

Hablando un poco del contexto, tenemos que otras empresas de tecnología como Google, Microsoft y Facebook ya escanean sus servidores, pero no los dispositivos de los usuarios, en busca de materiales de abuso infantil.

Sin embargo, en el anuncio original de Apple, la compañía declaró que “en lugar de escanear imágenes en la nube”, su nueva función “realiza la comparación en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidos proporcionados por NCMEC y otras organizaciones de seguridad infantil”.

Apple dijo a The Verge el 3 de septiembre que “según los comentarios de los clientes, grupos de defensa, investigadores y otros”, la compañía retrasará el lanzamiento de sus funciones de protección infantil en los EE.UU. Hasta finales de este año, luego de investigaciones y mejoras adicionales.

A %d blogueros les gusta esto: