APPLE NOTICIAS PORTADA

Apple habla sobre como sera su función para «espiar» fotos en iCloud

Apple anunció hace unos días una serie de iniciativas de seguridad destinadas a proteger a los niños de los depredadores en línea. Las nuevas funciones estarán disponibles en iMessage y iCloud Photos pronto. Una característica que debería ayudar a los padres a proteger a sus hijos del abuso y ofrecer a los usuarios más jóvenes de dispositivos iOS una advertencia sobre el contenido confidencial que podrían recibir a través de iMessage.

Por separado, Apple escaneará las fotos almacenadas en iCloud para ver si coinciden con el material conocido de Material de abuso sexual infantil (CSAM). Ambas funciones supuestamente romperán el cifrado de un extremo a otro ni la privacidad del usuario. Sin embargo, algunas personas comenzaron a cuestionar las nuevas capacidades de escaneo de fotos de Apple. Se preguntaron si alguien podría abusar de las nuevas tecnologías para espiar el contenido almacenado en el iPhone o en la nube. Apple ya ha abordado las preocupaciones,publicando un documento de preguntas frecuentes que cubre ambas características nuevas.

Apple explicó en el documento que las dos tecnologías que anunció la semana pasada son diferentes. Uno se refiere a la capacidad del iPhone para escanear contenido de iMessage en busca de contenido sensible enviado a niños. Esa tecnología es diferente a la que desarrolló Apple para comparar imágenes almacenadas en iCloud Photos con hashes de contenido CSAM conocido.

Cómo funciona el escaneo de iMessage
La nueva función de seguridad de la comunicación en Mensajes no romperá la sólida encriptación de un extremo a otro. La función solo está disponible para cuentas configuradas familias en iCloud. Los padres deben activar la función para su grupo, para proteger a sus hijos. Además, la función solo funciona para cuentas de niños menores de 12 años.

El escaneo de fotos de iMessage ocurre en el dispositivo. Apple, el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) o las agencias de aplicación de la ley no reciben notificaciones. El escaneo del contenido de iMessage no es lo mismo que el escaneo de Apple de Fotos de iCloud.

Si el sistema detecta una imagen sexualmente explícita dentro de iMessages, se puede notificar a los padres. Eso es solo si un niño menor de 12 años ha confirmado y enviado la foto o la ha visto. El intercambio de información y los pasos incluidos en él no llegan a Apple.

Si el niño tiene más de 12 años, seguirá recibiendo notificaciones preguntándoles si quieren enviar las imágenes a sus padres. Pero los padres no serán notificados automáticamente.

¿Qué fotos de iCloud puede escanear Apple?
El escaneo de fotos de iCloud es la segunda función anti-CSAM que Apple explicó en el nuevo documento. Apple dice que Apple no escanea fotos almacenadas localmente en iPhone o iPad. En cambio, el algoritmo solo mira las imágenes almacenadas en iCloud Photos, que son las imágenes que el usuario decide cargar allí.

Apple no busca nada más que fotos que puedan coincidir con material CSAM conocido. Apple no comparará las fotos de los usuarios con las fotos de CSAM. En cambio, comparará las imágenes del usuario con hashes ilegibles creados para fotos CSAM conocidas, explica Apple:

Estos hash son cadenas de números que representan imágenes CSAM conocidas, pero no es posible leer o convertir esos hash en las imágenes CSAM en las que se basan. Este conjunto de hashes de imágenes se basa en imágenes adquiridas y validadas para ser CSAM por organizaciones de seguridad infantil. Mediante el uso de nuevas aplicaciones de criptografía, Apple puede usar estos hash para aprender solo sobre las cuentas de iCloud Photos que almacenan colecciones de fotos que coinciden con estas imágenes CSAM conocidas, y luego solo puede aprender sobre fotos que son CSAM conocidas, sin tener que aprender.

Si alguna de las fotos de iCloud coincide con CSAM, Apple inspeccionará las imágenes escaneadas para ver si en realidad son contenido CSAM. Si ese es el caso, Apple los informará al NCMEC.

Apple no espiará a los usuarios de iPhone
La compañía deja en claro que las nuevas tecnologías no se utilizarán para espiar a los usuarios de iPhone y iPad. Apple solo busca contenido CSAM, al igual que otras empresas. Y lo hace de una manera segura y privada.

Apple también explica que no cederá ante los gobiernos que pidan a la compañía que agregue imágenes que no sean CSAM a la lista hash:

Apple rechazará tales demandas. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos en NCMEC y otros grupos de seguridad infantil. Hemos enfrentado demandas para construir e implementar cambios ordenados por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla. Además, Apple realiza una revisión humana antes de presentar un informe al NCMEC. En el caso de que el sistema marque fotos que no coincidan con imágenes CSAM conocidas, la cuenta no se deshabilitará y no se presentará ningún informe al NCMEC.

El documento completo está disponible en este enlace y vale la pena leerlo en su totalidad.

A %d blogueros les gusta esto: