Apple publica un documento para atajar y aclarar las dudas sobre su sistema anti-abusos infantiles

Apple publica un documento para atajar y aclarar las dudas sobre su sistema anti-abusos infantiles

Las nuevas medidas para proteger a la infancia de abusos presentadas por Apple la semana pasada levantaron bastante revuelo y polémica. En Applesfera explicamos a fondo cómo funcionan estas medidas de escaneo en iCloud y Mensajes, pero ahora Apple ha querido atajar numerosas preocupaciones con un nuevo documento. Se trata de un preguntas y respuestas sobre la protección extendida a la infancia en las plataformas de Apple.

Medidas para mantener a los niños a salvo y evitar la difusión de material abusivo

En Apple, nuestro objetivo es crear tecnología que da poder a la gente y enriquece sus vidas, mientras les ayudamos a permanecer seguros. Queremos proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, así como limitar la difusión de material de abusos sexuales a niños (CSAM).

Así arranca el documento de Apple, en el que vemos una pequeña introducción donde se deja claro que tanto la seguridad en iMessage como la detección de material CSAM son dos cosas diferentes y utilizan una tecnología distinta. La compañía indica que en la primera se analizan dentro del dispositivo las imágenes enviadas y recibidas en iMessage, solo para dispositivos configurados para niños en una cuenta familiar.

La segunda es independiente de la primera y se centra en la detección de fotos subidas a iCloud que encajen con material CSAM, no aplicándose a los usuarios que no han activado las Fotos en iCloud. El documento es bastante detallado y extenso, por lo que merece la pena leerlo al completo. A continuación vamos a intentar sintetizarlo lo mejor posible, aunque siempre es recomendable echarle un vistazo al original.

Seguridad en las comunicaciones de iMessage

mensajes
  • Se aplica solo a cuentas de Apple establecidas como familias en iCloud.
  • Los padres deben activarla para su grupo familiar y son los únicos que pueden recibir las alertas de mensajes para niños de 12 años o menos.
  • iMessage no compartirá información ni con Apple, NCMEC (la asociación de protección del menor en EEUU) o la policía.
  • El cifrado, la privacidad y la seguridad de Mensajes no se rompe, dado que Apple nunca obtiene acceso a las comunicaciones. El usuario retiene el control de sus comunicaciones y Apple no interviene para nada, ni siquiera en las notificaciones de contenido sexual a menores de 12 años.
  • Para niños de 13 a 17 años, los padres no recibirán notificaciones pues esta funcionalidad está presente solo en niños de 12 o menos años. Son estos los que decidirán si quieren ver o enviar una imagen y al hacerlo, sus padres recibirán una notificación.

Detección de material abusivo CSAM en las fotos de iCloud

cifrado
  • Para el escaneo de fotos de iCloud, Apple solo lo aplica a aquellas fotos que el usuario sube a iCloud. Sobre ellas, Apple solo recibe alertas de aquellas imágenes que encajen con contenido CSAM ya conocido.
  • No se aplica a los usuarios cuya fototeca de iCloud está desactivada y no funciona en las fotos almacenadas en la fototeca del iPhone en local.
  • En ningún caso se descargan en el dispositivo imágenes CSAM para poder hacer el análisis, tan solo hashes de fotos que son CSAM. Un hash es una cadena de números que representan estas imágenes, imposibles de leer o reconstruir, que provienen de contenido CSAM verificado.
  • El análisis se produce en el propio dispositivo, donde se comparan estos hashes con las fotos que se suben a iCloud. En ningún caso Apple sabe ni ve qué fotos se suben a iCloud.
  • Hay otras compañías que escanean todas las fotos en la nube. El método de Apple protege la privacidad pues tan solo se centran en aquellas fotos que encajan con una imagen CSAM y están incluidas en una fototeca de iCloud.

Otras cuestiones de seguridad sobre la detección de fotos CSAM

iPhone

Una de las quejas o preocupaciones del nuevo sistema anunciado por Apple es si podría usarse para detectar otras cosas que no fueran imágenes CSAM. Siempre surgirá una alerta cuando varias fotos den positivo al contrastarse con los hashes CSAM y ésta se analizará por personas antes de reportarlas al centro de abusos infantiles de EEUU. Por tanto, solo se informará a esta organización de aquellas fotos que encajen con material de abusos infantiles.

Muchos han argumentado que los gobiernos podrían obligar a Apple a incorporar imágenes que no son CSAM a su listado. La compañía de Cupertino afirma que se negará a tales demandas, de producirse. Asegura que en el pasado se ha opuesto frontalmente a peticiones de gobiernos para crear puertas traseras en sus dispositivos, en una clara referencia al caso del iPhone del terrorista de San Bernardino y su enfrentamiento con el FBI.

Apple asegura que el sistema entrará en funcionamiento en EEUU y que estudiará la conveniencia de expandirlo a otros países y regiones

La compañía asegura que su sistema no permite inyectar imágenes para disparar alertas, pues los hashes se almacenan en el propio sistema operativo del iPhone y iPad. No hay posibilidad de realizar un ataque para un individuo concreto y debemos recordar que cada informe se revisa posteriormente por Apple de forma manual. En la misma línea, no es posible que se acuse falsamente a personas inocentes pues el sistema tiene un error de 1 entre 1.000.000.000.000. De ocurrir, la revisión manual la descartaría.

Una polémica que podría haberse evitado con una buena comunicación

fotos en iCloud

Desde luego, las medidas que implantará Apple con iOS 15 son impresionantes. La compañía ha realizado un gran esfuerzo por mantener la privacidad, cifrado y seguridad en las comunicaciones y fotos, al mismo tiempo que crea un sistema para reconocer material CSAM y otro para evitar comunicaciones sexuales en menores. Aún y todo, la polémica no tardó en saltar dada la posición de Apple en defensa de la privacidad y seguridad de sus usuarios.

Esa alta exigencia que tenemos en estos temas con la compañía se la ha ganado a pulso. Pero también es un indicador de que este asunto debería haberse tratado de otra forma. Desde luego, permitir que se filtrase a la prensa, para luego anunciarlo de sopetón no ha sido una buena idea. Ahora, la compañía se ha visto forzada a hacer comentarios aquí y allá, para finalmente lanzar este documento que resuelve muchas dudas legítimas de los usuarios.

Estamos ante una metedura de pata en términos de comunicación, que ha permitido espolear el miedo y la desinformación en un tema muy exigente y delicado

Hubiera bastado con seleccionar un puñado de periodistas a los que contar todas estas medidas de antemano. Desvelando la información al mismo tiempo tanto de forma oficial como a través de estos medios. Al igual que se hace con los embargos de análisis de nuevos productos.

Es probable que Apple pensase en hacer algo parecido según se acercara el lanzamiento de iOS 15 y demás sistemas operativos. Pensando que de momento no era necesario. Lo que ha quedado claro es que en asuntos de privacidad y seguridad, no pueden andar a rebufo de los acontecimientos.

-
La noticia Apple publica un documento para atajar y aclarar las dudas sobre su sistema anti-abusos infantiles fue publicada originalmente en Applesfera por Eduardo Archanco .




Fuente: Applesfera
Enlace: Apple publica un documento para atajar y aclarar las dudas sobre su sistema anti-abusos infantiles

Comentarios