Investdoors.info

Después de las críticas, Apple sólo busca imágenes de abuso marcadas en varias naciones por Reuters

© Reuters. FOTO DE ARCHIVO: El logotipo de Apple Inc se ve colgado en la entrada de la tienda Apple en la 5th Avenue en Manhattan, Nueva York, EE.UU., 16 de octubre de 2019. REUTERS/Mike Segar

Por Joseph Menn y Stephen Nellis

(Reuters) – Después de una semana de críticas por su nuevo sistema planeado para detectar imágenes de abuso sexual infantil, Apple Inc (NASDAQ: AAPL) dijo el viernes que sólo buscará imágenes que hayan sido marcadas por clearinging.

Que el cambio y los otros tuvieron la intención de tranquilizar los defensores de la intimidad se detallaron a reporteros en un cuarto fondo sin precedentes que resume desde el anuncio inicial ocho días previos de un plan de supervisar dispositivos del cliente.

Después de rehusar antes decir cuantas imágenes combinadas por un teléfono u ordenador necesitaría antes de que el sistema operativo notifique Apple para una revisión humana y reportaje posible a autoridades, los ejecutivos dijeron que el viernes comenzaría con 30, aunque el número podría ser menor con el tiempo a medida que el sistema mejora.

Apple también dijo que sería fácil para investigadores asegurarse que la lista de identificadores de la imagen buscados en un iPhone era lo mismo como las listas por todos otros teléfonos, procurando embotar preocupaciones que el nuevo mecanismo se podría usar para apuntar a individuos. La compañía publicó un largo artículo explicando cómo había razonado a través de posibles ataques contra el sistema y defendido contra ellos.

Apple reconoció que había manejado comunicaciones alrededor del programa mal, provocando el contragolpe de grupos de la política de la tecnología influyentes y hasta sus propios empleados concernieron esto la compañía ponía en peligro su reputación de proteger la intimidad del consumidor.

rehusó decir si esa crítica había cambiado alguna de las políticas o software, pero dijo que el proyecto era tranquilo en el desarrollo y los cambios debían esperarse.

Preguntados por qué sólo había anunciado que el Centro Nacional estadounidense de Ausencia y Niños Explotados sería un proveedor de identificadores de la imagen señalados cuando otra al menos una cámara de compensación tendría que haber señalado por separado el mismo cuadro, un ejecutivo de Apple dijo que la compañía sólo había finalizado su acuerdo con NCMEC.

La serie rodante de explicaciones, cada uno que da más detalles que hacen el plan parecer menos hostil a la intimidad, convenció a algunos críticos de la compañía de que sus voces forzaban el verdadero cambio.

“El que empujamos tiene un efecto”, twittearon Riana Pfefferkorn, una codificación y el investigador de vigilancia en la Universidad de Stanford.

Apple dijo la semana pasada que comprobará fotos si están a punto de almacenarse en el iCloud servicio en línea, añadiendo más tarde que comenzaría con sólo los Estados Unidos.

   

Otras

compañías de la tecnología realizan controles similares una vez que las fotos se cargan a sus servidores. La decisión de Apple de poner aspectos clave del sistema en el propio teléfono provocó la preocupación de que los gobiernos podrían obligar a Apple a expandir el sistema para otros usos, como escanear imágenes políticas prohibidas.

La controversia se ha movido hasta en las filas de Apple, con empleados que debaten el movimiento en cientos de puestos en un canal de charla interno, Reuters hizo un informe esta semana.