Apple revisaría imágenes de iPhone en busca de pornografía infantil
Foto Internet
Viernes 06 de Agosto de 2021 5:48 pm
+ -
Una de las
razones por las que millones de usuarios en el mundo eligen los dispositivos de
Apple es por las garantías de privacidad que da la marca. Desde sus comienzos
la compañía se ha caracterizado por ser una plataforma cerrada para una
supuesta mayor seguridad a sus usuarios. Pero ahora la marca está en medio de
la polémica porque planea revisar las imágenes en los iPhone y en iCloud en
busca de pornografía infantil.
De acuerdo
con información de Financial Times, Apple planea escanear las fotografías
almacenadas en su nube y sus teléfonos inteligentes para encontrar imágenes de
abuso infantil con la intención de ayudar a las fuerzas del orden en
investigaciones penales.
Sin embargo,
la noticia está generando polémica e, incluso, puede abrir la puerta a una de
las mayores demandas legales y gubernamentales relacionadas con el manejo de
datos de los usuarios.
Según los
datos de la Financial Times, el escaneo de las imágenes se realizará mediante
un sistema llamado neuralMatch que "alertará proactivamente a un equipo de
revisores humanos si cree que se detectan imágenes ilegales, quienes luego se
pondrán en contacto con las autoridades si el material puede ser
verificado". Hay que decir que neuralMatch fue entrenado con 200 mil imágenes
conocidas de abuso sexual infantil las cuales fueron proporcionadas por el
Centro Nacional para Niños Desaparecidos y Explotados, es decir que ese
contenido servirá como base para comparar las fotografías.
¿Cómo
funcionará?
La tecnología
se lanzará primero en los Estados Unidos. Según las personas que conocen los
planes de la compañía, cada foto cargada en iCloud en aquel país recibirá un
"vale de seguridad", que indica si es sospechosa o no. "Una vez
que un cierto número de fotos se marcan como sospechosas, Apple permitirá que
todas las imágenes se descifren y, si aparentemente son ilegales, se
transmitirán a las autoridades pertinentes", publicó el Financial Times.
Recordemos
que Apple ya compara los archivos de iCloud con las imágenes conocidas de abuso
infantil, como lo hace cualquier otro proveedor importante de servicios en la
nube. Sin embargo el sistema neuralMatch iría más allá, permitiendo el acceso
central al almacenamiento local.
El profesor y
criptógrafo de la Universidad John Hopkins, Matthew Green, expresó su
preocupación sobre el sistema en Twitter: "Este tipo de herramienta puede
ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las
personas. ¿Pero imagina lo que podría hacer en manos de un gobierno
autoritario?".
Añadió:
"Incluso si crees que Apple no permitirá que estas herramientas se
utilicen incorrectamente, todavía hay mucho de qué preocuparse. Estos sistemas
se basan en una base de datos de 'hash de medios problemáticos' que usted, como
consumidor, no puede revisar".
Y es que,
aunque como ya mencionamos, el proceso de revisión ya existe, extender el
alcance del sistema, a pesar de estar orientado al abuso infantil, podría abrir
la puerta a intentar detectar otros delitos, lo que supone una preocupación
particular en países como China. Aun así Apple defiende sus intenciones y dijo
que está dispuesta discutir el tema con algunos académicos estadounidenses.
Además dijo que planea compartir más sobre el sistema en los próximos
días.
La
actualización se implementará en el futuro, junto con varias otras
características de seguridad para niños, incluidos nuevos controles parentales
que pueden detectar fotos explícitas en los mensajes de los niños.
Finalmente
recordemos que Apple tuvo un famoso enfrentamiento con el FBI en 2016 después
de que se negó a desbloquear un iPhone perteneciente al hombre detrás del
ataque terrorista de San Bernardino. Por lo que ahora se espera que aclara cómo
es que su nuevo sistema no va en contra de las políticas de defiende desde sus
origines.