Apple va contra personas que tengan contenido sexual infantil en sus dispositivos

Empresa Apple podrá revisar todos los dispositivos en Estados Unidos para buscar imágenes sobre abuso sexual infantil

Recientemente,  Apple dio a conocer sus  planes para escanear los iPhone en Estados Unidos en busca de  imágenes de abuso sexual y pornografía infantil. Las organizaciones de  protección a menores de edad aplaudieron la iniciativa, sin embargo, para algunos investigadores de seguridad ello generó preocupación ya que  el sistema podría ser mal utilizado incluso por los gobiernos.

De acuerdo con el comunicado en el sitio oficial de Apple, la herramienta llamada  NeutralHash fue diseñada para detectar  imágenes de abuso sexual infantil antes de ser subidas a iCloud. Si encuentra una coincidencia con algún acto ilícito que implique menores de edad, la  imagen será revisada por un ser humano. De confirmarse un acto de pornografía infantil, la cuenta del usuario se desactivará y se notificará al  Centro Nacional para Niños Desaparecidos y Explotados.

En un caso aparte, Apple  planea escanear los mensajes cifrados de los usuarios en busca de contenido sexual explícito como medida de seguridad infantil. También, el  sistema de detección solo marcará las imágenes previamente cargadas en la base de datos del centro de pornografía infantil. Asimismo, la empresa detalló, aquellas fotos inocentes de un niño que son tomadas por los padres no deberán de preocuparse.

Te puede interesar: El reloj de compromiso, un símbolo de amor eterno

NeutralHash es una fuerte acción en contra de la pornografía infantil, pero la  herramienta también alarmó a los defensores de la privacidad, pues las autoridades podrían emplear esta herramienta para vigilar a los ciudadanos. "La herramienta de emparejamiento que no ve tales imágenes, solo metadatos y eso podría tener fines más nefastos", explicó  Matthew Green, principal investigador de  criptografía de la  Universidad Johns Hopkins.

Green advirtió que el sistema podría usarse para  enmarcar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para desencadenar coincidencias por pornografía infantil. Ello podría engañar a Apple y alterar a las fuerzas del orden, "los investigadores han sido capaces de hacer esto con bastante facilidad", añadió.

Por el contrario, la  Electronic Frontier Foundation, pionera en libertades civiles en línea calificó el compromiso de la empresa de  Cupertino,  California como de forma positiva a esta nueva acción. "Consideramos que Apple hizo un cambio impactante para los usuarios quienes han confiado en el liderazgo de la empresa en cuestiones de privacidad y seguridad".

Compañías de tecnología como  Microsoft,  Google y  Facebook han estado compartiendo durante años  huellas digitales de imágenes conocidas de abuso sexual infantil. Apple los ha utilizado para escanear los archivos de usuario almacenados en su sistema de iCloud, el cual  no está encriptado de forma tan segura en comparación a los datos del dispositivo.

La empresa Apple, fue una de las primeras empresas de emplear el  sistema de cifrado de extremo a extremo en los mensajes para que los usuarios pudieran leerlos. No obstante, las fuerzas del orden han presionado durante mucho tiempo a la firma para  acceder a esa información con el fin de investigar delitos, entre ellos terrorismo o explotación sexual infantil.

Esta vez, la empresa de tecnología tiene el objetivo de crear  herramientas para empoderar a las personas y enriquecer sus vidas, al mismo tiempo, ayudar a mantenerlas seguras. Por esa razón, quieren ayudar en conjunto con  expertos en seguridad para proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos.