Apple planlægger at scanne billeder gemt på iPhones og iCloud for billeder af børnemisbrug. Det nye system kan hjælpe retshåndhævelse i efterforskninger, men det kan samtidig føre til øgede juridiske og statslige krav til brugerdata.
Det skriver The Verge via the Financial Times.
Systemet kaldes “neuralMatch” og fungerer som en proaktiv advarselslampe, der advarer et team af specialister, hvis det har opdaget ulovlige billeder på Apples produkter. Dernæst vil politiet blive kontaktet, hvis billeder bekræftes som værende ulovlige af teamet.
neuralMatch, som er blevet trænet i at scanne billeder ved hjælp 200.000 billeder fra National Center for Missing & Exploited Children, udrulles i USA som udgangspunkt. Systemet vil granske billeder gemt på iPhones og iCloud og sammenligne dem med billeder af børnemisbrug fra databasen.
Ifølge the Financial Times bliver hvert foto, som uploades til iCloud i USA, stemplet med et ‘sikkerhedsbevis’, der afgør, hvorvidt fotoet er mistænkt eller ej. Hvis et bestemt antal fotos markeres som ‘mistænkt’, vil Apple dekryptere disse billeder og – hvis der er tale om noget ulovligt – videregive dem til politiet.
Apple kontrollerer allerede iCloud-filer for børnemisbrug, ligesom det gør sig gældende hos andre cloud-udbydere. Men neuralMatch vil gå skridtet videre og give adgang til local storage hos brugere af Apples produkter.
Professor på John Hopkins University og kryptograf, Matthew Green, rejste bekymring over systemet på Twitter i onsdags. “Et værktøj som dette kan være en velsignelse, når det kommer til at opspore børnepornografi i folks telefoner,” skrev Green. “Men forestil dig, hvad det kunne gøre i hænderne på en autoritær regering?”