Apple sucht inzwischen auch mit automatisierten Programmen nach Fotos, die Kinderpornographie zeigen, in der eigenen iCloud, das hat das Unternehmen nun bestätigt. Andere Cloud-Anbieter setzen bereits seit Jahren auf vergleichbare Techniken. Ob auch in versendeten iMessages nach Kindesmissbrauch in bildlicher Form gesucht wird, ist nicht bekannt.
Apple hat unlängst bestätigt, inzwischen automatisiert die iCloud nach Fotos zu durchsuchen, die kinderpornographische Szenen enthalten. Man werde nicht damit beginnen, Verschlüsselungen zu schwächen, doch man setze geeignete Techniken ein, um diese Fotos aufzuspüren, erklärte Apples Beauftragte für Datenschutzfragen Jane Horvath im Rahmen einer Diskussion zum Thema auf der CES in Las Vegas. Apple werde Accounts, von denen kinderpornographische Darstellungen hochgeladen werden, schließen und die Vorfälle gegebenenfalls an die entsprechenden Stellen melden, erklärt das Unternehmen weiterhin auf einer entsprechenden Support-Seite.
Suche nach Kinderpornos anhand von Signaturen
Apple ist hier keineswegs der erste Anbieter einer Foto-Cloud, der auf eine Technik zur Suche nach Kinderpornos setzt. Vorreiter auf diesem Gebiet ist Microsoft. Das Unternehmen hat bereits vor Jahren damit begonnen, eine Eigenentwicklung namens PhotoDNA zu nutzen, um entsprechende Bilder auf seinem Cloud-Dienst OneDrive zu isolieren. Diese wie wohl auch die Technik von Apple setzen auf typische Signaturen bestimmter Kontexte, die mit einer zentralen Signaturdatenbank abgeglichen werden, wie es etwa auch bei einem Spam-Filter oder einem Antivirus-Programm passiert.
Ob Apple diese Suche auch bei den über iMessage versendeten Fotos, die mit einer Ende-zu-Ende-Verschlüsselung geschützt sind, zum Einsatz bringt, ist nicht klar. Klar ist aber, dass Apple sich diese Möglichkeit in seinen AGB für die Realisierung von iMessage einräumt.