Die neue automatisierte Suche nach Fotos mit kinderpornographischen Inhalten auf dem iPhone ist nur bei aktivierter iCloud-Foto-Mediathek aktiv, das hat Apple nun bestätigt. Diese neue Maßnahme soll Kinder besser vor sexuellen Übergriffen schützen. Hierbei setzt das Unternehmen in weiten Teilen auf maschinelles Lernen.
Apple hat eine neue Initiative zum besseren Schutz von Kindern vor sexualisierter Gewalt ins Leben gerufen, wie wir heute früh bereits in einer ausführlichen Meldung berichtet hatten. Hierbei werden unter anderem auch die Fotos von iPhone-Nutzern automatisiert auf Abbildungen sexueller Vorgänge unter Beteiligung von Kindern hin geprüft. Diese Prüfung findet zwar lokal auf dem Gerät des Nutzers statt, die Ergebnisse werden allerdings nur bei aktivem Upload in die iCloud auch mit Apple geteilt, wie sich nun herausstellt.
Apple nutzt automatisierte Suche nur bei aktiver Foto-Mediathek
Wie das Unternehmen nun im Gespräch mit der Seite MacRumors bestätigt hat, wird nur dann nach anstößigen Bildern gesucht, wenn der Nutzer die iCloud-Foto-Mediathek aktiviert hat. Auch Fotos in iCloud-Backups werden nur bei aktivierter iCloud-Synchronisierung überprüft. Nutzer mit Bedenken hinsichtlich des Datenschutzes können also die Foto-Mediathek deaktivieren, um einer automatisierten Auswertung von Fotos aus dem Wege zu gehen. Apple versichert allerdings noch einmal nachdrücklich, dass nur anhand von Signaturen einer Datenbank und auch nur anonymisiert Fotos von Nutzern analysiert werden.
Apple warnt in Zukunft auch Eltern, wenn ihre Kinder Nacktbilder per iMessage erhalten oder versenden, die neuen Funktionen starten ab Herbst zunächst in den USA.