Erst vor Kurzem stellte Apple eine neue Bilderkennungssoftware vor, um Kindesmissbrauch auf iPhones und iPads zu verhindern. Dieses automatisierte Werkzeug sendet eine Warnung an Apple, wenn gesetzeswidrige Bilder in iCloud hochgeladen werden.

Quelle: techxmedia.com

Nun kritisieren Datenschutzgruppen, dass Apple in seine Software eine Hintertür eingebaut hätte. Daraufhin reagierte Apple und beteuerte, die Firma bedauere dieses Durcheinander bezüglich des Scanvorgangs. Die Software habe einen Fehlstart hingelegt und es liege ein Missverständnis vor.

Quelle: prothomalo.com

Der Apple Chef Software-Entwickler Craig Federighi sagte, ‘’Wir wünschten, es wäre für jeden von Anfang an klar gewesen. Zwei Funktionen gleichzeitig vorzustellen, führte zu einem solchen Missverständnis’’.

Quelle: news.in-24.com

Apple stellte offiziell zwei neue Werkzeuge vor, die dazu genutzt werden können, Kinder vor sexuellem Missbrauch zu schützen. Diese neuen Funktionen werden zuerst für Apple Nutzer in den USA freigeschaltet. Das erste Werkzeug ist eine Art Bilderfassung, welche verdächtiges Bildmaterial, genannt CSAM, erkennt. Viele Cloud-Service-Anbieter wie Facebook, Google und Microsoft verwenden bereits diese Technik, um sicherzustellen, dass Menschen kein CSAM teilen.

Beim anderen Werkzeug geht es um das Filtern. Apple versucht über dieses Werkzeug die elterliche Kontrolle der Konten von Kindern sicherzustellen. Dieses maschinelle Lernverfahren bewertet ein Bild und erkennt es Nacktheit im Bild, wird automatisch eine Warnung an den Nutzer geschickt.

Quelle: algulf.net

Datenschutzgruppen sind jedoch besorgt über diese Technologien. Sie sind der Meinung, dass solche Funktionen die Privatsphäre des Einzelnen stark einschränken und von Regierungen dazu missbraucht werden können, um eigene Bürger auszuspionieren.