Datenschutz vs. Kindersicherheit: Das neue Update von Apple verstehen

Published on 08 Aug 2021

Apple hat ein neues FAQ-Dokument veröffentlicht, um auf Datenschutzbedenken bezüglich neuer Funktionen einzugehen, die mit iOS 15 und iPad OS 15 veröffentlicht werden, die voraussichtlich im September dieses Jahres erscheinen.

Seit Apple diese Funktionen vor einer Woche angekündigt hat, gab es online viele Diskussionen. In der Erklärung zur Veröffentlichung des FAQ-Dokuments sagte Apple, dass es viel Unterstützung von Datenschutz- und Kindersicherheitsorganisationen erhalten habe. Einige dieser Organisationen hatten sich mit Fragen an Apple gewandt. Dieses Dokument soll diese Fragen beantworten und zerstreuen.

Siehe auch: Top HR Tech Tools, die jedes Unternehmen im Jahr 2021 braucht

Welche Updates plant Apple zu veröffentlichen?

Apple plant die Veröffentlichung von zwei Funktionen:

1. CSAM-Erkennung (Child Sexual Abuse Material) in iCloud-Fotos

Der Besitz von CSAM-Bildern ist in den meisten Ländern der Welt, einschließlich der Vereinigten Staaten, illegal. Die neue Funktion scannt und vergleicht Bilder, die Benutzer in iCloud gespeichert haben, mit einer Reihe von CSAM-Bild-Hashes, die von NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden. Es gibt keine automatische Meldung, wenn die Funktion CSAM identifiziert. Stattdessen führt ein menschlicher Apple-Vertreter eine Überprüfung durch, um die Ergebnisse der Funktion zu bestätigen. In m Ländern ist der bloße Besitz von CSAM illegal und Apple sagt, dass es verpflichtet ist, alle Fälle, von denen es erfährt, den Behörden zu melden.

2. Kommunikationssicherheit für Nachrichten

Diese Funktion funktioniert nur bei Kinderkonten, die in der Familienfreigabe eingerichtet wurden. Die Funktion gibt Eltern mehr Kontrolle. Sie scannt Fotos, die von der Nachrichten-App auf solchen Konten gesendet werden, und sucht nach sexuell eindeutigen Bildern. Apple hat klargestellt, dass diese Funktion nur bei Bildern funktioniert, die in der Nachrichten-App gesendet oder empfangen werden. Wenn die Funktion ein explizites Bild identifiziert, wird das Foto unscharf gemacht. Dem Kind werden eine Warnung und hilfreiche Ressourcen angezeigt. Es wird beruhigt

Was sind die Sorgen der Menschen?

Nachdem Apple die neue Funktion angekündigt hatte, gab es viel Kritik an Apples Entscheidung in Bezug auf den Datenschutz. Die größte Sorge ist, dass die Funktionen in Zukunft verwendet werden könnten, um Benutzerdaten nach anderen Arten von Inhalten zu durchsuchen. Regierungsbehörden könnten Apple zu Handlungen zwingen, die es möglicherweise nicht möchte. Einige der Diskussionen führten zu Verwechslungen zwischen den beiden Funktionen. In seinem FAQ-Dokument hat Apple große Anstrengungen unternommen, um zwischen den beiden Funktionen zu unterscheiden und ein klares Verständnis ihres Umfangs zu vermitteln.

Tim Sweeney, CEO von Epic Games, übte scharfe Kritik an den neuen Funktionen von Apple und sagte, dass er sich zwar „mit aller Kraft“ bemüht habe, die Entscheidung aus Apples Sicht zu sehen, es aber „unweigerlich darum gehe, dass Apple staatliche Spyware installiert habe, die auf einer Schuldvermutung basiere“.

Edward Snowden, ein berühmter Whistleblower und ehemaliger NSA-Mitarbeiter, sagte: „Egal wie gut die Absichten sind, Apple führt damit eine Massenüberwachung auf der ganzen Welt ein. Wenn sie heute nach Kinderpornografie scannen können, können sie morgen nach allem scannen.“

Die gemeinnützige Electronic Frontier Foundation erklärte: „Selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng begrenzte Hintertür ist immer noch eine Hintertür.“

Die neuen Funktionen werden voraussichtlich erst im September eingeführt und die Entwicklung ist noch nicht abgeschlossen. Im Moment scheint Apple fest hinter seiner Entscheidung zu stehen und plant, mit dem neuen Update fortzufahren. Abonnieren Sie Whitepapers.online, um über neue Entwicklungen auf dem Laufenden zu bleiben.

Vorgestelltes Bild: Personenfoto erstellt von Racool_studio – www.freepik.com