logistic ready

Fachportal für Intralogistik

Apple verzögert die Veröffentlichung von Anti-Pädophilen-Funktionen für später

Apple verzögert die Veröffentlichung von Anti-Pädophilen-Funktionen für später

Die vorgeschlagenen Tools wurden von Datenschutz- und Sicherheitsexperten kritisiert, die argumentieren, dass das System für Überwachungszwecke verwendet werden könnte, insbesondere von autoritären Regierungen.

Nachdem Apple heftige Kritik an neuen Funktionen erhalten hatte, die Benutzerfotos auf Material über Kindesmissbrauch (CSAM) scannen würden, zog sich Apple von der Veröffentlichung des Tools in diesem Jahr zurück und verschob es. Auf der Grundlage von Kundenfeedback sagte das Unternehmen, es habe sich entschieden, „mehr Zeit zu geben“, um „vor der Markteinführung Verbesserungen vorzunehmen“.

„Letzten Monat haben wir Pläne für Ressourcen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel verwenden, um Material über sexuellen Missbrauch von Kindern zu rekrutieren und auszunutzen und die Verbreitung davon zu begrenzen“, sagte Apple in einer Erklärung gegenüber The Verge.

„Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, in den kommenden Monaten mehr Zeit für die Sammlung von Informationen und Verbesserungen zu verwenden, bevor diese wichtigen Funktionen für die Kindersicherheit eingeführt werden.“

Zu den Änderungen bei Kindesmissbrauch, die Apple Anfang letzten Monats vorgeschlagen hatte, gehörte ein Tool, das bekannte Fotos von Kindesmissbrauch erkennen, in iCloud hochgeladene Fotos von Benutzern scannen und Moderatoren informieren soll, die das National Center for Missing Children and Explorers benachrichtigen können.

Eine weitere von dem Unternehmen angekündigte Sicherheitstechnologie verwendet maschinelles Lernen auf dem Gerät, um Bilder von sexuellem Missbrauch von Kindern in Nachrichten zu erkennen und zu verwischen, um Eltern von Minderjährigen zu warnen. Außerdem eine Änderung der Suche und Siri, die Ressourcen zum Stoppen von CSAM anzeigen würde, wenn der Benutzer nach relevanten Informationen sucht.

Siehe auch  Polizisten ignorieren Raubüberfall, um Pokémon GO zu spielen; Video schauen

Die vorgeschlagenen Tools wurden jedoch von Datenschutz- und Sicherheitsexperten kritisiert, die argumentieren, dass das System für Überwachungszwecke verwendet werden könnte, insbesondere von autoritären Regierungen.

Aber Mitte August sagte das Unternehmen, es werde dem Druck der Regierungen nicht nachgeben und sicherstellen, dass es über ein Sicherheitssystem verfügt, um zu verhindern, dass andere Arten von Bildern offengelegt und digitalisiert werden.

Die Electronic Frontier Foundation sagte in einer Erklärung vom 5. August, dass das neue System, wenn auch gut gemeint, „die wichtigsten Versprechen der Messaging-Verschlüsselung selbst bricht und die Tür für breitere Missbräuche öffnet“.