Apfelpatient
  • Home
  • News
  • Rumors
  • Tipps & Tricks
  • Tests & Erfahrungsberichte
  • Allgemein
No Result
View All Result
  • Home
  • News
  • Rumors
  • Tipps & Tricks
  • Tests & Erfahrungsberichte
  • Allgemein
No Result
View All Result
Apfelpatient
No Result
View All Result

Apple stellt neue Kinderschutzfunktionen vor: Sicherheitsforscher besorgt

by Milan
5. August 2021
in News
Kinderschutzfunktionen Apple

Prague Czech Republic - 2. april 2021 - Businessman in suit holding in hands and opening a box with a brand new black apple iphone 12.

Apple hat am späten Donnerstagabend angekündigt, dass es mit dem Start von iOS 15 und Co. damit anfangen wird, iCloud Fotos in den USA zu scannen, um nach bekanntem Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) zu suchen und plant, die Ergebnisse an das National Center for Missing and Exploited Children (NCMEC) zu melden.

Noch bevor Apple die eigenen Pläne im Detail vorgestellt hat, sickerte die Nachricht über die CSAM-Initiative durch. Daraufhin haben Sicherheitsforscher damit angefangen, Bedenken darüber zu äußern, wie Apples neues Bild-Scan-Protokoll in Zukunft verwendet werden könnte. Das berichtet nun die Financial Times. Apple verwendet ein „NeuralHash“-System, um bekannte CSAM-Bilder mit Fotos auf dem iPhone eines Nutzers zu vergleichen, bevor diese in die iCloud hochgeladen werden.

Matthew Green zu Apples Plan: „Eine wirklich schlechte Idee“

Wenn es eine Übereinstimmung gibt, wird das Foto mit einem kryptographischen Sicherheitsgutschein hochgeladen und bei einem bestimmten Schwellenwert wird eine Überprüfung ausgelöst, um sicherzustellen, ob die Person tatsächlich CSAM auf ihren Geräten hat. Momentan nutzt Apple diese Technologie zum Scannen und Abgleichen von Bildern, um nach Kindesmissbrauch zu suchen. Doch Sicherheitsforscher befürchten, dass sie in Zukunft angepasst werden könnte, um nach anderen Arten von Bildern zu suchen, die besorgniserregender sind, wie z.B. Anti-Regierungszeichen bei Protesten. In einer Reihe von Tweets sagte der John Hopkins Kryptographie-Forscher Matthew Green, dass das CSAM-Scanning eine „wirklich schlechte Idee“ sei, da es in Zukunft auf das Scannen von Ende-zu-Ende verschlüsselten Fotos ausgeweitet werden könnte, anstatt nur auf Inhalte, die in die iCloud hochgeladen werden. Randnotiz: Bei Kindern implementiert Apple eine separate Scan-Funktion, die direkt in Nachrichten, die Ende-zu-Ende verschlüsselt sind, nach sexuell expliziten Inhalten sucht.

Scantechnologie soll sehr genau sein

Green äußerte auch Bedenken bezüglich der Hashes, die Apple zu verwenden plant, da es potenziell zu „Kollisionen“ kommen könnte, bei denen jemand eine harmlose Datei sendet, die einen Hash mit CSAM teilt und zu einer Falschmeldung führen könnte. Zur Erinnerung: Apple sagt, dass seine Scantechnologie ein „extrem hohes Maß an Genauigkeit“ hat, um sicherzustellen, dass Konten nicht fälschlicherweise markiert werden. Die Berichte werden manuell überprüft, bevor das iCloud-Konto einer Person deaktiviert und ein Bericht an die NCMEC gesendet wird. Green glaubt, dass Apples Implementierung andere Tech-Unternehmen dazu bringen wird, ähnliche Techniken zu übernehmen.

Das wird den Damm brechen. Die Regierungen werden es von jedem verlangen.

Der Sicherheitsforscher Alec Muffett, der früher bei Facebook gearbeitet hat, sagte, dass Apples Entscheidung, diese Art des Bildscannens zu implementieren, ein „riesiger und regressiver Schritt für die individuelle Privatsphäre ist.“

Apple verwendet Screening-Technologie schon länger

Wie viele auf Twitter anmerkten, führen mehrere Tech-Unternehmen bereits Bildscans für CSAM durch. Google, Twitter, Microsoft, Facebook und andere nutzen Bild-Hashing-Methoden, um nach bekannten Bildern von Kindesmissbrauch zu suchen und diese zu melden. Es ist auch erwähnenswert, dass Apple bereits vor dem Rollout der neuen CSAM-Initiative einige Inhalte auf Bilder von Kindesmissbrauch gescannt hat. Im Jahr 2020 bestätigte Apples Chief Privacy Officer Jane Horvath, dass Apple eine Screening-Technologie verwendet, um nach illegalen Bildern zu suchen und dann Accounts zu deaktivieren, wenn Beweise für CSAM entdeckt werden. Abgesehen davon hat Apple bereits 2019 seine Datenschutzrichtlinien aktualisiert, um darauf hinzuweisen, dass es hochgeladene Inhalte auf „potenziell illegale Inhalte, einschließlich Material zur sexuellen Ausbeutung von Kindern“ scannt. Daher ist die gestrige Ankündigung eigentlich nicht ganz neu. (Photo by weyo / Bigstockphoto)

  • iMessage, Siri & iCloud Fotos: Apple erweitert Kinderschutzfunktionen
Kennt ihr schon unsere Amazon Storefront? Dort findet ihr eine handverlesene Auswahl von diversen Produkten für euer iPhone und Co. – viel Spaß beim Stöbern.
Der Beitrag enthält Partnerlinks.
Apfelpatient zu deinem Google News Feed hinzufügen. 
War dieser Artikel hilfreich?
JaNein
Tags: Apple DiensteiOSiOS 15iPadOSiPadOS 15macOSmacOS 12 MontereywatchOSwatchOS 8
Previous Post

iMessage, Siri & iCloud Fotos: Apple erweitert Kinderschutzfunktionen

Next Post

iCloud-Fotos: CSAM-Prüfung kann deaktiviert werden

Next Post
iCloud-Fotos CSAM-Prüfung

iCloud-Fotos: CSAM-Prüfung kann deaktiviert werden

Apple Notizen App iOS 26

iOS 26: Diese Neuerungen erwarten dich in Apple Notizen

13. Juni 2025
iPadOS 26 iPad Fold

iPadOS 26 ist bereit für das kommende iPad Fold mit 18,8 Zoll

13. Juni 2025
Apple Music iOS 26

Apple Music bekommt DJ-Feeling mit AutoMix-Feature

13. Juni 2025

Über APFELPATIENT

Willkommen in deiner ultimativen Quelle für alles rund um Apple – von der neuesten Hardware wie iPhone, iPad, Apple Watch, Mac, AirTags, HomePods, AirPods bis hin zur bahnbrechenden Apple Vision Pro und hochwertigem Zubehör. Tauche tief ein in die Welt der Apple Software mit den neuesten Updates und Funktionen für iOS, iPadOS, tvOS, watchOS, macOS und visionOS. Neben umfassenden Tipps und Tricks bieten wir dir die heißesten Gerüchte, aktuellste News und vieles mehr, um dich auf dem Laufenden zu halten. Auch ausgewählte Gaming-Themen finden ihren Platz bei uns, stets mit dem Fokus darauf, wie sie die Apple-Erfahrung bereichern. Dein Interesse an Apple und verwandter Technologie wird hier mit jeder Menge Expertenwissen und Leidenschaft bedient.

Rechtliches

  • Impressum – Über APFELPATIENT
  • Cookie-Einstellungen
  • Datenschutzerklärung
  • Nutzungsbedingungen

Service

  • Partnerprogramm
  • Netiquette – Über APFELPATIENT

RSS Feed

Folge Apfelpatient:
Facebook Instagram YouTube Threads
Apfelpatient Logo

© 2025 Apfelpatient. All rights reserved. | Sitemap

No Result
View All Result
  • Home
  • News
  • Rumors
  • Tipps & Tricks
  • Tests & Erfahrungsberichte
  • Allgemein

© 2025 Apfelpatient. Alle Rechte vorbehalten. | Seitenverzeichnis