From the Good News/Bad News Department: Apple scheint seinen Ansatz, alle Bilder, die in die iCloud wandern sollen, nach bekannten CSAM-Material durchzuscannen aufgegeben zu haben. (CSAM = Child Sexual Abuse Material, Bilder von sexualisierter Gewalt an Kindern)
siehe auch Apple CSAM-Scanning redux.
Stattdessen werden unsere Daten in der iCloud wohl in absehbarer Zeit Ende-zu-Ende-verschlüsselt. Das bedeutet: Ich sehe meine Dokumente, Bilder und Kontakte auf meinen Geräten. Während des Transports und bei der Speicherung auf den Apple iCloud-Systemen sind sie so verschlüsselt, dass Apple nicht reinschauen kann. Und technisch auch niemand anderen reinschauen lassen kann.
(Laut diesem Apple Support-Eintrag wird das unter der Bezeichnung Advanced Data Protection auf iDingens mit aktuellen Betriebssystemen ab Anfang 2023 freigeschaltet. Das heißt, es ist nicht standardmäßig aktiv. Wer es möchte, kann es aktivieren, sollte dann aber beachten, dass Apple bei verlorenen Zugangsdaten nicht mehr helfen kann.)
Dann, denkt sich die EU wohl, müssen wir halt die Polizei auf die Endgeräte schicken und schon dort übereingreifen, bevor oder während eventuell Strafbares entsteht. Und möchte, nachdem ihr inzwischen mindestens fünf Mal von obersten Gerichten die Vorratsdatenspeicherung verboten wurde, nun unter dem Stichwort Chat-Kontrolle auf unsere Smartphones.
Der Link da oben geht zu digitalcourage.de, einem von mehreren Vereinen in Deutschland, die sich dem Schutz der Bürgerrechte, der digitalen wie analogen, verschrieben haben. Die brauchen aktuell übrigens Geld. Mein Spende haben sie schon – und Deine auch gleich?
(Full Disclosure: Bin inzwischen Mitglied bei digitalcourage.de und bezahle sie für meinen Fediverse Mastodon Account @schoedland@digitalcourage.social)