Schlagwort: csam

  • Mehr Privacy bei Apple, weniger in der EU

    Mehr Privacy bei Apple, weniger in der EU

    From the Good News/Bad News Department: Apple scheint seinen Ansatz, alle Bilder, die in die iCloud wandern sollen, nach bekannten CSAM-Material durchzuscannen aufgegeben zu haben. (CSAM = Child Sexual Abuse Material, Bilder von sexualisierter Gewalt an Kindern)

    siehe auch Apple CSAM-Scanning redux.

    Stattdessen werden unsere Daten in der iCloud wohl in absehbarer Zeit Ende-zu-Ende-verschlüsselt. Das bedeutet: Ich sehe meine Dokumente, Bilder und Kontakte auf meinen Geräten. Während des Transports und bei der Speicherung auf den Apple iCloud-Systemen sind sie so verschlüsselt, dass Apple nicht reinschauen kann. Und technisch auch niemand anderen reinschauen lassen kann.

    (Laut diesem Apple Support-Eintrag wird das unter der Bezeichnung Advanced Data Protection auf iDingens mit aktuellen Betriebssystemen ab Anfang 2023 freigeschaltet. Das heißt, es ist nicht standardmäßig aktiv. Wer es möchte, kann es aktivieren, sollte dann aber beachten, dass Apple bei verlorenen Zugangsdaten nicht mehr helfen kann.)

    Dann, denkt sich die EU wohl, müssen wir halt die Polizei auf die Endgeräte schicken und schon dort übereingreifen, bevor oder während eventuell Strafbares entsteht. Und möchte, nachdem ihr inzwischen mindestens fünf Mal von obersten Gerichten die Vorratsdatenspeicherung verboten wurde, nun unter dem Stichwort Chat-Kontrolle auf unsere Smartphones.

    Der Link da oben geht zu digitalcourage.de, einem von mehreren Vereinen in Deutschland, die sich dem Schutz der Bürgerrechte, der digitalen wie analogen, verschrieben haben. Die brauchen aktuell übrigens Geld. Mein Spende haben sie schon – und Deine auch gleich?

    (Full Disclosure: Bin inzwischen Mitglied bei digitalcourage.de und bezahle sie für meinen Fediverse Mastodon Account @schoedland@digitalcourage.social)

  • Apple CSAM-Scanning redux

    Apple CSAM-Scanning redux

    Hier dokumentiert meine aktuelle Einschätzung, warum Apple CSAM-Scanning auf den Geräten (statt in der eigenen Cloud) einführen will:

    1. Apple möchte – als Privacy-Vorreiter – eigentlich schon länger die iCloud komplett verschlüsseln, so dass auch Apple im Prinzip nicht mehr reinschauen kann.
    2. Apple ist aber, wie die anderen Cloud-Anbieter, in vielen Staaten verpflichtet, CSAM in der eigenen Wolke zu verhindern, bzw. hochgeladenen CSAM zur Anzeige zu bringen. Dazu müssen sie den Bildbestand durchscannen. Daher können sie ihn aktuell nicht verschlüsseln.
    3. Also versuchen sie zu verhindern, dass überhaupt CSAM in die iCloud gelangen kann, indem sie den Scan auf die Geräte auslagern.
    4. Es geht daher nicht darum, CSAM zu verhindern, sondern nur darum, einen Mechanismus vorweisen zu können, der beweist, dass die eigene Wolke schneeweiß ist und bleibt.
    5. Die Grenze von „circa 30“ erkannten CSAM-Bildern besteht, um sich Support-Aufwand vom Hals zu halten. Denn überall, wo über irgendwas (Text, Bild, Musik) ein Hash gebildet wird, wird es zu Hash-Kollisionen kommen. Das heißt, ein Nicht-CSAM-Bild führt zum gleichen Hash wie ein CSAM-Bild und setzt damit den Zähler in der Cloud eines hoch. Apple wird ausgerechnet haben, wie oft solche Hash-Kollisionen in einem typischen iCloud-Bestand vorkommen, und die Latte entsprechend höher gelegt haben.
    6. Für Leute, die CSAM-Bilder haben, bleibt der einfache Weg, die Bilder nicht in die iCloud zu synchronisieren. So schlau werden die sein, schließlich wissen sie, dass der Besitz von CSAM-Medien in den allermeisten Staaten strafbar ist.

    Fazit:

    • Die, die man vorgibt erwischen zu wollen, wird man nicht erwischen.
    • Die Milliarde Menschen, derern Bilder man durchscannt, werden nichts erzeugen außer Hash-Kollisionen.
    • Die aufgebaute Scan-Hash-Anzeige-Infrastruktur wird Begehrlichkeiten diverser Staaten erwecken. Apple wird es schwerhaben, ihr tapferes Nein gegen z.B. die USA oder China zu behaupten.
    • Der über die Jahre sorgsam erarbeitete Ruf, eine Plattform zu sein, die Nutzerdaten schützt, ist jetzt schon verloren.