Kategorien
digital überwachung

Apple CSAM-Scanning redux

Hier dokumentiert meine aktuelle Einschätzung, warum Apple CSAM-Scanning auf den Geräten (statt in der eigenen Cloud) einführen will:

  1. Apple möchte – als Privacy-Vorreiter – eigentlich schon länger die iCloud komplett verschlüsseln, so dass auch Apple im Prinzip nicht mehr reinschauen kann.
  2. Apple ist aber, wie die anderen Cloud-Anbieter, in vielen Staaten verpflichtet, CSAM in der eigenen Wolke zu verhindern, bzw. hochgeladenen CSAM zur Anzeige zu bringen. Dazu müssen sie den Bildbestand durchscannen. Daher können sie ihn aktuell nicht verschlüsseln.
  3. Also versuchen sie zu verhindern, dass überhaupt CSAM in die iCloud gelangen kann, indem sie den Scan auf die Geräte auslagern.
  4. Es geht daher nicht darum, CSAM zu verhindern, sondern nur darum, einen Mechanismus vorweisen zu können, der beweist, dass die eigene Wolke schneeweiß ist und bleibt.
  5. Die Grenze von „circa 30“ erkannten CSAM-Bildern besteht, um sich Support-Aufwand vom Hals zu halten. Denn überall, wo über irgendwas (Text, Bild, Musik) ein Hash gebildet wird, wird es zu Hash-Kollisionen kommen. Das heißt, ein Nicht-CSAM-Bild führt zum gleichen Hash wie ein CSAM-Bild und setzt damit den Zähler in der Cloud eines hoch. Apple wird ausgerechnet haben, wie oft solche Hash-Kollisionen in einem typischen iCloud-Bestand vorkommen, und die Latte entsprechend höher gelegt haben.
  6. Für Leute, die CSAM-Bilder haben, bleibt der einfache Weg, die Bilder nicht in die iCloud zu synchronisieren. So schlau werden die sein, schließlich wissen sie, dass der Besitz von CSAM-Medien in den allermeisten Staaten strafbar ist.

Fazit:

  • Die, die man vorgibt erwischen zu wollen, wird man nicht erwischen.
  • Die Milliarde Menschen, derern Bilder man durchscannt, werden nichts erzeugen außer Hash-Kollisionen.
  • Die aufgebaute Scan-Hash-Anzeige-Infrastruktur wird Begehrlichkeiten diverser Staaten erwecken. Apple wird es schwerhaben, ihr tapferes Nein gegen z.B. die USA oder China zu behaupten.
  • Der über die Jahre sorgsam erarbeitete Ruf, eine Plattform zu sein, die Nutzerdaten schützt, ist jetzt schon verloren.
Kategorien
digital überwachung

Brief an Apple

Apple plant, direkt auf den Apple-Geräten den Datenbestand seiner Kunden nach Darstellungen sexuellen Missbrauchs an Kindern zu durchsuchen. Verfechter:innen digitaler Souveränität geht das, wie die meisten in letzter Zeit von privater und staatlicher Stelle in Umlauf gebrachten Maßnahmen, deutlich zu weit. Mir auch, daher habe ich heute einen kurze Mail an Apple geschrieben.

Es geht hier auch nicht um Darstellungen sexuellen Missbrauchs an Kindern. Das Problem ist, dass dieses Reizthema, bei dem sich so ziemlich alle einig sind, dass es verfolgt werden muss, bei allen Überwachungsmaßnahmen der letzten Jahre – und davon gab es eine Menge – vorgeschoben wurde. Ist die Infrastruktur dann einmal eingerichtet, werden die verfolgenswerten Straftatbestände nach der guten alten Salamitaktik ausgeweitet: Terrorismus, Menschenhandel und dann eben auch Aktivitäten und Menschen mit von der herrschenden Meinung abweichenden Ansichten: Journalist:innen, Rechtsanwältinnen, Menschenrechtsaktivist:innen, Umweltschützer:innen.

Und, bitte, Apple verkauft nicht nur in USA und Europa, wo die bürgerlichen Freiheitsrechte auch schon ziemlich ausgehöhlt sind, sondern auch in Russland, China und vielen anderen Ländern auf der Welt, wo die Bezeichnung Dissident gerne mal zum Todesurteil wird.

Sehr geehrte Damen und Herren,

ich fasse mich kurz und verweise auf den Artikel
Totalüberwachung durch die Hintertür – Apples fataler Sündenfall

Wenn Apple diese Technik tatsächlich in seine Produkte einbaut, ist das ein Verrat an all den Kunden, die Apple in den letzten Jahren für seine Initiativen zum Datenschutz gegenüber der Werbeindustrie wie gegenüber staatlichen Stellen gelobt und in Schutz genommen haben.

Sie stellen hier Ihre Milliarde Kunden unter Generalverdacht. Sie öffnen einer weitergehenden Überwachung, Zensur, Unterdrückung missliebiger Meinungen ein Scheunentor. Sie sind auf dem falschen Weg. Das ist nicht „We do the right thing, even when it’s not easy.“

Anfang der 2000er hat Sony ein Root-Kit auf einige seiner CDs gebracht und damit Millionen Computer ehrlicher Käufer kompromittiert. In den letzten 20 Jahren hat Sony mit mir genau Null Euro Umsatz gemacht. Sollte Apple CSAM oder eine vergleichbare Technik einführen, werde ich die gleiche Entscheidung wie gegenüber Sony treffen.

Mit freundlichen Grüßen
Andreas Schödl


Andere dazu:

Nachtrag:

Ich lese hier, dass Apple CSAM zunächst in den USA ausrollen will und es in weiteren Ländern erst nach Prüfung der lokalen Gegebenheiten zuschalten will. („[…] Apple confirmed to MacRumors that the company will consider any potential global expansion of the system on a country-by-country basis after conducting a legal evaluation.“ (macrumors)

Dazu muss man leider sagen „Bullshit!“, denn wenn China das will, bekommt China das, mit seiner eigenen Datenbank von kritischen Bild- und Begriffsdefinitionen inklusive. Warum? Weil so gut wie alle Geräte, die Apple verkauft, in China hergestellt werden. Wenn Apple sich ernsthaft mit China anlegt, verliert es seine Fertigungskapazitäten und damit sein Business. Klappe zu, Affe tot.


Nachtrag, 2021-09-10: Apple hat inzwischen auf meine Mail geantwortet, natürlich nur mit Stehsatz, dass sie ja nur das Beste im Sinn haben. In other news, werden sie die CSAM-Suche auf den Geräten jetzt doch nicht in iOS 15 (gleich) einschalten. Allerdings haben schlaue Leute herausgefunden, dass Entwicklungsstände es auch schon in iOS 14 geschafft haben, ebenfalls deaktiviert. Viele Computer-Sicherheits-Experten haben Apple eindringlich gebeten, die gesamte Funktion zurückzuziehen. Bisher ohne Erfolg.

Weiterhin sehr unbefriedigend. Kaufstopp für Apple-Produkte bleibt in Kraft. Was doof ist, weil Apple über alles das beste Verbundsystem hat. Eine Alternative finden heißt daher, viele Alternativen finden.