Kategorie: überwachung

  • 100 Tabs offen

    100 Tabs offen

    Nein, ich werde nicht alle 100 davon hier abkippen …

    Unshelved

    Ein WebComic über den Arbeitsalltag in einer öffentlichen Bibliothek.

    Content Warning: Transfeindlichkeit

    Hogwarts Legacy in Wired

    Ich war ja schon zu alt, um Harry POtter in meinen (hohoho) formativen Jahren zu lesen. Den Wandel von Literatur-Sensation zu Transhasserin habe ich allerdings wohl mitbekommen. Diese Review des neuen im Potter-versum angesiedelten Spiels … hat mich berührt.

    Every homophobic or transphobic thing queer kids hear growing up becomes a voice that follows them for a long time. We hear relatives, friends, and parents say awful things about us and to us. For a lot of us, we fight those voices every day. When one of those voices comes from the author who taught you about accepting yourself, a person you thought truly saw you and kids like you, it hurts in a way I honestly hope she never understands. I wouldn’t wish it on anyone.

    Review: There Is No Magic in Hogwarts Legacy

    Shift Happens: Ein Buch über Tastaturen

    Da, im Internet der Enthusiasten, lebt ein Mensch mit dem Traum, den Typewriters und Keyboards von der Schreibmaschine über die Terminals bis hin zu den diversen Home und Personal Computern ein Buch zu widmen. Und setzt einen Kickstarter auf … und die Leute kommen und klicken ihm das Buch aus der Hand. Ja, ich auch, schließlich ist ja bald wieder Weihnachten …

    Keyboards fascinated me for years. But it occurred to me that a good, comprehensive, and human story of keyboards – starting with typewriters and ending with modern computers and phones – has never been written. How did we get from then to now? What were the steps along the way? And how on earth does QWERTY still look the same now as it did 150 years ago?

    Shift Happens: A book about keyboards

    Wenn dir dein eigenes Kind fremd ist

    … ist der Titel eines Buchs von Dr. Oliver Dierssen, in dem er Erziehungstipps für alle Eltern, nicht nur für entfremdete, zusammengestellt hat. Ist bestimmt nicht der erste Ratgeber seiner Art, aber immerhin ist der Autor Facharzt für Kinder- und Jugendpsychiatrie und Psychotherapie, also nicht nur zufällig mit dem Thema in Berührung gekommen. Im Interview mit daddylicious führt er einige Tipps an:

    Wie kann ich meinem Teenie Hilfe bei sozialen Krisen anbieten?
    Jugendliche sind oft sehr gut darin, Probleme selbst zu lösen. Diese Fähigkeiten sollten wir Eltern nutzen. Ich kann fragen: „Schaffst du das Problem allein zu lösen, oder soll ich helfen?“ Wichtig ist auch, eine Grenze zu setzen: „Wer hilft dir mit deinem Problem, wenn du es selbst nicht schaffst? Kann ich mich darauf verlassen, dass du dich dort meldest?“ Jugendlichen reagieren oft sehr positiv darauf, wenn man ihnen vertraut.

    Interview mit Dr. Oliver Dierssen – Wenn dir dein eigenes Kind fremd ist

    Datenschutzfreundliche Dienste

    Klaudia Zotzmann-Koch hat eine umfassende Liste von Diensten zusammengestellt, die für die meisten Belange eine datenschutz-freundliche Alternative darstellen. Denn: Datenschutz schützt nicht Daten, sondern Menschen 🙂

  • Mehr Privacy bei Apple, weniger in der EU

    Mehr Privacy bei Apple, weniger in der EU

    From the Good News/Bad News Department: Apple scheint seinen Ansatz, alle Bilder, die in die iCloud wandern sollen, nach bekannten CSAM-Material durchzuscannen aufgegeben zu haben. (CSAM = Child Sexual Abuse Material, Bilder von sexualisierter Gewalt an Kindern)

    siehe auch Apple CSAM-Scanning redux.

    Stattdessen werden unsere Daten in der iCloud wohl in absehbarer Zeit Ende-zu-Ende-verschlüsselt. Das bedeutet: Ich sehe meine Dokumente, Bilder und Kontakte auf meinen Geräten. Während des Transports und bei der Speicherung auf den Apple iCloud-Systemen sind sie so verschlüsselt, dass Apple nicht reinschauen kann. Und technisch auch niemand anderen reinschauen lassen kann.

    (Laut diesem Apple Support-Eintrag wird das unter der Bezeichnung Advanced Data Protection auf iDingens mit aktuellen Betriebssystemen ab Anfang 2023 freigeschaltet. Das heißt, es ist nicht standardmäßig aktiv. Wer es möchte, kann es aktivieren, sollte dann aber beachten, dass Apple bei verlorenen Zugangsdaten nicht mehr helfen kann.)

    Dann, denkt sich die EU wohl, müssen wir halt die Polizei auf die Endgeräte schicken und schon dort übereingreifen, bevor oder während eventuell Strafbares entsteht. Und möchte, nachdem ihr inzwischen mindestens fünf Mal von obersten Gerichten die Vorratsdatenspeicherung verboten wurde, nun unter dem Stichwort Chat-Kontrolle auf unsere Smartphones.

    Der Link da oben geht zu digitalcourage.de, einem von mehreren Vereinen in Deutschland, die sich dem Schutz der Bürgerrechte, der digitalen wie analogen, verschrieben haben. Die brauchen aktuell übrigens Geld. Mein Spende haben sie schon – und Deine auch gleich?

    (Full Disclosure: Bin inzwischen Mitglied bei digitalcourage.de und bezahle sie für meinen Fediverse Mastodon Account @schoedland@digitalcourage.social)

  • Apple CSAM-Scanning redux

    Apple CSAM-Scanning redux

    Hier dokumentiert meine aktuelle Einschätzung, warum Apple CSAM-Scanning auf den Geräten (statt in der eigenen Cloud) einführen will:

    1. Apple möchte – als Privacy-Vorreiter – eigentlich schon länger die iCloud komplett verschlüsseln, so dass auch Apple im Prinzip nicht mehr reinschauen kann.
    2. Apple ist aber, wie die anderen Cloud-Anbieter, in vielen Staaten verpflichtet, CSAM in der eigenen Wolke zu verhindern, bzw. hochgeladenen CSAM zur Anzeige zu bringen. Dazu müssen sie den Bildbestand durchscannen. Daher können sie ihn aktuell nicht verschlüsseln.
    3. Also versuchen sie zu verhindern, dass überhaupt CSAM in die iCloud gelangen kann, indem sie den Scan auf die Geräte auslagern.
    4. Es geht daher nicht darum, CSAM zu verhindern, sondern nur darum, einen Mechanismus vorweisen zu können, der beweist, dass die eigene Wolke schneeweiß ist und bleibt.
    5. Die Grenze von „circa 30“ erkannten CSAM-Bildern besteht, um sich Support-Aufwand vom Hals zu halten. Denn überall, wo über irgendwas (Text, Bild, Musik) ein Hash gebildet wird, wird es zu Hash-Kollisionen kommen. Das heißt, ein Nicht-CSAM-Bild führt zum gleichen Hash wie ein CSAM-Bild und setzt damit den Zähler in der Cloud eines hoch. Apple wird ausgerechnet haben, wie oft solche Hash-Kollisionen in einem typischen iCloud-Bestand vorkommen, und die Latte entsprechend höher gelegt haben.
    6. Für Leute, die CSAM-Bilder haben, bleibt der einfache Weg, die Bilder nicht in die iCloud zu synchronisieren. So schlau werden die sein, schließlich wissen sie, dass der Besitz von CSAM-Medien in den allermeisten Staaten strafbar ist.

    Fazit:

    • Die, die man vorgibt erwischen zu wollen, wird man nicht erwischen.
    • Die Milliarde Menschen, derern Bilder man durchscannt, werden nichts erzeugen außer Hash-Kollisionen.
    • Die aufgebaute Scan-Hash-Anzeige-Infrastruktur wird Begehrlichkeiten diverser Staaten erwecken. Apple wird es schwerhaben, ihr tapferes Nein gegen z.B. die USA oder China zu behaupten.
    • Der über die Jahre sorgsam erarbeitete Ruf, eine Plattform zu sein, die Nutzerdaten schützt, ist jetzt schon verloren.
  • Brief an Apple

    Apple plant, direkt auf den Apple-Geräten den Datenbestand seiner Kunden nach Darstellungen sexuellen Missbrauchs an Kindern zu durchsuchen. Verfechter:innen digitaler Souveränität geht das, wie die meisten in letzter Zeit von privater und staatlicher Stelle in Umlauf gebrachten Maßnahmen, deutlich zu weit. Mir auch, daher habe ich heute einen kurze Mail an Apple geschrieben.

    Es geht hier auch nicht um Darstellungen sexuellen Missbrauchs an Kindern. Das Problem ist, dass dieses Reizthema, bei dem sich so ziemlich alle einig sind, dass es verfolgt werden muss, bei allen Überwachungsmaßnahmen der letzten Jahre – und davon gab es eine Menge – vorgeschoben wurde. Ist die Infrastruktur dann einmal eingerichtet, werden die verfolgenswerten Straftatbestände nach der guten alten Salamitaktik ausgeweitet: Terrorismus, Menschenhandel und dann eben auch Aktivitäten und Menschen mit von der herrschenden Meinung abweichenden Ansichten: Journalist:innen, Rechtsanwältinnen, Menschenrechtsaktivist:innen, Umweltschützer:innen.

    Und, bitte, Apple verkauft nicht nur in USA und Europa, wo die bürgerlichen Freiheitsrechte auch schon ziemlich ausgehöhlt sind, sondern auch in Russland, China und vielen anderen Ländern auf der Welt, wo die Bezeichnung Dissident gerne mal zum Todesurteil wird.

    Sehr geehrte Damen und Herren,

    ich fasse mich kurz und verweise auf den Artikel
    Totalüberwachung durch die Hintertür – Apples fataler Sündenfall

    Wenn Apple diese Technik tatsächlich in seine Produkte einbaut, ist das ein Verrat an all den Kunden, die Apple in den letzten Jahren für seine Initiativen zum Datenschutz gegenüber der Werbeindustrie wie gegenüber staatlichen Stellen gelobt und in Schutz genommen haben.

    Sie stellen hier Ihre Milliarde Kunden unter Generalverdacht. Sie öffnen einer weitergehenden Überwachung, Zensur, Unterdrückung missliebiger Meinungen ein Scheunentor. Sie sind auf dem falschen Weg. Das ist nicht „We do the right thing, even when it’s not easy.“

    Anfang der 2000er hat Sony ein Root-Kit auf einige seiner CDs gebracht und damit Millionen Computer ehrlicher Käufer kompromittiert. In den letzten 20 Jahren hat Sony mit mir genau Null Euro Umsatz gemacht. Sollte Apple CSAM oder eine vergleichbare Technik einführen, werde ich die gleiche Entscheidung wie gegenüber Sony treffen.

    Mit freundlichen Grüßen
    Andreas Schödl


    Andere dazu:

    Nachtrag:

    Ich lese hier, dass Apple CSAM zunächst in den USA ausrollen will und es in weiteren Ländern erst nach Prüfung der lokalen Gegebenheiten zuschalten will. („[…] Apple confirmed to MacRumors that the company will consider any potential global expansion of the system on a country-by-country basis after conducting a legal evaluation.“ (macrumors)

    Dazu muss man leider sagen „Bullshit!“, denn wenn China das will, bekommt China das, mit seiner eigenen Datenbank von kritischen Bild- und Begriffsdefinitionen inklusive. Warum? Weil so gut wie alle Geräte, die Apple verkauft, in China hergestellt werden. Wenn Apple sich ernsthaft mit China anlegt, verliert es seine Fertigungskapazitäten und damit sein Business. Klappe zu, Affe tot.


    Nachtrag, 2021-09-10: Apple hat inzwischen auf meine Mail geantwortet, natürlich nur mit Stehsatz, dass sie ja nur das Beste im Sinn haben. In other news, werden sie die CSAM-Suche auf den Geräten jetzt doch nicht in iOS 15 (gleich) einschalten. Allerdings haben schlaue Leute herausgefunden, dass Entwicklungsstände es auch schon in iOS 14 geschafft haben, ebenfalls deaktiviert. Viele Computer-Sicherheits-Experten haben Apple eindringlich gebeten, die gesamte Funktion zurückzuziehen. Bisher ohne Erfolg.

    Weiterhin sehr unbefriedigend. Kaufstopp für Apple-Produkte bleibt in Kraft. Was doof ist, weil Apple über alles das beste Verbundsystem hat. Eine Alternative finden heißt daher, viele Alternativen finden.