View profile

Nicht optimistisch, aber hoffnungsvoll - Issue #80

Revue
 
 

Ann Cathrin's Digital Digest

April 4 · Issue #80 · View online
Eine wöchentliche Sammlung von Artikeln zur Digitalisierung, Netzpolitik und Social Media und welchen Einfluss dies alles auf unsere Gesellschaft und Politik hat.

Frohe Ostern! Ich hoffe, Ihr habt ein paar schöne freie Tage und vielleicht sogar Urlaub um die Feiertage herum. Ein bisschen Abschalten tut ja ganz gut und auch ich werde es die kommende Woche mal versuchen. Schließlich war die letzten Wochen echt viel los. Drei Highlights:
Letztes Jahr schrieb ich hier zu Ostern etwas über die Hoffnung, die das Osterfest sicher nicht nur für Christ:innen mit sich bringt. Ich glaub, damals – oder zumindest irgendwann zu der Zeit – verlinkte ich auch den Text von Laurie Penny “On Hope”, den ich immer noch gerne und oft lese. Dieses Jahr gibt es den Text “Nicht optimistisch, aber hoffnungsvoll” von Prof. Peter Dabrock für Euch. Nicht nur, weil er mit dem Text zeigt, warum die Oster-Geschichte auch für Nicht-Gläubige wertvoll sein kann, sondern auch, weil genau dieses Thema auch meines erst kürzlich war. Über das pessimistisch aber hoffnungsvoll sein, sprach ich beim TÜV-Nord und bezog mich dabei auf die deutsche Cybersecurity-Politik (aber auch auf meine Grundstimmung allgemein).
“Das Narrativ von Auferstehung kann deshalb, auch für säkulare Menschen, für die Einsicht sensibilisieren, dass man jenseits aller Pläne, die man selbstverständlich haben darf und soll, die man umsichtig und verantwortungsvoll verfolgen mag, damit rechnen kann, und ich würde sogar sagen, rechnen darf, dass sich nicht nur Neues, sondern unerwartet Neuartiges auftut, Außerordentliches geschehen kann und Ordnungen und Lebensformen sprengbar sind. Nicht nur ist das Ganze mehr als die Summe seiner Teile. Vom Jenseits des Seins, und da war für Platon – den gerade in anderer Hinsicht gescholtenen – das Gute, also: ungesollt, nicht intendiert und nicht verhandelt, kann Rettung kommen. Die wächst bisweilen, und darauf hofft man, wo die Gefahr lauert. Aber mit dem Rettenden darf immer gerechnet werden, nicht nur bei Gefahr – es kommt entgegen, Eigenes unterbrechend und durchkreuzend – und so die Hoffnung: noch das eigene Kreuz durchkreuzend.”
Und weil der Zufall so schön passte, gibt es heute auch diesen Newsletter genau unter diesem Titel: Nicht optimistisch, aber hoffnungsvoll.
Ann Cathrin 🌱
—-
Die Arbeit an diesem Newsletter kostet mich einige Stunden an Arbeit. Wenn er Dir gefällt, kannst Du mich gerne mit monatlich 3,50, 5 oder 10 Euro über Steady unterstützen. Ich würde mich freuen, danke!

WHAT TO KNOW
Ich sage es zu Beginn nochmal deutlich, bevor Missverständnisse aufkommen: Ich finde, wir sollten unbedingt Technologie zur Pandemiebekämpfung einsetzen – natürlich auch Daten. Und wir sollten ebenso unbedingt statt den Zetteln in Restaurants digitale Lösungen nutzen, um unseren Aufenthalt dort zu registrieren. Warum? Weil digitale Lösungen hier deutlich sicherer und datenschutzkonformer sind als eine Zettelwirtschaft. Wenn, ja wenn man die digitale Lösung denn richtig umsetzt. Und genau hier beginnt mein Problem mit der gehypten App luca. Exemplarisch für mein Problem damit könnte man den Berliner Regierenden Bürgermeister heranziehen, der öffentlich sagte, dass er überhaupt keine Ahnung davon habe, was er da jetzt an Verträgen unterschrieben habe, aber die App jetzt unbedingt haben wolle. Schön, wenn Regierende endlich mal handeln – daran fehlt es ja gerade massiv – ich würde mir als Bürgerin jedoch a) wünschen, dass sich mein Landeschef mit Dingen wenigstens etwas auseinandersetzt, die er kauft b) nicht öffentlich zu bekennen gibt, dass er Verträge unterschreibt über Sachen, von denen er keine Ahnung hat und c) dass digitale Tools mit der Ernsthaftigkeit behandelt werden würden, mit der wir auch andere Dinge behandeln. Solch eine Aussage über einen Impfstoff wäre ihm niemals über die Lippen gekommen.
Ich bin der Meinung, dass wenn der Staat Software einkauft, da ganz besondere Sicherheitsstandards und auch Anforderungen an die Software gestellt werden müssen. Sollen hier doch Daten von nahezu allen Bürger:innen verarbeitet werden (schließlich wollen wir ja alle irgendwann wieder in Restaurants und Zoos). Also ist es mehr als sinnvoll, dass hier genau auf die Architektur der Software bzw. der Server dahinter geachtet wird und auch hier wäre – wie bei der Corona-Warn-App – ein dezentrales Modell deutlich sicherer. (Übrigens wäre das noch sicherer und besser, wenn man bedenkt, dass die Betreiber von luca schon im Hinterkopf haben, da ein weiteres Business drauf aufzubauen, u.a. ein Ticketing-System, wie die Herausgabe der Präsentation durch FragDenStaat ergab.)
Mit dem Wissen, dass man plant auf dem System luca noch ein Ticketing-System aufzusetzen, wird noch schwieriger, dass es a) keine es Ausschreibungen für “luca” gab, die Bundesländer die App einfach kauften – unter der falschen Annahme, es gäbe keine vergleichbaren Anbieter. Nur gibt es ungefähr 40 weitere Startups, die so etwas anbieten. Nur ohne prominente Fürsprecher/Investoren leider keinen Fuß in Türen bekamen und b) das System nicht offen ist, das heißt, die Nutzer:innen nicht selber entscheiden können, welche App sie sich herunterladen und einfach das bessere gewinnt. Durch offene Standards und Schnittstellen könnten sie alle mit dem Gesundheitsamt verbunden werden. Es bräuchte nicht mehrere Systeme dort.
Doch “offen” ist noch ein anderes Problemfeld bei der luca-App. Wie ich schon sagte, ich finde, die Verwaltung sollte einen gewissen Standard an Anforderungen an Software stellen, beispielsweise, dass sie Open Source sein sollte (nicht umsonst unterstützen wir mit LOAD die Initiative “Public Money? Public Code!”). Nein, Open Source ist keine “kostenlose” Software und ja, mit Open Source kann man sehr wohl Geld verdienen. Sehr viel sogar. Open Source ist eine Art den Code zu lizenzieren, ähnlich wie Creative Commons. Es ist durchaus üblich, dass für eine Anwendung nicht alles neu programmiert wird, sondern Funktionalitäten zusammengestellt werden. Luca wollte den Code erst nicht veröffentlichen, obwohl das gerade wegen der Sicherheitsbedenken bei dem umfassenden Einsatz notwendig gewesen wäre – tat es dann aber doch. Unter einer selbsterfundenen Lizenz, die nichts erlaubte – also nicht mal das Testen. Das war schon ein Affront und dann stellte sich heraus: Die Entwickler:innen haben Open-Source-Code verwendet, den Urheber und die Lizenz aber aus dem Code gelöscht. Den Code hätten sie aber gar nicht verwenden dürfen, denn wer Open-Source-Code verwendet, der muss das eigenen Endprodukt unter der gleichen Lizenz veröffentlichen – taten sie aber nicht. Stattdessen haben sie sich nicht nur strafbar gemacht, denn das ist Diebstahl geistigen Eigentums, sie haben damit auch noch riskiert aus den App-Stores mit der App zu fliegen, denn Apple und Google erlauben richtigerweise so etwas nicht. Das hätte man mit richtigem Open-Source-Code von vornherein unterbinden können – nicht nur, weil bereits mehrere Bundesländer für über 10 Millionen Euro für ein Jahr Lizenzen bei luca erworben haben. Einen Kommentar dazu gibt es hier bei Golem.
Der Text unten von der Zeit ist mittlerweile leider hinter der Paywall, aber wer ein Zeitplus Abo hat sollte ihn unbedingt lesen. Wie gesagt, ich bin total dafür, dass wir digitale Registrierungssysteme einsetzen. Aber es ist ja nun nicht so, dass diese Apps und Anbieter erst seit gestern auf dem Markt sind. Das sind sie schon mehrere Monate und mit ein bisschen Vorausplanung hätten die Länder Anforderungen formulieren können und sie einbinden können – am besten mit einem System aus offenen Schnittstellen und mit fairen Verfahren. Dafür wäre die Zeit gewesen, davon bin ich überzeugt. Schließlich dürfte allen klar gewesen sein, dass es noch eine Weile dauert, bis wir wieder in Gaststätten dürfen. Mein Problem ist und bleibt, dass wir beim Thema Digitalisierung zu sehr an PR-Versprechen glauben, nicht nachhaltig handeln und regelmäßig so tun, als wäre Datenverarbeitung eine Sache, die nicht ernstzunehmen ist.
Die Corona-Warn-App kommt jetzt übrigens mit einem ähnlichen Check-In-System. Hätte es schon viel früher können und müssen – ja. Sie ist mit der Funktion aber kein Ersatz für Apps wie luca, denn die sollen diese Papierzettel ersetzen – die CWA ist zum anonymen Tracing gedacht. Ein anderer Zweck als Apps wie luca und doch ist der Check-In mit dieser App sehr sinnvoll, denn sie wird schneller warnen können, als eine App, die noch über das Gesundheitsamt laufen muss und die Betroffenen erst kontaktieren muss. Für Apps wie luca müssen die Bundesländer übrigens noch teilweise die Vorschrift abschaffen, dass die Erfassung der Gästelisten auf Papier zu erfolgen hat 🙄 Und ja, ich glaube, man kann den Menschen auch zumuten zwei Apps zu verwenden. Wenn man ihnen ordentlich erklärt, warum (ich fange jetzt nicht an mich über absolute Kommunikationsdesaster in der Pandemie und bei der CWA aufzuregen). Schließlich schaffen wir es für so viele Dinge mehrere Apps zu nutzen: Social Media Plattformen, Online-Banking, Messenger, Dating, usw. usf.
Warum wollen plötzlich alle Luca? Warum wollen plötzlich alle Luca?
Wo wir beim Thema “was Daten können” sind (dazu auch der Podcast unten): alles und nichts. Dieser Text veranschaulicht sehr schön, dass wir sehr viel datafizieren können (und müssen) um zum Beispiel Erfolge messen zu können. So ist beispielsweise die Kindersterblichkeit weltweit massiv zurückgegangen. Es kommt aber immer darauf an, wie granular wir Dinge datafizieren wollen, ihnen eine messbare Größe geben wollen. Denn genau da wird es problematisch. Aber auch dort, wo Menschen entscheiden müssen, was erfasst wird und wie es ausgewertet wird:
To simplify the world enough that it can be captured with numbers means throwing away a lot of detail. The inevitable omissions can bias the data against certain groups. Stone describes an attempt by the United Nations to develop guidelines for measuring levels of violence against women. Representatives from Europe, North America, Australia, and New Zealand put forward ideas about types of violence to be included, based on victim surveys in their own countries. These included hitting, kicking, biting, slapping, shoving, beating, and choking. Meanwhile, some Bangladeshi women proposed counting other forms of violence—acts that are not uncommon on the Indian subcontinent—such as burning women, throwing acid on them, dropping them from high places, and forcing them to sleep in animal pens. None of these acts were included in the final list. When surveys based on the U.N. guidelines are conducted, they’ll reveal little about the women who have experienced these forms of violence. As Stone observes, in order to count, one must first decide what should be counted.
Those who do the counting have power. Our perspectives are hard-coded into what we consider worth considering. As a result, omissions can arise in even the best-intentioned data-gathering exercises. And, alas, there are times when bias slips under the radar by deliberate design.
Das sind Dinge, die auch in dem Buch “Invisible Women” adressiert werden. Probleme, die auftauchen, weil Daten von Frauen fehlen. Es kann (und darf meiner Meinung nach) nicht darum gehen, alles möglichst datafizieren zu wollen, denn es ist schlicht nicht möglich, alles in dieser Welt als Datum zu erfassen (das dann auch noch von allen gleich verstanden wird): “data “may be a pretty decent proxy for something that really matters,” but there’s a critical gap between even the best proxies and the real thing—between what we’re able to measure and what we actually care about.” Und:
Harford quotes the great psychologist Daniel Kahneman, who, in his book “Thinking Fast and Slow,” explained that, when faced with a difficult question, we have a habit of swapping it for an easy one, often without noticing that we’ve done so. There are echoes of this in the questions that society aims to answer using data, with a well-known example concerning schools. We might be interested in whether our children are getting a good education, but it’s very hard to pin down exactly what we mean by “good.” Instead, we tend to ask a related and easier question: How well do students perform when examined on some corpus of fact? And so we get the much lamented “teach to the test” syndrome.
Das Gleiche fiel und fällt mir auch auf, wenn es um das Heilsversprechen der Corona-Warn-App ging. Sie kann (und wird nie können – auch keine andere App mit “mehr Daten” wie GPS) nicht das Verhalten eines Virus zu hundert Prozent nachzeichnen. Sie kann immer nur eine Hilfestellung sein und eine möglichst hohe Wahrscheinlichkeit haben, vor einer möglichen Ansteckung zu warnen.
What Data Can’t Do  | The New Yorker What Data Can’t Do  | The New Yorker
Ist Euch schon aufgefallen, dass die Plattformen (und auch die Politik mit ihren Vorgaben) sehr gut darin ist, dass terroristische Inhalte von Terrororganisationen aus dem Ausland deutlich besser gelöscht werden, als die von Terror-Organisationen, bzw. gewalttätigen Extremist:innen aus dem Inland? Die hat man nicht nur deutlich besser auf dem Schirm, man ist auch deutlich besser darin sie als solche zu benennen. Und letzteres ist Grundlage dafür, dass Plattformen Maßnahmen dagegen unternehmen können. Aber natürlich nicht nur – denn sie könnten auch jetzt schon mehr gegen QAnon und Co unternehmen. Es fehlt da eher an Wille und Angst vor wirtschaftlichen Verlusten.
The same can’t be said for domestic extremists. In the United States, there’s not an analogous list of domestic terrorist organizations for companies to work from. That doesn’t mean acts of domestic terrorism go unpunished. It just means that people are prosecuted for the underlying crimes they commit, not for being part of a domestic terrorist organization. That also means that individual extremists who commit the crimes are the ones who face the punishment, not the groups they represent. “You have to have a violent crime committed in pursuit of an ideology,” former FBI Acting Director Andrew McCabe said in a recent podcast. “We hesitate to call domestic terrorists ‘terrorists’ until after something has happened.”
This gap in the legal system means tech companies write their own rules around what sorts of objectionable ideologies and groups ought to be forbidden on their platforms and often only take action once the risk of violence is imminent. “If something was illegal it was going to be handled. If something was not, then it became a political conversation,” Eisenstat said of her time at Facebook.
Even in the best of times, it’s an uncomfortable balancing act for companies that purport to prioritize free speech above all else. But it’s particularly fraught when the person condoning or even espousing extremist views is the president of the United States. “Nobody’s going to have a hearing if a platform takes down 1,000 ISIS accounts. But they might have a hearing if you take down 1,000 QAnon accounts,” said Wexler, who worked in policy communications for Facebook, Google and Twitter during the Trump administration.
Auch wir sprechen ja zu gern – insbesondere bei Rechtsterroristen – von Einzeltätern. Dazu empfehle ich das Buch von Karolin Schwarz: Hasskrieger: Der neue globale Rechtsextremismus.
Big Tech fights foreign terrorists, not so much domestic - Protocol — The people, power and politics of tech Big Tech fights foreign terrorists, not so much domestic - Protocol — The people, power and politics of tech
Unter der Leitung des Medienrechtler Prof. Marc Liesching ist eine Alternativ-Evaluierung des Netzwerkdurchsetzungsgesetzes erschienen die – es verwundert kaum – zu einem anderen Ergebnis als die vom Justizministerium beauftrage Evaluierung kommt und die Methodik dieser auch scharf kritisiert:
In den Monitoring-Berichten der Firma seien nur Stichproben aufgeführt, und diese seien nur den vier Netzwerken Facebook, Instagram, Twitter und YouTube entnommen worden. Es sei bei der Untersuchung nur um eindeutig strafrechtlich relevante Inhalte gegangen, und dies bei einer “eklektischen” Delikt-Auswahl. Ob überhaupt von qualifizierten Juristen geprüft worden sei, dass die Inhalte tatsächlich strafbar seien, gehe aus den Berichten nicht hervor. In den Berichten selbst betone die beauftragte Firma mehrfach, “dass die Ergebnisse aufgrund der Stichprobengröße mit Vorsicht zu interpretieren” seien. Demgegenüber habe das BfJ auf Nachfrage erklärt, dass die Ergebnisse aussagekräftig seien.
In der Alternativ-Evaluierung kommt das Liesching-Gutachten zu der Erkenntnis, dass die Plattformen “Overblocking"betreiben, also deutlich mehr Inhalte sperren, die eigentlich legal sind. Laut dem heise Artikel wird dafür aber kein eindeutiger Beweis geliefert. Dies wird daraus abgeleitet, dass laut den Transparenzberichten der Plattformen kaum nach NetzDG gesperrt werden würde, sondern vornehmlich nach den eigenen AGB. Die wiederum würden ausweitet werden, damit mehr nach AGB entfernt werden kann und man nicht in das Einsatzgebiet des NetzDG komme.
Zusammenfassend konstatieren die Autorinnen und Autoren der Studie, dass entgegen der Aussagen der Bundesregierung das NetzDG "eine nur marginale Bedeutung in der Anwendungspraxis” hat: “Vielmehr stützen beide Teilergebnisse die These eines durch die Restriktionen des NetzDG (enge Löschfristen und hohe Bußgelddrohungen) verursachten verstärkten Ausweichens der Sozialen Netzwerke in eine weit gefasste, interne AGB-Compliance, welche den externen NetzDG-Normbefehlen vorgeschaltet wird und diese gleichsam ins Leere laufen lässt.” Dies führe “zum Ausschluss auch solcher nutzer*innengenerierten Inhalte von der Zugänglichkeit, welche nach den Maßstäben des Strafrechts – auch im Spannungsfeld der Meinungsäußerungsfreiheit – und mithin nach dem NetzDG nicht hätten entfernt werden müssen.”
Daran, so schließt der Bericht, dürften auch die auf den Weg gebrachten neuen Gesetze nichts ändern. Sowohl das “Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität” als auch das “Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes” (NetzDGÄndG) ließen “die skizzierten Befunde einer kaum vorhandenen praktischen Bedeutung und fehlenden Regulierungseffektivität des NetzDG voraussichtlich unberührt. […] Die Neuregelungen greifen damit überwiegend in die Leere eines bereits für das NetzDG 2017 fehlenden praktischen Anwendungsbereichs.”
Das im letzten Abschnitt erwähnte Gesetz gegen Rechtsextremismus und Hasskriminalität ist nun übrigens verabschiedet worden. Nachdem der Bundespräsident es wegen verfassungsrechtlicher Bedenken nicht unterschreiben wollte und ein Reparaturgesetz notwendig war, das in ein Gesetz eingriff, das noch nicht unterzeichnet war. Auch ein einmaliger Vorgang bisher. Das Reparaturgesetz musste auch in den Vermittlungsausschuss des Bundesrats und u.a. die FDP vermutet weiterhin, dass es immer noch verfassungswidrig ist.
Studie: Netzwerk-Durchsetzungsgesetz bringt wenig und führt zu Overblocking | heise online Studie: Netzwerk-Durchsetzungsgesetz bringt wenig und führt zu Overblocking | heise online
Der Kampf gegen Kindesmissbrauch wird gerne als Totschlagargument genommen. Und ich will weiß Gott nicht irgendwas legitimieren – aber auch bei Maßnahmen hier muss genau geguckt werden, ob sie überhaupt was bringen und ob sie nicht noch mehr Schaden – gerade für Kinder – bringen. Denn – auch das sagte ich bei der Anhörung im Bundestag zu digitaler Gewalt, als wieder über die Vorratsdatenspeicherung diskutiert wurde – es wäre für alle, insbesondere die Kinder besser, wenn man effiziente Maßnahmen entwickeln und umsetzen würde und nicht welche, die kaum Erfolgsaussichten haben und zusätzlich noch verfassungswidrig sind.
Die EU-Kommission plant nun die anlasslose(!) Durchleuchtung sämtlicher privater elektronischer Nachrichten auf Material, das Kindesmissbrauch zeigt. Die Diensteanbieter (auch von Emails) sollen dann Anzeige erstatten, wenn sie auf welches Gestoßen sind. Patrick Breyer, Europa-Abgeordnetet der Piraten, zeigt in diesem Interview, warum das höchstproblematisch und kontraproduktiv ist:
  • Jede:r hat was zu verbergen. Die anlasslose Durchleuchtung aller privaten Kommunikation ist nicht verhältnismäßig. Zu häufig können Personen fälschlicherweise in die Mühlen der Strafverfolgung kommen und es gibt genügend Fälle die zeigen: Wer da erstmal drinnen ist, auch fehlerhaft, kommt so leicht nicht mehr raus.
  • Eine KI soll die Fotos identifizieren. Kann sie – natürlich – nicht so gut. Das heißt, auch Nacktfotos von Erwachsenen können bei Vertragspartnern der Plattformen landen, die die Fotos dann händisch sichten. Eine Statistik der Schweizer Bundespolizei zeigte, dass lediglich 14 Prozent der identifizierten Inhalte strafrechtlich relevant waren.
  • Schon der Verdacht gegen Menschen, dass sie Aufnahmen von Kindesmissbrauch verbreiten kann erhebliche Folgen für die Betroffenen haben.
  • Kinder (das sind laut UN alle unter 18) verbreiten selber Nacktfotos von sich, zum Beispiel beim Texting. Gerade diese sollten nicht bei irgendwelchen Dienstleistern zur Auswertung landen.
  • Opfer von Missbrauch brauchen geschützte digitale Räume, um sich dort über ihre Traumata auszutauschen. Solche Einschränkungen traumatisieren ggf. nochmal mehr. Drohende Backdoors erhöhen zudem die Gefahr, dass Kriminelle an Fotos kommen und diese weiterverbreitet werden.
Außerdem sagt Breyer:
Und es ist ohnehin mehr als fraglich, ob das allgemeine Durchforsten jeglicher privater Korrespondenz überhaupt ein taugliches Mittel ist. Die von den Kinderpornoringen genutzten Kanäle sind doch nicht Facebook und Co. Außerdem sind die Strafverfolgungsbehörden völlig überlastet und bemerken andauernden Missbrauch viel zu spät, da muss die Verfolgung des physischen Missbrauchs und der Schutz der Kinder absolute Priorität haben.
Patrick Breyer zu E-Privacy: »Selbst das in Videokonferenzen Gesprochene könnte künftig durchforstet werden« - DER SPIEGEL Patrick Breyer zu E-Privacy: »Selbst das in Videokonferenzen Gesprochene könnte künftig durchforstet werden« - DER SPIEGEL
Derweil kann man in Myanmar gut beobachten, wie Überwachungstechnologie, die zur Gewährleistung der öffentlichen Sicherheit installiert wurde, ganz leicht missbraucht werden kann – und wird – sobald das falsche Regime sich an die Macht geputscht hat, wie hier die Militärjunta.
The use of facial recognition technology in public spaces does not merely risk the misidentification of people as criminal suspects, Human Rights Watch said. Even if the technology is accurate, it allows governments to monitor people’s habits and movements, creating potential chilling effects on freedoms of expression, association, and assembly. It can also be used to single out individuals in discriminatory or arbitrary ways, including for their ethnicity or religion.
For example, in China, various technologies including facial recognition and number plate recognition have been used for mass surveillance purposes. Their use is particularly abusive in China’s Xinjiang region, where these systems continually assess the relationships and everyday behavior of Uyghurs, a Turkic Muslim minority. These systems help identify people whom authorities consider “problematic” based on vague criteria following which they are detained, imprisoned, and subjected to political indoctrination.
In Myanmar, the rollout of facial recognition and vehicle license plate recognition technology was approved without public consultation or transparency, making it unclear how the authorities plan to mitigate the technology’s potential impact on human rights, including the right to privacy.  
AccessNow hat jüngst einen Report zu Massenüberwachung in Syrien veröffentlicht: How the Syrian regime’s mass digital surveillance violates human rights.
Myanmar: Facial Recognition System Threatens Rights | Human Rights Watch Myanmar: Facial Recognition System Threatens Rights | Human Rights Watch
Verletzungen von Rechten gibt es bei Gesichtserkennung nicht nur im Bereich öffentliche Sicherheit. Uber setzt Gesichtserkennungssoftware in, um seine Fahrer:innen zu identifiziert. Damit auch wirklich die bei Uber registrierten Personen fahren und nicht irgendwer anders. Das hat aber zur Folge, dass die Software dann und wann Personen nicht korrekt erkennt und behauptet, der Fahrer sein nicht die richtige Person. Das wird umso bedeutender, wenn man bedenkt, dass die meisten Uber-Fahrer:innen eher nicht-weiße Menschen sind und die Gesichtserkennung vor allem bei weißen Männern gut funktioniert und deutlich schlechter bei schwarzen Männern oder noch schlimmer (immerhin über zwanzig Prozentpunkte Differenz) bei schwarzen Frauen. Eine Fehleinschätzung der Software heißt hier: Mindestens der Lohn des Tages ist weg, wenn nicht sogar eine Sperre des Accounts erfolgt und man erst klagen muss, um von Uber wieder freigeschaltet zu werden. Das kostet nicht nur die Prozesskosten (zumindest erstmal die Auslage), das kostet auch den Ausfall für die Zeit, in der man nicht für Uber fahren kann. Ein Problem, das wiedermal besonders eh schon marginalisierte Menschen mit voller Härte trifft.
Uber under pressure over facial recognition checks for drivers – TechCrunch Uber under pressure over facial recognition checks for drivers – TechCrunch
WHAT TO HEAR
#41: Was macht eigentlich eine Data Scientist? - Tired Women | Podcast on Spotify
WHAT TO WATCH
The Split - Beziehungsstatus ungeklärt - Videos der Sendung | ARD-Mediathek The Split - Beziehungsstatus ungeklärt - Videos der Sendung | ARD-Mediathek
WHAT TO READ

WHAT I LIKED
h a f e z
Alles was ich brauche sind schöne Sommernächte in Italien mit Freund:innen duftende Zitronen leckere Tomaten trockener Wein sprudelndes eiskaltes Wasser schallendes lachen
Brian Stelter
Biden predicts "your children or grandchildren will be doing their doctoral thesis on who succeeded: autocracy or democracy? Because that is what is at stake."
E L   H O T Z O
ich liebe es wie "man muss ja mittlerweile genau überlegen was man sagt" als Argument gegen "Cancel Culture" genannt wird, ja junge das wäre ohnehin ne gute Idee oder
SHARE IT!
Ich freue mich, wenn Du diesen Newsletter weiterleitest oder ihn auf Deinen Social-Media-Kanälen teilst! Ebenso freue ich mich, wenn Du mich und meine Arbeit mit monatlich 3,50, 5 oder 10 Euro über Steady unterstützen magst.
Did you enjoy this issue?
If you don't want these updates anymore, please unsubscribe here.
If you were forwarded this newsletter and you like it, you can subscribe here.
Powered by Revue
Ann Cathrin Riedel, Berlin