View profile

#SaveYourInternet, Gamescom und jede Menge Algorithmen - Issue #19

Revue
 
Die politische Sommerpause nährt sich so langsam dem Ende. Endlich! Mir wird schon langsam langweilig
 

Ann Cathrin's Digital Digest

August 19 · Issue #19 · View online
Eine wöchentliche Sammlung von Artikeln zur Digitalisierung, Netzpolitik und Social Media und welchen Einfluss dies alles auf unsere Gesellschaft und Politik hat.

Die politische Sommerpause nährt sich so langsam dem Ende. Endlich! Mir wird schon langsam langweilig, obwohl ich eigentlich mehr als genügend zu tun habe. Wenigstens lassen die Temperaturen wieder das Arbeiten Zuhause oder im Cafe zu, ohne das man völlig weg schmilzt.
So viel ist die vergangene Woche auch nicht passiert. Zumindest bei mir nicht und ich erinnere auch nicht DAS digital- und netzpolitische Thema, das bei mir aufgeschlagen ist - außer vielleicht, dass der Gauland und seine AfD dazu überhaupt nichts zu sagen haben und ich ihm daher Sonntagabend noch schnell einen kurzen Blogbeitrag getippt habe. Aber vermutlich ist dies nur die Ruhe vor dem Sturm, denn es geht weiter mit #SaveYourInternet und damit starte ich auch direkt 😉
Ann Cathrin
P.S. Ich habe wieder einige Buchtipps verlinkt - natürlich zu Mamas Buchladen. Die sind von dort genau so schnell bei Euch wie von Amazon. Oder bestellt bei Eurem lokalen Buchladen - geht mit Sicherheit auch online und versandkostenfrei 😉#supportyourlocalbookstore

Die Sache mit den Uploadfiltern und dem Leistungsschutzrecht ist noch nicht durch. Am 12. September ist die nächste Abstimmung im Europäischen Parlament und vorher wird europaweit am Sonntag, dem 26. August nochmal unter dem Motto “#SaveYourInternet” demonstriert. In Deutschland in Berlin, München, Mainz und Stuttgart - LOAD unterstützt diese Demos und in Berlin bin ich natürlich mit dabei. Warum ich Uploadfilter und das Leistungsschutzrecht ablehne, könnt Ihr hier nochmals nachlesen.
Derweil müssen sich alle Gegner:innen der Uploadfilter und des Leistungsschutzrechts ziemlich üble Sachen anhören. Von Fake News (alle, die diesen Begriff verwenden, mögen sich bitte mal darüber informieren, welche Intention mit der Verwendung einher geht. Kleiner Tipp: wer für eine freie und unabhängige Presse eintritt, sollte diesen Begriff tunlichst vermeiden…) über eine von Google, Facebook und Co finanzierten Kampagne (wir werden natürlich auch bezahlt). Die persönlichen Diffamierungen gegenüber der Abgeordneten Julia Reda finde ich mittlerweile hart an der Grenze. Ein Gastbeitrag in F.A.Z. Feuilleton hat mich wirklich ein wenig geschockt. Die Verschwörungen die dort von einem Geschäftsführer eines Unternehmens, das Urheberrechtsverletzungen im Netz aufspürt (was erstmal nicht verkehrt ist), aufgetischt werden, sind schon krass: die Politik sei von Aktivist:innen gehackt worden - und manipuliert. Auch da frage ich mich, wie man das natürlich wichtige Ziel Journalist:innen (sowie jegliche Urheber:innen) besser zu entlohnen (funktioniert aber nicht unbedingt mit einem Leistungsschutzrecht für Presseverleger) um bessere unabhängige Presse zu haben, die gut informiert (gerade auch im Netz und auf Social Media), erreichen möchte, wenn man selber mit Desinfomationskampagnen und Verschwörungstheorien arbeitet.
Aufgrund angeblicher Urheberrechtsverletzungen wurde übrigens auch ein Artikel von Julia Reda aus dem Google-Listing gelöscht. Wird ein (angebliches) Urheberrecht verletzt, hat man es deutlich einfacher dagegen vor zu gehen, als wenn Persönlichkeitsrechte verletzt werden 🙄
Kommt alle!
Vergangene Woche hat Andrea Nahles im Handelsblatt einen Gastbeitrag veröffentlicht, in dem sie ein Daten-für-alle-Gesetz fordert, um die Marktmacht von Google, Facebook, Amazon und Co zu brechen, die sich vornehmlich auf deren Datenmenge stütze. Der Vorschlag kommt ursprünglich von Thomas Ramge und Viktor Mayer-Schönberger aus ihrem Buch “Das Digital(das ich seeeehr zäh zu lesen finde). Die Süddeutsche Zeitung hat daher mit letzterem über Nahles bzw. seinen Vorschlag gesprochen. Ich bin unschlüssig, wie ich die Idee finde. Das liegt vor allem daran, dass mir nicht ganz klar ist, wie realistisch es wäre sie umzusetzen. Spannend ist es aber alle mal und ich finde sie durchaus diskussionswürdig. Die Reaktionen darauf schienen auch durchweg positiv bzw. interessiert an einer Diskussion. Bedenken habe ich beim Thema Datenschutz, denn auch wenn es nur um nicht-personenbezogene Daten geht, kann man bereits mit sehr wenigen nicht-personenbezogenen Daten Muster erkennen und so den oder die Urheber:in des Datums ermitteln. Außerdem ist mir ein wenig unwohl beim Gedanken an den sicheren Umgang mit eben diesen Daten - also dass die Zugänge und die Orte der weiteren Nutzung auch entsprechende Vorkehrungen treffen, um mit den Daten ordentlich um zu gehen - gerade Startups, die ja schon klagten, dass sie keine Zeit für eine ordentliche DSGVO-Umsetzung haben.
Datenteilen: Forscher Mayer-Schönberger zu IT-Konzernen - Digital - Süddeutsche.de Datenteilen: Forscher Mayer-Schönberger zu IT-Konzernen - Digital - Süddeutsche.de
Als Einstimmung zur Gamescom, zu der ich am Donnerstag fahre, ein weiteres Interview - dieses Mal zur künstlichen Intelligenz (und es tut so gut, wenn Menschen mit Ahnung Fragen stellen!). Genauer gesagt, zu Five, einer von OpenAI entwickelten KI, die anhand des Spiels “Dota 2” lernt und auch dort sehr schnell die menschlichen Mitspieler:innen besiegte. Sehr spanned zu lesen und zu erfahren, wie so eine KI lernt und was sie eben auch alles nicht kann bzw. extrem schwer wird ihr beizubringen - vor allem Emotion und emotionales Verhalten. Dass wir Menschen das können ist irgendwie auch schön und vorteilhaft, oder?
Noch mehr zur Gamescom gibt es in diesem Interview mit Jörg Müller-Lietzkow, der nicht nur Co-Sprecher des cnetz ist, sondern auch noch Professor für Medienökonomie und Medienmanagement an der Universität Paderborn.
OpenAI: "Die künstliche Intelligenz findet: Menschen verhalten sich seltsam" | ZEIT ONLINE OpenAI: "Die künstliche Intelligenz findet: Menschen verhalten sich seltsam" | ZEIT ONLINE
Die neu geschaffene Behörde ZITiS in München will nicht nur, dass IT-Sicherheitslücken offen gehalten werden, sondern möchte diese nun auch selber suchen um sie für Staatstrojaner zu nutzen. Die Behörde ist sehr umstritten, denn ist nicht vollständig klar, was sie alles machen soll und in wieweit deren Pläne überhaupt rechtlich legitimiert sind - ich erinnere an den Text zu Hackbacks aus dem letzten Newsletter. Ein weiteres, meiner Meinung nach sehr großes Problem ist, dass ZITiS am BMI hängt, ganz genau wie das BSI, das für die Sicherheit in der IT zuständig ist und bei dem IT-Sicherheitslücken gemeldet werden müss(t)en, damit die Hersteller diese Lücke schließen können. Wenn zwei Behörden mit komplett konträren Zielen unter einem Ministerium hängen, stellt sich schon die Frage, wie gerade das BSI IT-Systeme sicher halten will, wenn ZITiS auf eben diese Sicherheitslücken angewiesen ist, um Spionagesoftware einzuspielen. Im schlimmsten Fall werden entdeckte Sicherheitslücken nicht mehr an das BSI gemeldet aus Angst, dass dieses die Info an ZITiS weiter geben muss und so die Sicherheitslücke nicht geschlossen, sondern für staatliche Überwachung ausgenutzt wird. Was solche Sicherheitslücken für die Wirtschaft bedeuten, insbesondere dann, wenn sie von Kriminellen entdeckt und ausgenutzt werden - obwohl man sie vorher entdeckte aber für die eigenen Zwecke nutzte - wird leider viel zu wenig diskutiert. Gerade die IHKs und Wirtschaftsverbände sollten sich hier viel intensiver einmischen.
ZITiS: Staatstrojaner lieber selber bauen als kaufen - SPIEGEL ONLINE ZITiS: Staatstrojaner lieber selber bauen als kaufen - SPIEGEL ONLINE
Ein #longread, der es wirklich wert ist, wenn man sich für die Themen Algorithmen, Ethik und Transparenz interessiert. Er zeigt auf, wo die vielen Probleme bei Algorithmen vor allem bei der Verwendung durch staatliche Institutionen liegen. Warum ein ethnischer Bias auch durch statistische Probleme herbeigeführt wird und warum die DSGVO die Transparenz von Algorithmen möglicherweise erschwert. Der Text zeigt auch nochmal, wie viele gesellschaftliche Probleme mit der Verwendung von Algorithmen daher kommen. Lohnt es zum Beispiel von Drogen los zu kommen, wenn eine frühere Drogenabhängigkeit einen auch Jahre später immer noch kriminalisiert bzw. verdächtig macht? Wo wäre da ein Anreiz für ein “besseres Leben”, wenn es doch durch solche Entscheidungen kaum besser werden kann? Gerade ärmere Menschen leiden besonders aufgrund algorithmischer Entscheidungen, auch, weil solche Systeme eher arme Menschen betreffen und nicht reichere. Wen das Thema interessiert, dem empfehle ich noch diese zwei Bücher: Weapons of Math Destruction und Automating Inequality.
Mehr Ethik bei Algorithmen bzw. algorithmischen Anwendungen ist notwendig und vermutlich können Fairness und ethische Korrektheit nur erstrebenswerte Ziele sein, wie so häufig. Nichts und niemand ist in seinem Handeln hundertprozentig korrekt. Eine Selbstverpflichtung danach zu streben gibt es in mehreren Berufen, z.B. bei Ärztinnen und Journalisten. Warum also nicht auch für Algortihmiker:innen eine Ethik? Die Bertelsmann Stiftung hat dazu jetzt ein neues Papier veröffentlicht.
Fast der Hälfte aller von Bertelsmann befragten Bundesbürger fiel zum Begriff „Algorithmus“ nichts ein. Dabei begegnet fast jeder von uns im Alltag den digitalen Helfern.Kein Wunder, dass die meisten Deutschen Angst vor Algorithmen, künstlicher Intelligenz und deren Entscheidungen haben.
Bias detectives: the researchers striving to make algorithms fair Bias detectives: the researchers striving to make algorithms fair
“Fake news isn’t new, and malicious AI isn’t new, but the combination of the two, plus a widespread destabilized trust in media is only going to erode our sense of reality even more.” Über Fake-Videos habe ich in vergangenen Newslettern schon geschrieben. Was wie so häufig mit Pornografie begann kann und wird auch für andere Zwecke eingesetzt. Aktuelles Horrorszenario: Ein Fake-Video löst einen Nuklearschlag Nordkoreas gegen die USA aus. Die Innovationsagentur des US-Militärs, DARPA, forscht bereits nach Technologien um Fake-Videos zu erkennen. Doch es ist wie immer ein Katz-und-Maus-Spiel. Wird eine Möglichkeit die Fakes zu erkennen bekannt, wird dieses Problem bei den Urheber:innen der Fakes behoben, neue werden gefunden, und so weiter und so fort. Was kann also helfen zu verhindern, dass Fake-Videos großes Unheil bringen? Medienkompetenz. Natürlich und wie so oft. Und Vertrauen in die Presse, die daher sorgfältig(er) arbeiten muss und gerade daher dringend überlegen muss, ob es immer so sinnvoll ist, eine Minute früher eine Push-Mitteilung zu senden, obwohl Inhalte noch gar nicht klar sind (man denke ans NPD-Verbotsverfahren…). Aber auch für Konsument:innen gibt es viel zu tun. Immer und immer wieder Quellen überprüfen und zweimal nachdenken, bevor man Inhalte teilt oder glaubt. “Technology won’t save us. Being more critically-thinking humans might save us, but that’s a system that’s lot harder to debug than an AI algorithm.”
There Is No Tech Solution to Deepfakes - Motherboard There Is No Tech Solution to Deepfakes - Motherboard
Hier gibt es wieder ein Beispiel, warum Diversity so wichtig ist bei der Entwicklung einer Künstlichen Intelligenz. Forscher:innen in Deutschland haben just herausgefunden, dass eine KI Hautkrebs deutlich besser erkennen kann als Ärzt:innen - verwundern tut das erstmal nicht. Bei dunkler Haut versagt diese aber, da Bildmaterial von Dunkelhäutigen fehlt bzw. nur ungenügend vorhanden ist. Weil das Erkennen von Hautkrebs generell eher an heller Haut gelehrt und gelernt wird, ist die Erkennungs- und damit die Überlebensrate von Menschen mit dunkler Haut deutlich geringer als die von Menschen mit heller Haut. Abermals ein Beispiel dafür, wie wichtig Diversity für das Überleben von Minderheiten oder benachteiligten Gruppen ist (ich erinnere an die Gesichtserkennung im letzten Newsletter).
Auch Frauen spielen in der Entwicklung von KI immer noch eine geringe Rolle. Das ist nicht nur fatal, weil die Szene so ihren Sexismus zelebrieren kann, sondern auch, weil so nur das Wissen und die Lebenserfahrung von weißen und asiatischen Männern in eine KI fließen. Dabei ist es gerade hier essentiell, dass Frauen eine KI mit gestalten, denn Frauen und Männer treffen sehr häufig aus ganz anderen Motiven die gleiche Entscheidung.
 AI-Driven Dermatology Could Leave Dark-Skinned Patients Behind - The Atlantic AI-Driven Dermatology Could Leave Dark-Skinned Patients Behind - The Atlantic
Wie so ein Bias entsteht hat Google schon vor einiger Zeit in einem Video erklärt. Kurz: eine “künstliche Intelligenz”, die ihre “Intelligenz” aufgrund von machine learning erlernt, kann nur das wissen und erkennen, was man ihr gibt. Will ich ihr beibringen, wie ein Schuh aussieht, füttere sie aber nur mit Bildern von Schuhen, wird sie Pumps nicht als Schuh erkennen.
Machine Learning and Human Bias - YouTube
BOTTOM OF THE LETTER
Ulrich Greveler
Konrad Zuse hat den Computer nicht dafür erfunden, dass wir jetzt dauernd Cookie-Warnungen wegklicken.
4:36 PM - 12 Aug 2018
Katharina Nocun
Ich verstehe das Konzept von Langeweile nicht. Es gibt immer etwas zu tun.
5:44 PM - 18 Aug 2018
horst, hund & brodt
döner kostet 4 euro, döner ist das öl des 21. jahrhunderts.
8:48 PM - 13 Aug 2018
#SaveYourInternet am 26. August - auch für dieses süße Kätzchen!
Did you enjoy this issue?
If you don't want these updates anymore, please unsubscribe here
If you were forwarded this newsletter and you like it, you can subscribe here
Powered by Revue
Ann Cathrin Riedel, Kemperplatz 1, 10785 Berlin