Eine Übung in Selbstverantwortung ist gescheitert: die Hoffnung, dass Plattformen es hinbekommen, mit Selbstregulierung Bedrohungen für unsere Demokratie und Gesellschaft abzuwenden. Daher hat am 3. Dezember 2020 die liberale Vize-Kommissionspräsidentin Věra Jourová den “European Democracy Action Plan” vorgestellt, mit dem fortan auf Co-Regulierung gesetzt werden soll. Der Plan soll – wie der Name schon fast verrät – unsere Demokratie stärken. Dabei gibt er noch keine detaillierten Regulierungsvorschläge – die sollen am 15. Demzember 2020 mit dem Digital Services Act kommen – er adressiert aber Punkte, bei denen mit Maßnahmen darauf eingewirkt werden soll, dass zum Beispiel Journalismus gestärkt wird und Maßnahmen gegen Desinformationen unternommen werden. Mit dabei sind jede Menge Förderprogramme, aber auch konkrete Vorhaben, wie das Verbot von Micro-Targeting bei politischer Bildung.
Politico hat hier einmal die sieben wichtigsten Punkte aufgeschrieben. Auch ich habe den Action Plan analysiert – allerdings hauptsächlich für den Bereich Desinformation –
und ich finde die Ansätze bisher sehr gut. Greifen sie doch endlich bei den Mechanismen der Verbreitung an und nicht bei den Inhalten selber. Das wäre nämlich – sofern sie nicht rechtswidrig sind – ein schwieriges bis unmögliches Unterfangen.
Gerade lese ich sehr viel zum Thema Plattformregulierung und auch zu einer möglichen transatlantischen Kooperation beziehungsweise deren Notwendigkeit. Auch Slate hat einen Tag vor Veröffentlichung des Action Plans sehr ähnliche Punkte adressiert:
Legislation on both sides of the Atlantic should accomplish three things:
First, it should require platforms to publish clear terms of service and community standards and explain how they enforce them, how they resolve complaints of erroneous content moderation, and how users can appeal decisions. Posting moderation activity reports with standardized definitions and formats would facilitate cross-platform analysis.
Second, it should mandate that platforms disclose the impact (but not the source code) of their algorithms, including ones that flag items for review and ones that push content into a user’s newsfeed or video playlist. Algorithms can perpetuate biases inherent in the databases used to train them and amplify extremist content that drives engagement and ad views. Algorithms that fuel the virality of toxic material would warrant immediate attention.
And finally, it should authorize a government agency or an independent board comprised of industry and public members to oversee accountability. That body should draft and enforce disclosure rules, set procedures for researchers to access data, and establish protocols for independent compliance audits.
Ich hoffe wirklich sehr, dass es in diese Richtung weiter geht. Denn wir brauchen dringend gute Regulierung für diese Plattformen und ich hoffe, dass wir diese diesmal produktiv aushandeln können mit allen Akteuren und nicht auch noch hier erstmal um den Erhalt fundamentaler Rechter im digitalen Raum kämpfen müssen.