Facebook und die Demokratie. In Myanmar haben wir ja bereits gesehen, was für enorme Auswirkungen Desinformationen auf der Plattform haben können und “enorme Auswirkungen” ist eigentlich gar nicht der passende Ausdruck für den Genozid, der dort stattfand.
In Myanmar hat Facebook jetzt landesspezifische Communitystandards eingeführt und das mit Erfolg. Denn die bisherigen gingen einfach nicht genügend auf die Spezifika eines Konflikts ein, der mit Desinformationen über die muslimische Minderheit der Rohingya angefeuert wurde.
Aber eine Schwalbe macht bekanntlich noch keinen Sommer. Während der US-Präsidentschaftswahlen hat Twitter als falsch gelabelte Tweets von Donald Trump auch an der Verbreitung gehindert – sie konnten also nicht geretweetet werden. Das finde ich klug, denn ein Recht auf Reichweite gibt es nicht. Facebook hat COVID-bezogene Desinformationen von Trump zwar auch markiert, aber teilen konnte man diese Beiträge dennoch. Das bloße Labeln von Beiträgen bringt zudem nicht viel. Das haben die Zahlen von Facebook bisher gezeigt – unternommen wurde dennoch nichts.
Even as Election Day and its aftermath have passed with few incidents, some disillusioned employees have quit, saying they could no longer stomach working for a company whose products they considered harmful. Others have stayed, reasoning they can make more of a difference on the inside. Still others have made the moral calculation that even with its flaws, Facebook is, on balance, doing more good than harm.
“Facebook salaries are among the highest in tech right now, and when you’re walking home with a giant paycheck every two weeks, you have to tell yourself that it’s for a good cause,” said Gregor Hochmuth, a former engineer with Instagram, which Facebook owns, who left in 2014. “Otherwise, your job is truly no different from other industries that wreck the planet and pay their employees exorbitantly to help them forget.”
Nochmal zum Thema “Labeling” aus dem unten verlinken Artikel:
“Is there any induction that the ‘this post might not be true’ flags have continued to be effective at all in slowing misinformation spread?” asked a Facebook employee on the company’s internal message board. “I have a feeling people have quickly learned to ignore these flags at this point. Are we limiting reach of these posts at all or just hoping that people will do it organically?”
One employee pointed to the high number of shares on one of Trump’s posts falsely claiming he had won, and said “it doesn’t feel like people are being deterred all that much by our mild dosage of context.”
“The fact that we refuse to hold accounts with millions of followers to higher standards to everyone else (and often they get lower standards) is one of the most upsetting things about working here,” said another employee.
A Facebook researcher working on civic integrity said the company isn’t able to measure how people react to the labels, and pointed to the data scientist’s information about the negligible effect on shares. The researcher also said that the company had no other options given its policy of not fact-checking politicians.