View profile

CTRL ALT DELETE #94 - Mindgym of couch potato place: in hoeverre kun je tech voor je laten werken?

Revue
 
Goedemorgen beste lezer, Allereerst, kort even wat goed nieuws van het front: - Tristan Harris (je we
 

CTRL ALT DELETE

February 17 · Issue #94 · View online
CTRL, ALT, DELETE is een tweewekelijks openbaar notitieboekje waarin je mee kunt lezen met de aantekeningen die Sanne van der Beek maakt tijdens het schrijven van haar boek over het verbeteren van onze relatie met onze smartphone. Herontwerp van onze tech én van onszelf: hoe doe je dat? Meer vind je op www.sannevanderbeek.nl

Goedemorgen beste lezer,
Allereerst, kort even wat goed nieuws van het front:
- Tristan Harris (je weet wel) heeft een actiegroep opgericht, het Center for Humane Technology’. De eerste activiteit? Een grootschalige campagne van 7 miljoen genaamd ‘Truth about tech’, om de bewustwording rondom de gevaren van (de macht) van technologie aan te wakkeren.
- “As one of the largest advertisers in the world, we cannot have an environment where our consumers don’t trust what they see online”- Unilever, wereldwijd een van de grootste adverteerders, dreigt met een advertentiestop voor Google en Facebook. Big tech echt raken waar het pijn doet - in hun verdienmodel - gaat dat werken?
- Tech-ethicus David Polgar (je weet wel) heeft het initiatief ’All tech is human’ opgestart om te kijken of de doelen van de grote techbedrijven en de consumenten niet met elkaar te verenigen zijn in een win-win situatie: “Social media companies want profit. Social media users want purpose. Can’t we have both?”
In deze nieuwsbrief: 
- Waarom Evgeny Morozov denkt dat we moeten gaan betalen voor diensten als Google en Facebook en waarom dat in ons nadeel gaat werken
- Waarom Ethan Zuckerman denkt dat we Facebook niet moeten proberen te verbeteren, maar beter een tussentool kunnen creëren
- Waarom David Polgar (ja, die van hierboven) stelt dat onze omgang met technologie altijd rommelig en vol fouten zal blijven 

Toekomst is betalen voor Facebook (en dat is nadelig!)
“We are amusing ourselves to death”
Deze quote van Neil Postman uit 1985 wordt tegenwoordig vaak aangehaald om de huidige tijd te duiden waarin we ons leven wegnetflixen en elk vrij minuutje besteden aan social media of kattenfilmpjes delen via de app. 
Maar juist dit ‘amusements-perspectief’ zorgt voor een probleem. Het legt namelijk de verantwoordelijkheid bij het individu en leidt de aandacht af van de digitale data-economie waarin we steeds meer verstrikt raken. 
Want wat we eigenlijk aan het doen zijn, is Facebook/Google’s volgende product aan het creëren, namelijk kunstmatige intelligentie. 
We denken nu dat ons digitale contract uit het volgende bestaat: wij leveren onze persoonlijke data in, maar krijgen in ruil daarvoor immens populaire en superhandige services graties en voor niks. 
[…] consumers receive immensely popular, convenient services for free. Advertisers benefit from cheap, effective targeting of audiences. If users do not like Google’s offer then they can easily switch to other services.
Hoe mooi het hier ook geformuleerd staat, de meeste mensen hebben toch al het idee dat we hier aan het kortste eindje trekken en dat onze persoonlijke data veel meer waard zijn dan wat we er nu voor terugkrijgen.  Maar een groep techdenkers - waaronder de beruchte Jaron Lanier - stelt dat ons digitale contract met technologische producten zoals Facebook of Google niet alleen oneerlijk is, maar ook niet in de juiste bewoordingen is opgesteld. 
They argue that data are better viewed as the product of labour, rather than the byproduct of leisure.
Als je de bewoordingen in ons digitale contract verandert, zie je dat we veel verder moeten kijken wat betreft de gevolgen van de macht van de Frightful Five, dan het het weggeven van onze data voor advertentiedoeleinden.
Zoals tech-criticus Evgeny Morozov in een column voor The Guardian, die vertaald in de NRC verscheen, betoogt: ons huidige digitale contract heeft een verlooptermijn. Het oogsten van onze data is niet meer nodig als de AI - de volgende fase van Facebook/Google/etc. - goed genoeg werkt. 
En dan?
Ja, dan gaan we volgens hem een fase in waarin er een grote kloof ontstaat tussen betaalde content, die door middel van kunstmatige intelligentie uitgefilterd kan worden van nep-nieuws en compleet op onze wensen en voorkeuren aangepast kan worden, en onbetaalde content die ons zo verslavend mogelijk zal proberen te maken en waarlijk de bodem van de (inhouds)put van het internet zal zijn. 
De laatste fase van de digitale economie zal niet fraai zijn: verslaafd aan rotzooi en verdwaald in de oneindige memes – de via het internet verspreide ideeën, beelden, verhaaltjes – van dubieuze herkomst, zullen wij, de overtollige online-bevolking, ten slotte aan ons lot worden overgelaten.

Gelukkig, voor sommigen, zullen we bij de techbedrijven dankzij AI de juiste beveiligingsdiensten kunnen kopen. De cognitieve elite heeft niets te vrezen, want die beperkt zich tot het digitale equivalent van boerenkool en quinoa en surft door de ambachtelijke, handgemaakte inhoud die voor niet-ingewijden verborgen blijft. Alle anderen zijn ertoe veroordeeld om zich vol te proppen met goedkope rommel-memes gegenereerd door machinaal leren, met als enig doel om ons over te halen het premium-pakket van ons favoriete platform te kopen en eindelijk gemoedsrust te krijgen. Geld besteed aan Facebook zal dan waarlijk welbesteed geld zijn.

Probeer niet FB te verbeteren: creëer een tussentool
Bright-correspondent Bram van Dijk bedacht dit Facebook schuif-systeem
Maar in hoeverre kan kunstmatige intelligentie eigenlijk wel leren te begrijpen wat ik echt wil? Want meestal zit er namelijk een groot gapend gat tussen mijn ambities en hoe ik me gedraag. Wil ik dan dat Facebook’s algoritme de keuze maakt wat het me laat zien op basis van m'n gedrag, of op basis van mijn ambities?
[…] I pledge to go to the gym more in 2018, but every morning when I wake up, my partner presents me with a plate of donuts and urges me to stay in bed and eat them. My revealed preferences show that I’m more interested in eating donuts than in exercising. But it’s pretty perverse that my partner is working to give me what I really crave, ignoring what I’ve clearly stated I aspire to.
Hoe mensen zich gedragen op Facebook - bijvoorbeeld het delen van sensationeel of shockerend nieuws boven weldoordachte genuanceerde berichten -  is wellicht heel anders dan hun ambities. 
People share sensational or shocking news, while more reliable news tends not to go viral. When people choose to subscribe to reliable news sources, they’re asking to go to the gym. With these News Feed changes, Facebook threw out your gym shoes and subscribed you to a donut-delivery service.
Het probleem zit ’m erin dat Facebook - ook met de veranderingen in de newsfeed - nog altijd voor jou bepaalt wat jouw ‘time well spent’ is. Ook al is het op basis van je voorkeuren die onthuld worden door je gedrag. Wil je nu echt mensen de keuze geven of ze hun social media als mindgym laten werken of als couch potato place, dan zul je ze zelf de controle moeten geven. 
Daarom heeft Zuckerman samen met twee collega’s van het MIT medialab Gobo gelanceerd. Een tussentool waarin je je bestaande sociale netwerken kunt laden (wel beperkt tot publieke pagina’s helaas), en je met sliders de macht krijgt over wat je nu echt wilt zien:
Gobo presents you with posts from your friends, but also gives you a set of sliders that govern what news you see and what’s hidden from you. Want more serious news, less humor? Move a slider. Need to hear more female voices? Adjust the gender slider, or press the “mute all men” button for a much quieter internet. Gobo currently includes half a dozen ways to tune your news feed, with more to come. (It’s open-source software, so you can write your own filters, too.) Gobo is a provocation, not a product.
De oplossing zit volgens Zuckerman erin om Facebook goed te laten zijn in waar het goed in is - een sociaal netwerk te vormen waar iedereen wil zijn - in plaats van te dwingen tot allerlei vormen van kwaliteitscontrole. Dat laatste moeten we als gebruikers in de hand kunnen nemen. Dus dergelijke 'tussentools’ zoals je in bovenstaande afbeelding ziet, hoeven niet persé IN Facebook zelf te zitten, maar kunnen ook als losse add-ons functioneren:
[…] developers to build real customizable aggregators, not toys like Gobo, which would let people control what they read on online platforms—helping them live up to their aspirations, not down to their preferences. 
Accepteer het: All tech is human
Maar, zo waarschuwt tech ethicus David Polgar, we moeten ook oppassen voor te onrealistische verwachtingen over de potentie van technologie. Want ook al kun je door instellingen die je zelf kunt beheren, jezelf nudgen richting je ambities, dan nog zullen veel mensen alsnog couch potato gedrag blijven vertonen. Want ja, we blijven mensen en dat reflecteert ook in onze omgang met technologie:
Humans don’t maximize their utility. We have a multitude of factors that we consider. We are messy. We are conflicted. We are human.

Utility is trumped by any technologies ability to fit within the human framework. We need to take into account that we are complicated and nonsensical beings that don’t always maximize our utility. If that was the case, we would be strapping on our fanny packs (no hands!) and jumping on our Segway.
Als je het perspectief adopteert dat in het gebruik van technologie, andere - zachtere - factoren zoals menselijke interactie het winnen van het nut, de logica, het optimale potentieel van een technologie, dan zie je ook meteen waardoor bepaalde producten mislukt zijn. Polgar geeft het voorbeeld van de Google Glass:
Glass, or any piece of technology, app, or network, is not used inside of a vacuum. It is used by an emotional human that is also generally cognizant and concerned about others around them. The very idea of being a member of society means that we are constantly conforming within the norms are acceptable behavior. So while Glass offered a tremendous amount of individual utility, it was not made to be used alone in one’s bedroom. It was designed to be used at school, work, bars, and sporting events.

These are all places where you are interacting with other people, lots of them. Other people who may view you as socially awkward or unwanted by wearing a piece of equipment over your eyes. The recording feature tapped into our Orwellian fear of surveillance and quickly branded the early adopters into the much maligned Glassholes.
Fijn weekend!
P.S: Wat een verschil...
Cover van Wired december 2016 vs Wired maart 2018…
Did you enjoy this issue?
If you don't want these updates anymore, please unsubscribe here
If you were forwarded this newsletter and you like it, you can subscribe here
Powered by Revue