Siri Beerends klinkt de ene keer als een gedreven activist, dan weer als een bedachtzame onderzoeker. Ze heeft een duidelijke missie om de kwalijke gevolgen van het zogenaamde surveillance-kapitalisme bloot te leggen. Als cultuursocioloog onderzoekt ze hoe technologie onze opvattingen beïnvloedt over wat ‘echt’ en ‘nep’ is, en wat de mens eigenlijk is. Tegelijkertijd formuleert ze genuanceerde antwoorden op de grote vragen over het leven in een hightechsamenleving..

 

Je PhD-onderzoek draait om de vraag: hoe worden mensen steeds meer machine-achtig? Dat roept de vraag op: waar ligt precies het verschil tussen mens en machine?

‘Ik ben onder andere bezig met concepten als bewustzijn, empathie, intentionaliteit, creativiteit, zintuigelijke waarneming en vermogen om de wereld te modeleren naar eigen ideeën. Maar ook: irrationaliteit en ambiguïteit. Kunstmatige intelligentie dwingt de mens om zichzelf opeens heel strak te gaan definiëren en kwantificeren, maar de essentie is misschien juist wel dat we niet definieerbaar zijn.’

 

Dat onderzoek wordt opgehangen aan drie centrale concepten: autonomie, authenticiteit en imperfectie. Waarom die drie?

‘Ik vind autonomie een belangrijke morele waarde om na te streven en zie dat dat onder druk staat door het verdienmodel achter kunstmatige intelligentie. En dan heb ik het over autonomie als in: dat je de ruimte hebt om je eigen intenties te kennen, te ontwikkelen en daarnaar te handelen.’

 

Hoe hangt dat samen met authenticiteit?

‘Ik zie authenticiteit als een proces. Je bent de hele tijd bezig met authentiseren en de-authentiseren: je maakt je dingen eigen en je stoot ze af. Dat is een onderhandelingsproces met jezelf en met je omgeving. En als je constant gemeten, bekeken en gestuurd wordt, heb je minder ruimte waarin je jezelf kunt terugtrekken om je eigen intenties en verlangens te leren kennen. Iedereen is non-stop aangesloten op het internet: je huis, je stad, je auto, alles. En dat maakt dat onderhandelingsproces met jezelf opener voor sturing van buitenaf, waardoor het moeilijker is om af te wijken van de norm.’

 

En wat betekent imperfectie in een technologische context?

‘Ik zie dat naarmate we meer technologische middelen hebben om onszelf te veranderen, dat we ook steeds meer streven naar maakbaarheid en perfectie: de onverwoestbare, onsterfelijke mens die slim is én empathisch én knap. Ik vind het belangrijk dat mensen ruimte hebben om van die norm af te wijken. Ik vind dat imperfectie een mensenrecht zou moeten zijn.

Maar de paradox is dat er ook een soort imperfectiecultus is ontstaan, aangewakkerd vanuit marketing en commercie. Daardoor krijg je strakke lijnen over hóé je imperfect mag zijn. Ik vind dat dus robotisch.’

 

Word je weleens weggezet als techno-pessimist?

‘Soms, maar ik zeg altijd: ik ben niet tegen de technologische toepassing, ik ben tegen het verdienmodel achter deze toepassing. Dat is vaak waar het wringt. Dat is ook een belangrijk aspect van mijn onderzoeksvraag: surveillance-kapitalisme, oftewel het bigtechverdienmodel achter kunstmatige intelligentie. Hoe zorgt dat ervoor dat we meer gerobotiseerd worden? En wie worden daar beter van, wijzelf of Google en Facebook?

Dat verdienmodel houdt in dat voorspellingen van ons gedrag worden doorverkocht aan bedrijven. Maar als je gedrag kunt sturen, kun je het ook veel beter voorspellen. En zo kun je dus betere voorspellingen verkopen. Shoshana Zuboff beschrijft hoe dat verdienmodel ervoor zorgt dat we verbannen worden uit ons eigen gedrag. Omdat we helemaal niet weten wat voor kennis er wordt verzameld over ons en hoe die kennis wordt doorvertaald in het sturen van ons gedrag. Dat maakt de verdeling van macht en kennis oneerlijk.’

 

Hoe kunnen we de machtsverhoudingen eerlijker maken?

‘Bij SETUP proberen we beleidsmakers en bestuurders bewuster te maken van de gevaren en de risico’s van dit soort technologieën, bijvoorbeeld in smartcitytoepassingen. We zien dat die risico’s onderschat worden. Ik denk dat de human in the loop heel belangrijk is. Natuurlijk, het is handig dat allerlei dingen geautomatiseerd kunnen worden, maar zorg dan wel dat er op het juiste moment in de beslisketen nog een mens zit. Verder moeten bestuurders zich ervan bewust zijn dat naarmate er meer informatie wordt verzameld over mensen, het makkelijker wordt om controle uit te oefenen over die mensen. En dat zorgt voor asymmetrie in kennis en macht.’

 

Zouden we die kennis kunnen democratiseren, openbaar kunnen maken?

‘Ja, dat kun je doen, maar ik denk niet dat dat alles oplost. Eigenlijk zouden veel data in de eerste plaats al niet verzameld moeten worden. Want dan kan je er ook geen waarde uithalen die alleen voordelig uitpakt voor bedrijven zonder dat burgers erop vooruitgaan.’

 

Dit interview komt uit het boek ‘Een slimme stad, zo doe je dat – Verbonden, flexibel en betekenisvol; maak de echte future city’, geschreven door de Future City Foundation in samenwerking met 26 partners. Wilt u meer lezen? Klik hier om het boek (gratis) te bestellen.