Een Leidse conferentie met allure

Een mooie herfstdag beginnen met een aantal presentaties over ‘de toekomst van oorlog’; de tweedaagse conferentie Brave New World trapt meteen af met serieuze zaken. In de Leidse Stadsgehoorzaal is donderdag en vrijdag een aantal (gerenommeerde internationale) sprekers te vinden over thema’s die te maken hebben met de vraag hoe technologie ons leven zal, kán beïnvloeden. Boeiende vragen. Eerlijk gezegd, is het ook wel weer een Leids licht onder de korenmaat. De Stadsgehoorzaal had stampvol moeten zitten met deze sprekerslijst. De interessante (technologie)kennis haal je echt niet alleen in Amsterdam, Eindhoven of Rotterdam op.

Oorlog
Donderdag stonden de eerste twee van in totaal vier thema’s centraal: oorlog(svoering) en vertrouwen in technologie. Voor wie een wonderland aan voorbeelden van high tech oorlogsvoering verwachtte, was de ochtend teleurstellend. ‘Uiteraard’ kwam het filmpje over de autonome killerdrone voorbij. Maar de meeste tijd werd besteed aan wat die nieuwe vormen van oorlog voeren eigenlijk zijn. En dat was interessanter dan zogenaamd zelfdenkende drones.

Mensen
Meteen de eerste spreker zette de toon. Sir Lawrence Freedman bracht direct de vraag naar voren waarom oorlogen en conflicten worden uitgevochten. Hij verwacht geen ‘Terminator-scenario‘ waarin kunstmatige intelligentie (AI) bepalend is. Niet eens zozeer vanwege de techniek als wel vanwege heel andere overwegingen. Zo, beschreef hij, is het meeste geweld tegenwoordig niet eens staat tegen staat geweld (oorlog), maar veel vaker intern politiek geweld (rebellie, terrorisme). En die conflicten worden uitgevochten in steeds langduriger twisten, waarbij de meeste (burger)slachtoffers vallen door indirecte effecten, als hongersnood en armoede, van zo’n twist. Zulke twisten worden tegenwoordig vooral gevoerd met propaganda en (des)informatie. Hoe bizar ook, dat vereist begrip voor de wereld van de vijand. Alleen dan kunnen trollenlegers aanhaken bij gevoelens die al leven en die beïnvloed worden met valse informatie.

Normal accidents
Mensenwerk dus, aldus Freedman. Ook Stephanie Carvin betoogde dat eigenlijk. Want hoe autonoom zijn die autonome wapens eigenlijk? Niet, want ze krijgen een doel aangewezen, door een mens. Dat neemt niet weg dat het, economisch, voordelige wapens zijn waarvoor minder personeel nodig is (en risico loopt) en ze verhogen de (reactie)snelheid van de oorlogsvoering. Maar, zo waarschuwt zij, ‘echte’ AI kan ook ongelukken maken, omdat er (te?) veel functies in één systeem zijn verenigd. Er is geen aansprakelijke meer (De programmeur? De commandant? De operator? De AI zelf?), en de beslissingen zijn niet altijd navolgbaar.

Betekenis
Een thema dat ook geregeld terug kwam, was dat van de zeggenschap over ontwikkelingen. Ook in het geval van het oorlogstuig geldt dat: het zijn (ook) private ondernemingen die de (AI-)ontwikkelingen leiden. Daarmee wordt wel de vraag gesteld hoe daarmee om te gaan. Op dat punt bleven de sprekers een beetje hangen. Transparantie, controleerbaarheid (van gebruikte code) en regelgeving kwamen geregeld terug als oplossing(srichting). Het gaf de beheersing over onze nieuwe wereld echter ook iets machteloos. Kwaadwillendheid is en blijft een gevaar. Dat is overigens óók al complexer zoals Liisa Janssens duidelijk maakte: kwaadwillendheid bij mensen die gebruik maken van toepassingen van AI gaat gepaard met een geheel ander dreigingsbeeld dan wij gewend zijn. We dienen ons te beseffen dat er een andere mindset nodig is willen wij ons nog weerbaar kunnen opstellen in dit veranderende (cyber)landschap. Kunst, zoals de VR installatie van Frederik De Wilde: een AI Virus, kan helpen bij het aanwakkeren van de verbeeldingskracht teneinde deze nieuwe dreigingen te kunnen visualiseren.

Belangen
Het was goed om geregeld er op te worden gewezen dat veel van wat we nu zien gebeuren, feitelijk niet echt heel anders is. Soldaten die worden omgebouwd tot halve robots zijn een volgend stadium in een ontwikkeling die begon met peppillen voor frontsoldaten. Dat is waar Imre Bard en Lesley-Ann Daly zich mee bezig houden. Hack the Senses houdt zich bezig met de vraag hoe, en welke, aanpassingen zinvol zijn. Daartoe hanteren zij een methodiek met de naam critical design. Daarin spelen scenario’s, maar vooral het zichtbaar maken van keuzes, een belangrijke rol. En, dus, ook vragen als: hoe verstérk je de gevechtssoldaat, zonder hem te vervangen? Dat gebeurt ook in de zorg, maar daar speelt een individueel (zorg)belang terwijl in het geval van defensie een teambelang voorop staat.

Helderheid
Voor wie dacht dat moderne technologieën lijken op de scherpe beelden van oorlogsspelletjes, was Christine Boshuijzen ontnuchterend. De beelden zijn niet scherp en taal- en cultuurproblemen spelen nog steeds een rol. En de ‘roofdierblik’: afgesloten van tijd en ruimte iets alleen kunnen zien als ‘prooi’ en niets anders. Ook als ‘de raketwerper’ een camera bleek te zijn geweest.

Convergentie
Had Freedman al gewezen op het sociale aspect van conflicten; dat werd uitgediept door Annette Idler. Geen vrolijk stemmend verhaal omdat ze wees op de vermenging van conflicten en criminaliteit bij niet-staat groepen. Technologie is voor hen niet primair nodig in het conflict, maar wel voor criminele activiteiten om de strijd te bekostigen. Winstgevendheid gaat dan voor idealisme (als dat er al is). Het is hier dat (gebrek aan) vertrouwen in de presentaties een steeds belangrijkere rol krijgt. Want wie is wie, als ook je buurman – in een kleine rol – mogelijk betrokken is. Of waarin ‘de criminelen’ ook zorg dragen voor veiligheid in de wijk, voor medische hulp, en ‘belastingen’ en verkeersboetes innen. Het worden complexe netwerken, met daarin “schaduwburgers”. Die verwevenheid betekent meteen ook dat niet alleen juridisch en militair moet worden opgetreden, maar vooral ook sociale interventies nodig zijn. Dat maakt deze vorm van conflict taai en lastig om aan te pakken.

Wijsheid
Het zat een beetje verstopt in de verhalen. Maar wat van belang is in de nieuwe werkelijkheid is de capaciteit om te (be)oordelen. Dat is te vertalen als: voldoende kennis en dus onderwijs. In het kader van het herkennen van gemanipuleerd nieuws (en beeldmateriaal) kwam het terug. Het veranderde oorlogstoneel van Carl Miller, informatie, brengt hem ertoe te stellen dat “bibliotheken eigenlijk uit veiligheidsbudgetten zouden moeten worden gefinancierd”. Maar hij is dan ook degene die “een van de grootste crises in de wereld van criminaliteitsbestrijding” ervaart, waarin ‘we’ niet alleen achterlopen maar ook geheel nieuwe vormen van criminaliteit ontstaan.

Vertrouwen
Gedurende de middag komt dat vaker terug. Vertrouwen zonder na te denken is in de digitale wereld gevaarlijk. Jessica Barker houdt zich bezig met onder meer wachtwoorden en beveiliging. Social engineering is haar niet vreemd, met menselijke emoties als nieuwsgierigheid, angst, schaamte, verleiding, en vermoeidheid (‘weer dat ‘pas op-‘verhaal?!’). Het is wél leuk om te horen dat wachtwoorden en -zinnen geregeld (intieme) geheimen bevatten (want niemand zal dat toch ooit zien).

Nietzsche
De enige die het écht niet redt in de hem toegewezen tijd, is Nolen Gertz. Maar hij heeft het dan ook over nihilisme en technologie, een filosofische benadering. Het is jammer dat het verhaal abrupt stopte bij de, op Nietzsche gebaseerde, vaststelling dat “we onszelf zo voorspelbaar maakten dat we dáárom in AI-algoritmes te vangen zijn”. Toch iets om over verder te denken: nihilisme als reactie op technologie.

Werknemer
We zullen dus moeten leren omgaan met de nieuwe situatie en vooral ook nieuwe waarheden en onwaarheden leren herkennen. Deepfake kwam voorbij, waarbij algoritmes videobeeld kunnen voorzien van nieuwe teksten en spraakbewegingen die al snel voor ‘echt’ worden aangezien. Of het werk van Manuel Beltran c.s. – overigens nog tot en met zondag in de foyer van de Stadsgehoorzaal te zien – waarin zichtbaar wordt gemaakt wat we allemaal leveren aan en produceren voor techbedrijven, van captcha’s tot eigen data.

Angst
Maar wat en wie kun je dan nog vertrouwen, bleef als laatste vraag achter. Vertrouwen is immers één van de belangrijkste menselijke strategieën om om te gaan met onzekerheid en complexiteit (het dagelijks leven bij voorbeeld, maar ook vliegreizen). Esther Keymolen wees op het dilemma wat is ontstaan: we snappen niet alles en staan data af, maar diezelfde data zijn, verwerkt, ook weer risicovol. Zij noemt dat interpersoonlijk systeemvertrouwen, waarbij dat ‘systeem’ de crux vormt zonder die indruk te wekken. Mogelijk dat de Rotterdamse aanpak van Etienne Augé iets kan betekenen in deze. Zij hanteren een soort van scenariodenken science fiction prototyping, met “een refocussing on humanity/humanities” en “inventing futures is controlling our fears”.

Delen
Rabobank Wensenfonds

Geef een reactie

Over de auteur

Jan van der Sluis

Schraapt het liefst aan de oppervlakte in de verwachting dat daaronder iets echt leuks is te vinden.

Je bent nu offline