Afbeelding bij blog Niels Roelen

Terminator

 

Als een onheilsprofeet waarschuw ik al sinds het begin voor de gevaren van AI

 

 

‘Dat de kwaliteit verbetert, wil nog niet zeggen dat chatbots ooit echt betrouwbaar zullen zijn.’ Reageert lector verantwoorde IT Wiggers in Trouw op een onderzoek van Google dat aantoont dat de antwoorden van AI  in 70% van de gevallen onjuist zijn.  

De reden dat ik er zelf geen gebruik van maak, me ertegen verzet, staat los van de betrouwbaarheid. Waar ik me druk over maak, is dat de invoer losgekoppeld is van strikte voorwaarden en het dus zijn weg ook al vindt in oorlog. 

Ondanks de onbetrouwbaarheid maakt Israël gebruik van AI voor doelwit selectie in Gaza. Boven Oekraïne zorgen autonome drones inmiddels niet voor minder, maar juist voor meer burgerslachtoffers. Ongetwijfeld werkt BigTech hard aan het beter trainen van de modellen. (Ironisch genoeg betekent het doden van meer onschuldige mensen waarschijnlijk tot een nauwkeuriger model.) Maar dat neemt niet weg dat bij de inzet ervan elke ethische norm en menselijkheid ontbreekt. 

Persoonlijk geloof ik ook niet zo in de betrouwbaarheid van mensen. Maar ik vraag me af wie er straks verantwoordelijk is voor de beslissingen van een autonoom denkend systeem. Welke gevolgen heeft de gevoelloosheid van een robot dat mensen reduceert tot enen en nullen? Wie stopt het systeem, als het misgaat en wie garandeert mij dat het systeem nog naar ons luistert?

Misschien toch Terminator nog maar een keer terugkijken.

 

Niels ®elen

 

Bom>>>

Schrijf een reactie