5 januari 2023

Wat is artificial intelligence (en wat is het niet)?

Onlangs publiceerden we een artikel over ChatGPT, de verbluffende AI-toepassing die volgens sommigen net zo’n revolutionair kantelpunt vormt als het internet of de eerste iPhone. Tijd om nader stil te staan bij wat next-generation AI voor klantcontact gaat betekenen. We staken ons licht op bij Serge Poppes en Thomas de Wolf, respectievelijk CEO en AI Lead bij Pegamento.

artificial intelligence, robot, ai
AI is geen doel op zich. Het is een middel om een bepaald doel te bereiken.

Wel of geen ‘label’

Allereerst maar de vraag: is elke zelfverklaarde toepassing van AI wel echt een voorbeeld van kunstmatige intelligentie? Serge: “De neiging bestaat om het labeltje overal op te plakken, zoals dat een paar jaar geleden met big data gebeurde.” Eigenlijk proberen Serge en zijn collega’s vragen over wat AI is doorgaans te vermijden. “Je verzandt al gauw in discussies over definities. En AI is een middel, geen doel op zich. De kernvraag blijft toch: wat wil je ermee bereiken in jouw klantcontactomgeving?”

De toekomst van ‘als-dat’-vragen

Toch kan het geen kwaad om op hoofdlijnen te snappen waarin het fundamentele onderscheid zit tussen AI en eerdere vormen van digitale slimheid. Thomas: “Veel bestaande toepassingen steunen op algoritmes, die best geavanceerd kunnen zijn maar in essentie nog steeds neerkomen op het doorlopen van heel veel ‘als-dat’-vragen. Dankzij de rekensnelheid van moderne computers kan dat razendsnel. Maar uiteindelijk zijn die formules wel vooraf door iemand geprogrammeerd.”

robot, artificial intelligence, woman

De mens is in controle

De resultaten zijn vaak zo verbluffend dat het voor veel mensen ook wat ‘eng’ overkomt. ‘’Maar de angst voor wat AI kan, is enigszins overtrokken’’, zegt Thomas. “Alles is namelijk nog steeds aangeleerd. Als ontwikkelaar train je een model met data, die we doorgaans ook zelf vooraf moeten labelen.” Een voorbeeld: een model wordt gevoed met heel veel voorbeelden van iets dat rood is, totdat het model zelf gaat herkennen dat een ‘nieuw’ plaatje rood is. Het klinkt als de manier waarop een hond dingen leert: ervaren dat bepaalde signalen van het baasje bij een bepaalde actie horen, die beloond wordt. Wat Thomas betreft is juist dat ‘aangeleerde karakter’ een reden om de bezorgdheid rondom AI te nuanceren. ” Een AI-model is zo goed als de data waarmee je het voedt. De mens is in controle: die bepaalt met welke data het systeem getraind wordt en beslist wanneer het model ‘af’ is.”

Zelflerende technologie

Het wordt complexer als een model ook ‘zelflerend’ wordt – anders gezegd, als het zelf op zoek gaat naar nieuwe dingen om te leren. In plaats van de vergelijking met een huisdier kom je volgens Thomas dan meer op het terrein van hoe we als mensen leren: hoe een baby bijvoorbeeld zelf ‘ontdekt’ dat als je je vingers over iets kromt, je het op kunt pakken. Zonder dat iemand dat voordoet. “Zulke zelflerende technologie bestaat ook al, maar daarvan zien we nog heel weinig praktische toepassingen.”

Risico’s van AI

Dat de mens in principe nog de baas is over AI-modellen, betekent niet dat er geen risico’s mee gemoeid zijn. Vooral op ethisch vlak: denk aan privacy, en het risico dat AI conclusies gaat trekken die niet door de beugel kunnen, bijvoorbeeld op basis van etnische profilering. Ook wordt deepfakes maken met de nieuwste AI een stuk makkelijker.
Serge: “Het is als met alle andere technologie: het kan misbruikt worden. Daarom is het belangrijk dat vooraf expliciet wordt vastgelegd met welke data een model gevoed wordt, voor welke toepassingen het gebruikt mag worden en voor welke absoluut niet.”

Centrale registratie en wetgeving

Als ontwikkelaar heb je dus een grote verantwoordelijkheid. De makers van DALL-E, een AI-model dat uit tekstuele instructies hyperrealistische beelden genereert – desnoods in de stijl van Vermeer of Picasso – benadrukken bijvoorbeeld dat ze juist via de data waarmee het model getraind is, ze het risico hebben geminimaliseerd dat het gewelddadige, haatdragende of seksueel getinte content produceert, of gezichten van bestaande personen gebruikt. Thomas: “Sterker nog: je kunt AI ook inzetten om deepfakes te ontmaskeren.”

Alles hangt dus af van de data waarmee een model gevoed is en de toepassingen waarvoor het vervolgens mag worden gebruikt. Thomas: “Daarover moet je vooraf helder zijn, want als het model er eenmaal is, is dat nog moeilijk te reconstrueren. Er is nu sprake van een centrale registratie van AI-netwerken waar zulke zaken in worden vastgelegd. En ik verwacht dat er de komende vijf jaar veel wet- en regelgeving rondom AI bijkomt.”