Artificiële intelligentie is geen intelligentie

De intelligentie van AI

In het zevende dossier van Voordenken.be blikken we terug naar de Mathieu Gijbels Masterclass 2024 met als onderwerp ‘Hoe AI jouw business versterkt, vandaag én morgen’. Daarin deelden vier experts, Dado Van Peteghem, Steven Latré, Geoffrey Ceunen en Jesse Claes hun visie op de toekomst van ‘Artificial Intelligence’ (AI). Ze laten zien hoe AI onze wereld nu en in de toekomst verandert en welke kansen dat biedt voor jouw bedrijf.

In dit vijfde deel van zijn keynote bespreekt Steven Latré, Vice President AI & Algorithms bij imec en professor aan de Universiteit Antwerpen, de derde les over de beperkingen van AI, namelijk het onderscheid tussen echte en kunstmatige intelligentie. AI kan complexe taken uitstekend uitvoeren, maar faalt vaak op simpele vragen die voor mensen vanzelfsprekend zijn. Steven benadrukt dat AI, hoe indrukwekkend het ook lijkt, geen echte intelligentie heeft.

De beperkingen van AI als imitatie van intelligentie

Hoewel AI vaak als 'intelligent' wordt bestempeld, is het vooral goed in het imiteren van intelligentie zonder dat er werkelijk redeneervermogen achter schuilt. AI-modellen zoals ChatGPT werken op basis van patroonherkenning. Ze voorspellen het volgende woord in een reeks, wat handig is bij taken zoals schrijven of coderen, maar wat niet geschikt is voor situaties die reflectie, planning of begrip vereisen. Een voorbeeld hiervan is geeft Steven een simpele taak zoals het inruimen van een vaatwasser. Iets wat voor ons vanzelfsprekend is, maar waarvoor een taalmodel geen geschikte oplossingen biedt.

Volgens Steven zijn taalmodellen in wezen “auto-complete on steroids”: ze genereren output door het ene woord aan het andere te koppelen zonder te begrijpen waar ze over schrijven. Dit verklaart waarom AI soms vreemde fouten maakt of onnauwkeurige biografieën genereert, de technologie herkent patronen, maar mist de mogelijkheid om in te zien of het antwoord al dan niet juist is.

Kleine fouten stapelen zich op in de voorspelling bij taalmodellen. Elke keer dat een model het volgende woord in een zin raadt, is er kans op een fout en die fouten nemen exponentieel toe naarmate het antwoord langer wordt. Waar een mens een tekst structureel benadert en regelmatig terugkijkt, werkt AI op een volledig andere manier. Dit gebrek aan context en planning maakt de output van AI minder betrouwbaar en verklaart waarom het soms op verrassende en zelfs bizarre manieren ‘domme’ fouten kan maken.

Mathieu Gijbels Masterclass 2024 - keynote Steven Latré - Innovatie - AI

Een taalmodel is eigenlijk gewoon een 'auto-complete on steroids' – het voorspelt het volgende woord op basis van het voorgaande, maar heeft geen echte kennis of redeneringsvermogen.

Steven Latré
Vice President AI & Algorithms bij imec en professor aan de Universiteit Antwerpen

Waar kan AI echt waarde bieden en waar liggen de beperkingen? In het vijfde deel van zijn keynote legt Steven Latré uit hoe bedrijven slim gebruik kunnen maken van AI, zonder de beperkingen uit het oog te verliezen. Ontdek in de video hoe AI in jouw organisatie kan worden ingezet, met oog voor zowel de kracht als de beperkingen ervan.