AI-modellen hebben de neiging om onzin te verzinnen in plaats van toe te geven dat ze iets niet weten. Dat is geen nieuwe constatering, maar uit recent onderzoek van OpenAI blijkt dat dit gedrag diep verankerd zit in de manier waarop deze modellen getraind worden. Dit onderstreept de noodzaak voor organisaties om medewerkers goed op te leiden en processen in te richten waarin menselijk oordeel een vaste plek houdt. Alleen zo kan AI verantwoord en effectief worden ingezet.
Het produceren van foute antwoorden is geen uitzondering, maar een direct gevolg van het huidige ontwerp van generatieve AI. Tijdens de training worden modellen beloond voor het geven van antwoorden – overtuigend geformuleerd, maar niet noodzakelijk waar. Onzekerheid of erkenning van onwetendheid wordt juist afgestraft. Omdat vrijwel alle grote AI-bedrijven hun modellen op deze manier ontwikkelen, is het onrealistisch te verwachten dat er snel systemen zullen zijn die wél intrinsiek betrouwbaarder zijn.
Toch zien we dat organisaties AI vaak implementeren zonder hun medewerkers voldoende te scholen, of zonder dat menselijke controle in kritieke processen is ingebouwd. Daarmee nemen de risico’s op misinformatie, reputatieschade en verkeerde beslissingen met grote financiële of juridische gevolgen snel toe.
De oplossing ligt in handen van bedrijven zelf: investeer in kennis bij medewerkers, ontwerp duidelijke controlemechanismen en stimuleer kritisch gebruik in plaats van blind vertrouwen. Alleen door mens en machine nadrukkelijk samen te laten werken, kan AI zijn belofte waarmaken zonder onverantwoorde risico’s.