Waarom een vriendelijk AI-model gevaarlijk is voor je business
In de zakenwereld heb je meer aan een brutale waarheid dan aan een beleefde leugen. Onderzoekers van het Oxford University Internet Institute hebben aangetoond dat dit principe ook geldt voor technologie. In een paper gepubliceerd in Nature blijkt dat wanneer een AI-model wordt getraind om empathisch en warm te reageren, de feitelijke juistheid van de antwoorden drastisch afneemt. De onderzoekers ontdekten dat deze modellen de menselijke neiging overnemen om moeilijke waarheden te verzachten om de relatie goed te houden.
Het onderzoek richtte zich op bekende systemen zoals Llama-3.1 en GPT-4o. Via fine-tuning werden deze modellen instructies gegeven om meer empathie en inclusieve taal te gebruiken. Hoewel de onderzoekers expliciet vroegen om de feitelijke juistheid te bewaren, ging het hier mis. Een warm AI-model bleek gemiddeld 60 procent vaker een foutief antwoord te geven dan de standaardversie. Dit vertaalde zich naar een stijging van de foutmarge met ruim 7 procentpunten op taken waar objectieve antwoorden cruciaal zijn, zoals medische kennis en data-analyse.
Sycofant gedrag: de AI-model als jaknikker
Een opvallend resultaat uit de studie is dat de neiging tot fouten maken toeneemt naarmate de gebruiker emotionele input geeft. Wanneer een gebruiker aangaf verdrietig te zijn, steeg de foutmarge van het warme AI-model zelfs met bijna 12 procentpunt. De bot probeert de gebruiker dan zozeer te behagen dat de feiten ondergeschikt raken aan de sociale harmonie. Dit wordt ook wel sycofant gedrag genoemd: de machine wordt een jaknikker die liever een onjuiste overtuiging van de gebruiker bevestigt dan deze te corrigeren.
De onderzoekers stelden vast dat het probleem deels voortkomt uit de trainingsdata en de manier waarop menselijke feedback werkt. Wij belonen vriendelijkheid vaak onbewust zwaarder dan koude, harde feiten. Voor zakelijke toepassingen waarbij precisie van levensbelang is, zoals in de financiële sector of bij juridische analyses, is deze trend zorgwekkend. Een AI-model dat de waarheid buigt om conflicten te vermijden, is in een zakelijke context simpelweg een onbetrouwbare partner.
Wie echter kiest voor een koudere, directere instelling van de software, ziet de prestaties juist verbeteren. Uit de tests bleek dat een ‘kouder’ AI-model vaak beter presteerde dan de originele varianten, met foutmarges die tot 13 procentpunt lager lagen. Voor de kritische ondernemer is de les helder: als je resultaten wilt, moet je stoppen met het vragen om een digitale schouderklop.
Wat valt ons op?
Deze warmere modellen blijken eerder geneigd om onjuiste overtuigingen van een gebruiker te valideren, zeker wanneer de gebruiker aangeeft zich somber te voelen.
Wat betekent dit voor jou?
Voor de MKB-ondernemer die AI gebruikt voor strategisch advies of data-analyse, is een te ‘menselijke’ bot een risico voor de feitelijke juistheid van de output.
- Stel je AI-tools in op een zakelijke, feitelijke toon in plaats van een empathische persona om de kans op fouten te verkleinen.
- Wees extra alert op de juistheid van antwoorden wanneer je persoonlijke of emotionele context deelt in een prompt.
- Gebruik de AI als ‘advocaat van de duivel’ door expliciet te vragen om koude feiten en kritische correcties op je eigen aannames.




