De Open Knowledge Association dacht een efficiëntieslag te slaan door bijdragers te betalen voor het vertalen van Wikipedia-artikelen met tools zoals ChatGPT en Gemini. De praktijk blijkt echter weerbarstig: er wordt op grote schaal gehallucineerd. Volgens meldingen van 404 Media worden complete paragrafen uit de duim gezogen en bronnen willekeurig verwisseld door de software.
Het gevaar van AI-hallucinaties in teksten
Dit is geen incidentele fout, maar een fundamenteel probleem van grote taalmodellen. Deze systemen zijn getraind op waarschijnlijkheid en niet op onweerlegbare waarheidsvinding. Wanneer een model een tekst vertaalt, vult het de gaten soms op met informatie die taalkundig logisch klinkt, maar feitelijk nergens op gebaseerd is. Zelfs het inzetten van verschillende modellen zoals Grok kon niet voorkomen dat er zinnen zonder bronvermelding werden toegevoegd.
De vlucht voorwaarts met nog meer techniek
De reactie van de organisatie is opvallend: ze voeren een nieuwe regel in waarbij een tweede AI-model de vertaling van de eerste AI moet controleren op fouten. We belanden hiermee in een technologische spiraal waarin we hopen dat het ene algoritme de blindheid van het andere corrigeert. Voor de zakelijke markt onderstreept dit dat de menselijke controlelaag onmisbaar blijft om AI-hallucinaties uit kritieke documentatie te filteren.
Het risico voor de markt is dat de kwantiteit van informatie toeneemt, terwijl de kwaliteit en betrouwbaarheid onder druk staan. Als zelfs een non-profit die drijft op feiten de controle verliest, moet je als ondernemer extra waakzaam zijn. De kosten van een foutieve vertaling kunnen immers vele malen hoger uitvallen dan de besparing die het automatiseren in eerste instantie opleverde.
Wat valt ons op?
De reactie van de organisatie is bijna ironisch: we belanden in een spiraal waarin we hopen dat het ene algoritme de blindheid van het andere corrigeert.
Wat betekent dit voor jou?
Dit Wikipedia-debacle laat zien dat je AI nooit onbeheerd de vertalingen van je website of productinformatie mag laten verzorgen. Voor een ondernemer is reputatieschade door feitelijke onjuistheden vaak onherstelbaar.
- Implementeer een strikte ‘vier ogen’ regel waarbij een menselijke redacteur elke AI-vertaling controleert op feitelijke juistheid.
- Gebruik AI-tools uitsluitend voor de eerste opzet en laat bronvermeldingen handmatig verifiëren door een specialist.
- Maak afspraken met tekstschrijvers over de mate waarin zij tools gebruiken, om juridische claims over onjuiste informatie te voorkomen.




