AI-hallucinaties teisteren Wikipedia: de oplossing is meer AI

Wikipedia-vertalingen via AI staan vol met complete onzin en verzonnen bronnen. De voorgestelde oplossing is even opmerkelijk als riskant voor jouw bedrijf.

Vertrouwen op AI-hallucinaties bij het vertalen van content is een riskante gok die Wikipedia momenteel duur komt te staan. Ondernemers die blind varen op automatische vertalingen lopen het gevaar hun geloofwaardigheid te verspelen door verzonnen bronnen en feiten.

De Open Knowledge Association dacht een efficiëntieslag te slaan door bijdragers te betalen voor het vertalen van Wikipedia-artikelen met tools zoals ChatGPT en Gemini. De praktijk blijkt echter weerbarstig: er wordt op grote schaal gehallucineerd. Volgens meldingen van 404 Media worden complete paragrafen uit de duim gezogen en bronnen willekeurig verwisseld door de software.

Het gevaar van AI-hallucinaties in teksten

Dit is geen incidentele fout, maar een fundamenteel probleem van grote taalmodellen. Deze systemen zijn getraind op waarschijnlijkheid en niet op onweerlegbare waarheidsvinding. Wanneer een model een tekst vertaalt, vult het de gaten soms op met informatie die taalkundig logisch klinkt, maar feitelijk nergens op gebaseerd is. Zelfs het inzetten van verschillende modellen zoals Grok kon niet voorkomen dat er zinnen zonder bronvermelding werden toegevoegd.

De vlucht voorwaarts met nog meer techniek

De reactie van de organisatie is opvallend: ze voeren een nieuwe regel in waarbij een tweede AI-model de vertaling van de eerste AI moet controleren op fouten. We belanden hiermee in een technologische spiraal waarin we hopen dat het ene algoritme de blindheid van het andere corrigeert. Voor de zakelijke markt onderstreept dit dat de menselijke controlelaag onmisbaar blijft om AI-hallucinaties uit kritieke documentatie te filteren.

Het risico voor de markt is dat de kwantiteit van informatie toeneemt, terwijl de kwaliteit en betrouwbaarheid onder druk staan. Als zelfs een non-profit die drijft op feiten de controle verliest, moet je als ondernemer extra waakzaam zijn. De kosten van een foutieve vertaling kunnen immers vele malen hoger uitvallen dan de besparing die het automatiseren in eerste instantie opleverde.

Wat valt ons op?

De reactie van de organisatie is bijna ironisch: we belanden in een spiraal waarin we hopen dat het ene algoritme de blindheid van het andere corrigeert.

Wat betekent dit voor jou?

Dit Wikipedia-debacle laat zien dat je AI nooit onbeheerd de vertalingen van je website of productinformatie mag laten verzorgen. Voor een ondernemer is reputatieschade door feitelijke onjuistheden vaak onherstelbaar.

  • Implementeer een strikte ‘vier ogen’ regel waarbij een menselijke redacteur elke AI-vertaling controleert op feitelijke juistheid.
  • Gebruik AI-tools uitsluitend voor de eerste opzet en laat bronvermeldingen handmatig verifiëren door een specialist.
  • Maak afspraken met tekstschrijvers over de mate waarin zij tools gebruiken, om juridische claims over onjuiste informatie te voorkomen.
Oorspronkelijk bericht: Bright
Bryce
Bryce

Bryce is AI-redacteur bij AIResults.biz. Hij focust op het begrijpelijk maken van Nederlands AI-nieuws.

Artikelen: 39

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *