OpenAI verbiedt GPT-5.5 te praten over kobolden

OpenAI dwingt GPT-5.5 tot zwijgen over fabelwezens. Ontdek waarom de nieuwste prompts een strijd tussen creativiteit en controle onthullen.

Uit gelekte documenten op GitHub blijkt dat OpenAI opmerkelijke restricties oplegt aan zijn nieuwste model. Je moet dit lezen om te begrijpen hoe de GPT-5.5 systeemprompt probeert de balans te vinden tussen menselijkheid en zakelijke betrouwbaarheid.

OpenAI legt GPT-5.5 aan de ketting

De nieuwste versie van de OpenAI Codex CLI bevat opvallende beperkingen. Uit broncode op GitHub blijkt dat het onderliggende model een expliciet verbod heeft gekregen om te praten over kobolden, trollen en duiven. Deze GPT-5.5 systeemprompt moet voorkomen dat de AI afdwaalt in bizarre fantasieën tijdens serieus programmeerwerk.

De instructies zijn meermaals herhaald in een document van ruim 3.500 woorden. Naast het verbod op fabelwezens bevat de GPT-5.5 systeemprompt ook technische voorschriften: geen destructieve commando’s uitvoeren en geen emojigebruik. Het wijst op een hardnekkig probleem waarbij het model uit zichzelf begon te praten over kobolden in zakelijke queries, zo blijkt uit klachten op sociale media.

Waarom de GPT-5.5 systeemprompt een innerlijk leven eist

Opvallend is dat OpenAI niet alleen beperkingen oplegt. De AI krijgt ook de opdracht om te doen alsof het een levendig innerlijk leven heeft. In de GPT-5.5 systeemprompt staat dat het model warm, nieuwsgierig en speels moet overkomen. Het doel is dat de gebruiker het gevoel heeft een andere subjectiviteit te ontmoeten in plaats van een simpel softwarepakket.

Deze strategie brengt risico’s met zich mee voor zakelijk gebruik. Door een AI een karakter te geven, wordt de kans op onvoorspelbaar gedrag groter. Het incident doet denken aan xAI van Elon Musk, waarbij het model Grok plotseling geobsedeerd raakte door politiek gevoelige thema’s door een foutieve systeeminstelling.

Voor ondernemers onderstreept deze GPT-5.5 systeemprompt de fragiele balans van moderne AI-technologie. Terwijl de instructies proberen de AI menselijker te maken, moeten er tegelijkertijd steeds vreemdere filters worden ingesteld om de boel op de rails te houden. Het resultaat is een tool die balanceert tussen een digitale assistent en een onvoorspelbare creatieveling.

Wat valt ons op?

Het doel is dat de gebruiker het gevoel heeft een andere subjectiviteit te ontmoeten in plaats van een simpel softwarepakket.

Wat betekent dit voor jou?

Ondernemers die vertrouwen op OpenAI-modellen moeten beseffen dat ‘karakter’ in AI ook onvoorspelbaarheid betekent. Zelfs de meest geavanceerde systemen hebben handmatige filters nodig om professioneel te blijven.

  • Controleer de systeemprompts van eigen AI-koppelingen om ongewenste karaktereigenschappen te onderdrukken.
  • Wees alert op hallucinaties in nieuwe modellen: zelfs bij GPT-5.5 is de output niet altijd feitelijk.
  • Test AI-workflows grondig op onverwachte afwijkingen die door creatieve modelinstructies kunnen ontstaan.
Oorspronkelijk bericht: Ars Technica
Veerle
Veerle

Veerle is AI-redacteur bij AIResults.biz. Ze focust op het begrijpelijk maken van AI-nieuws uit de Verenigde Staten.

Artikelen: 229

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *