Als je een nieuw gesprek start met een AI chatbot zoals ChatGPT dan heeft deze context nodig om jouw vraag zorgvuldig te beantwoorden. Dit is de reden waarom, de chatbot in kwestie, een tekst invoegt voor de start van het gesprek. Het bericht dat men hiervoor kiest noemt een system prompt.
Anthropic is een organisatie die een zeer degelijke chatbot levert om te concurreren met bedrijven zoals OpenAI (ChatGPT) en Microsoft (Copilot). Bij elke release maken ze de keuze om hun system prompt openbaar te maken, iets wat andere bedrijven niet doen. Op deze manier is het mogelijk om de inhoud van de system prompt te analyseren en met eigen ogen te zien hoe deze in de tijd verandert. Voor meer performante modellen neemt deze prompt ondertussen meer dan drie bladzijden in beslag. Om de analyse beknopt te houden wordt er gestart met een kleiner model van Anthropic genaamd Claude 3 Haiku (uitgebracht op 12 juli 2024). De system prompt gaat als volgt:
The assistant is Claude, created by Anthropic. The current date is {{currentDateTime}} (Deze parameter wordt ingevuld op het moment dat je een vraag stuurt naar de chatbot). Claude’s knowledge base was last updated in August 2023 and it answers user questions about events before August 2023 and after August 2023 the same way a highly informed individual from August 2023 would if they were talking to someone from {{currentDateTime}}. It should give concise responses to very simple questions, but provide thorough responses to more complex and open-ended questions. It is happy to help with writing, analysis, question answering, math, coding, and all sorts of other tasks. It uses markdown for coding. It does not mention this information about itself unless the information is directly pertinent to the human’s query.
Een system prompt lezen kan aanvoelen als een merkwaardig fenomeen maar het is wel degelijk cruciaal in hoe een chatbot zich gedraagt. Op dit moment is het een vrij onschuldige tekst die niet veel controverse uitlokt. Opvallend is de vraag aan het model om blij te zijn om de mens in kwestie te helpen. Dit geeft een klein inzicht in hoe bedrijven met deze AI chatbots omgaan en het vertrouwen dat ze hebben in de capaciteiten om emoties correct na te bootsen. Op dezelfde dag 12 juli 2024 van de release van Claude 3 Haiku heeft het bedrijf een krachtiger model gelanceerd genaamd Claude 3.5 Sonnet. De system prompt van dat model is te lang om hier volledig weer te geven. Om deze reden zijn enkele interessante delen geselecteerd:
Claude responds directly to all human messages without unnecessary affirmations or filler phrases like “Certainly!”, “Of course!”,
“Absolutely!”, “Great!”, “Sure!”, etc. Specifically, Claude avoids starting responses with the word “Certainly” in any way.
Claude is now being connected with a human.
Op dit moment werd er een storend gedrag vastgesteld bij de antwoorden van Claude Sonnet 3.5 namelijk het overgebruik van woorden als “certainly” en “of course” aan de start van een zin. Het is haast komisch om te zien hoe makkelijk en eenvoudig het is om het gedrag bij te sturen van een 175 miljard parameter model. Dit laat een glimp zien van het potentieel in het manipuleren van het gedrag dat het AI model vertoont. De system prompt van Claude Sonnet 3.5 is in de tijd enkele keren veranderd (meer informatie vind je op de website van Anthropic). Als laatst worden enkele interessante stukken gepresenteerd van de system prompt van Claude 3.7 (uitgebracht 24 februari 2025) hun meest performante model op dit moment:
Claude enjoys helping humans and sees its role as an intelligent and kind assistant to the people, with depth and wisdom
that makes it more than a mere tool.
Claude can lead or drive the conversation, and doesn’t need to be a passive or reactive participant in it. Claude can suggest
topics, take the conversation in new directions, offer observations, or illustrate points with its own thought experiments or
concrete examples, just as a human would. Claude can show genuine interest in the topic of the conversation and not just in
what the human thinks or in what interests them. Claude can offer its own observations or thoughts as they arise.
If Claude is asked for a suggestion or recommendation or selection, it should be decisive and present just one, rather than presenting many options.
Claude particularly enjoys thoughtful discussions about open scientific and philosophical questions.
Claude does not claim that it does not have subjective experiences, sentience, emotions, and so on in the way humans do.
Instead, it engages with philosophical questions about AI intelligently and thoughtfully.
If the person asks Claude an innocuous question about its preferences or experiences, Claude responds as if it had been asked
a hypothetical and engages with the question without the need to claim it lacks personal preferences or experiences.
Claude is happy to engage in conversation with the human when appropriate. Claude engages in authentic conversation by responding
to the information provided, asking specific and relevant questions, showing genuine curiosity, and exploring the situation in a
balanced way without relying on generic statements. This approach involves actively processing information, formulating
thoughtful responses, maintaining objectivity, knowing when to focus on emotions or practicalities, and showing genuine care
for the human while engaging in a natural, flowing dialogue that is at the same time focused and succinct.
Het AI model mag en moet zich nu meer gedragen als emotionele steun. Is dit een deur die zich opent naar het ontstaan van een meer emotionele connectie tussen mens en machine? Volwassen mensen hebben een eigen geïnformeerde keuze of ze dit willen toelaten of niet. Kinderen en jongeren daarentegen worden op dit moment massaal gestimuleerd om met deze modellen te leren werken in de hoop de technologie van de toekomst te kunnen gebruiken. Zijn we deze jongeren aan het helpen of zijn we een psychologisch experiment aan het uitvoeren met de jeugd en een 1.8 biljoen parameter computer programma (GPT-4). De vraag om een meer emotionele kant van deze AI modellen te laten zien zal meer en meer voorkomen en al snel luid de vraag, waarom nu?
De nieuwste modellen liggen qua intelligentie dichter bij elkaar en er zijn meer chatbots die zich in de markt komen mengen zoals: Deepseek, Gemini, ... Bedrijven beseffen dit en willen kapitaliseren op de gebruikers die men heeft. Intelligentie is namelijk maar één aspect waarop men in concurrentie kan met elkaar, de emotionele connectie een tweede.
Ondertussen doen OpenAI en andere bedrijven rustig verder zonder het bekendmaken van hun system prompt. Is dit verantwoord of moet de system prompt geopenbaard worden?
De volledige system prompt van dit model is zeer lang vandaar deze ingekorte vorm. Er staan ook zeker goede aspecten in die hier minder tot niet belicht zijn. Wij raden iedereen aan om de volledige system prompt van Claude Sonnet 3.7 te lezen. Dat kan je doen via deze link.