Je nieuwe salesagent heeft een ziel nodig: Lessen uit de constitutie van Claude
“Waarom blijft die bot vragen welk voltage ik nodig heb? Het hele punt is juist dat ik dat nog niet weet.”
Ik heb een klant een ‘guided selling’-proces zien afbreken, drie klikken voor het einde. De bot kon een simpele ‘weet ik niet’ niet aan. De logica klopte, de ervaring niet. Het systeem wist alles van het product en niets van de gebruiker.
Amanda Askell van Anthropic legde ooit uit hoe ze hun AI een ‘constitutie’ hebben gegeven. Geen set regels, maar een karakter. Een besef van verantwoordelijkheid. Een manier om keuzes te maken als de praktijk weerbarstig is. Dat is geen sciencefiction. Dat is precies wat uw CPQ-assistent mist.
Een CPQ-bot zonder stem is gewoon een formulier met leestekens.
Waarom karakter belangrijker is dan regels bij guided selling
De meeste teams denken dat het probleem in de prompts, de flows of een extra conditionele vraag zit. Dat is het niet. Het probleem is dat je assistent geen persoonlijkheid heeft. Hij kan valideren, maar niet helpen. Hij kan afwijzen, maar niet bijsturen.
Het team van Askell publiceerde een constitutie die uitlegt hoe de AI moet handelen, waarom, en waar de harde grenzen liggen. Het is een document over identiteit en verantwoordelijkheid. Het doel is simpel: als een situatie niet door een regel wordt gedekt, moet het model zich nog steeds gedragen als een zinnige gids. Dat is precies wat kopers ook van een verkoopassistent verwachten.
En nee, dit gaat niet over een ‘leuke’ CPQ-bot. Dit gaat over vertrouwen. Acceptatie op de werkvloer hangt af van gemak, duidelijkheid en vertrouwen. De persoonlijkheid van je assistent bepaalt of je die wint of verliest.
De ‘solver’ van je productconfigurator blijft de bron van waarheid. De taak van de assistent is anders: de intentie van de gebruiker interpreteren, nuttige vragen stellen, afwegingen uitleggen en uitkomen op een valide, bouwbaar resultaat. De persoonlijkheid is de brug die de logica bruikbaar maakt.
Leer de bot ‘dat weet ik niet’ te zeggen – en toon dan de best mogelijke volgende stap.
Een CPQ-persoonlijkheid ontwerpen die werkt onder druk
Dit zijn de regels die ik gebruik als ik teams help hun guided selling-assistent een persoonlijkheid te geven die echte gesprekken overleeft.
1) Schrijf een 'voice contract', niet alleen prompts.
Definieer hoe de assistent zich gedraagt bij onduidelijkheid, als de gebruiker tegenstribbelt en wanneer er weinig tijd is. Een goed 'voice contract' past op één pagina en beschrijft toon, plichten en grenzen. Bijvoorbeeld: “Beleefd, direct, nooit belerend. Gaat om met onzekerheid door 2-3 veilige vervolgstappen voor te stellen. Legt de reden uit in één zin.”
2) Accepteer onzekerheid als input.
Je assistent moet antwoorden als ‘weet ik niet zeker’, ‘dat hangt ervan af’ of zelfs foute aannames kunnen verwerken. De juiste reactie is dan om de beslissing kleiner te maken: “Onder of boven de 10 kW? Binnen of buiten? Budget of prestaties voorop?” Zo houd je de vaart erin zonder details te verzinnen.
3) Verklaar beslissingen, niet alleen de uitkomst.
Laat zien hoe je tot de conclusie komt, in heldere taal. “Ik heb optie B aanbevolen omdat die voldoet aan de temperatuureisen en binnen budget blijft. Als de footprint minder belangrijk is, voegt optie C redundantie toe.” Uitleg creëert vertrouwen, en vertrouwen zorgt voor adoptie.
4) Houd harde nee's, maar breng ze zacht.
Je hebt nog steeds harde restricties nodig. Maar de persoonlijkheid moet de intentie van de gebruiker respecteren en alternatieven bieden: “Die combinatie is niet valide vanwege de warmtelast. Als we overschakelen naar de behuizing voor hoge omgevingstemperaturen, behoud je de capaciteit en voldoe je aan de norm.” De toon is net zo belangrijk als de regel.
5) Maak het veilig om van koers te veranderen.
Laat gebruikers een stap terug doen zonder de context te verliezen. “Wilt u de aannames over de omgeving opnieuw bekijken?” Bewaar eerdere antwoorden, markeer de verschillen en voer de checks op de achtergrond opnieuw uit. Mensen proberen verschillende paden uit. Je assistent moet dat als normaal beschouwen, niet als een fout.
Het anti-patroon: De Verhoor-Bot. Hij gedraagt zich als een rigide formulier vermomd als chat. Hij maakt van ‘help me denken’ een opdracht om een vragenlijst in te vullen. Hij straft onzekerheid af. Gebruikers grijpen binnen een week terug naar hun spreadsheets.
Harde regels blijven belangrijk. De persoonlijkheid bepaalt hoe ze overkomen.
Begin deze week: een mini-constitutie voor je CPQ
Je hebt geen document van 20 pagina’s nodig. Je hebt een heldere, testbare intentie nodig voor hoe je assistent functioneert in echte verkoopsituaties.
- Stel een constitutie van één pagina op. Schrijf vijf secties: Rol (‘gids voor de klant, geen poortwachter’), Toon (‘direct, respectvol, nooit neerbuigend’), Beleid bij onzekerheid (‘stel 2-3 afgebakende keuzes voor; nooit specificaties raden’), Uitleg (‘één zin met ‘waarom’ bij elke suggestie’), Harde grenzen (‘niet-onderhandelbare regels met alternatieven’). Laat sales, product en support dit ondertekenen.
- Voeg drie 'onzekerheidsscenario's' toe. Bouw korte flows voor ‘ik weet het niet’, ‘het hangt ervan af’ en ‘verkeerde aanname’. Elk scenario moet leiden tot een valide volgende stap die de configurator kan verwerken.
- Meet vertrouwen, niet alleen clicks. Voeg een simpele feedbackknop toe: “Was deze aanbeveling nuttig?” met twee vervolgopties: “Ik begreep het niet” of “Dit past niet bij mijn vraag”. Analyseer de patronen wekelijks. Pak het grootste knelpunt aan in de constitutie of de logica.
Nog twee stappen die het effect versterken:
Laat de assistent de afwegingen benoemen. Als het systeem een aanpassing voorstelt, leg dan uit wat je wint en wat je verliest. “We kunnen de footprint behouden, maar de levertijd gaat van 2 naar 5 weken.” Zo praten mensen. Zo worden beslissingen echt genomen.
Scheid de productlogica van de gespreksstijl. De productconfigurator bewaakt compatibiliteit en prijzen. De assistent onderhandelt over het begrip. Houd die twee zaken gescheiden, zodat je de stem kunt verbeteren zonder de correctheid van de output in gevaar te brengen. In de praktijk betekent dit een dunne vertaallaag tussen het gesprek en de configuratie. De assistent vertaalt de intentie van de gebruiker naar gestructureerde keuzes voor de ‘solver’. Vervolgens vertaalt hij de feedback van de ‘solver’ terug naar mensentaal, met redenen en alternatieven. Als je het ‘voice contract’ aanpast, breekt er niets in je productregels. Als je de regels aanpast, weet de stem nog steeds hoe hij ze moet uitleggen.
Waarom werkt dit? Omdat kopers je systeem niet beoordelen op kennis van elke technische beperking. Ze beoordelen het op de vraag of het hen helpt een zekere beslissing te nemen, zonder engineering te hoeven bellen. De constitutie maakt dit helpende gedrag herhaalbaar, ook bij uitzonderingen, in nieuwe markten of voor nieuwe verkopers.
Grote leveranciers zien dezelfde dynamiek. Onderzoek naar AI-adoptie onder duizenden professionals in sales, service en marketing laat steeds hetzelfde zien. Het gaat niet om nog een feature. Het gaat om vertrouwen en duidelijkheid op het moment dat je het systeem gebruikt.
Adoptie verdien je meer met de juiste toon dan met extra features.
Een waarschuwing: verwar persoonlijkheid niet met improvisatie. Je assistent moet geen specificaties verzinnen, regels oprekken of fouten verdoezelen om ‘behulpzaam’ te zijn. De persoonlijkheid is er om elegant met onduidelijkheid om te gaan, niet om de correctheid te omzeilen. Het doel van CPQ is nog steeds om te verkopen wat je kunt bouwen, prijzen en leveren. Altijd. Een persoonlijkheid helpt je daar sneller te komen, met minder escalaties en spreadsheets.
De eerste stille winst die je zult zien: minder ‘Kan ik je even bellen?’-momenten van klanten in je selfservice-portaal. De tweede: minder interne vragen aan engineering over routine-afwegingen. En de echte winst: als je een verkoper vraagt waarom hij het systeem gebruikte, antwoordt hij: “Het hielp me om na te denken.” Dan weet je dat de assistent een ziel heeft.
De simpelste test is nog steeds de beste: als een klant ‘dat weet ik nog niet zeker’ kan zeggen, en je assistent helpt hem vol vertrouwen verder, dan ben je op de goede weg.
Een CPQ-assistent met karakter neemt geen beslissingen voor mensen. Hij maakt beslissingen makkelijker voor mensen.
Reacties
Een reactie posten