Gå til hovedinnhold

Innlegg

Viser innlegg fra februar, 2026

Hvorfor din CPQ trenger narrativdata før du legger til AI

En språkmodell vet hva en lastebil er. Den vet bare ikke noe om dine lastebiler. Det er her de fleste stopper opp når de prøver å legge AI på toppen av en CPQ som bare forstår varenummer, attributter og regler. Svarene ser overbevisende ut, men resonnementet er tynt. Selgeren spør hvorfor systemet anbefalte sovekabin, og får ikke noe svar. Jeg har sett dette i utallige workshops: Med en gang modellen får tydelig kontekst for hvorfor og når hvert valg er relevant, endrer samtalen seg. Systemet slutter å gjette og begynner å gi råd. Forskjellen er ikke AI-magi. Det er data med en fortelling. Delen som mangler i dataene dine Regeltabeller forteller systemet hva som er *gyldig*. De sier ingenting om hvorfor et valg er *smart*, når det gjelder, eller når det er en dårlig idé. Dette gapet flytter vurderingene tilbake til e-posttråder, regneark og stilltiende kunnskap som bare noen få sitter på. Så kaller vi det et adopsjonsproblem. For at AI-en skal kunne resonnere, trenger den ikke flere ...

Tillit skalerer ikke med mindre du designer din CPQ for det

Den beste tekniske selgeren din har nettopp brukt ti timer på å bygge bunnsolid tillit hos en kunde. Behovene er avklart. Kompromissene er smarte. Alle nikker. Så kommer tilbudet: et 12-siders regneark med produktkoder. All fremdrift stopper opp. Jeg har sett det for mange ganger. Selgeren bygger tillit i møterommet, men så river verktøyene våre den ned etterpå. Tilbudet er teknisk korrekt, men kjøpsopplevelsen skaper nå mistillit. Tillit bygges i samtaler og rives ned i regneark. Dette handler ikke om dårlig opplæring. Det er et problem med systemdesign. Den skjulte kostnaden ved overleveringer De fleste ser på CPQ som et tilbudsverktøy. Det håndhever produktregler, beregner priser og lager et dokument. Det høres fornuftig ut, helt til du ser hva som skjer mellom behovsanalyse og kontrakt. Kunden forlater møtet med en krystallklar forståelse av hva de skal oppnå: «Vi trenger løsning X for å passe inn på Y plass, med Z kapasitet, og vi er mest opptatt av energikostnad og oppetid.» Dok...

Skalerbar CPQ: Fra ekspertflaskehalser til vekstmotor

«Vi kan sende tilbudet så snart Lars har sjekket konfigurasjonen.» Det er fredag. Kunden spurte på mandag. Lars er flink, men han sjonglerer tre prosjekter og to eskaleringer. Innen tilbudet går ut, har det gått for lang tid, og konkurrenten er allerede i dialog med innkjøpsavdelingen. Jeg har sett dette mønsteret i årevis. Noen få helter holder skuta flytende, men de er også en bremsekloss for vekst. Ikke med vilje, selvfølgelig. Det er bare sånn systemet er skrudd sammen. Se for deg noe annet: En helt vanlig selger skriver et kort notat på enkelt norsk, får opp to ferdigvaliderte alternativer på minutter og sender et ryddig tilbud samme dag. Ingen omveier. Ingen endeløse Slack-tråder. Ingen venting på Lars. Hva er det som *egentlig* bremser salget? Mange tror problemet er hastighet eller et dårlig brukergrensesnitt. Den virkelige utfordringen er at salgsprosessen blander sammen to helt forskjellige jobber: å forstå hva kunden trenger, og å bevise hva som faktisk er teknisk mulig. Nå...

AI vil forsterke dårlig CPQ raskere enn god CPQ

«Vi skrudde på AI-assistenten, og tilbudene gikk raskere. Vi sendte også tre feil til engineering og ga bort margin på to avtaler.» Høres det kjent ut? Da har du ikke et AI-problem. Du har et logikkproblem som AI bare gjorde synlig – i full fart. Jeg ser dette mønsteret overalt: Et velment AI-lag legges på toppen av et CPQ-system som allerede skjuler kompleksitet bak innfløkte regler, unntak og udokumenterte løsninger. AI-en høres selvsikker ut, grensesnittet ser moderne ut, og antall feil tikker stille oppover. Selvtillit uten begrensninger er en risikabel kombinasjon. AI er en akselerator. Hvis logikken din er rotete, akselererer den bare rotet. Den skjulte risikoen med «svarte bokser» i CPQ De fleste tror løsningen er bedre «prompts» eller en demo fra en ny leverandør. Det er det ikke. Det virkelige problemet er forklarbarhet. Hvis konfigurasjonslogikken din ikke kan svare på et enkelt «hvorfor» i klartekst, vil enhver AI på toppen arve den samme uklarheten og pynte på den med velt...

Din nye selger trenger en sjel: Lærdommer fra Claudes konstitusjon

«Hvorfor spør roboten meg om spenning når hele poenget er at jeg ikke vet det ennå?» Jeg har sett en kunde forlate en veiledet salgsprosess tre klikk før målstreken fordi assistenten ikke taklet et enkelt «usikker». Logikken var korrekt. Opplevelsen var det ikke. Systemet visste alt om produktet, men ingenting om brukeren. Amanda Askell fra Anthropic beskrev en gang hvordan de formet AI-en Claude med en «grunnlov». Ikke en liste med regler, men en karakter. En følelse av forpliktelse. En måte å bruke skjønn på når verden ikke er ryddig. Dette er ikke science fiction. Det er nøyaktig det CPQ-assistenten din mangler. En CPQ-bot uten en stemme er bare et skjema med tegnsetting. Hvorfor karakter slår regler i veiledet salg De fleste team tror problemet er prompts, flyter eller ett betinget spørsmål til. Det er det ikke. Problemet er at assistenten din mangler etos. Den kan validere input, men ikke hjelpe. Den kan avvise, men ikke vise en bedre vei. Poenget med en slik «grunnlov» er enkelt...