«Vi skrudde på AI-assistenten, og tilbudene gikk raskere. Vi sendte også tre feil til engineering og ga bort margin på to avtaler.»
Høres det kjent ut? Da har du ikke et AI-problem. Du har et logikkproblem som AI bare gjorde synlig – i full fart.
Jeg ser dette mønsteret overalt: Et velment AI-lag legges på toppen av et CPQ-system som allerede skjuler kompleksitet bak innfløkte regler, unntak og udokumenterte løsninger. AI-en høres selvsikker ut, grensesnittet ser moderne ut, og antall feil tikker stille oppover. Selvtillit uten begrensninger er en risikabel kombinasjon.
AI er en akselerator. Hvis logikken din er rotete, akselererer den bare rotet.
Den skjulte risikoen med «svarte bokser» i CPQ
De fleste tror løsningen er bedre «prompts» eller en demo fra en ny leverandør. Det er det ikke. Det virkelige problemet er forklarbarhet. Hvis konfigurasjonslogikken din ikke kan svare på et enkelt «hvorfor» i klartekst, vil enhver AI på toppen arve den samme uklarheten og pynte på den med veltalende svar.
Her er forskjellen som betyr noe. I systemer som kun bruker symbolsk logikk for konfigurasjon, får du en klar grense: ja/nei, tillatt/forbudt, basert på regler du kan inspisere. Den grensen er gull verdt. Den begrenser feil og gjør det mulig å spore resonnementer. Hvis den grensen er svak eller gjemt i et virvar av unntak, har du skapt en svart boks som selv ditt eget team ikke forstår.
AI fungerer best når fundamentet er solid. Uten klar logikk begynner den å gjette. Gjetningene ser nyttige ut i en demo, men blir dyre i produksjon. Det farlige er ikke feilen i seg selv, men laget med falsk autoritet som får folk til å stole på den.
Hvis systemet ikke kan forklare seg selv, vil ikke selgerne stole på det.
La meg kalle det vanligste feilmønsteret jeg ser «den selvsikre gjetningen». AI-en fyller hull i produktlogikken med plausibelt språk. Det føles smart fordi det er lett å lese. Det feiler fordi de underliggende reglene aldri var tydelige. Du får raskere resultater, men saktere læring, fordi ingenting i prosessen kan revideres eller testes.
Fra svart boks til glassboks
Vi trenger ikke store, dramatiske grep. Vi trenger bunnsolid klarhet i systemene våre. Tenk på produktlogikken som bærebjelkene i en bygning. De fleste ser dem ikke, men alt hviler på dem. Når bjelkene er korrekte og merket, blir AI en sterk lærling. Når de er bøyd og skjult, blir AI en selvsikker historieforteller.
Her er de praktiske reglene jeg lærer team å følge før de legger AI inn i salgsprosessen:
Regel 1: Begrensninger først, innhold etterpå. Bruk regelmotoren til å definere hva som er mulig. La AI-en jobbe innenfor disse rammene for å lage forklaringer, dokumenter og veiledning. Eksempel: Regelmotoren validerer en kjølepakke for en bestemt region; AI-en skriver et sammendrag og notater om risiko knyttet til de valgte komponentene.
Regel 2: Hvert forslag må svare på «fordi». Hvis systemet foreslår en konfigurasjon eller en prisjustering, må det vise årsaken på et enkelt språk: regelen, kostnadsdriveren eller retningslinjen. Bygg et «Fordi»-panel ved siden av hver anbefaling.
Regel 3: Gjør logikken sporbar. Gi brukerne en måte å klikke på et regelnavn og se beskrivelse, omfang og eier. Hvis eierskapet er uklart, vil regelen forfalle. Hvis regelen ikke kan oppsummeres i én setning, del den opp.
Regel 4: Lever regresjonstester sammen med CPQ-løsningen. Hver endring i regler eller «prompts» må kjøres gjennom et sett med standard-scenarioer. Sammenlign før-og-etter-resultater for både konfigurasjon og AI-generert tekst. Hvis du ikke kan kjøre tester på timer, blir du redd for å endre noe.
Regel 5: Rydd opp i informasjon som ligger utenfor systemet. Prisinnstillinger, regionsunntak og godkjenninger som lever i innbokser eller regneark, vil sabotere ethvert AI-lag. Én kilde til sannheten. Ellers ender du opp med flere sannheter og kreative fortellinger.
Hver regel du legger til, er en kostnad for fremtidige endringer. Gjør reglene enklere, ikke lengre.
Ser du mønsteret? AI er ikke helten. Nøkkelen er ren, symbolsk logikk med klare grenser, eid av folk som kan forklare den. Da kan AI sette fart på dialog, dokumenter og innsikt. Den blir en eksperts lærling – rask og hjelpsom – fordi eksperten allerede har satt opp spillereglene.
Når logikken er glassklar, kan en selger se hvorfor motorstørrelsen endret seg da høyden over havet økte. En fra økonomi kan se hvorfor en rabatt ble blokkert på grunn av servicekapasitet. Forklaringer bygger tillit. Tillit driver bruk. Bruk skaper data. Data forbedrer prising og veiledning. Det er den positive spiralen du vil ha.
Hva du kan gjøre dette kvartalet
Her er en kort, gjennomførbar plan for å forberede CPQ-systemet ditt for AI uten å stoppe salget:
1) Rydd opp i de 20 viktigste reglene. Finn de mest brukte reglene og unntakene. For hver av dem, skriv en forklaring på én setning og utnevn en eier. Fjern duplikater. Bytt ut fritekst-unntak med standardiserte valg.
2) Bygg et sporbart «Fordi»-lag. I CPQ-systemet, vis årsakskoder for viktige endringer, som produktbytter eller prisjusteringer. Start med de tre vanligste «hvorfor»-spørsmålene du får fra selgerne. Vis regelnavn, parameter og en kort, lesbar forklaring.
3) Etabler standard-scenarioer og kjør tester ukentlig. Velg 10 representative tilbud på tvers av regioner og produktlinjer. Lagre input og forventet output. Etter enhver regelendring, kjør testen på nytt og gjennomgå forskjellene med produkt- og økonomiavdelingen.4) Sett opp autovern for AI, ikke nye funksjoner. Tving AI-laget til å sitere regelnavn eller prispolicyer når det anbefaler noe. Krev manuell godkjenning når et forslag berører sikkerhet, garanti eller minimumsmargin. Blokker generering utenfor det regelmotoren har godkjent.
5) Fjern én manuell omvei hver uke. Identifiser det vanligste «skyggeregnearket» eller manuelle unntaket og eliminer det. Små seire bygger momentum.
Adopsjon – at systemet faktisk blir brukt – er den eneste målingen som teller.
Hva skjer hvis du ikke gjør dette? Du får fortsatt fart, men i feil retning. Den svarte boksen lærer selgerne i det stille å stole på veltalende svar fremfor sporbar logikk. Omarbeid flyttes nedstrøms. Kvalitetskontroll blir en evig kamp mot nye, uforutsette problemer. Systemet kollapser ikke. Det sklir ut.
Og hvis du gjør det? Du får en sammensatt fordel. Nyansatte kommer raskere i gang fordi de kan spørre systemet, ikke en travel kollega. Produktoppdateringer rulles ut trygt fordi du kan teste dem på timer. Økonomiavdelingen stoler på rabattgrensene fordi de kan se sporet av beslutningen. Ledelsen ser færre overraskelser.
Et siste praktisk tips: Bruk AI der forklaring betyr mer enn dømmekraft. La den oversette regler til kundespråk, skrive sammendrag og lage tilbudstekster. Ikke la den finne opp konfigurasjoner eller priser som regelmotoren din ikke allerede har godkjent. Regelmotoren bestemmer hva som er gyldig. AI hjelper folk med å forstå og kommunisere det.
De selskapene jeg ser lykkes med dette, behandler CPQ som kritisk forretningsinfrastruktur, ikke et tilleggsprodukt. De investerer først i rene regler, tydelig eierskap og raske testsykluser. Deretter legger de til AI for å fjerne friksjon i arbeidet *rundt* disse reglene. Resultatet er et system som føles som veiledning, ikke kontroll. Selgeren sitter fortsatt i førersetet, men systemet hindrer dem i å fly inn i et fjell.
Å forberede seg på en AI-drevet salgsfremtid er ikke et kvantesprang. Det er rydding. Rydd opp i reglene. Vis frem årsakene. Test tidlig og ofte. Etter det blir AI en trygg akselerator.
Vil du ha AI du kan stole på i salg? Start med å sørge for at CPQ-systemet ditt kan forklare seg selv.
Kommentarer
Legg inn en kommentar