Axiomer: Hvordan jeg lærer mine AI-agenter at træffe de rigtige valg uden kontrol
- Tavs Viden
- Erfaringer og værdier der ikke er eksplicit defineret, men som er afgørende for kvalitet.
- Aksiomer
- Fundamentale sandheder og ledestjerner der guider agenters ræsonnement uden mikrostyring.
- Lederens Hensigt (Commander's Intent)
- En militær ledelsesfilosofi (Auftragstaktik) hvor målet er vigtigere end den specifikke ordre.
Mikkel Frimer-Rasmussen, Frimer-Rasmussen Consulting
Vi står midt i et vagtskifte. Med introduktionen af de nyeste ræsonnerende modeller – som Gemini 3.1 Pro Preview og Claude Opus 4.6 – er vores primære opgave fundamentalt forandret.
Vi orkestrerer agenter.
Vi er gået fra at arbejde med et værktøj til at uddelegere til agenter. Vi præsenterer dem for et problem, hvorefter vi forventer, at de designer arkitekturen, bygger løsningen, tester den og udbedrer deres egne mangler undervejs.
Overfladisk set virker det ubesværet. Men under motorhjelmen lurer et kritisk koordineringsproblem. Autonome agenter er lynende hurtige og besidder uendelig hukommelse for teknisk syntaks. Desværre fødes de komplet retningsløse.
![][image1]
OpenAI illustrerede for nylig dette i deres arbejde med “Harness Engineering”. Et lille hold ingeniører bad deres autonome agenter om at bygge et produkt bestående af en million linjer kode. Agenterne udarbejdede alt: kernearkitektur, kritiske sikkerhedstests og dokumentation. Menneskene skrev nul linjer manuelt. Alligevel handlede deres vigtigste opdagelse hverken om skala eller computerkraft. Den handlede om forsvinden af “det implicitte”.
Deres konklusion var klar: What the agent can’t see doesn’t exist.
Tavs viden
Alt det tillærte, agenten ikke kan lokalisere i systemet – virksomhedskulturen, de udtalte og uudtalte meninger om kvalitet, erfaringerne vi deler i kaffepausen – eksisterer slet og ret ikke for den. Agenten kan udelukkende handle ud fra den information, der er eksplicit gjort tilgængelig.
Uden en overordnet, nærmest filosofisk ramme vil en agent med lethed bygge applikationer, der teknisk set kompilerer og opfylder den snævre kravspecifikation, men som alligevel føles skrøbelige, usikre og kønsløse i praksis.
Dette skaber et bydende behov. Vi er tvunget til at formalisere vores allermest grundlæggende forventninger til det arbejde, der skal udføres.
Fejlslutningen ved alenlange manualer
I forsøget på at styre dette autonome arbejde tyr mange til at skrive enormt voluminøse instruktionsmanualer. Man koder dokumenter, der forsøger at tage højde for ethvert tænkeligt scenarie. Det er et velkendt fænomen i klassisk organisationsledelse: Jo mere man forsøger at mikrostyre og regelsætte et komplekst miljø, jo mere skrøbeligt og rigidt bliver systemet.
Man kan aldrig forudse tænkelige “edge-cases”, og en intelligent aktør (menneskelig såvel som kunstig) mister overblikket i mængden af petitesse-ordrer.
Forsøg på kontrol gennem direkte instruktion bliver til bureaukrati.
I stedet har flere førende forskningslaboratorier adresseret problematikken ved at bygge en Constitution til deres modeller eller forsøgt at kode en Soul ind i systemet.
Jeg foretrækker at arbejde med Axiomer.
I videnskabsteori og matematik er aksiomer de ultimative sandheder. Det fundament, der ikke kræver et matematisk bevis, men udgør det knudepunkt, hvorfra al anden viden strømmer.
![][image2]
Euklid behøvede blot fem af slagsen for at udlede hele sin geometriske verdensforståelse.
Thanks for reading! Subscribe for free to receive new posts and support my work.
Gevinsten ved at give agenter en håndfuld absolutte ledestjerner frem for et rullende bjerg af manualer er markant. Et aksiom overlever ny teknologi, ignorerer kontekst-skift og tillader agenten at ræsonnere sig fri af de fastlåste problemer, manuel detailstyring uvægerligt skaber.
Dertil virker de på tværs af agenter fra forskellige leverandører.
Endnu vigtigere skaber de emergent, intelligent adfærd sammen. Kombinerer du et aksiom om “Nytte” med et aksiom om “Sikkerhed”, vil agenten selv indse, at en ny login-mekanisme øjeblikkeligt kræver en krypteret token-strategi og en specifik håndtering af persondata. Du behøver ikke have forudset problemet for, at agenten løser det.
Et værdigrundlag destilleret fra praksis
Mit workflow med autonome agenter (som jeg orkestrerer i Google Antigravity-miljøet) bygger på otte faste ankerpunkter. De udgør agentens grundlov og indlæses ufravigeligt, før første linje kode udtænkes.
Disse aksiomer er ikke grebet ud af den blå luft, men trækker bevidst på discipliner, der gennem årtier har mestret kunsten at balancere høj kompleksitet, enorm risiko og utilgivende deadlines:
1 & 3: Glæde og Kvalitet (Æstetik som funktion) Med rødder i klassisk industridesign forstår vi, at æstetik og pålidelighed sjældent er modsætninger, men to sider af samme mønt. Agenten instrueres derfor i at maksimere brugerens oplevede glæde og insistere på det ypperste håndværk. Løsningen skal føles raffineret, ligegyldigt om det er en grafisk overflade eller backend logik. Udvikling, der blot er “godt nok”, forkastes i erkendelsen af, at et system kun overlever langsigtet, hvis det er en absolut glæde at anvende og vedligeholde.
2 & 6: Nytte og Ansvarlighed (Kampen mod entropi) Inspireret af moderne systemtænkning og agile lean-principper er agenters konstante parameter at fjerne spild. Teknologi frigjort fra ægte menneskelig værdi anskues som ren entropi. Agenten opererer med en streng ansvarsfølelse over for den kodebase, den arver og udvider, og nægter at introducere kognitive byrder, unødig kompleksitet eller kortsigtet teknisk gæld.
4 & 5: Sikkerhed og Gennemsigtighed (Luftfart og Resiliens) Vi låner fra luftfartens konsekvente og ubønhørlige sikkerhedskultur. Fejl må under ingen omstændigheder være skjulte eller skjult i tåge. Agenten navigerer efter “secure by design”, og sværger gennemsigtighed igennem hele processen. Det understreges, at der ikke tolereres sorte bokse eller uigennemskuelig logik. Hvis en agent træffer et arkitektonisk valg eller indfører en modifikation, har den en ufravigelig forpligtelse til eksplicit at dokumentere sine kausale ræsonnementer for eftertiden.
![][image3]
Dette fører mig til aksiom 7 og 8, som udgør kernen i, hvorfor systemet fungerer i praksis, og som forankrer AI-samarbejdet i strategisk ledelse og tung ingeniørvidenskab:
7: Lederens hensigt (Commander’s Intent) Dette er fundamentet i alt ægte mission command; klassisk militærteori fostret i det 19. århundrede under navnet Auftragstaktik. Agenten skal først og fremmest forstå og internalisere min overordnede strategiske intention – ikke den specifikke taktiske ordre, der faldt for tre sekunder siden. Hvis min detaljerede instruktion står i umiddelbar modsætning til vores langsigtede mål, har agenten absolut mandat – og stærk forpligtelse – til at udfordre retningen og bringe et overlegent alternativ i spil.
8: Løbende verifikation (Continuous Verification) Erfaringen fra moderne DevOps og kritiske infrastruktur-beredskaber viser, at tillid kræver stringente beviser. Antagelser accepteres aldrig. Agenten har forbud mod at efterlade igangværende arbejde, før en formel verifikationscyklus (via tests, kompileringer og log-gennemsyn) har valideret resultatet. Bevisbyrden for, at softwaren er intakt, ligger udelukkende hos systemet; som menneske kigger man blot med fra sidelinjen.
Modgiften mod det middelmådige
Ovenstående er essentielt, fordi vi ellers konfronterer en alvorlig iboende systemrisiko i ethvert arbejde baseret på de fundamentale LLM-modeller: den evige tyngdekraft ned mod gennemsnittet.
Sprogmodellerne bag moderne AI er formet over i princippet hele den globale mængde af tekst, kode og diskurs. Dermed har de også lært hele menneskehedens kompromiser. Uden eksplicit modvirkning konvergerer modeller lynhurtigt ind imod en ufarlig, homogen, fuldstændig kønsløs – gennemsnitlig og udvandet – metervare-standard.
Hvis en agent skal skabe noget originalt, skal den trækkes stærkt mod ekstremerne. “Maksimér glæden” tvinger algoritmen til at fravælge normens generiske sikkerhed til fordel for en raffineret æstetik. Ligesom en parameter i komplekse systemers dynamik, fungerer aksiomer som strange attractors; et tiltrækkende fixpunkt.
Selvom du i løbet af adskillige projekter vil tillade fri form for farver, funktion og interface, fordrer aksiomerne krystalklart den samme, konsekvente og skarptskårne grad af overlegen kvalitet på tværs af samtlige udgivelser.
Succes kræver koordination, ræsonnement og kvalitetskontrol.
For soloingeniøren, og den tværfaglige fagspecialist der nu skal trække arbejdet med AI i mål, har fænomenet leverage opslugt hele produktionskæden.
Når vi vælger vores fundamentale aksiomer med en til formålet egnet ledelsesmæssig skarphed, har maskinen mulighed for fuldt ud at bære selve ræsonnementet for de næste tusind operationer.
Og derefter foretager vi verifikation.