En samtale med min AI Navigator om innovation, governance og den skjulte kompleksitet

Indledning – præmissen

AI er ikke længere et eksperiment.
Low-code, no-code og agentbaserede løsninger gør det muligt at automatisere processer, bygge beslutningsstøtte og orkestrere arbejdsgange – uden klassisk softwareudvikling.

ROI’en er tydelig. Hastigheden er reel.

Men i takt med at vi demokratiserer udvikling, opstår et nyt spørgsmål:
Hvordan sikrer vi, at innovation ikke løber fra governance?

For at udfordre mine egne antagelser har jeg haft en faglig samtale med min AI Navigator Agent. Ikke for at få simple svar – men for at teste kompleksiteten i det, vi er i gang med at bygge.

Det, der følger, er en dialog om low-code AI, agentarkitektur og organisatorisk ansvar.

1. Demokratisering eller forskydning af kompleksitet?

Jeg:
Low-code AI lover jo en enorm ROI. Vi kan bygge løsninger i fx Microsoft Copilot Studio eller orkestrere flows via LangChain uden at skrive traditionel kode. Er det ikke bare en sund demokratisering?

AI Navigator:
Jo – men demokratisering fjerner ikke kompleksitet. Den flytter den.

Da Ward Cunningham introducerede begrebet teknisk gæld, beskrev han, hvordan hurtige løsninger skaber fremtidig kompleksitet. Low-code AI reducerer initial kode, men øger systemisk kompleksitet:

  • Logik ligger i prompts
  • Data afhænger af eksterne modeller
  • Adfærd kan ændre sig ved modelopdateringer
  • Integrationer er skjulte i workflows

Vi kan kalde det model debt eller agent debt.

Det er ikke et argument mod innovation – men for arkitektonisk bevidsthed.

Litteratur & referencer:

  • Ward Cunningham – Technical Debt
  • Microsoft Copilot Studio
  • LangChain

2. Shadow IT eller noget mere?

Jeg:
Er det her ikke bare en gentagelse af det, Gartner kaldte Shadow IT? Forretningen bygger selv løsninger.

AI Navigator:
Shadow IT var ofte passive systemer – regneark, SaaS-værktøjer, lokale databaser.

AI-agenter handler.
De træffer beslutninger.
De ændrer processer dynamisk.

Når citizen developers bygger agenter uden central registrering, opstår det, vi kunne kalde Agent Sprawl:

  • Uregistreret automatisering
  • Uformelle datakilder
  • Manglende versionering
  • Uklart procesansvar

Forskellen er, at vi går fra “skygge-systemer” til “skygge-beslutningssystemer”.

Det ændrer risikoprofilen markant.

Litteratur & referencer:

  • Gartner – Citizen Development & Shadow IT
  • Citizen Developer-begrebet

3. Governance i en verden af black-box agenter

Jeg:
Hvis modellen bag en agent opdateres uden vores kontrol, mister vi så ikke determinismen i vores processer?

AI Navigator:
Det er netop governance-udfordringen.

I klassisk software kan man fryse en version.
I AI-systemer kan adfærden ændre sig, selv uden kodeændring.

Derfor har organisationer brug for:

  • Model version pinning
  • Prompt versionering
  • Audit logging
  • Human-in-the-loop

Det er også her, rammer som National Institute of Standards and Technology AI Risk Management Framework bliver relevante. Frameworket arbejder med dimensionerne:

  • Govern
  • Map
  • Measure
  • Manage

Tilsvarende stiller EU AI Act krav om dokumentation, risikoklassificering og menneskelig kontrol.

Spørgsmålet er ikke, om vi skal bruge agenter – men om vi kan dokumentere dem.

Litteratur & referencer:

  • National Institute of Standards and Technology – AI RMF
  • EU AI Act

4. Når agenter overvåger agenter

Jeg:
Vi taler allerede om validator-agenter og policy-agenter. Men risikerer vi ikke bare at bygge lag på lag af kompleksitet?

AI Navigator:
Multi-agent-arkitektur er allerede en realitet i frameworks som AutoGen og CrewAI.

Strukturen kan se sådan ud:

  • Operativ agent
  • Validator-agent
  • Compliance-agent
  • Audit-agent

Det øger robustheden – men også kompleksiteten.

Organisationer skal derfor tænke i:

  • Klar ansvarsfordeling
  • Central registrering af agenter
  • Fallback-mekanismer
  • Kill-switch princip

Ellers bevæger vi os fra innovation til systemisk sårbarhed.

Litteratur & referencer:

  • AutoGen
  • CrewAI
  • Multi-agent system theory

5. Geopolitik og AI supply chain risk

Jeg:
Hvis vores kritiske processer kører på amerikanske API’er og proprietære modeller, har vi så i praksis outsourcet beslutningskraft?

AI Navigator:
Det er en strategisk dimension, der ofte overses.

Afhængighed af:

  • Cloud-infrastruktur
  • Proprietære modeller
  • Eksterne API’er

skaber det, man kunne kalde AI Supply Chain Risk.

Det handler ikke om at være anti-cloud.
Det handler om:

  • Exit-strategier
  • Reproducerbarhed
  • Dokumenterede data foundations
  • Arkitektonisk modularitet

Robust innovation kræver valgmuligheder.

Litteratur & referencer:

  • AI supply chain security research
  • Vendor lock-in teori
  • Cloud governance best practices

6. Innovation uden naivitet

Jeg:
Så vi skal altså ikke bremse innovationen – men professionalisere den?

AI Navigator:
Præcis.

Low-code AI er ikke problemet.
Manglende governance er.

Organisationer bør arbejde med:

  • Central agent registry
  • Versioneret prompt repository
  • Databaser med klar datamodel
  • Regelmotorer, der supplerer LLM’er
  • Compliance tagging (#GDPR #Finance #HR #HighRisk)
  • Arkitektur-review før produktion

Det er ikke innovationshæmmende.
Det er innovationsmodnende.

Afsluttende refleksion

Jeg er ikke skeptisk over for AI.

Tværtimod.

Jeg ser low-code og agentbaserede løsninger som en enorm mulighed for organisatorisk acceleration.

Men jeg ser også, at vi står midt i en arkitektonisk overgang:

Fra applikationer
til beslutningssystemer.

Fra kode
til orkestreret intelligens.

Spørgsmålet er ikke, om vi skal slippe AI-agenter løs.
Spørgsmålet er, om vi kan gøre det med samme professionalisme, som vi forventer af klassisk softwarearkitektur.

Måske er den vigtigste AI-kompetence ikke at bygge agenter.
Måske er det at kunne styre dem.

Referencer og links

I nedenstående lidt inspiration til nogle af ovenstående emner.

📚 1️⃣ Klassisk litteratur om Shadow IT

🔹 Haag & Eckhardt (2017) – The Emergence of Shadow IT

Haag, S., & Eckhardt, A. (2017).
“Shadow IT: A literature review and research agenda.”
Business & Information Systems Engineering.

Denne artikel er en af de mest citerede akademiske gennemgange af Shadow IT.
Den analyserer:

  • Hvorfor medarbejdere omgår IT-afdelingen
  • Innovation vs. governance
  • Kontroltab
  • IT consumerization

🔹 Behrens (2009) – Shadow Systems

Behrens, S. (2009).
“Shadow systems: The good, the bad and the ugly.”
Communications of the ACM.

En klassisk artikel om uofficielle systemer i organisationer.

🔹 Gartner – Citizen Development & Shadow IT

Gartner har gennem mange år analyseret:

  • Citizen Developer-bevægelsen
  • Shadow IT
  • IT consumerization

Relevante rapporter:

  • “Create a Governance Framework for Citizen Development”
  • “How to Control Shadow IT”

(Adgang kræver ofte abonnement, men bruges bredt i enterprise-sammenhæng.)

📚 2️⃣ Shadow AI – nyere forskning og analyser

Begrebet Shadow AI er nyere og endnu ikke fuldt akademisk konsolideret, men anerkendte institutioner har publiceret analyser.

🔹 MIT Sloan Management Review – Generative AI Governance

MIT Sloan Management Review

Flere artikler fra 2023–2024 om:

  • Generative AI governance
  • Uautoriseret brug af ChatGPT i virksomheder
  • Policy design

🔹 Harvard Business Review – Shadow AI

Harvard Business Review

Artikler om:

  • Employee use of generative AI without approval
  • Governance challenges
  • Responsible AI implementation

Søg på:
“Shadow AI in the enterprise”

🔹 IBM Institute for Business Value – AI Governance Reports

IBM

Har publiceret analyser om:

  • Enterprise AI risk
  • AI governance maturity
  • Trust & transparency

📚 3️⃣ AI Governance Frameworks (relevant til Shadow AI)

🔹 NIST AI Risk Management Framework

National Institute of Standards and Technology

Den mest citerede offentlige governance-ramme for AI.

Direkte link:
https://www.nist.gov/itl/ai-risk-management-framework

🔹 EU AI Act

EU AI Act

Relevant ift. dokumentation, risikoklassificering og human oversight.

Officiel side:
https://artificialintelligenceact.eu/

🔹 ISO/IEC 42001 – AI Management Systems

ISO

Standard for AI management systems.
Relevant ift. formaliseret governance.
https://www.iso.org/standard/81230.html

📚 4️⃣ Socioteknisk teori & organisatorisk kompleksitet

Hvis du vil løfte dit indlæg teoretisk:

🔹 Conway’s Law

Melvin Conway

“Organizations which design systems are constrained to produce designs which are copies of the communication structures of these organizations.”

🔹 Principal–Agent Theory

Klassisk økonomisk teori (Jensen & Meckling, 1976).
Relevans:
Ledelse vs. medarbejder-incitamenter i Shadow IT / AI.

🔹 Sociotechnical Systems Theory

Trist & Emery (1960’erne).
Vigtigt perspektiv på:

  • Samspillet mellem teknologi og organisation
  • Utilsigtede effekter ved teknologisk acceleration

📚 5️⃣ Multi-Agent Systems (relevant til agent-lag)

🔹 Wooldridge, M. (2009)

“An Introduction to MultiAgent Systems”

En klassiker i agent-teori.

🔹 Frameworks

  • AutoGen
  • CrewAI
  • LangChain