I mars 2026 gjennomførte vi en spørreundersøkelse blant utviklere i Nav om erfaringer med AI-kodeverktøy. 163 personer svarte over 21 dager. Hovedbildet: stor entusiasme for produktivitetsverdi — men også en uro for hva vi mister på veien.
Hvem svarte?
Respondentene er erfarne: 57 % har over 11 års erfaring som teknolog, og 27 % har 6–10 år. Kun 5 % har 0–2 år. Svarene gjenspeiler perspektivet til seniorutviklere.
93 % bruker AI-kodeverktøy aktivt
Bare 12 av 163 respondenter (7 %) oppgir at de ikke bruker AI-kodeverktøy. De som bruker verktøyene, bruker i snitt 2,6 stykker — 74 % bruker to eller flere.
Hvilke AI-kodeverktøy bruker du?
Terminalagenter er overraskende populære. 58 % bruker minst én terminalbasert agent. Copilot CLI alene brukes av over halvparten. Merk at noen kan ha forvekslet Claude Code med bruk av Claude-modellene via chat.
«Copilot CLI og plan-modus ble en øyeåpner, og jeg innså at AI faktisk kan bli ekstremt nyttig. Fram til da brukte vi AI mest som erstatning for Google og StackOverflow.»
Hvor gir AI mest verdi?
Respondentene valgte opptil tre områder. At kodeforståelse topper lista, samsvarer godt med at Nav har store og komplekse kodebaser. AI som «forklarer hva koden gjør» er verdifullt selv for erfarne utviklere.
Hvor gir AI mest verdi? (velg opptil 3)
«Samlet inn info og genererte dokumentasjon av ca 250 brev som utveksles mellom Nav og institusjoner i EU. Tidligere ansett som en ‘for stor’ oppgave.»
73 % er fornøyde — men med nyanser
Undersøkelsen stilte syv påstander på en skala fra «helt uenig» til «helt enig». Grønt viser enighet, rødt uenighet og grått nøytrale svar:
Hvor enig er du i følgende påstander?
Produktivitetsverdi oppleves bredt. Tre av fire mener AI hjelper dem å komme videre og fullføre oppgaver raskere.
«Etter å ha planlagt sammen i et par timer, brukte den 20 minutter på å implementere og treffer blink etter første forsøk. Løsningen ville tatt meg mer enn en uke å kode for hånd.»
Kodekvalitet er et åpent spørsmål. Bare 34 % mener AI-generert kode holder god nok kvalitet til at den ikke skaper ekstra arbeid i code review — den største enkeltgruppen (43 %) er nøytral.
«AI er veldig god med å skrive kode som ser riktig ut, men det betyr ikke at koden er riktig. Til slutt føler jeg ikke at koden er min kode og da mister jeg eierskap.»
Bekymringen for kompetansetap er reell. 59 % er bekymret for at AI kan svekke den dype forståelsen av kode og teknologi. Faktisk er 41 % både fornøyde med verktøyene og bekymret for kompetanseeffektene — det er ikke et enten/eller.
«Føler ofte at code completion påvirker meg til å ta enkleste vei og hindrer meg fra å tenke ordentlig. Veldig positiv opplevelse når man beskriver et problem godt og får akkurat den koden man kunne tenkt seg å skrive.»
Sikkerhet og personvern er stort sett avklart
Halvparten (50 %) er uenige i at personvern eller sikkerhet hindrer dem i å bruke AI-verktøy fullt ut. Kun 25 % opplever dette som en barriere — et tegn på at sikkerhetsarbeidet i Nav har hatt effekt.
Én ting å endre
Respondentene valgte det viktigste forbedringsområdet:
Hva er det viktigste å endre?
Opplæring er det klart viktigste. Nesten en tredjedel ønsker bedre veiledning i effektiv bruk. Nr. 2 — at AI-verktøyene forstår kodebasen og interne rammeverk bedre — handler om det samme: å gjøre verktøyene mer nyttige i praksis.
De som ikke bruker AI
12 respondenter (7 %) oppgir at de ikke bruker AI-kodeverktøy. Halvparten foretrekker å kode uten AI. De har i snitt lavere tilfredshet (3,2 vs. 4,0 av 5), og flere uttrykker bekymring for kompetanseeffekter. Denne gruppen bør ikke avfeies — de stiller viktige spørsmål om langsiktig kompetanseutvikling og teknologimodenhet.
«Jeg har kastet bort mer tid med å krangle med chatbotten enn det tok å løse problemet selv.»
Det sammensatte bildet
53 respondenter delte en minneverdig opplevelse.
Holdningene i de 53 svarene fordeler seg jevnt: 26 % er overveiende positive, 25 % overveiende negative, 13 % tydelig blandet, og 36 % nøytralt beskrivende. Det er altså ingen overvekt av entusiasme — bekymringer og frustrasjoner er like godt representert.
«Jeg spinnet opp en AI-agent som stort sett på egenhånd klarte å redusere byggtiden på en repo fra 20+ min til 8 min.»
«Junior commitet en Scala-funksjon som var veldig obfuskert. Junior kunne heller ikke forklare hva koden gjorde i etterkant.»
«En ulempe med AI er at det fører til større og flere PR-er fra kolleger.»
«Den gangen Copilot ledet oss til PostMortem…»
Tre ting å ta med videre
AI-kodeverktøy er bredt tatt i bruk i Nav og verdsatt for produktiviteten de gir — men bekymringer om kodekvalitet, kompetansetap og eierskap til koden følger med.
Invester i opplæring. Det er det utviklerne selv ber om mest. Konkrete eksempler på effektiv bruk, ikke generelle presentasjoner.
Styrk code review-praksisen. Når 43 % er nøytrale til om AI-kode holder kvaliteten, trenger vi bedre verktøy og rutiner for å fange opp det AI-en bommer på.
Ta bekymringene på alvor. 59 % bekymrer seg for kompetansetap. Det er ikke irrasjonelt — det er et signal om at vi trenger bevisste strategier for å sikre at utviklere fortsetter å bygge dyp forståelse.
Om undersøkelsen
Undersøkelsen bygger på SPACE-rammeverket for utviklerproduktivitet og seksfaktormodellen fra «Beyond the Commit» (Chen et al., ICSE-SEIP 2026). Vi lot kollegaer fagfellevurdere designet før utsending, og kortet ned fra 16 til 12 spørsmål for å senke terskelen. Syv Likert-påstander dekker fem av seks faktorer fra seksfaktormodellen, i tillegg til SPACE-dimensjonen tilfredshet.
Undersøkelsen ble gjennomført av Audun Fachald Strand (Plattform & Infra), Kjetil Åmdal-Sævik (Seksjonsleder, Innsikt og KI), Ole-Alexander Moy (Teknologileder Velferd) og Hans Kristian Flaatten, med hjelp fra Viggo Tellefsen Wivestad (SINTEF).
Undersøkelsen ble distribuert via Slack og annonsert på et felles allmøte. Den var åpen i 21 dager (mars–april 2026) som en anonym Microsoft Forms-undersøkelse. Det tok i snitt 7 minutter og 48 sekunder å svare.
163 av over 500 Copilot-brukere svarte — en svarprosent på ca. 32 %. Det er en god respons for en frivillig undersøkelse, men to tredjedeler svarte altså ikke. Vi distribuerte via Slack og allmøte, noe som kan gi skjevhet mot utviklere som er mest aktive i disse kanalene.
Én ting om dataene: Noen respondenter kan ha forvekslet Claude Code (Anthropics terminalagent) med bruk av Claude-modellene (Sonnet/Opus) via chat. De 22 som oppgir Claude Code kan derfor være noe høyere enn reelt.
Som med alle undersøkelser basert på selvseleksjon, bør vi lese resultatene som et nyttig bilde av holdningene blant engasjerte utviklere — ikke nødvendigvis representative for alle 500+ brukere.
Om bruk av AI i denne artikkelen. Tekst og visualiseringer ble utarbeidet med hjelp av AI-verktøy. Statistikken er hentet fra Microsoft Forms og bearbeidet med Python. Alle resultater er verifisert og kvalitetssikret av mennesker.