Oppdatert 11 mar, 2026
Publisert 11 mar, 2026

AI er den nye angrepsflaten

Når AI-assistenten vet for mye, vet angriperne det også. Artikkel 2 av 5 i serien «Når sikkerhet svikter – og tilliten ryker»

AI er den nye angrepsflaten. AI-assistenter er i ferd med å bli en del av kjerneinfrastrukturen i mange virksomheter.

De kobles til strategidokumenter, kundeinformasjon og interne prosesser. Det gjør dem ekstremt nyttige – men dersom sikkerheten ikke er på plass, også ekstremt sårbare.

Mange virksomheter innfører AI raskt og effektivt. Færre stiller det avgjørende spørsmålet:

Hva har AI-systemet egentlig tilgang til – og hvem kan utnytte det?

Hvorfor dette er viktig nå
AI-assistenter får stadig bredere tilgang til virksomhetens data; fra dokumenter og e-post til interne prosesser og beslutningsgrunnlag. Samtidig utvikler angripere egne AI-verktøy for å finne svakheter raskere enn mennesker kan. Resultatet er en ny type angrepsflate: Ikke bare systemer og data, men selve beslutningslogikken i virksomheten. For sikkerhetsledere betyr dette at AI må behandles som kritisk infrastruktur, ikke bare som et produktivitetsverktøy.

AI-sikkerhet er ikke det samme som tradisjonell applikasjonssikkerhet

Mange som jobber med IT-sikkerhet er godt kjent med klassiske angrepstyper – SQL-injeksjon, cross-site scripting, feilkonfigurerte tilganger. Det er viktig kunnskap, og den er fortsatt relevant.

Men AI-systemer introduserer en ny klasse av utfordringer som krever en annen tenkemåte.

Tradisjonell applikasjonssikkerhetAI-systemsikkerhet
Beskytt kode og dataBeskytt kode, data og beslutningslogikk
Kjente angrepstyper (SQLi, XSS, etc.)Nye typer: prompt injection, agent-misbruk
Logging av handlingerLogging av interaksjoner og svar
Tilgangskontroll per brukerTilgangskontroll per rolle, kontekst og spørsmål
Risikovurdering ved lanseringLøpende risikovurdering når AI lærer og endres

Det som gjør AI spesielt krevende fra et sikkerhetsperspektiv, er at systemene er beslutningssystemer. Kompromitteres datagrunnlaget, eller instruksjonene systemet opererer etter, kompromitteres svarene og beslutningene som bygger på dem. Det er ikke bare et teknisk problem. Det er et tillitsproblem.

De vanligste sikkerhetsproblemene i AI-implementeringer

I NetNordics arbeid med sikkerhetsvurderinger av AI-systemer ser vi de samme mønstrene gå igjen. De er sjelden spektakulære. De er gjerne resultat av at AI ble innført raskt – og at sikkerhetsgjennomgangen kom for sent.

Tekniske mangler vi ser oftest:

  • Altfor brede datatilganger – prinsippet om minste privilegium er ikke fulgt
  • Eksponerte API-endepunkter uten tilstrekkelig autentisering
  • System-prompts og instruksjoner lagret uten tilgangskontroll
  • Manglende logging og overvåking av hva brukere faktisk spør om

Organisatoriske mangler er like vanlige:

  • Ny AI-teknologi tatt i bruk uten forutgående risikovurdering
  • Ingen dataklassifisering gjort før AI fikk tilgang til systemer
  • Uklart hvem i virksomheten som «eier» sikkerhetsansvaret for AI-løsningen
  • AI-systemet inngår ikke i den ordinære sikkerhetstestingen

De fleste AI-sikkerhetsproblemene vi avdekker skyldes ikke ond vilje internt. De skyldes at noen tok i bruk et kraftig verktøy – uten å tenke gjennom hva det faktisk hadde tilgang til.

Stian Lysnes

AI mot AI: En kvalitativ endring i trusselbildet

I forrige artikkel beskrev vi en hendelse der en global rådgivningsvirksomhet opplevde at en intern AI-assistent ble kompromittert. Det viktige er ikke bare hva som skjedde, men hvordan det skjedde.

Angrepet ble ikke gjennomført av en hacker som manuelt testet systemet. Det ble utført av et autonomt AI-angrepsverktøy som selv identifiserte mål, analyserte angrepsflaten og utnyttet sårbarheter – uten menneskelig inngripen underveis. Hele prosessen tok under to timer.

Dette representerer en kvalitativ endring i trusselbildet: Angrepshastigheten øker dramatisk – menneskelig responstid strekker ikke til.Terskelen for avanserte angrep synker kraftig. Det som tidligere krevde ekspertise og tid, kan nå automatiseres.Angripere bruker allerede AI til å finne svakheter. Det betyr at virksomheter bør bruke den samme teknologien til å teste seg selv.

Dette er ikke en fremtidig risiko. Det skjer nå – og det skjer mot virksomheter som ikke tror de er interessante nok til å bli målrettet.

«Når AI får tilgang til virksomhetens data og prosesser, blir det også en del av angrepsflaten. Spørsmålet er ikke bare hva AI kan gjøre for deg – men hva noen kan få AI til å gjøre mot deg.»

Pål André Låhne, Head of Cyber Security, NetNordic

Security by design for AI-systemer: Hva det betyr i praksis

Løsningen er ikke å stoppe AI-innføringen. Løsningen er å gjøre det riktig.

Security by design betyr at sikkerheten vurderes og bygges inn før systemet lanseres – ikke som en opprydding etterpå. For AI-systemer ser det slik ut:

Organisatoriske tiltakTekniske tiltak
Klassifiser data før AI gis tilgangMinste privilegium konsekvent gjennomført
Definer eierskap til sikkerhetsansvar for AITilgangssegmentering per rolle og behov
Risikovurdering før nye AI-verktøy innføresSystematisk testing av API-endepunkter
Opplæring i sikker bruk av AI-verktøyLogging og overvåking av AI-interaksjoner

Begge kolonnene er nødvendige. Tekniske tiltak uten organisatorisk forankring vedlikeholdes ikke. Og organisatoriske rutiner uten teknisk implementering gir bare en falsk trygghet.

I NetNordic hjelper vi virksomheter med AI-sikkerhetsvurderinger, dataklassifisering, tilgangspolicy og penetrasjonstesting av AI-løsninger – fordi vi er overbevist om at AI kan innføres trygt.

Fem spørsmål ledelsen bør kunne svare på om AI i virksomheten

Uansett hvilke AI-verktøy virksomheten bruker – interne eller fra leverandører – er dette et godt utgangspunkt:

Fem spørsmål ledelsen bør kunne svare på om AI i virksomheten

  • 1.  Hvilke data har AI-systemene tilgang til – og er all tilgangen nødvendig?
  • 2.  Hvem kan stille spørsmål til systemet, og hvilke svar kan det gi?
  • 3.  Er systemets instruksjoner (system-prompts) lagret sikkert og testet?
  • 4.  Logges og analyseres interaksjoner med AI-systemene?
  • 5.  Inngår AI-løsningene i virksomhetens sikkerhetstesting?

Hvis du ikke vet svaret på alle fem – er det et godt argument for å ta en gjennomgang. Ikke fordi virksomheten nødvendigvis er sårbar. Men fordi du bør vite det.

AI er ikke problemet – manglende sikkerhetsperspektiv er

Virksomheter som lykkes med å innføre AI på en trygg og bærekraftig måte gjør ikke noe mystisk. De gjør det samme som de alltid har gjort med kritiske systemer: vurderer risiko, klassifiserer data, tester implementeringen og overvåker bruken.

Det er dette vi kaller Security by Design – element én i grunnmuren for digital tillit.

I neste artikkel ser vi på element nummer to: nettverksarkitektur og segmentering. For selv det beste AI-sikkerhetsprogrammet trenger en robust nettverksstruktur i bunn.

Er AI-løsningene i din virksomhet testet fra et sikkerhetsperspektiv? Ta kontakt for en uforpliktende prat med våre rådgivere.

Pål André Låhne, Head of Cyber Security, NetNordic

Videre i serien

→  Artikkel 3:  Segmentering – nettverket som stopper angrepet

→  Artikkel 4:  Test deg selv – før angriperne gjør det

→  Artikkel 5:  Sikkerhet er et lederansvar

←  Artikkel 1:  Når et cyberangrep blir en omdømmekrise

Kilder og referanser

NetNordic sikkerhetsvurderinger og kundecase, 2024–2025

OWASP Top 10 for Large Language Model Applications, 2025

Anonymisert case: global rådgivingsvirksomhet, 2025 (kilde: offentlig tilgjengelig sikkerhetsrapport)

Forfatter

Pål André Låhne  

Head of Cyber Security, NetNordic

Kontakt Oss

Fyll ut skjemaet så kommer vi tilbake til deg så snart som mulig! Takk!

Siste innhold

Vårt nyhetsbrev

Få de aller siste nyhetene og oppdateringene rett i innboksen din.