AI er den nye angrepsflaten
Når AI-assistenten vet for mye, vet angriperne det også. Artikkel 2 av 5 i serien «Når sikkerhet svikter – og tilliten ryker»
AI er den nye angrepsflaten. AI-assistenter er i ferd med å bli en del av kjerneinfrastrukturen i mange virksomheter.
De kobles til strategidokumenter, kundeinformasjon og interne prosesser. Det gjør dem ekstremt nyttige – men dersom sikkerheten ikke er på plass, også ekstremt sårbare.
Mange virksomheter innfører AI raskt og effektivt. Færre stiller det avgjørende spørsmålet:
Hva har AI-systemet egentlig tilgang til – og hvem kan utnytte det?
Hvorfor dette er viktig nå
AI-assistenter får stadig bredere tilgang til virksomhetens data; fra dokumenter og e-post til interne prosesser og beslutningsgrunnlag. Samtidig utvikler angripere egne AI-verktøy for å finne svakheter raskere enn mennesker kan. Resultatet er en ny type angrepsflate: Ikke bare systemer og data, men selve beslutningslogikken i virksomheten. For sikkerhetsledere betyr dette at AI må behandles som kritisk infrastruktur, ikke bare som et produktivitetsverktøy.
AI-sikkerhet er ikke det samme som tradisjonell applikasjonssikkerhet
Mange som jobber med IT-sikkerhet er godt kjent med klassiske angrepstyper – SQL-injeksjon, cross-site scripting, feilkonfigurerte tilganger. Det er viktig kunnskap, og den er fortsatt relevant.
Men AI-systemer introduserer en ny klasse av utfordringer som krever en annen tenkemåte.
| Tradisjonell applikasjonssikkerhet | AI-systemsikkerhet |
| Beskytt kode og data | Beskytt kode, data og beslutningslogikk |
| Kjente angrepstyper (SQLi, XSS, etc.) | Nye typer: prompt injection, agent-misbruk |
| Logging av handlinger | Logging av interaksjoner og svar |
| Tilgangskontroll per bruker | Tilgangskontroll per rolle, kontekst og spørsmål |
| Risikovurdering ved lansering | Løpende risikovurdering når AI lærer og endres |
Det som gjør AI spesielt krevende fra et sikkerhetsperspektiv, er at systemene er beslutningssystemer. Kompromitteres datagrunnlaget, eller instruksjonene systemet opererer etter, kompromitteres svarene og beslutningene som bygger på dem. Det er ikke bare et teknisk problem. Det er et tillitsproblem.
De vanligste sikkerhetsproblemene i AI-implementeringer
I NetNordics arbeid med sikkerhetsvurderinger av AI-systemer ser vi de samme mønstrene gå igjen. De er sjelden spektakulære. De er gjerne resultat av at AI ble innført raskt – og at sikkerhetsgjennomgangen kom for sent.
Tekniske mangler vi ser oftest:
- Altfor brede datatilganger – prinsippet om minste privilegium er ikke fulgt
- Eksponerte API-endepunkter uten tilstrekkelig autentisering
- System-prompts og instruksjoner lagret uten tilgangskontroll
- Manglende logging og overvåking av hva brukere faktisk spør om
Organisatoriske mangler er like vanlige:
- Ny AI-teknologi tatt i bruk uten forutgående risikovurdering
- Ingen dataklassifisering gjort før AI fikk tilgang til systemer
- Uklart hvem i virksomheten som «eier» sikkerhetsansvaret for AI-løsningen
- AI-systemet inngår ikke i den ordinære sikkerhetstestingen
De fleste AI-sikkerhetsproblemene vi avdekker skyldes ikke ond vilje internt. De skyldes at noen tok i bruk et kraftig verktøy – uten å tenke gjennom hva det faktisk hadde tilgang til.
AI mot AI: En kvalitativ endring i trusselbildet
I forrige artikkel beskrev vi en hendelse der en global rådgivningsvirksomhet opplevde at en intern AI-assistent ble kompromittert. Det viktige er ikke bare hva som skjedde, men hvordan det skjedde.
Angrepet ble ikke gjennomført av en hacker som manuelt testet systemet. Det ble utført av et autonomt AI-angrepsverktøy som selv identifiserte mål, analyserte angrepsflaten og utnyttet sårbarheter – uten menneskelig inngripen underveis. Hele prosessen tok under to timer.
Dette representerer en kvalitativ endring i trusselbildet: Angrepshastigheten øker dramatisk – menneskelig responstid strekker ikke til.Terskelen for avanserte angrep synker kraftig. Det som tidligere krevde ekspertise og tid, kan nå automatiseres.Angripere bruker allerede AI til å finne svakheter. Det betyr at virksomheter bør bruke den samme teknologien til å teste seg selv.
Dette er ikke en fremtidig risiko. Det skjer nå – og det skjer mot virksomheter som ikke tror de er interessante nok til å bli målrettet.
«Når AI får tilgang til virksomhetens data og prosesser, blir det også en del av angrepsflaten. Spørsmålet er ikke bare hva AI kan gjøre for deg – men hva noen kan få AI til å gjøre mot deg.»
Security by design for AI-systemer: Hva det betyr i praksis
Løsningen er ikke å stoppe AI-innføringen. Løsningen er å gjøre det riktig.
Security by design betyr at sikkerheten vurderes og bygges inn før systemet lanseres – ikke som en opprydding etterpå. For AI-systemer ser det slik ut:
| Organisatoriske tiltak | Tekniske tiltak |
| Klassifiser data før AI gis tilgang | Minste privilegium konsekvent gjennomført |
| Definer eierskap til sikkerhetsansvar for AI | Tilgangssegmentering per rolle og behov |
| Risikovurdering før nye AI-verktøy innføres | Systematisk testing av API-endepunkter |
| Opplæring i sikker bruk av AI-verktøy | Logging og overvåking av AI-interaksjoner |
Begge kolonnene er nødvendige. Tekniske tiltak uten organisatorisk forankring vedlikeholdes ikke. Og organisatoriske rutiner uten teknisk implementering gir bare en falsk trygghet.
I NetNordic hjelper vi virksomheter med AI-sikkerhetsvurderinger, dataklassifisering, tilgangspolicy og penetrasjonstesting av AI-løsninger – fordi vi er overbevist om at AI kan innføres trygt.
Fem spørsmål ledelsen bør kunne svare på om AI i virksomheten
Uansett hvilke AI-verktøy virksomheten bruker – interne eller fra leverandører – er dette et godt utgangspunkt:
Fem spørsmål ledelsen bør kunne svare på om AI i virksomheten
- 1. Hvilke data har AI-systemene tilgang til – og er all tilgangen nødvendig?
- 2. Hvem kan stille spørsmål til systemet, og hvilke svar kan det gi?
- 3. Er systemets instruksjoner (system-prompts) lagret sikkert og testet?
- 4. Logges og analyseres interaksjoner med AI-systemene?
- 5. Inngår AI-løsningene i virksomhetens sikkerhetstesting?
Hvis du ikke vet svaret på alle fem – er det et godt argument for å ta en gjennomgang. Ikke fordi virksomheten nødvendigvis er sårbar. Men fordi du bør vite det.
AI er ikke problemet – manglende sikkerhetsperspektiv er
Virksomheter som lykkes med å innføre AI på en trygg og bærekraftig måte gjør ikke noe mystisk. De gjør det samme som de alltid har gjort med kritiske systemer: vurderer risiko, klassifiserer data, tester implementeringen og overvåker bruken.
Det er dette vi kaller Security by Design – element én i grunnmuren for digital tillit.
I neste artikkel ser vi på element nummer to: nettverksarkitektur og segmentering. For selv det beste AI-sikkerhetsprogrammet trenger en robust nettverksstruktur i bunn.
Er AI-løsningene i din virksomhet testet fra et sikkerhetsperspektiv? Ta kontakt for en uforpliktende prat med våre rådgivere.
Videre i serien
→ Artikkel 3: Segmentering – nettverket som stopper angrepet
→ Artikkel 4: Test deg selv – før angriperne gjør det
→ Artikkel 5: Sikkerhet er et lederansvar
← Artikkel 1: Når et cyberangrep blir en omdømmekrise
Kilder og referanser
NetNordic sikkerhetsvurderinger og kundecase, 2024–2025
OWASP Top 10 for Large Language Model Applications, 2025
Anonymisert case: global rådgivingsvirksomhet, 2025 (kilde: offentlig tilgjengelig sikkerhetsrapport)
Pål André Låhne
Head of Cyber Security, NetNordicInnholdsfortegnelse
- AI-sikkerhet er ikke det samme som tradisjonell applikasjonssikkerhet
- De vanligste sikkerhetsproblemene i AI-implementeringer
- AI mot AI: En kvalitativ endring i trusselbildet
- Security by design for AI-systemer: Hva det betyr i praksis
- Fem spørsmål ledelsen bør kunne svare på om AI i virksomheten
- AI er ikke problemet – manglende sikkerhetsperspektiv er
Innholdsfagskategori
Innholdstype
Relatert innhold
Kontakt Oss
Fyll ut skjemaet så kommer vi tilbake til deg så snart som mulig! Takk!