AI-automatiseret exploitudvikling: Virkeligheden for sikkerhedsfolk
Et israelsk forskningsprojekt har vist, hvordan store sprogmodeller kan generere proof-of-concept exploits på under 15 minutter. Det udfordrer eksisterende patchrutiner og kræver nytænkning.
Sådan fremgår det af en artikel i Dark Reading, som dermed sætter spot på det, vi har talt om og frygtet længe. Nemlig fra CVE til exploit på minutter – ikke måneder.
Journalist Robert Lemos fra Dark Reading skriver, hvordan to israelske sikkerhedsresearchere har udviklet et AI-drevet system, der kan generere exploits for kendte sårbarheder med ekstrem hastighed. Systemet, kaldet Auto Exploit, kombinerer CVE-advarsler, open source-patches og prompts til en stor sprogmodel (Claude-sonnet-4.0 fra Anthropic) for at:
- Analysere advisories og kodeændringer
- Generere en testapplikation med den sårbare komponent
- Udvikle og validere exploit-kode mod både sårbare og patched versioner
Systemet har allerede skabt fungerende exploits for 14 forskellige open source-sårbarheder – nogle på under 15 minutter.
Industriens beredskab halter efter
Ifølge researcherne bag projektet er sikkerhedsbranchen ikke rustet til en virkelighed, hvor exploitudvikling sker med maskinhastighed. Det betyder, at tiden fra offentliggørelse af en sårbarhed til aktiv udnyttelse kan være reduceret fra dage eller uger til minutter.
Som Nahman Khayet, en af researcherne, udtaler i artiklen:
“Angribere gør måske allerede dette – eller vil gøre det snart – og industrien er ikke klar, fordi ingen er forberedt på exploits genereret med maskinhastighed.”
Denne udvikling stiller nye krav til både patchhåndtering, trusselsmonitorering og automatisering af forsvarsmekanismer.
Med en median “time-to-exploit” på 192 dage i 2024 (VulnCheck), viser Auto Exploit, at denne tidsramme kan reduceres dramatisk. Det betyder, at 0-dagsudnyttelser – dvs. angreb kort efter offentliggørelse af en sårbarhed – kan blive normen snarere end undtagelsen.
Guardrails er ikke nok
Researcherne rapporterer, at de hurtigt kunne omgå de indbyggede sikkerhedsbarrierer i LLM’er som Claude, ChatGPT og Google Gemini. Ved at formulere prompts som “analyse” eller “byg et eksempel” kunne de få modellerne til at generere exploit-kode, selv når de oprindeligt afviste forespørgslen.
Som Efi Weiss forklarer:
“Først sagde modellen nej – det lød for ondsindet. Men med lidt justeringer kom vi hurtigt udenom.”
Dette er også demonstreret ved andre forhold uden for cybersikkerhedsverdenen. Under alle omstændigheder understreger det, at intention og kontekst er svære at kontrollere i generative AI-systemer – og at trusselsaktører allerede (eller rettere længe) har fundet metoder til at omgå dem.
Hvad betyder det for forsvarssiden?
Hvis AI-augmented exploitudvikling bliver udbredt, vil antallet af reelle angreb stige – ikke kun i hastighed, men også i volumen. I 2024 blev der rapporteret næsten 40.000 sårbarheder, men kun 768 blev aktivt udnyttet. Det tal kan ændre sig dramatisk, forudses det i artiklen i Dark Reading.
Researcherne anbefaler:
- Forsvar ved maskinhastighed: Organisationer skal kunne reagere inden for 10 minutter efter en CVE offentliggøres.
- Reachability frem for exploitability: Prioritering bør baseres på, om sårbar software er eksponeret – ikke hvor let den er at udnytte.
- Automatisering af patchflows: Manuelle processer er ikke tilstrækkelige i en AI-drevet trusselsverden.
På et mere taktisk plan kan anbefalingerne lyde:
- Accelerér patchflows: Reducér tiden fra CVE-identifikation til udrulning af rettelser – især for interneteksponerede systemer.
- Integrér AI i forsvarsstrategien: Brug AI til at analysere advisories, prioritere sårbarheder og simulere potentielle exploits.
- Opbyg kapacitet til hurtig respons: Etabler playbooks og automatiserede processer til håndtering af nyopdagede sårbarheder.
- Styrk samarbejdet med udviklingsteams: Sikkerhed og udvikling skal arbejde tættere sammen for at sikre hurtig og effektiv afhjælpning.
På DeiC-konferencen den 28.-29. oktober holder Carsten Jørgensen fra Implement Consulting Group oplæg om AI i en offensiv og defensiv kontekst. Oplægget indledes med en gennemgang af konkurrencesituationen i AI-land og hvordan den hårde konkurrence driver udviklingen fremad med den hastighed som vi ser – både hos offensive og defensive aktører.
Konferencen har det ultraaktuelle emne digital suverænitet i den digitale forskningsinfrastruktur som tema. Det er stadig muligt at få billetter til konferencen: Tilmelding kan ske via DeiCs hjemmeside.