NIST adresserer truslen mod AI med nyt initiativ

NIST udgiver papir til styrkelse af chatbots og selvkørende biler mod digitale trusler.

Amerikanske National Institute of Standards and Technology (NIST) tager nu handsken op ift. at bekæmpe cybertrusler, der retter sig mod AI-drevne chatbots og selvkørende biler.

Det skriver Infosecurity Magazine i en artikel, der henviser til initiativet fra NIST. Konkret er der tale om, at NIST har udgivet et ’paper’, hvor der foreslås en standardiseret tilgang til karakterisering og forsvar mod cyberangreb på AI.

Papiret ’Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations’ beskriver de forskellige typer af ’adversarial machine learning’ (AML)-angreb og nogle afbødningsteknikker. Papiret er skrevet i et samarbejde med academia og industrien, men der er mere tale om udgivelse af en taksonomi end egentlige forsvarsteknikker/metoder.

To kategorier af angreb

Papiret giver en definition på ’Adversarial machine learning’-angreb. Dette forstås som angreb, der har til formål at snyde machine learning-modeller med vildledende eller manipulerende data, så modellerne gør noget, som de ellers ikke ville have gjort.

Forfatterne bag papirer opdeler AML-angreb i to kategorier:

  • Angreb rettet mod 'predictive AI'-systemer
  • Angreb rettet mod 'generative AI'-systemer

NIST refererer ifølge Infosecurity Magazine ’predictive AI’-systemer (engelsk for ’forudsigende’ AI) til den forståelse af AI og machine learning, hvor der kan forudsiges adfærd og fænomener. Det kan fx være selvkørende biler, der er programmeret til at gøre noget bestemt, hvis en given begivenhed finder sted, fx. fortage en undvigemanøvre.

'Generativ AI' forstås i NIST-taksonomi som en underkategori inden for predictive AI. Den type AI beskæftiger sig med at skabe eller generere nyt indhold baseret på eksisterende data.

Unddragelses-, forstyrrelses-, fortrolighedsangreb

For 'predictive AI'-systemer opereres med tre typer af angreb, der ifølge en af forfatterne er lette af iværksætte og kun kræver minimal viden om AI-systemet.

  • ’Omgåelsessangreb’ – her er målet at generere modstridende eksempler
  • 'Forstyrrelsesangreb' – eller poisoning attack, der henviser til angreb udført under træningsfasen af AI-algoritmen og som får den til at lære noget forkert.
  • 'Fortrolighedsangreb' – som er forsøg på at få indblik i fortrolige følsomme oplysninger om AI'en eller de data, den er blev trænet på. Dette for senere at kunne misbruge den.

For angreb mod generative AI-systemer er der lavet en fjerde kategori, som NIST kalder ’misbrugsangreb’. Den type angreb karakteriseres ved, at der indsættes forkerte oplysninger i en kilde, fx en webside eller et onlinedokument, som en AI derefter indarbejder og tolker på.

I et misbrugsangreb vil en angriber således forsøge at give AI'en forkerte oplysninger fra en kompromitteret, mens ellers legitim kilde. Eksempler på disse angreb er supply chain-angreb forskellige typer af injection-angreb.

Afbødemetoder

Hvordan afbøder man så den type angreb?

Her giver papiret nogle afbødende teknikker og tilgange til hver af disse kategorier og underkategorier af angreb, men det erkendes at teknikerne stadig er ’utilstrækkelige’.

En af forfatterne siger, at teknologierne stadig er sårbare over for angreb, og at der er ’teoretiske problemer med at sikre AI-algoritmer, som simpelthen ikke er løst endnu.’

Papirets udgivelse kommer tre måneder efter, at der fra Det Hvide Hus blev udsendt en ’Executive Order’ (EO14110) om sikker, sikker og troværdig udvikling og brug af kunstig intelligens. Det var denne Executive Order (dvs. bekendtgørelse), der gav NIST mandatet til at støtte udviklingen af pålidelig AI. Første leverance har altså været denne taksonomi, som ifølge Infosecurity Magazine også vil tjene som grundlag for at implementere NISTs AI Risk Management Framework. Denne blev udgivet i januar 2023.

USA har i forbindelse med styrkelse af sikkerheden ved AI etableret en ny enhed under NIST, US AI Safety Institute, ligesom Storbritannien også har etableret sit eget AI Safety Institute.

Det amerikanske enheds mission er at ’..lette udviklingen af standarder for sikkerhed, sikkerhed og afprøvning af AI-modeller, udvikle standarder for autentificering af AI-genereret indhold og levere testmiljøer for researchere til evaluering af nye AI-risici og adressere kendte påvirkninger’.

Links:

https://www.infosecurity-magazine.com/news/nist-chatbots-self-driving-cars/