Det er ingen hemmelighed, at teknologiens verden er i konstant udvikling - bare inden for de sidste par år har vi set chatbots, AI og virtual reality udfordre grænserne for, hvordan vi bruger teknologi. Men med den store udvikling af teknologi kommer desværre også udviklingen af måder at udnytte den på.
Forskningen begynder
I dette tilfælde er den nye cybertrussel heldigvis blevet udviklet og undersøgt af et hold forskere, som ønskede at se AI's fulde potentiale - både på godt og ondt. Holdet fra Cornell Tech ønskede at vise, hvilke risici der er forbundet med autonome AI-systemer, og de udviklede derfor en generativ AI-orm.
- Formålet med AI-ormen er at sprede ondsindet software fra et system til et andet og potentielt stjæle vigtige oplysninger fra brugeren.
Dette er, som forskeren Ben Nassi siger, en helt ny måde at udføre cyberangreb på, som vi, potentielle ofre og brugere af AI, ikke er forberedt på.
Skabelsen af den nye AI-orm
Ben Nassi udviklede sammen med kollegerne Stav Cohen og Ron Bitton AI-ormen, som de kaldte Morris II (navnet var en genkendelse af computerormen Morris, der huserede på internettet tilbage i 1988).
Nassi, Cohen og Bitton har specifikt designet AI-ormen til at arbejde inden for nogle automatiserede funktioner i en e-mail-indbakke. Her programmerede de AI-ormen til at angribe e-mail-assistenten for at stjæle data og information fra brugerens indbakke og desuden sende spam-e-mails til andre brugere.
Eksempler på de data, AI-ormen kan stjæle, er:
- Telefonnumre
- Bankoplysninger
- Adresser
- Navne
Forskerholdet testede AI-ormen i kontrollerede omgivelser i et lukket testmiljø, så ingen brugere eller enheder utilsigtet blev beskadiget eller påvirket af ormen.
Sådan fungerer AI-orme
Hvis du er bekendt med nogen form for AI - uanset om det er chatbots, virtual reality eller augmented reality - ved du, at du ofte er nødt til at give teknologien en prompt at handle på. Det kan være "skriv en opskrift på spaghetti carbonara" eller "lav et maleri af Leonardo Da Vinci og Michelangelo i samtale". Så tryller maskineriet og tegner en tekst eller et billede af det, du bad softwaren om at gøre.
I tilfældet med AI-ormen programmerede Nassi, Cohen og Bitton den som en "fjendtlig selvreplikerende prompt", hvilket betyder, at teknologien kan replikere sig selv med en prompt - fra sig selv. Så AI-ormen laver et output, en prompt, og svarer på det med en anden prompt - og så videre.
For at teste dette lavede forskerholdet et e-mailsystem, hvor den kunne modtage og sende beskeder ved hjælp af generativ AI-teknologi. Ved at teste dette opdagede de to måder, hvorpå de kunne udnytte den nye teknologi;
- Bruge en tekstbaseret selvreplikerende prompt
- Indsætte en selvreplikerende prompt, men via et billede eller en jpg-fil
I det første tilfælde skrev teamet en e-mail, hvor de inkluderede en fjendtlig tekstprompt. Denne prompt inficerer databasen, hvor e-mailassistenten bruger RAG (retrieval-augmented generation). Når e-mailen er registreret af RAG, kan den oprette et svar på prompten - og i dette tilfælde vil det være at stjæle data fra e-mailen, da holdet, der optræder som hackere, har beordret programmet til at gøre det.
I det andet tilfælde har "hackerne" inficeret et billede med en prompt, der beordrer teknologien til at videresende beskeden til andre e-mailkonti. Det vanskelige ved denne type angreb er, at billedet kan indeholde mange typer malware, spam og beskeder - det kan således videresendes til potentielle kunder og skade enhver virksomhed og privat bruger.
AI-ormens fremtid
Ben Nassi, Stav Cohen og Ron Bitton skabte AI-ormene for at udbrede kendskabet til de mange og fatale sårbarheder, der ligger i AI-teknologien.
En af hovedårsagerne til, at teamet besluttede sig for at udvikle og offentliggøre udnyttelsen af AI, er at udbrede kendskabet til de store udviklere, så de kan omprogrammere deres software. I øjeblikket har store udviklere som Google og OpenAI endnu ikke reageret på denne forskning i de sårbarheder, der ligger i AI-teknologien.
Et af de områder, brugerne skal være særligt opmærksomme på, er de programmer og funktioner, hvor man kan tillade softwaren at udføre handlinger på ens vegne - f.eks. at sende e-mails eller booke en aftale. Vi skal desuden være opmærksomme, når vi forbinder AI-software med andre typer software, da AI-softwaren får adgang til de oplysninger, der er gemt i den tilsluttede software eller enhed.
Hvis du f.eks. forbinder en AI-software til din e-mailkonto, bør du overveje, hvilke oplysninger du har på din e-mailkonto, men også på den enhed, som du bruger til at tilgå din e-mail. Hvis hackere skulle omprogrammere den AI, du bruger, kan du risikere, at alle dine private og fortrolige oplysninger bliver sat på spil.
Cornell Tech-teamet forudser desværre, at vi vil se AI-orme i den nærmeste fremtid i cyberverdenen. Det er kun et spørgsmål om tid, før hackere opdager en måde at omprogrammere og hacke AI-teknologi på. Derfor er det vigtigt for os at udbrede kendskabet til dette problem, før det bliver et kritisk problem for os.
Bekæmpelse af AI-orme
Eksperter peger på brugerne, når det handler om at afbøde AI-orme. Vi kan f.eks. begrænse mængden af handlinger, som AI kan foretage på vores vegne, og dermed undgå, at den får adgang til vores personlige data.
En anden ting, der bør påpeges, er, at programmer og software ofte kan opdage uregelmæssigheder i adfærd. Når vi ser på den selvreplikerende prompt-funktion, ved vi, at den multiplicerer prompts i et hurtigt tempo. Ofte kan dette opdages af sikkerhedsmekanismer i softwaren og dermed fanges, før det har gjort for meget skade.
Caroline Preisler
Caroline er copywriter for Moxso udover hendes daglige studie. Hun er i gang med sin kandidat i Engelsk og specialiserer sig i oversættelse og sprogpsykologi. Begge felter arbejder med kommunikationen mellem mennesker, og hvordan man skaber en fælles forståelse – disse elementer bliver inkorporeret i arbejdet, som hun laver her hos Moxso.
Se alle indlæg af Caroline Preisler