OpenAI reagerer på statsstøttet AI-brug

OpenAI har stoppet 10 AI-drevne kampagner med forbindelse til Kina, Rusland, Iran og Nordkorea. Læs, hvordan statsstøttede aktører misbruger generativ AI.

11-06-2025 - 4 minutters læsning. Under kategorien: awareness.

OpenAI reagerer på statsstøttet AI-brug

OpenAI lukker ned for ondsindede AI-kampagner fra statsstøttede aktører

OpenAI har afsløret, at de har afbrudt ti skjulte indflydelseskampagner, som misbrugte deres AI-værktøjer. Kampagnerne var knyttet til statssponsorerede trusselsaktører fra Kina, Rusland, Iran og Nordkorea. Aktørerne anvendte generativ AI til at understøtte propaganda, manipulere offentlig opinion og udgive sig for at være ægte brugere på sociale medier og andre onlineplatforme.

Misbrug af AI til informationsoperationer

I en nyligt offentliggjort trusselsrapport beskriver OpenAI, hvordan statsstøttede aktører har misbrugt deres AI-modeller til at generere indhold, oversætte tekst og indsamle information. Der var ikke tale om klassiske cyberangreb med systemindbrud eller malware, men om en ny type digital manipulation drevet af kunstig intelligens.

Aktørerne producerede falske artikler, kommentarer, opslag på sociale medier og fiktive onlinepersoner. Formålet var at fremme politisk motiverede narrativer og undergrave tilliden til den offentlige samtale. Selvom kampagnerne havde begrænset gennemslagskraft, illustrerer de, hvordan generativ AI muliggør hurtig og billig produktion af overbevisende og manipulerende indhold i stor skala.

Aktivitet fordelt på lande

Kina

En af de mest aktive grupper, identificeret som Spamouflage, anvendte AI til at producere flersproget indhold, der støttede den kinesiske regering og kritiserede vestlige politikker. Indholdet var målrettet mod brugere i både USA og Europa.

Rusland

Russiske aktører brugte AI-modeller til at generere politiske kommentarer og efterligne troværdige nyhedsmedier. Meget af indholdet støttede Ruslands invasion af Ukraine og havde til formål at miskreditere vestlige medier. Disse kampagner er en del af en bredere strategi, hvor cyberoperationer og desinformation smelter sammen. Det er ikke første gang, russiske trusselsaktører anvender avancerede værktøjer mod Ukraine. I en separat hændelse blev Ukraines største bank ramt af SmokeLoader-malware, hvilket understreger, hvordan hybride angreb udspiller sig på både digitale og informationsmæssige fronter. Læs mere om SmokeLoader-angrebet her.

Iran

Iranske indflydelseskampagner omfattede fabrikerede nyhedsartikler og billeder, der understøttede regimets politiske narrativer. AI-værktøjer blev anvendt til at øge både kvaliteten og mængden af misinformation.

Nordkorea

Nordkoreanske aktører skabte falske personaer, som udgav sig for at være cybersikkerhedsrekruttere og forskere. Disse aktiviteter var sandsynligvis led i større efterretningsoperationer rettet mod udenlandske mål. Nordkorea er desuden kendt for økonomisk motiveret cyberkriminalitet. Lazarus Group, en statsstøttet trusselsaktør, har stået bag flere højtprofilerede kryptotyverier – herunder et tyveri på 1,4 milliarder dollars mod Bybit. Bliv klogere på Lazarus Group og Bybit-kuppet her.

Disse eksempler viser, hvordan statsstøttede trusselsaktører i stigende grad anvender generativ AI til at styrke deres cyberoperationer. Lær mere om, hvordan stater udfører cyberangreb i vores guide til statsstøttet hacking.

En voksende udfordring for cybersikkerheden

Det er første gang, OpenAI deler konkret og detaljeret indsigt i, hvordan deres værktøjer er blevet misbrugt i statsstøttede informationsoperationer. Resultaterne tegner et billede af et trusselslandskab i forandring, hvor generativ AI baner vejen for nye former for påvirkningskampagner.

Selvom de konkrete kampagner havde lavt engagement og begrænset effekt, er selve metoden bekymrende. Generativ AI gør det muligt for trusselsaktører at bryde sprogbarrierer, producere ensartede budskaber og skalere deres indsats langt ud over, hvad menneskelige ressourcer alene ville kunne opnå.

OpenAI’s reaktion

Som reaktion på misbruget har OpenAI lukket de berørte konti og implementeret yderligere sikkerhedsforanstaltninger for at opdage lignende adfærd fremover. Derudover har virksomheden delt sine fund med andre teknologiplatforme, retshåndhævende myndigheder og relevante beslutningstagere.

OpenAI understreger vigtigheden af gennemsigtighed og tidlig indgriben. I rapporten skriver virksomheden:

"Selvom de aktører, vi lukkede ned for, ikke så ud til at bruge vores værktøjer til væsentligt at øge rækkevidden eller effektiviteten af deres operationer, mener vi, at det er vigtigt at dele vores resultater for at øge bevidstheden."

Hvad det betyder for cybersikkerheden

Misbrug af generativ AI til påvirkningskampagner er ikke længere en teoretisk trussel – det er virkelighed. Denne udvikling understreger behovet for øget tilsyn, gennemsigtighed og proaktive indsatser i hele AI-økosystemet.

Hos Moxso følger vi nøje udviklingen i spændingsfeltet mellem AI og cybersikkerhed. OpenAIs indgriben er et vigtigt skridt, men de afslørede kampagner viser, hvor hurtigt digitale trusler udvikler sig. Bevidsthed, samarbejde og modstandsdygtighed er afgørende for at imødegå fremtidens risici.

Forfatter Sarah Krarup

Sarah Krarup

Sarah studerer innovation og entrepreneurship og har en dyb interesse for IT og hvordan cybersikkerhed påvirker virksomheder og private. Hun har stor erfaring med copywriting og en passion for at formidle viden om cybersikkerhed på en engagerende måde.

Se alle indlæg af Sarah Krarup

Lignende indlæg