AI i 2024

2024 har allerede vist sig at være et år fuld af udvikling i AI-verdenen. Her kigger vi nærmere på, hvordan AI former moderne teknologi i 2024.

04-04-2024 - 6 minutters læsning. Under kategorien: case.

AI i 2024

2024 har allerede vist sig at blive et år fuld af udvikling i AI-verdenen, både når det gælder chatbots, virtual reality og augmented reality, samt cyberangreb assisteret af AI.

Vi ser nærmere på, hvordan verden har ændret sig siden introduktionen af kunstig intelligens, og hvordan den har formet den moderne teknologi, som vi kender og bruger i dag.

En ny generation af AI

Hvis du har den mindste interesse i teknologi, har du uden tvivl hørt om artificial intelligence aka AI. Selv folk, der ikke nødvendigvis er interesserede i teknologi, har hørt om fænomenet, da det er på rigtig manges læber.

Kunstig intelligens efterligner menneskelig adfærd og intelligens. Den menneskeliggør maskiner og er blevet programmeret til at lære menneskelige tendenser og manerer.

AI blev skabt til at automatisere forskellige opgaver for at lette vores arbejdsbyrde og forbedre processer - både menneskerelaterede processer og teknologiske operationer. Oprindeligt blev AI brugt til virtuelle assistenter som Google Assistant og Apples Siri. AI er baseret på maskinlæring, der analyserer menneskers naturlige sprogstrukturer for at udføre brugerkommandoer; det er blevet en central del af mange brugeres hverdag, da det fungerer som en virtuel assistent.

Fremkomsten af chatbots

Et andet teknologisk vidunder, der overraskede mange, var fremkomsten af chatbots. Mange større virksomheder har udviklet chatbots for at underholde deres kunder og for at forbedre vores arbejds- og privatliv.

De fleste chatbots er tilgængelige for den brede offentlighed, og det er næsten kun vores fantasi, der sætter grænser for, hvad vi kan bruge dem til. Eksempler på, hvordan folk bruger chatbots, er f.eks.:

  • Til at skrive kortere opgaver og artikler
  • Til at skabe billeder
  • Til at analysere tekst, lyd eller billeder
  • Til at lave opskrifter eller madplaner
  • At lave patientjournaler og analyser
  • Som en partner til brainstorming af idéer

En anden AI-baseret teknologi, der har set dagens lys, er virtual og augmented reality. VR og AR har ændret den måde, vi arbejder på og f.eks. spiller videospil med specialiserede headsets, der giver os mulighed for at blive absorberet i den virtuelle og udvidede virkelighed. En nyere opfindelse fra 2024 er Apples AR-briller, der kombinerer kameraer, så du kan se den virkelige verden, med en teknologi, der giver dig mulighed for at få notifikationer, videoer og beskeder i dit synsfelt, alt imens du går rundt på gaden eller sidder i et møde.

Dette er kun begyndelsen på, hvad udviklere kan gøre med AI, og hvordan det (forholdsvis) nemt kan implementeres i vores hverdag.

Cyberangreb baseret på AI

AI giver brugerne en uendelig mængde muligheder. Desværre giver det også ondsindede aktører nye måder at udføre cyberangreb på.

Med ny teknologi følger nye enheder og software, der kan hackes. Normalt skal en bruger give personlige oplysninger for at oprette en brugerkonto til den pågældende software eller for at logge ind på sociale medieplatforme via sit headset.

Det betyder imidlertid, at du har fortrolige og sårbare data forbundet til din enhed og dermed endnu et mål for hackeren at ramme. Hackerangreb og databrud i forbindelse med VR/AR er heldigvis ikke blevet et udbredt fænomen endnu, men det kan være det næste, hackerne vil gå efter i fremtiden.

En anden måde, hackere udnytter AI på, er ved at bruge chatbots til at skrive ondsindet kode. Da chatbots først kom frem, havde de begrænset filtrering og ingen omfattende sikkerhedsfunktioner, der forhindrede hackere i at få computeren til at skrive kode og ondsindet software.

Det betød, at hackere kunne få fingrene i nye former for kodning, som de måske ikke havde gjort før - og at sikkerhedssystemerne ikke havde ordentlige foranstaltninger til at forhindre og holde hackerne ude.

Heldigvis har de store chatbot-udviklere skabt omfattende filtreringssystemer nu, så hvis en ondsindet aktør indtaster en prompt som f.eks. "skriv en kode til installation af malware på gmail-brugerkonti", vil chatbotten genkende visse ord og egenskaber og dermed afvise denne kommando. Det betyder, at det er blevet meget sværere for hackere at udnytte chatbots, men det har ikke helt stoppet dem fra at bruge bots til at skrive kode. De er bare nødt til at være meget mere kreative og avancerede i deres kommandoer.

Siden filtreringen af velvillige chatbots kom frem, er ting som WormGPT dukket op som et modstykke til chatbots og mere specifikt OpenAI's ChatGPT. Den er baseret på samme struktur som ChatGPT, men fungerer uden sikkerhedsforanstaltninger, som man ser i de andre chatbots.

Lovgivning om kunstig intelligens

Fremkomsten og den efterfølgende stigning i teknologien har udvidet brugen af AI i den brede offentlighed og i virksomheder. Dette har ført til bekymringer vedrørende brugen af AI, idet alle virksomheder dagligt behandler persondata og fortrolige data.

Da teknologien, der bruger AI, ikke har vist sig at være helt sikker, når det kommer til hackerangreb og deling af data, synes mange virksomheder og endda lande, at det er et vanskeligt fænomen at håndtere.

Det betyder, at organisationer har implementeret reguleringer og love for at begrænse brugen af AI. En af de største institutioner, EU, har forsøgt at implementere en AI-lovgivning, som er blevet godkendt til at træde i kraft i 2024.

Den såkaldte AI Act kategoriserer forskellige AI-systemer efter risiko, der spænder fra "uacceptabel" til "minimal". Dette giver en indikation af, hvor sårbart et AI-system er, og dermed hvor sandsynligt det er at opleve databrud med systemet.

AI Act skaber desuden mere transparens, når det kommer til virksomheder, der bruger AI-systemer. Det betyder, at virksomheder vil blive holdt ansvarlige for eventuelt misbrug og dermed blive straffet, hvis det bliver opdaget. Det betyder også, at der vil være strengere krav til AI-systemer, før de kan bruges.

Ud over EU har mange institutioner og virksomheder implementeret AI-regler i deres retningslinjer, da det er blevet opdaget, at AI har udgjort en sikkerhedsrisiko såvel som en måde at f.eks. snyde med opgaver eller kompromittere testresultater (hvilket kan være i skolen, i virksomheder og i sundhedssystemet).

Den næste tid

Selvom AI har vist sig at være et nyttigt værktøj for mange, har det også vist sig at være et værktøj, der kan udnyttes.

Det kræver regler og systemstyring fra udviklere, men også for organisationer, der bruger teknologien, da vi sandsynligvis vil se yderligere udvikling af AI og nye måder at bruge den på i løbet af 2024.

Det er vigtigt at være forsigtig med teknologien og holde sig opdateret om reglerne; organisationer kan overveje at implementere et sæt regler for brugen af AI. Dette vil forbedre virksomhedens retningslinjer såvel som en organisations generelle cybersikkerhed.

Forfatter Caroline Preisler

Caroline Preisler

Caroline er copywriter for Moxso udover hendes daglige studie. Hun er i gang med sin kandidat i Engelsk og specialiserer sig i oversættelse og sprogpsykologi. Begge felter arbejder med kommunikationen mellem mennesker, og hvordan man skaber en fælles forståelse – disse elementer bliver inkorporeret i arbejdet, som hun laver her hos Moxso.

Se alle indlæg af Caroline Preisler

Lignende indlæg