Generativ kunstig intelligens er et underområde af kunstig intelligens, der bruger generative modeller til at skabe tekst, billeder, videoer eller andre former for data. Når en generativ model modtager et input, fx en sprogbesked (en prompt), kan den producere ny data ud fra relationer og mønstre, den har uddraget fra træningsdata. På engelsk kaldes området “generative artificial intelligence” og omtales også på dansk som “generativ AI”. Det bruges ofte synonymt med sprogmodeller og chatbots.

Gennembrud i 2018

Generativ kunstig intelligens har eksisteret i mere end 100 år. Faktisk blev den første model, Markov modellen, brugt til at analysere brugen af vokaler og konsonanter i skønlitteratur. Neurale netværk giver mulighed for en mere præcis modellering af mønstre i data. Neural netværk-arkitekturen Transformeren (offentliggjort af Google i 2018) og fremkomsten af hurtigere GPU-baserede computere muliggjorde et gennembrud for teknologien. Fra 2022 blev den kendt i en bred international offentlighed i kraft af tjenesten ChatGPT fra det amerikanske firma OpenAI.

Traditionel maskinlæring og generativ AI

Sammenlignet med traditionel maskinlæring, såsom klassifikation, regression og clusternalyse, der har været brugt i årtier til mønstergenkendelse og forudsigelser indenfor bl.a. sundhed og industriel produktion, er generativ kunstig intelligens en mere generel tilgang, der kan promptes til at udføre en bred vifte af opgaver. En prompt kan være alt fra et kort spørgsmål til en lang detaljeret dialog med både tekst- og billedinput, der forklarer den opgave eller den kontekst, som tjenesten skal løse.

Chatbots og store sprogmodeller

Store sprogmodeller (på engelsk "large language models" – LLM's) er en populær form for generativ AI. De bliver også kaldet chatbots, når det gælder tekst- og stemmebaserede tjenester, som ChatGPT, Mistral, Claude, Gemini, DeepSeek og Perplexity. De er alle designet på en måde, så man får et meget menneskelignende svar, når man prompter dem.

En videreudvikling af chatbots, som man begyndte at tale om primo 2025, er personlige assistenter og personlige agenter. Personlige assistenter kan fx lave 'deep research' og bruge længere tid på at levere fx en markedsrapport om et givent emne, mens personlige agenter kan booke tider og rejser, finde tilbud mv, altså handle på dine vegne og instrukser, så længe disse agenter får fuld adgang til viden om dig, fx din kalender.

Udover de tekstbaserede generative AI-tjenester er der veludviklede tjenester, som kan generere musik (fx Udio og Suno), fotos (fx Firefly og Midjourney) og levende billeder (fx Sora), ligesom nogle er specialiseret til at assistere computerprogrammering (fx CoPilot og AlphaCode).

Udviklingen præget af store teknologivirksomheder

Fordi udviklingen af disse tjenester kræver mange beregnings- og kompetence-ressourcer er udviklingen af generative AI-tjenester i høj grad blevet drevet af store teknologivirksomheder som OpenAI, Microsoft, Google, Amazon og Meta, der har investeret milliarder af dollars i teknologien.

Anvendelsesområder i stærk vækst

Generativ kunstig intelligens kan bruges til mange af de kognitive opgaver, som mennesker normalt udfører. Kvaliteten er meget forskellig og afhænger af, hvilke krav man stiller til dem. Blandt eksemplerne er:

  • programmering, fejlrettelser i computerkode
  • chatbots i kundeservice til at tage sig af simple forespørgsler
  • diagnostik og forskning – herunder opsummering af lange tunge tekster
  • brainstorm og afprøvning nye idéer inden for musik og kunst
  • strukturering af arbejdsopgaver
  • hjælp til lektier på alle niveauer i uddannelsessektoren
  • brug som arbejdsmæssig sparringspartner eller som samtalepartner

Etiske udfordringer

Der er en lang række grundlæggende etiske udfordringer i brugen af generativ kunstig intelligens Blandt de mest omtalte er:

  • Ophavsretskrænkelser. Publicistiske medier, forfattere, grafikere, fotografer, skuespillere, filmfolk og andre kreative mener, at AI-tjenesterne er udviklet ved hjælp af deres ophavsretsbeskyttede værker uden tilladelse. Derfor hober retssagerne sig op. Især i USA, men også danske medier, der arbejder sammen, har truet med retssag. Microsoft, der står bag CoPilot – en version af ChatGPT – mener, at en paragraf om 'fair use' i USA's ophavsretslov vil frikende dem.
  • Misinformation. Teknologien kan bruges som redskab til at skabe og sprede misinformation, hvis man prompter tjenesterne til det. En anden ting er, at de har indbygget misinformaton i form af de såkaldte 'hallucinationer'. Teknologien gætter sig til næste ord i sætningen, ord for ord for ord. Undersøgelser fra Reuters Institute og BBC viste i 2024, at omkring en femtedel af det, der kom ud af generative AI-tjenester var hallucinationer.
  • Deepfakes. Teknologien bruges også til at skabe og udbrede deep fakes og dermed misbrug andre mennesker navne, ansigter og stemmer til fx at opnå stemmer ved politiske valg eller lokke penge ud af andre.
  • Bias. Der kan være problemer omkring bias og diskrimination på grund af de data, man bruger i en tjeneste.
  • Klimabelastning. Der er udfordringer omkring teknologiens klimabelastning, idet teknologien voldsomt øger brugen af el og vand i datacentrene væsentligt.
  • Brud på GDPR. Det er uafklaret, om generativ AI er lovligt ifølge EU's privatlivslovgivning GDPR. EU's databeskyttelses-myndigheder har stillet over 30 spørgsmål til OpenAI omkring deres efterlevelse af GDPR.
  • Antropomorfisering. Endelig er der et etisk spørgsmål relateret til såkaldt antropomorfisering. De fleste tjenester skriver og taler ikke som om de er maskiner. De er designet til at svare menneskelignende. Og det kan få mennesker til at antropomorfisere, altså få følelser for dem.
  • Negative indvirkning på brugernes evner. I det seneste år er det blevet observeret at både unge og voksne evner til at løse opgaver er blevet dårligere. Det er fx observeret i PISA-undersøgelser. Det kan skyldes mange faktorer blandt andet brugen af sociale medier. Spørgeskemaundersøgelser indikerer at borgere er bekymret for at brugen af kunstig intelligens kan have en negativ indflydelse på menneskers evne til at tænke kreativt, have nære relationer til andre mennesker, tage svære beslutninger og til at løse problemer.

Regulering af brugen af generativ AI

USA har ingen samlet lovgivning, som sætter grænser for brugen af kunstig intelligens. Kina har siden 2023 reguleret brugen af generativ AI rettet mod brugere på internettet i form af krav til digital vandmærkning af AI-genererede billeder og videoer. Desuden stilles der krav til kvaliteten og indholdet af træningsdata, fx at det skal respektere privatliv og være sandfærdigt.

Generativ AI er i EU reguleret gennem GDPR, Digital Services Act og AI Act. Fx kræver europæisk lov, at hvis man sender en chatbot på markedet, så skal man tydeligt fortælle brugerne, at der er tale om en AI-genereret maskine og ikke et menneske.

Det samme gælder et AI-genereret indhold; det skal deklareres, så modtagerne ved, at det er skabt ved hjælp af kunstig intelligens. Ifølge forskere i en Europol-rapport fra 2023 forventes det, at 90 % af indholdet på internettet i 2026 vil være AI-genereret.

AI Act siger også, at hvis man bruger AI indenfor for højrisiko-områder som kritisk infrastruktur, uddannelse, sikkerhed, HR, vigtige offentlige services, retssystem, migration samt væsentlige private og offentlige tjenester, fx kreditvurdering, skal der bl.a. udarbejdes såkaldte risikovurderinger, man skal bruge kvalitetsdata, og alle aktiviteter skal logges.

Læs mere i Lex

Eksterne links

Afbryd artikelskrivning uden at gemme

Kommentarer (3)

skrev Johs Johansen

Kære Ole og Pernille
Jeg har netop modtaget nogle data fra Pew Research via Statista, der indeholder nogle tankevækkende (amerikanske) forventninger til AI. Forventningerne er ikke just store.
Måske kan disse data benyttes i jeres udmærkede artikel om generativ kunstig intelligens.
Link til data:
https://www.statista.com/chart/35909/how-will-ai-impact-human-abilities/
Med venlig hilsen
Johs Johansen
Fagansvarlig, Medier og og internet

svarede Ole Winther

Hej Johs
Jeg skriver lige en kort tekst om det.
Mvh
Ole

svarede Ole Winther

Hej igen!
To ting:
1. lex.dk har ikke noget opslag på "social medier"
2. I https://lex.dk/Facebook er der et forkert link forneden til Meta:
Læs mere i Lex
Meta

Kommentarer til artiklen bliver synlige for alle. Undlad at skrive følsomme oplysninger, for eksempel sundhedsoplysninger. Fagansvarlig eller redaktør svarer, når de kan.

Du skal være logget ind for at kommentere.

eller registrer dig