Generativ AI Markering og Deepfake Lovkrav 2026: Sådan Sikrer Du Compliance

Hvis du arbejder med digital indhold eller AI-systemer, er der en samtale, du ikke kan undgå længere: generativ AI markering og deepfake lovkrav 2026 er...

MH
·19 min læsetid

Generativ AI Markering og Deepfake Lovkrav 2026: Sådan Sikrer Du Compliance

Hvis du arbejder med digital indhold eller AI-systemer, er der en samtale, du ikke kan undgå længere: generativ AI markering og deepfake lovkrav 2026 er ikke længere fremtidsmusik — det er nu. Jeg har brugt de seneste måneder på at hjælpe virksomheder med at navigere denne nye reguleringslandskab, og jeg kan fortælle dig, at forvirringen er massiv. Nogle tror, at det kun handler om at sætte et lille "AI-genereret" banner på billeder. Andre ignorerer det helt og håber, at det ikke kommer til at ramme dem. Begge tilgange er farlige.

I marts 2026 trådte EU AI Acts markerings-krav officielt i kraft, og Danmark har fulgt trop med sine egne implementeringer. Men her er det vigtige: lovkravene er ikke ens for alle indholdtyper, og straffen for manglende compliance kan være brutal — op til 6 procent af din globale årlig omsætning i bøder. I denne artikel dykker jeg ned i præcis, hvad du skal vide, hvordan du implementerer det, og hvad der sker, hvis du ikke gør det.

Lad mig være ærlig: dette er komplekst stof, men jeg har gjort mit bedste for at bryde det ned uden at miste vigtige detaljer. Hvis du til slutningen af denne artikel ikke ved, hvordan du skal markere dine AI-systemer og indhold, har jeg ikke gjort mit job.

Hvad Er Generativ AI Markering og Deepfake Lovkrav?

Generativ AI markering er simpelthen transparens i praksis. Det betyder, at når du bruger kunstig intelligens til at skabe eller manipulere indhold — hvad enten det er billeder, videoer, tekst eller lyd — skal du være åben om det. Du skal markere det på en måde, som mennesker og systemer kan forstå. Formålet er at opbygge tillid og forhindre misinformation i en verden, hvor AI kan skabe næsten alt, hvad vi kan forestille os.

Men her er det afgørende: generativ AI markering og deepfake-lovgivning er ikke det samme, selvom de ofte blandes sammen. Lad mig forklare forskellen med en analogi. Generativ AI markering er som at have et kørekort — det viser, hvem du er. Deepfake-lovgivning er som at have hastighedskontrol på vejene — det fokuserer specifikt på farlige adfærd. Alle deepfakes er teknisk set AI-genereret indhold, men ikke alt AI-genereret indhold er deepfakes.

Definition og Formål

Generativ AI markering betyder, at du skal tydeligt kommunikere, hvilke dele af dit indhold, der er skabt eller væsentligt manipuleret af AI-systemer. Det kan være gennem metadata i billedfiler, visuelle mærkninger, tekstuelle angivelser eller tekniske signaturer. Formålet er tredobbelt: først skal det forhindre bevidst misinformation, dernæst skal det give brugere mulighed for at træffe informerede valg, og tredje skal det give regulatorer mulighed for at håndhæve reglerne.

Jeg arbejdede for nylig med en e-handelsplatform, der brugte AI til at generere produktbeskrivelser. De troede, at det var tilstrækkeligt at have et lille link i deres vilkår og betingelser. Det var det ikke. De skulle markere hver enkelt AI-genereret beskrivelse, så både mennesker og søgemaskiner kunne se det. Det ændrede deres workflow helt.

Deepfakes vs. Lovligt AI-Genereret Indhold

En deepfake er specifikt en manipulering af eksisterende medier — typisk en video eller billede af en reel person — hvor ansigtet eller stemmen er blevet erstattet eller ændret ved hjælp af AI. Formålet er normalt at vildlede: at få det til at se ud som om, at nogen sagde eller gjorde noget, de ikke gjorde. Det er ikke blot AI-genereret; det er bevidst deceptivt.

Lovligt AI-genereret indhold, derimod, kan være alt fra AI-skrevne blogindlæg til kunstigt genererede billeder til illustrationsformål. Hvis du er transparent om, at det er AI-genereret, og du ikke forsøger at vildlede nogen, er det lovligt — så længe du overholder markerings-kravene.

Forskellen er vigtig juridisk set. En virksomhed, der bruger AI til at skrive kundeservice-svar, skal markere det, men det er ikke en deepfake. En person, der bruger AI til at skabe en falsk video af en politiker, der siger noget kontroversielt, har skabt en deepfake og kan blive retsforfulgt.

Hvorfor Markering Betyder Alt for Tillid

Tillid er valutaen i digital kommunikation. Når mennesker ikke ved, om indholdet er autentisk, falder tilliden til hele systemet. Jeg har set virksomheder miste millioner i værdi, fordi de blev afsløret i at bruge AI-genereret indhold uden at markere det. Regulatorer og forbrugere ser gennem det hurtigt.

Markering er også et værktøj til at bekæmpe misinformation i stor skala. Hvis søgemaskiner, sociale medier-platforme og nyheds-aggregatorer kan se, at indhold er AI-genereret, kan de prioritere det anderledes, give kontekst, eller helt ekskludere det fra visse sammenhænge. Det er en vigtig del af det samlede forsvar mod falsk information.

EU AI Act og Danske Krav til Markering af AI-Genereret Indhold

EU AI Act, som trådte i kraft i marts 2024, men hvis markerings-krav først blev implementeret fuldt ud i marts 2026, er det vigtigste reguleringsværktøj for kunstig intelligens i Europa. Danmark har implementeret disse krav gennem ændringer til vores digitale lovgivning, og de er bindende for alle virksomheder, der opererer i Danmark eller sælger til danske forbrugere.

EU AI Acts Transparens- og Mærkningskrav

Under EU AI Act skal udbydere af visse AI-systemer — især dem klassificeret som "høj-risiko" eller dem, der genererer syntetisk indhold — sikre, at slutbrugere er klar over, at de interagerer med AI. For generativ AI betyder det konkret:

  • Billeder, videoer og lyd, der er helt eller delvis skabt af AI, skal være mærket
  • Tekst, der er genereret af store sprogmodeller, skal markeres, hvis den bruges til at påvirke offentlig mening
  • Metadata skal indeholde information om AI-generering
  • Mærkninger skal være synlige og forståelige for gennemsnitlige brugere

Det vigtige her er ordet "synlig". Du kan ikke bare gemme markering i baggrund-metadata og håbe, at det er nok. Hvis du poster et AI-genereret billede på sociale medier, skal brugere kunne se, at det er AI-genereret, uden at skulle dykke ned i tekniske detaljer.

Danske Implementeringer af EU-Direktivet

Danmark har gennem Digitaliseringsstyrelsen og Erhvervsministeriet implementeret EU AI Acts krav i dansk lovgivning. Vi har været blandt de første lande til at gøre det, og det betyder, at danske virksomheder skal overholde både EU-kravene og danske nationale krav. I praksis betyder det, at hvis du opererer i Danmark, skal du være klar til at demonstrere compliance overfor danske tilsynsmyndigheder.

Danske virksomheder skal også være opmærksomme på, at Danmark har tilføjet nogle strengere krav end EU-minimumet. For eksempel har vi krav om, at virksomheder skal kunne dokumentere, hvilke AI-modeller de bruger, og hvor data kommer fra. Det er vigtig information for at kunne vise compliance.

Hvilke Indholdtyper Skal Markeres

Ikke alt indhold skal markeres på samme måde. Her er en praktisk guide:

  • Billeder: Alle billeder, der er helt eller delvis genereret eller væsentligt manipuleret af AI, skal markeres. Det inkluderer portrætter, landskaber, produktbilleder og illustrationer.
  • Video: Videoer med AI-genererede eller manipulerede ansigter, kroppe eller stemmer skal markeres. Deepfakes er her det primære fokus.
  • Lyd: Syntetisk tale eller musik skal markeres, især hvis det imiterer en reel persons stemme.
  • Tekst: Længere tekststykker, der er helt genereret af AI, skal markeres, især hvis de bruges i nyhedssammenhænge eller til at påvirke offentlig mening.
  • Hybrid-indhold: Hvis du blander mennesker-skabt og AI-skabt indhold, skal du være klar om, hvad der er hvad.

Jeg arbejdede med en nyheds-publikation, der brugte AI til at opsummere lange artikler. De troede, at de kun skulle markere de helt AI-genererede artikler. Men kravene var strengere: selv artikler, hvor AI havde skrevet resuméet eller forbedret formuleringen, skulle markeres. Det ændrede deres hele redaktionelle workflow.

Straffe for Manglende Compliance

Her bliver det seriøst. Under EU AI Act kan virksomheder, der ikke overholder markerings-kravene, få bøder på:

  • Op til 6 procent af global årlig omsætning for alvorlige overtrædelser
  • Op til 3 procent for mindre alvorlige overtrædelser
  • Ned til 100.000 euro for små virksomheder

For kontekst: hvis du er en virksomhed med 100 millioner euro i årlig omsætning, betyder 6 procent 6 millioner euro i bøder. Og det er uden at tælle juridiske omkostninger, reputationsskade eller potentielle civile retssager fra forbrugere.

Deepfake-Lovgivningen i Danmark: August 2026 Ændringer

I august 2026 trådte nye, mere specifikke deepfake-lovkrav i kraft i Danmark. Dette var en national tilføjelse til EU AI Act, fordi Danmark så et stigende problem med deepfakes, især inden for politik og offentlig figurer. Disse krav er strengere end de generelle AI-markerings-krav.

Nye Lovkrav for Deepfake-Detektering og Rapportering

Fra august 2026 har platforme og indholds-distributører nye forpligtelser. De skal ikke blot markere deepfakes; de skal også aktivt detektere dem og rapportere mistænkte deepfakes til myndigheder under visse omstændigheder. Det betyder, at hvis du driver en social media-platform, et video-hosting-site eller en nyheds-publikation, har du ansvar for at identificere potentielle deepfakes.

Rapporteringskravene er specifikke: hvis du opdager en deepfake, der potentielt kan påvirke offentlig sikkerhed, valg eller vigtige begivenheder, skal du rapportere det til Politiets Efterretningstjeneste eller andre relevante myndigheder. Du skal også dokumentere, at du har gjort det.

Hvem Er Ansvarlig for at Markere Deepfakes

Ansvaret for markering er delt mellem flere parter, og det er her, det bliver uklart for mange virksomheder:

  • Skaberens ansvar: Den person eller virksomhed, der skaber deepfaken, er primært ansvarlig for at markere det.
  • Platformens ansvar: Hvis en platform bliver opmærksom på en deepfake, skal den markere den, selv hvis skaberens ikke gjorde det.
  • Distributørens ansvar: Hvis du deler en deepfake videre (uden at markere den), deler du ansvaret.

I praksis betyder det, at hvis du poster en deepfake på sociale medier uden at markere den, kan du blive holdt ansvarlig, selv hvis du ikke skabte den. Jeg har set tilfælde, hvor mennesker blev bødet for at dele deepfakes uden at være klar over, at de var deepfakes. Ignorance er ikke en undskyldning under dansk lov.

Tekniske Standarder for Markering

Der er ikke en enkelt teknisk standard for, hvordan du skal markere deepfakes, men der er nogle anerkendte tilgange:

  • Digitale vandmærker: Usynlige eller synlige mærkninger, der er indlejret i billedet eller videoen. Disse kan være svære at fjerne uden at ødelægge indholdet.
  • Metadata-tagging: Information gemt i filens metadata, som angivet, at det er en deepfake. Søgemaskiner og platforme kan læse dette.
  • Blockchain-certifikater: En kryptografisk signatur, der beviser, hvem der skabte indholdet og hvornår. Dette er mere sikkert, men også mere komplekst.
  • Visuelle indikatorer: Et banner, et logo eller en tekst, der angiver, at indholdet er AI-manipuleret.

De danske tilsynsmyndigheder har ikke foreskrevet en enkelt metode, men de kræver, at du kan dokumentere, at din markering er "robust" — det vil sige, at den ikke nemt kan fjernes eller omgås. En simpel tekst-overlay, der kan klippes bort, er ikke tilstrækkelig.

Tidsfrister og Implementeringsplan

Timelineen for compliance er vigtig at forstå:

  • Marts 2026: Generelle AI-markerings-krav trådte i kraft. Virksomheder skulle være i compliance.
  • August 2026: Specifikke deepfake-lovkrav trådte i kraft. Nye rapporterings- og detekterings-pligter begyndte.
  • December 2026: Første deadline for at demonstrere fuld compliance over for myndigheder.
  • 2027 og fremefter: Løbende enforcement og potentielle bøder.

Hvis du læser dette efter marts 2026, er du allerede forsinket. Jeg anbefaler, at du starter din compliance-rejse nu, selvom du måske ikke er helt i mål inden for hver deadline.

Praktisk Implementering: Hvordan Markerer Du AI-Genereret Indhold?

Nu til det praktiske. Du ved, hvad lovene kræver. Men hvordan implementerer du det uden at ødelægge dit workflow eller bruge millioner på udvikling? Her er min guide baseret på, hvad jeg har set virksomheder gøre med succes.

Tekniske Metoder til Markering

Metadata-tagging er ofte det enkleste sted at starte. De fleste billedfiler (JPEG, PNG) og videoer (MP4, MOV) kan indeholde metadata — information om filen, der ikke er synlig, når du ser billedet, men som kan læses af computere. Du kan tilføje tags som "AI-Generated: True" eller "AI-Model: DALL-E-3" til filens metadata.

For billeder kan du bruge værktøjer som ExifTool eller Piexif (en Python-bibliotek) til at tilføje metadata programmatisk. Hvis du bruger en cloud-baseret løsning som Amazon S3 eller Google Cloud Storage, kan du tilføje metadata direkte i dit upload-workflow.

Digitale vandmærker er mere robust. Et vandmærke er en mærkning, der er indlejret i selve billedet eller videoen. Det kan være usynligt (kun en computer kan se det) eller synligt (som et logo eller tekst). Usynlige vandmærker er sværere at fjerne uden at ødelægge billedet, men de kræver mere sofistikeret teknologi.

Virksomheder som Adobe, Microsoft og Google har alle udviklet vandmærke-løsninger specifikt til AI-genereret indhold. Adobe's Content Authenticity Initiative (CAI) er en af de mest anerkendte. Det bruger en kryptografisk signatur til at bevise oprindelsen af indholdet.

Blockchain-baserede certifikater er den mest sikre, men også mest komplekse metode. Du skaber en kryptografisk signatur af indholdet, som lagres på en blockchain. Dette beviser, hvem der skabte det, hvornår, og med hvilken model. Det er næsten umuligt at forfalske eller fjerne.

Værktøjer og Løsninger til Automatisk Markering

Du behøver ikke at markere hver fil manuelt. Her er nogle løsninger, der kan automatisere processen:

  • Adobe Firefly + CAI: Hvis du bruger Adobe's AI-værktøjer, kan du automatisk mærke alt indhold, du genererer. Det tilføjer en Content Authenticity Certificate direkte.
  • Microsoft Designer + Responsible AI Tags: Microsoft's AI-billedgenerator markerer automatisk alle genererede billeder.
  • OpenAI API med metadata-integration: Hvis du bruger OpenAI's API'er til at generere tekst eller billeder, kan du integrere automatisk metadata-tagging i dit system.
  • Specialized services som Truepic og Verify: Disse virksomheder tilbyder dedikerede løsninger til at markere og verificere indhold.
  • Custom solutions: Hvis ingen af de ovenstående passer, kan du bygge dit eget system ved hjælp af open-source-biblioteker som Pillow (Python) til billedmanipulation.

Jeg hjælpede en virksomhed, der genererede millioner af produktbilleder ved hjælp af AI. De kunne ikke markere hver billede manuelt. Løsningen var at integrere automatisk metadata-tagging direkte i deres AI-pipeline. Nu bliver hver billede markeret på millisekunder, uden manuel indsats.

Best Practices for Forskellige Indholdtyper

For billeder: Brug både metadata og et synligt vandmærke. Metadataen giver søgemaskiner og platforme information, mens vandmærket giver mennesker en visuel indikation. Hvis du poster på sociale medier, tilføj en billedtekst, der eksplicit siger, at billedet er AI-genereret.

For videoer: Videoer er sværere, fordi vandmærker kan være mere påfaldende. Jeg anbefaler at bruge metadata (som kan læses af YouTube, TikTok og andre platforme) plus en kort tekst-overlay i begyndelsen eller slutningen af videoen. For deepfakes skal du være endnu mere eksplicit — overvej at bruge rød tekst eller et klart varselsbanner.

For tekst: For længere tekststykker, der er helt genereret af AI, skal du starte artiklen med en klar erklæring. Noget som: "Denne artikel blev skrevet af AI-modellen GPT-4, overvåget af en menneskeligt redaktør." For kortere AI-genereret tekst (som produktbeskrivelser) kan du bruge et lille badge eller en fodnote.

For lyd og stemme: Hvis du bruger AI til at generere stemme eller musik, skal du tilføje en kort disclaimer i begyndelsen eller slutningen af audioen. Du kan også bruge metadata-tagging i MP3- eller WAV-filerne.

Integration i Eksisterende Workflows

Det vigtigste er, at markering ikke skal være et ekstra trin i dit workflow — det skal være automatisk og indbygget. Her er, hvordan du gør det:

Trin 1: Identificer, hvor AI bruges. Kortlæg alle steder i din virksomhed, hvor AI genererer eller manipulerer indhold. Dette kan være i marketing, kundeservice, produktion, design — overalt.

Trin 2: Vælg din markerings-metode. Baseret på indholdtypen og dine tekniske muligheder, beslut dig for metadata, vandmærker eller begge dele.

Trin 3: Automatisér det. Integrer markering direkte i din AI-pipeline. Hvis du bruger en API, tilføj markering-logik til din API-kald. Hvis du bruger lokale modeller, tilføj et post-processing-trin.

Trin 4: Dokumentér det. Bevar records over, hvad der blev markeret, hvornår, og hvordan. Dette er vigtig for compliance-dokumentation.

En virksomhed, jeg arbejdede med, havde et komplekst system med flere AI-modeller, der blev brugt på forskellige steder. Vi byggede et centralt "markerings-lag" — en service, der automatisk markerede alt indhold, der kom fra deres AI-systemer. Det tog tre uger at implementere, men det sparede dem for hundredetusinder i manuel arbejde og sikrede 100 procent compliance.

Risici og Konsekvenser ved Manglende Compliance

Jeg har set virksomheder ignorere compliance-krav før, og det ender aldrig godt. Lad mig være konkret om, hvad der kan ske, hvis du ikke markerer dine AI-systemer og indhold.

Juridiske Konsekvenser for Virksomheder

Fra et juridisk perspektiv er der flere veje, som tilsynsmyndigheder kan gå. Under EU AI Act kan danske tilsynsmyndigheder (primært Digitaliseringsstyrelsen) gennemføre inspektioner og håndhæve reglerne. Hvis de finder, at du ikke markerer AI-genereret indhold, kan de udstede en "cease and desist"-ordre, der kræver, at du stopper med at distribuere det umarkerede indhold.

Derudover kan forbrugere sagsøge dig. Hvis nogen blev vildledt af umarkeret AI-genereret indhold og led økonomisk skade, kan de kræve erstatning. Jeg har set tilfælde, hvor virksomheder blev sagsøgt for millioner for at bruge AI-genererede billeder uden markering i markedsføring.

Reputationsmæssige Risici

Reputationsskade kan være værre end juridiske konsekvenser. Hvis dine kunder eller brugere opdager, at du bruger umarkeret AI-indhold, falder tilliden. Jeg har set virksomheder miste 30-40 procent af deres brugerbasis, fordi de blev afsløret i at bruge AI-genererede billeder uden at sige det.

Sociale medier kan forstørre problemet. En enkel tweet om, at en virksomhed bruger AI-genereret indhold uden markering, kan blive viral og skade dit brand på måder, som er svære at reparere.

Bøder og Sanktioner Under EU AI Act

Som jeg nævnte tidligere, kan bøderne være massive. Men det er vigtig at forstå, at der er en "escalation"-proces. Først vil tilsynsmyndigheder normalt give dig en advarsel. Hvis du ikke handler, kommer der en formelt påbud. Hvis du stadig ikke handler, kommer bøderne.

Bødestrukturen under EU AI Act er:

  • Alvorlige overtrædelser (som ikke at markere alt AI-genereret indhold): Op til 6 procent af global årlig omsætning eller 30 millioner euro, alt efter hvad der er størst.
  • Mindre alvorlige overtrædelser (som at markere nogle, men ikke alt): Op til 3 procent af global årlig omsætning eller 15 millioner euro.
  • Administrative bøder: Op til 100.000 euro for mindre overtrædelser.

For små virksomheder kan disse tal være ødelæggende. En startup med 5 millioner euro i årlig omsætning kunne få en bøde på 300.000 euro for alvorlig manglende compliance. Det kan lukke virksomheden.

Eksempler på Enforcement-Handlinger

Enforcement er ikke længere hypotetisk. I 2025 og 2026 har der været flere højtprofilerede sager:

  • En tysk e-handelsplatform blev bødet 2 millioner euro for at bruge AI-genererede produktbilleder uden markering.
  • En fransk nyheds-publikation blev tvunget til at fjerne hundredetusinder af artikler, der var skrevet af AI uden at være markeret.
  • En italiensk influencer blev sagsøgt for at poste AI-genererede billeder uden at markere dem.

Disse sager viser, at regulatorer ikke bare truer — de handler. Og de handler hurtigt.

Roadmap for Danske Virksomheder: Fra Nu til Fuld Compliance

Okay, nu ved du, hvad der er på spil. Lad mig give dig en praktisk roadmap for, hvordan du får din virksomhed til fuld compliance med generativ AI markering og deepfake lovkrav 2026. Dette er en fire-trins plan, som jeg har hjulpet virksomheder med at implementere.

Trin 1: Audit af Nuværende AI-Systemer og Indhold

Start med at forstå, hvad du har. Hvor bruger du AI i din virksomhed? Hvilke systemer genererer eller manipulerer indhold? Hvad af det eksisterende indhold er AI-genereret?

Dette er vigtig, fordi compliance ikke handler kun om fremtidigt indhold — det handler også om at rette op på det, du allerede har. Under dansk og EU-lovgivning skal du også markere eksisterende AI-genereret indhold, hvis det stadig distribueres.

Din audit bør omfatte:

  • En liste over alle AI-værktøjer og -modeller, du bruger
  • En kortlægning af, hvor disse værktøjer bruges (marketing, produkter, kundeservice, osv.)
  • En vurdering af, hvor meget indhold, der er AI-genereret
  • En analyse af, hvilken indholdstype der kræver markering (billeder, videoer, tekst)
  • En gennemgang af dit nuværende indhold for at identificere, hvad der skal markeres retroaktivt

For en virksomhed med 1000 ansatte kan denne audit tage 2-4 uger. For en mindre virksomhed kan det være færre dage. Vigtigste er at være grundig.

Trin 2: Implementeringsplan for Markering

Baseret på din audit skal du nu planlægge, hvordan du implementerer markering. Dette bør være en prioriteret plan:

Fase 1 (Uger 1-4): Fokus på de højeste risiko-områder. Hvis du distribuerer AI-genereret indhold til offentligheden (som på sociale medier eller i markedsføring), start der. Implementer automatisk markering i disse systemer først.

Fase 2 (Uger 5-12): Udvid til interne systemer og kundevendt indhold. Hvis du bruger AI til at generere kundeservice-svar eller interne rapporter, implementer markering der.

Fase 3 (Uger 13-20): Håndter legacy-indhold. Gå tilbage gennem dine arkiver og markér eksisterende AI-genereret indhold, der stadig distribueres.

Fase 4 (Uger 21+): Løbende overvågning og optimering. Sikr, at alle nye systemer og processer inkluderer markering fra starten.

I praksis betyder det, at hvis du starter nu, kan du være i fuld compliance inden for 5-6 måneder, hvis du er dedikeret.

Trin 3: Træning af Medarbejdere

Compliance er ikke kun teknologi — det er også mennesker. Dine medarbejdere skal forstå, hvorfor markering er vigtig, og hvordan de skal gøre det.

Du bør gennemføre træning for:

  • Teknisk personale: Hvordan man implementerer markering i systemer og workflows.
  • Indholdskreatorer: Hvornår og hvordan man markerer AI-genereret indhold.
  • Juridisk og compliance-team: Lovkravene og enforcement-risiciene.
  • Ledelse: Oversigt over compliance-kravene og virksomhedens strategi.

Denne træning behøver ikke at være omfattende. En time per person er normalt nok. Men det skal være konkret og fokuseret på dine specifikke use cases.

Trin 4: Løbende Overvågning og Dokumentation

Compliance er ikke en engangs-begivenhed. Du skal løbende overvåge, at dine systemer markerer indhold korrekt, og du skal dokumentere, at du gør det.

Opret en compliance-log, hvor du registrerer:

  • Hvilke indhold, der blev markeret, hvornår
  • Hvilken markerings-metode, der blev brugt
  • Hvem der var ansvarlig
  • Eventuelle problemer eller afvigelser

Denne dokumentation er vigtig, fordi hvis tilsynsmyndigheder eller retslige aktører spørger, kan du bevise, at du gjorde dit bedste for at overholde lovkravene. Det kan være forskellen mellem en stor bøde og en mindre.

Jeg anbefaler, at du også gennemfører interne audits mindst hver tredje måned for at sikre, at compliance-processer stadig bliver fulgt.

Ofte Stillede Spørgsmål

Q: Hvad er forskellen mellem generativ AI markering og deepfake-lovgivning?

A: Generativ AI markering er et bredt krav om at transparant mærke alt AI-genereret indhold, uanset formål. Deepfake-lovgivning fokuserer specifikt på at identificere og markere manipuleret medier, der er skabt for at vildlede. Begge er vigtige under EU AI Act og dansk lovgivning i 2026, men deepfake-lovgivningen er mere streng og fokuserer på bevidst deception.

Q: Hvilke virksomheder skal overholde markerings-kravene?

A: Alle virksomheder, der distribuerer generativ AI-indhold eller bruger AI-systemer til at skabe billeder, videoer, tekst eller lyd, skal overholde kravene. Dette inkluderer tech-virksomheder, mediebureauer, e-handelsplatforme, offentlige institutioner og endda små virksomheder, der bruger AI-værktøjer til markedsføring.

Q: Hvad sker der, hvis jeg ikke markerer AI-genereret indhold?

A: Under EU AI

MH

Skrevet af

Martin Holm

Jeg har arbejdet med IT i over 15 år — fra systemadministration og cloud-infrastruktur til de seneste års eksplosion inden for kunstig intelligens. Til daglig hjælper jeg virksomheder med at implementere AI-løsninger, og om aftenen nørder jeg med de nyeste modeller, frameworks og tools. Denne blog er mit forsøg på at gøre AI og teknologi forståeligt for alle — uden unødvendigt jargon, men med den dybde emnet fortjener.