fbpx

AI forordningen: hvad er det og hvordan vil AI blive reguleret i fremtiden?

Hvordan bliver AI reguleret i EU i fremtiden?

Teknologi spiller en større og større rolle i vores liv. Det gælder også for kunstig intelligens, også kaldet AI, som efterhånden er blevet en fast del af vores dagligdag. Det seneste eksempel på AI, der har imponeret med sin kompleksitet og resultater, er programmet ChatGPT. Programmet, der ind til videre er gratis, har oplevet kæmpe popularitet hos både professionelle og studerende. ChatGPT og lignende programmer vil, uden tvivl, ændre den måde vi studerer og arbejder på.

Men der er udfordringer og risici forbundet med ureguleret brug af AI-systemer. De inkluderer mangel på gennemsigtighed, diskrimination, ansvarlighed for beslutningstagning, datasikkerhed og -fortrolighed.

Netop ansvarlighed for beslutningstagen, er meget aktuelt for vores egen branche. I denne episode af vores podcast, taler vi om implementeringen af AI i jura, blandt andet en robot der fører retssag.

Hvilke risici er der forbundet med AI?

Vi har spurgt ChatGPT om hvilke risici der er forbundet med AI. Den peger selv på følgende:

  • Diskrimination: AI-systemer kan blive trænet på data, der indeholder ubevidste bias. Det kan føre til diskrimination mod bestemte grupper af mennesker.
  • Manglende gennemsigtighed: AI-systemer kan være komplekse og svære at forstå, hvilket kan gøre det vanskeligt at forklare, hvordan beslutninger er truffet.
  • Sikkerhed: AI-systemer kan være sårbare over for cyberangreb og manipulation. Det kan true integriteten og pålideligheden af ​​systemet.
  • Privatliv: AI-systemer kan indsamle og bruge personlige oplysninger om enkeltpersoner. Dette kan føre til brud på privatlivets fred og misbrug af data.
  • Uforudsigelighed: AI-systemer kan træffe beslutninger på måder, der ikke er forudsigelige eller kan føre til uventede resultater. Dette kan have alvorlige konsekvenser.

For at minimere disse risici, er det vigtigt at gennemføre risikovurderinger af AI-systemer på et tidligt stadie af udviklingen. Dette kan omfatte en grundig analyse af træningsdata og algoritmer, en gennemgang af det etiske og juridiske rammeværk for systemet og en identifikation af mulige risici og bivirkninger.

Derudover er det vigtigt at implementere relevante sikkerhedsforanstaltninger, såsom kryptering af data, begrænsning af adgang til systemet og overvågning af systemets ydeevne. Endelig er det vigtigt at opretholde åbenhed og gennemsigtighed i beslutningstagningen og sikre, at der er passende mekanismer på plads for at håndtere eventuelle bivirkninger eller negative konsekvenser af AI-systemer.

Hvad er AI-forordningen?

De seneste år har det Europæiske Råd arbejdet med en indstilling til en forordning om kunstig intelligens. Den 21. april 2021, offentliggjorde Europa Kommissionen AI-forordningen, som er en del af EU’s bredere strategi for digital transformation. Lovgivningen vil blive gennemført i hele EU og vil omfatte alle typer af AI-systemer, fra simple chatbots til mere komplekse systemer, der bruger maskinlæring og dyb læring.

Formålet med forordningen er, at tackle de ovennævnte risici og sikre at systemer med AI overholder eksisterende lovgivning om grundlæggende rettigheder og Unionens værdier. AI-forordningen har også til formål at skabe tillid og sikkerhed i anvendelsen af kunstig intelligens, samtidig med at den fremmer innovation og vækst i EU.

Ved at sikre en høj grad af sikkerhed, gennemsigtighed, pålidelighed og ansvarlighed vil forordningen skabe en ramme, hvor AI-systemer kan anvendes på en etisk og ansvarlig måde, der beskytter borgernes rettigheder.

Hvad er fremtiden for AI i EU?

Når forordningen vedtages, vil den fungere som en lovsamling rettet mod både udbydere og brugere af AI-systemer. Forordningen vil omfatte offentlige myndigheder, såvel som private virksomheder og den vil indeholde et forbud mod visse former for anvendelser af kunstig intelligens.

Der vil, ved indførelsen af AI-forordningen, blive indført forskellige niveauer af forpligtelser for udbyderen eller brugeren. Disse vil afhænge af hvilken risiko, anvendelsen af det pågældende AI-system indebærer.

AI-forordningen har 4 forskellige kategorier af risikovurderinger:

    1. Uacceptabel risiko: her gælder der skrappe krav til anvendelsen af AI-systemer, som indgår. Kravene er oplistet i forordningens afsnit III, og omfatter både udbyderne såvel som brugere og øvrige aktører. Et eksempel på det, som EU-forordningen anser for værende en uacceptabel risiko af et AI-system, er ansigtsgenkendelse i offentlige rum.
    2. Høj risiko: her vil der være specifikke krav forbundet med anvendelsen af AI-systemet. Et eksempel på et høj-risiko AI-system er biometri, hvilket er en metode som benyttes til at identificere en person ud fra specifikke kendetegn, såsom fingeraftryk.
    3. Begrænset risiko: her vil der være en række gennemsigtighedsforpligtelser for visse AI-systemer. Hvorvidt et AI-system indgår i denne kategori, afhænger af en konkret vurdering af systemets gennemsigtighed.
    4. Lav eller minimal risiko: her vil der som udgangspunkt ikke være specifikke krav, hvorfor AI-systemer, som indgår i denne kategori kan omsættes og anvendes frit. Udbydere af et sådan AI-system kan selv udarbejde og gennemføre adfærdskodekser.

AI-forordningen er en af de mest omfattende lovgivninger om AI i verden og vil sandsynligvis have betydelige konsekvenser for udviklingen og anvendelsen af AI i hele EU.

I Mieritz Advokatfirma følger vi udviklingen af lovgivningen vedrørende AI-systemerne tæt.

 

Kontakt os

Hvis du har brug for rådgivning, kan du med fordel benytte kontaktformularen nedenfor og beskrive dit problem kort, så vil vi vende tilbage på din henvendelse hurtigst muligt. Vedrører din sag konkurs eller konkursbegæring? Så skriv til konkurs@mlaw.dk