Ideen om, at AI-teknologier skal reguleres, er en almindelig følelse. De fleste regeringer, AI-produktudviklere og selv almindelige brugere af AI-produkter er enige om dette. Desværre er den bedste måde at regulere dette hurtigt voksende felt på et uløst puslespil.
Hvis de ikke kontrolleres, kan AI-teknologier forstyrre vores livsstil negativt og true vores eksistens. Men hvordan kan regeringer navigere i labyrinten af udfordringer, der følger med dette hastigt udviklende felt?
1. Forordninger om databeskyttelse og databeskyttelse
En af de primære bekymringer med AI-teknologier er databeskyttelse og sikkerhed. Kunstig intelligens-systemer er data-hungrende maskiner. De har brug for data for at fungere, flere data for at være effektive og endnu flere data for at forbedre. Selvom dette ikke er et problem, er den måde, hvorpå disse data stammer fra, arten af dem, og hvordan de behandles og opbevares, et af de største diskussionspunkter omkring AI-regler.
I betragtning af dette er den logiske vej at gå at indføre strenge databeskyttelsesforskrifter, der styrer data indsamling, lagring og behandling samt enkeltpersoners – hvis data bliver brugt – rettigheder til at få adgang til og kontrollere deres data. Spørgsmål, som disse regler sandsynligvis vil løse er:
- Hvilken slags data kan indsamles?
- Skal nogle private data betragtes som tabu i AI?
- Hvordan skal AI-virksomheder håndtere følsomme personoplysninger, såsom sundhedsjournaler eller biometriske oplysninger?
- Bør AI-virksomheder være forpligtet til at implementere mekanismer, så enkeltpersoner nemt kan anmode om sletning eller rettelse af deres personlige data?
- Hvad er konsekvenserne for AI-virksomheder, der ikke overholder reglerne om databeskyttelse? Hvordan skal overholdelsen overvåges, og hvordan skal håndhævelsen sikres?
- Måske vigtigst af alt, hvilken standard skal AI-virksomheder implementere for at sikre sikkerheden af den følsomme karakter af de oplysninger, de besidder?
Disse spørgsmål og et par andre udgjorde kernen af hvorfor ChatGPT blev midlertidigt forbudt i Italien. Medmindre disse bekymringer bliver løst, kan det kunstige intelligens-rum være et vilde vesten for databeskyttelse, og Italiens forbud kan vise sig at være en skabelon for forbud fra andre lande verden over.
2. Udvikling af et etisk AI-rammeværk
AI-virksomheder praler ofte af deres engagement i etiske retningslinjer i udviklingen af AI-systemer. I det mindste på papiret er de alle fortalere for ansvarlig AI-udvikling. I medierne har Googles ledere lagt vægt på, hvordan virksomheden tager AI-sikkerhed og etik alvorligt. På samme måde er "Sikker og etisk kunstig intelligens" et mantra for OpenAIs administrerende direktør, Sam Altman. Disse er ret bifaldende.
Men hvem laver reglerne? Hvem bestemmer, hvilke AI-etiske retningslinjer der er gode nok? Hvem bestemmer, hvordan sikker AI-udvikling ser ud? Lige nu ser enhver AI-virksomhed ud til at have sit eget spin på ansvarlig og etisk AI-udvikling. OpenAI, Anthropic, Google, Meta, Microsoft, alle. Blot at stole på AI-virksomheder til at gøre det rigtige er farligt.
Det konsekvenserne af et ukontrolleret AI-rum kan være katastrofale. At lade individuelle virksomheder bestemme, hvilke etiske retningslinjer de skal vedtage, og hvilke de skal kassere, svarer til at gå i søvne os vej ind i en AI-apokalypse. Løsningen? En klar etisk AI-ramme, der sikrer:
- AI-systemer forfordrer eller diskriminerer ikke uretfærdigt individer eller visse grupper baseret på race, køn eller socioøkonomisk status.
- AI-systemer er sikre, sikre og pålidelige og minimerer risikoen for utilsigtede konsekvenser eller skadelig adfærd.
- AI-systemer er bygget med den bredere samfundsmæssige påvirkning af AI-teknologier i tankerne.
- At mennesker bevarer den ultimative kontrol over AI-systemer og deres beslutningstagning gennemsigtigt.
- AI-systemer er bevidst begrænset på måder, der er fordelagtige for mennesker.
3. Dedikeret tilsynsmyndighed
På grund af dens potentielle indvirkning på den menneskelige civilisation drager diskussionen omkring AI-sikkerhed typisk parallelt med risikoen for en sundhedskrise eller en atomkatastrofe. For at undgå potentielle nukleare hændelser er det nødvendigt med et dedikeret agentur som USA's NRC (Nuclear Regulatory Commission). For at undgå risikoen for farlige helbredskriser er det nødvendigt at oprette FDA (Food and Drug Administration)
Tilsvarende, for at sikre, at tingene ikke går galt i AI-området, er et dedikeret agentur beslægtet med FDA og NRC nødvendigt, da AI fortsætter med at gøre aggressivt indtog i alle områder af vores liv. Desværre er spørgsmålet om indenlandsk AI-regulering et vanskeligt spørgsmål. Arbejdet i ethvert dedikeret reguleringsagentur vil sandsynligvis være pinefuldt hårdt uden grænseoverskridende samarbejde. Ligesom USA's NRC (Nuclear Regulatory Commission) skal arbejde hånd i hånd med International Atomic Energy Agenturet (IAEA) for at være bedst muligt, vil ethvert dedikeret AI-reguleringsagentur i landet også have brug for en international analog.
Et sådant bureau vil være ansvarlig for følgende:
- Udvikling af AI-regler
- Sikring af overholdelse og håndhævelse
- Overvåge den etiske gennemgang af AI-projekter
- Samarbejde og tværgående samarbejde om AI sikkerhed og etik
4. Håndtering af bekymringer om ophavsret og intellektuel ejendomsret
Eksisterende copyright-love og juridiske rammer smuldrer i lyset af kunstig intelligens. Den måde AI-værktøjer, især generative AI-værktøjer, er designet på, får dem til at virke som en offentligt godkendt maskine til krænkelse af ophavsret, som du ikke kan gøre noget ved.
Hvordan? Nå, mange af nutidens AI-systemer er trænet ved hjælp af ophavsretligt beskyttet materiale. Du ved, copyrightbeskyttede artikler, copyrightbeskyttede sange, copyrightbeskyttede billeder osv. Sådan kan værktøjer gerne ChatGPT, Bing AI og Google Bard kan gøre de fantastiske ting, de gør.
Selvom disse systemer tydeligvis udnytter folks intellektuelle ejendomsret, er måden disse AI-systemer gør det på er ikke anderledes end et menneske, der læser en ophavsretsligt beskyttet bog, lytter til ophavsretligt beskyttede sange eller ser på ophavsretligt beskyttede billeder.
Du kan læse en ophavsretligt beskyttet bog, lære nye fakta fra den og bruge disse fakta som grundlag for din egen bog. Du kan også lytte til en ophavsretligt beskyttet sang for inspiration til at skabe din egen musik. I begge tilfælde brugte du ophavsretligt beskyttet materiale, men det betyder ikke nødvendigvis, at det afledte produkt krænker ophavsretten til originalen.
Selvom dette er en logisk forklaring på at bortforklare det rod, som AI laver af love om ophavsret, så skader det stadig ejerne af ophavsrettigheder og intellektuel ejendom. I betragtning af dette er regler nødvendige for at:
- Definer klart ansvar og ansvar for alle involverede parter i et AI-systems livscyklus. Dette inkluderer at afklare rollerne for hver part, fra AI-udviklere til slutbrugere, for at sikre, at de er ansvarlige parter holdes ansvarlige for enhver krænkelse af ophavsret eller intellektuel ejendomsret begået af AI systemer.
- Styrk eksisterende copyright-rammer og indfør måske AI-specifikke copyright-love.
- For at sikre innovation i AI-området, samtidig med at rettighederne for originale skabere beskyttes, AI forordninger bør omdefinere begreberne fair use og transformativt arbejde i forbindelse med AI-genereret indhold. Der er behov for klarere definitioner og retningslinjer for at sikre, at AI-området kan fortsætte med at forbedre sig, mens ophavsretlige grænser respekteres. Det er vigtigt at finde en balance mellem innovation og bevarelse af indholdsskabernes rettigheder.
- Klare veje til samarbejde med rettighedshavere. Hvis AI-systemer alligevel skal bruge folks intellektuelle ejendom, bør der være klare veje eller rammer for AI-udviklere og rettighedsejere til at samarbejde, især med hensyn til økonomiske kompensationer, hvis det afledte arbejde af sådanne intellektuelle egenskaber er kommercialiseret.
AI-regulering er en desperat nødvendig løsning
Mens kunstig intelligens er dukket op som en lovende løsning på mange af vores samfundsproblemer, er AI i sig selv hurtigt ved at blive et problem, der kræver en hurtig løsning. Det er tid til at tage et skridt tilbage, reflektere og lave de nødvendige rettelser for at sikre AI's positive indvirkning på samfundet. Vi har desperat brug for en presserende rekalibrering af vores tilgang til at bygge og bruge AI-systemer.