Platon Data Intelligence.
Vertikal søgning & Ai.

AI-etiske retningslinjer fra forskellige grupper: Konsensus?

Dato:

Compartir ...Del på facebook

Facebook

Tweet om dette på Twitter

Twitter

Del på LinkedIn

Linkedin

Del på Reddit

Reddit

Del på StumbleUpon

StumbleUpon

Del på Tumblr

tumblr

Udskriv denne side

Print

Email dette til en person

e-mail

Vi mangler endnu at se en holistisk ramme for den etiske udvikling af kunstig intelligens-applikationer, som kan anvendes til enhver industri i alle lande rundt om i verden. Der bliver gjort meget arbejde af såvel virksomheder som den akademiske verden, for ikke at nævne særlige interessegrupper, der advarer om farerne ved ukontrolleret AI-spredning. Ikke desto mindre er vi stadig langt fra en konsensus om, hvad det skal indebære.

Dette øjebliksbillede af forskellige enheders synspunkter med hensyn til AI-principper kunne give et fingerpeg om, hvad der virkelig mangler i vores søgen efter fremtidens AI-styring.

Google

På trods af, at virksomheden opløste sit Advanced Technology External Advisory Council (ATEAC) efter kun en uge på grund af intern kontrovers, har Google allerede opskriften på ordentlig AI-forskning. Som opført i deres blog, her er de vigtigste punkter:

"Vi vil vurdere AI-applikationer i lyset af følgende mål. Vi mener, at AI bør:

  • Vær socialt gavnlig.
  • Undgå at skabe eller forstærke uretfærdig bias.
  • Vær bygget og testet for sikkerhed.
  • Vær ansvarlig overfor mennesker.
  • Indarbejde principper for design af privatlivets fred.
  • Overhold høje standarder for videnskabelig ekspertise.
  • Gøres tilgængelig til brug, der er i overensstemmelse med disse principper."

Selvom der er mange gode pointer derinde, kravler mange spørgsmål ud af træværket, når du taler om at våben AI. For eksempel, hvor er deres standpunkt mod at bruge AI i krigsførelse eller andre skadelige handlinger som cyberangreb? Som en del af det sidste punkt ovenfor siger bloggen, at de vil evaluere det "primære formål og brug" og se, om det er "relateret til eller kan tilpasses til en skadelig anvendelse", men lidt mere end det.

microsoft

Microsoft har et lidt anderledes sæt af overbevisninger, hvoraf nogle stemmer overens med Googles, men kun i bredere forstand. Igen er der intet, der direkte nævner måder at tackle AI-våbenproblemet på.

"At designe AI til at være troværdig kræver at skabe løsninger, der afspejler etiske principper, der er dybt forankret i vigtige og tidløse værdier.

  • Retfærdighed: AI-systemer bør behandle alle mennesker retfærdigt
  • Inklusivitet: AI-systemer bør styrke alle og engagere folk
  • Pålidelighed og sikkerhed: AI-systemer skal fungere pålideligt og sikkert
  • Gennemsigtighed: AI-systemer skal være forståelige
  • Privatliv og sikkerhed: AI-systemer skal være sikre og respektere privatlivets fred
  • Ansvarlighed: AI-systemer bør have algoritmisk ansvarlighed"

For at være retfærdig har ingen af ​​selskaberne mulighed for at kontrollere, hvad der sker på internationalt niveau, så det er forståeligt, at deres AI-principper er begrænset til positive applikationer. Ikke tåleligt, men forståeligt. Så lad os se, hvor EU står på AI-principperne.

Den Europæiske Union

EU's holdning er meget mere inkluderende i pressemeddelelse den udkom tidligere på måneden, og den tager højde for forskellige aspekter, herunder hvordan AI kan og ikke kan anvendes.

"AI bør respektere alle gældende love og regler samt en række krav; specifikke vurderingslister har til formål at hjælpe med at verificere anvendelsen af ​​hvert af nøglekravene:

  • Menneskelig handlefrihed og tilsyn: AI-systemer bør muliggøre retfærdige samfund ved at støtte menneskelig handlefrihed og grundlæggende rettigheder og ikke mindske, begrænse eller vildlede menneskelig autonomi.
  • Robusthed og sikkerhed: Troværdig AI kræver, at algoritmer er sikre, pålidelige og robuste nok til at håndtere fejl eller uoverensstemmelser i alle livscyklusfaser af AI-systemer.
  • Privatliv og dataforvaltning: Borgere bør have fuld kontrol over deres egne data, mens data vedrørende dem ikke vil blive brugt til at skade eller diskriminere dem.
  • Gennemsigtighed: Sporbarheden af ​​AI-systemer bør sikres.
  • Mangfoldighed, ikke-forskelsbehandling og retfærdighed: AI-systemer bør tage højde for hele rækken af ​​menneskelige evner, færdigheder og krav og sikre tilgængelighed.
  • Samfundsmæssig og miljømæssig velvære: AI-systemer bør bruges til at fremme positive sociale forandringer og øge bæredygtighed og økologisk ansvarlighed.
  • Ansvarlighed: Mekanismer bør indføres for at sikre ansvar og ansvarlighed for AI-systemer og deres resultater."

Dette ser meget tættere på det, vi alle ønsker at se, og det allerførste element dækker misbrug af kunstig intelligens, omend på en meget generisk måde. Men det bringer "samfundsmæssigt og miljømæssigt velvære op", hvilket klart er en hentydning til ikke at bruge AI til at forstyrre sociale og miljømæssige balancer. Det ser ud til, at EU har tænkt over dette i længere tid end Google eller Microsoft.

Men det er Future of Life Institute, der klart skitserer og adresserer farerne ved ukontrolleret AI-udvikling.

Future of Life Institutes Asilomar-principper

Disse retningslinjer har været på plads i de sidste to år, og indtil videre er det eneste levedygtige grundlag for en ramme af nogen art.

"Kunstig intelligens har allerede givet gavnlige værktøjer, der bruges hver dag af mennesker over hele verden. Dens fortsatte udvikling, styret af følgende principper, vil tilbyde fantastiske muligheder for at hjælpe og styrke mennesker i de kommende årtier og århundreder.

Etik og værdier

  • Sikkerhed: AI-systemer skal være sikre og sikre i hele deres driftslevetid og verificerbart, hvor det er relevant og muligt.
  • Fejlgennemsigtighed: Hvis et AI-system forårsager skade, bør det være muligt at fastslå hvorfor.
  • Retlig gennemsigtighed: Enhver inddragelse af et selvstændigt system i retslig beslutningstagning bør give en tilfredsstillende forklaring, der kan revideres af en kompetent menneskelig myndighed.
  • Ansvar: Designere og bygherrer af avancerede AI-systemer er interessenter i de moralske implikationer af deres brug, misbrug og handlinger, med et ansvar og mulighed for at forme disse implikationer.
  • Værditilpasning: Meget autonome AI-systemer bør designes, så deres mål og adfærd kan sikres, at de stemmer overens med menneskelige værdier under hele deres drift.
  • Menneskelige værdier: AI-systemer bør designes og drives, så de er kompatible med idealer om menneskelig værdighed, rettigheder, friheder og kulturel mangfoldighed.
  • Personligt privatliv: Folk bør have ret til at få adgang til, administrere og kontrollere de data, de genererer, givet AI-systemers magt til at analysere og bruge disse data.
  • Frihed og privatliv: Anvendelsen af ​​kunstig intelligens på personlige data må ikke urimeligt begrænse folks reelle eller opfattede frihed.
  • Fælles fordel: AI-teknologier bør gavne og styrke så mange mennesker som muligt.
  • Delt velstand: Den økonomiske velstand skabt af AI bør deles bredt til gavn for hele menneskeheden.
  • Menneskelig kontrol: Mennesker bør vælge, hvordan og om de vil uddelegere beslutninger til AI-systemer for at opnå menneskevalgte mål.
  • Ikke-undergravning: Den magt, der tildeles af kontrol af meget avancerede AI-systemer, bør respektere og forbedre snarere end undergrave de sociale og civile processer, som samfundets sundhed afhænger af.
  • AI Arms Race: Et våbenkapløb i dødelige autonome våben bør undgås."

Som du kan se, er dette meget mere omfattende, og det ser ud til, at vi når dertil. Det eneste, der mangler, er inddragelsen af ​​regeringen, som er afgørende for, at alt dette kan fungere. Dette adresseres af de retningslinjer, som deltagerne i New Work Summit, som var vært for The New York Times tidligere i år, nåede frem til.

Nyt arbejdsmøde

"Deltagere på Nyt arbejdsmøde, der var vært for New York Times, arbejdede i grupper for at udarbejde en liste over anbefalinger til opbygning og implementering af etisk kunstig intelligens:

  • Gennemsigtighed: Virksomheder bør være gennemsigtige omkring designet, hensigten og brugen af ​​deres AI-teknologi.
  • Offentliggørelse: Virksomheder bør tydeligt oplyse brugerne om, hvilke data der indsamles, og hvordan de bruges.
  • Privatliv: Brugere skal nemt kunne fravælge dataindsamling.
  • Diversitet: AI-teknologi bør udvikles af iboende forskellige teams.
  • Bias: Virksomheder bør stræbe efter at undgå bias i AI ved at trække på forskellige datasæt.
  • Tillid: Organisationer bør have interne processer til at selvregulere misbrug af AI Har en chef etisk officer, etisk bestyrelse osv.
  • Ansvarlighed: Der bør være et fælles sæt standarder, efter hvilke virksomheder holdes ansvarlige for brugen og virkningen af ​​deres AI-teknologi.
  • Kollektiv styring: Virksomheder bør arbejde sammen om at selvregulere industrien.
  • Regulering: Virksomheder bør samarbejde med regulatorer om at udvikle passende love til at regulere brugen af ​​kunstig intelligens
  • "Komplementaritet": Behandl AI som et værktøj for mennesker at bruge, ikke en erstatning for menneskeligt arbejde.

Efter at have set på denne endelige liste over retningslinjer, ser vi stadig et hul i, hvordan disse problemer vil blive behandlet på forskellige niveauer. The New Work Summit dækker ganske vist kollektiv styring og reguleringer, men nævner ikke, at regulerende organer har brug for en ordentlig ramme til at styre udviklingen af ​​AI. Det, der mangler, er, at ingen fortæller regeringen, hvad den skal gøre, og det er det svageste led i kæden lige nu.

America AI Initiative-bekendtgørelsen underskrevet af Trump tidligere i år er lige så mangelfuld på regeringsansvar som EU's retningslinjer. Alle synes at elske at fortælle alle andre, hvad de skal gøre, men tilbyder meget vag støtte til disse initiativer. Trumps ordre nævner intet om, hvor statslige agenturer vil få yderligere finansiering, men opfordrer dem snarere til at omfordele udgifter. Ikke en let pille for bureaukratiet at sluge.

Regeringer i lande som USA bør være dem, der tager det første skridt. Det er dem, der burde tage denne tyr ved hornene og kæmpe den til jorden. Hvis AI skal forblive underordnet mennesker, er det her, det starter.

Desværre ville det kræve et tektonisk skift i selve regeringens politik, så hold ikke vejret. Vi vil fortsætte med at rode igennem de næste par år, indtil en alvorlig overtrædelse fra en AI-entitet sætter alt på spidsen og gør det til et presserende spørgsmål af international interesse.

Spørgsmålet er, om vi vil gentage historien ved at vente på, at noget slemt sker, før vi reagerer? For at analogisere, har vi brug for en større global hændelse som Anden Verdenskrig for at oprette et NATO? Kan vi ikke være mere proaktive og opsætte en fejlsikker nu, hvor AI stadig er i sin begyndelse?

Det er de svære spørgsmål, regeringer skal besvare, fordi et så massivt initiativ kræver økonomiske og andre ressourcer, som kun regeringer kan stille til rådighed og kontrollere. Der vil ikke mangle deltagere, men deltagerne kan ikke være værter for showet.

Compartir ...Del på facebook

Facebook

Tweet om dette på Twitter

Twitter

Del på LinkedIn

Linkedin

Del på Reddit

Reddit

Del på StumbleUpon

StumbleUpon

Del på Tumblr

tumblr

Udskriv denne side

Print

Email dette til en person

e-mail

Kilde: https://1reddrop.com/2019/04/13/ai-ethics-guidelines-from-diverse-groups-the-consensus/

spot_img

Seneste efterretninger

spot_img

Chat med os

Hej! Hvordan kan jeg hjælpe dig?