Kontrola primene i etička upotrebe veštačke inteligencije
Veštačka inteligencija (VI) postaje sve prisutnija u našem svakodnevnom životu, kako u poslovnom, tako i u privatnom sektoru. Ona može biti najvažnija tehnologija koju je razvio ljudski rod. Ona je važan alat za istraživače. Primer je sistem VI nazvan AlphaFold koji je napravio ogroman iskorak u pravcu rešavanje problema savijanja proteina, na čemu su naučnici radili decenijama. Međutim, kontrola primene i etička upotreba VI su ključni aspekti koji se moraju uzeti u obzir kako bi se osigurala da se VI koristi na način koji štiti privatnost pojedinca.
Jedan od glavnih problema sa VI je to što se podaci o pojedincima koriste za treniranje algoritama. Ovo može uključivati skupljanje ličnih podataka, kao što su imena, adrese, brojevi telefona ili lični podaci o zdravstvenom stanju. Ako se ti podaci ne čuvaju na siguran način ili ako se koriste na neetičan način, to može predstavljati rizik za privatnost pojedinca.
Drugi problem je tačnost VI. Sistemi za veštačku inteligenciju su još uvek daleko od savršenstva i mogu pogrešno predvideti ili donositi odluke što može imati negativne posledice za pojedince. Na primer, ako se VI koristi za odlučivanje o kreditnoj sposobnosti pojedinca, njegovom zposlenju, ili potrebi za socijalnom pomoći – pogrešna odluka može imati negativne posledice za njihov finansijski život.
Ima mnogo etičkih problema u vezi upotrebe VI. Navešćemo nekoliko najvažnijih:
1. Nezaposlenost. Šta se dešava nakon završetka poslova?
Hijerarhija rada se prvenstveno bavi automatizacijom. Pošto smo izmislili načine da automatizujemo poslove, mogli bismo da stvorimo prostor za ljude da preuzmu složenije uloge, prelazeći sa fizičkog rada koji je dominirao predindustrijskim svetom do kognitivnog rada koji karakteriše strateški i administrativni rad u našem globalizovanom društvu.
2. Nejednakost. Kako raspoređujemo bogatstvo koje stvaraju mašine?
Naš ekonomski sistem se zasniva na naknadi za doprinos privredi, koja se često procenjuje korišcćenjem satnice. Vecćina kompanija i dalje zavisi od rada po satu kada su u pitanju proizvodi i usluge. Ali korišcćenjem veštačke inteligencije, kompanija može drastično da smanji oslanjanje na ljudsku radnu snagu, a to znači da će prihodi ići manjem broju ljudi. Shodno tome, pojedinci koji imaju vlasništvo u kompanijama vođenim veštačkom inteligencijom će zaraditi sav novac.
3. Humanost. Kako mašine utiču na naše ponašanje i interakciju?
Veštački inteligentni botovi postaju sve bolji u modeliranju ljudskih razgovora i odnosa. 2015. godine, bot po imenu Judžin Gustman je po prvi put pobedio Turingov izazov. U ovom izazovu, ljudi koji ocenjuju koristili su unos teksta da ćaskaju sa nepoznatim entitetom, a zatim su pogađali da li su ćaskali sa čovekom ili mašinom. Judžin Gustman je prevario više od polovine ljudi koji su ocenjivali ljude da misle da su razgovarali sa ljudskim bićem.
4. Veštačka glupost. Kako se možemo zaštititi od grešaka?
Inteligencija dolazi od učenja, bilo da ste čovek ili mašina. Sistemi obično imaju fazu obuke u kojoj „uče“ da otkriju prave obrasce i deluju u skladu sa svojim unosom. Kada je sistem potpuno obučen, onda može da pređe u fazu testiranja, gde se dobija više primera i vidimo kako se ponaša. Ali, obuka nikad nije potpuna…
5. Rasistički roboti. Kako da eliminišemo pristrasnost VI?
Iako je veštačka inteligencija sposobna za brzinu i kapacitet obrade koji su daleko veći od ljudskih, ne može se uvek verovati da je fer i neutralna. Google i njegova matična kompanija Alphabet su jedni od lidera kada je u pitanju veštačka inteligencija, kao što se vidi u Google-ovoj usluzi Photos, gde se veštačka inteligencija koristi za identifikaciju ljudi, objekata i scena. Ali može poći naopako, kao kada je kamera promašila oznaku rasne osetljivosti ili kada je softver koji se koristi za predviđanje budućih kriminalaca pokazao pristrasnost prema crncima.
6. Sigurnost. Kako da zaštitimo veštačku inteligenciju od protivnika?
Što tehnologija postaje moćnija, to više može da se koristi iz loših, ali i dobrih razloga. Ovo se ne odnosi samo na robote proizvedene da zamene ljudske vojnike ili autonomno oružje, već i na sisteme veštačke inteligencije koji mogu da izazovu štetu ako se koriste zlonamerno. Pošto se ove borbe neće voditi samo na bojnom polju, sajber bezbednost će postati još važnija. Na kraju krajeva, imamo posla sa sistemom koji je brži i sposobniji od nas.
7. Zli duhovi. Kako da se zaštitimo od neželjenih posledica?
Ne moramo da brinemo samo o protivnicima. Šta ako se sama veštačka inteligencija okrene protiv nas? To ne znači pretvaranje u „zlo“ na način na koji ljudska moć može, ili na način na koji su katastrofe VI prikazane u holivudskim filmovima. Umesto toga, napredni sistem veštačke inteligencije možemo zamisliti kao „duha u boci“ koji može da ispuni želje, ali sa strašnim nepredviđenim posledicama.
8. Singularnost. Kako da zadržimo kontrolu nad složenim inteligentnim sistemom?
Razlog zašto su ljudi na vrhu lanca ishrane nije u oštrim zubima ili snažnim mišićima. Ljudska dominacija je skoro u potpunosti posledica naše domišljatosti i inteligencije. Možemo da dobijemo bolje od većih, bržih, jačih životinja jer možemo da kreiramo i koristimo alate da ih kontrolišemo: kako fizičke alate kao što su kavezi i oružje, tako i kognitivne alate poput treninga i kondicioniranja.
9. Prava robota. Kako definišemo humani tretman VI?
Dok neuronaučnici još uvek rade na otkrivanju tajni svesnog iskustva, razumemo više o osnovnim mehanizmima nagrade i averzije. Ove mehanizme delimo čak i sa jednostavnim životinjama. Na neki način gradimo slične mehanizme nagrađivanja i averzije u sistemima veštačke inteligencije. Na primer, učenje sa pojačanjem je slično obuci psa: poboljšani učinak je pojačan virtuelnom nagradom.
S obzirom na ove potencijalne probleme, važno je da se razviju jasna pravila i regulativa o upotrebi VI, kao i da se osigura da se podaci o pojedincima čuvaju na siguran i transparentan način. To podrazumeva jasno definisana pravila o tome kako se podaci o pojedincima mogu koristiti, kao i mehanizme za praćenje i kontrolu upotrebe tih podataka.
Takođe, važno je da postoji transparentnost u vezi sa upotrebom VI. To podrazumeva da građani imaju pristup informacijama o tome kako se VI koristi i koji podaci se skupljaju. Osim toga, građani treba da imaju pravo da znaju da li su njihovi podaci pohranjeni u sistemu i da imaju pravo da zahtevaju da se ti podaci brišu.
Etička upotreba VI takođe igra važnu ulogu u zaštiti privatnosti. Etička upotreba VI podrazumeva da se algoritmi koriste na način koji je u skladu sa ljudskim vrednostima, kao što su jednakost, sloboda i dostojanstvo pojedinca. To podrazumeva da se VI ne koristi na način koji diskriminiše pojedince ili krši njihove ljudske prava.
Još jedna važna stvar je da se osigura da se VI koristi u skladu sa zakonom. To podrazumeva da se VI koristi u skladu sa zakonima koji štite privatnost pojedinca, kao što su zakoni o zaštiti podataka i zakoni o ljudskim pravima. Osim toga, važno je da postoji mehanizam za kontrolu i odgovornost za upotrebu VI.
Radeći na etičkoj upotrebi VI tokom tzv. Asilomar konferencije došlo se do sledećih principa koji su od izuzetne važnosti:
- Sigurnost. Sistemi veštačke inteligencije treba da budu bezbedni i bezbedni tokom svog radnog veka i proverljivo tamo gde je primenljivo i izvodljivo.
- Transparentnost neuspeha. Ako sistem veštačke inteligencije nanosi štetu, trebalo bi da bude moguće utvrditi zašto.
- Transparentnost sudstva. Svako učešće autonomnog sistema u donošenju sudskih odluka trebalo bi da pruži zadovoljavajuće objašnjenje koje može da revidira nadležni ljudski organ.
- Odgovornost. Dizajneri i graditelji naprednih VI sistema su zainteresovane strane u moralnim implikacijama njihove upotrebe, zloupotrebe i radnji, sa odgovornošću i mogućnošću da oblikuju te implikacije.
- Usklađivanje vrednosti. Visoko autonomni sistemi veštačke inteligencije treba da budu dizajnirani tako da njihovi ciljevi i ponašanje mogu da budu u skladu sa ljudskim vrednostima tokom njihovog rada.
- Ljudske vrednosti. Sistemi veštačke inteligencije treba da budu dizajnirani i funkcionisani tako da budu kompatibilni sa idealima ljudskog dostojanstva, prava, sloboda i kulturne raznolikosti.
- Lična privatnost. Ljudi bi trebalo da imaju pravo pristupa, upravljanja i kontrole podataka koje generišu, s obzirom na moć VI sistema da analizira i koristi te podatke.
- Sloboda i privatnost. Primena veštačke inteligencije na lične podatke ne sme neopravdano da ugrozi stvarnu ili uočenu slobodu ljudi.
- Zajednička korist. Tehnologije veštačke inteligencije treba da imaju koristi i osnaže što je moguće više ljudi. Ovo, na primer, uključuje upotrebu veštačke inteligencije za olakšavanje poslova, optimizaciju korišćenja energije ili kao sisteme zasnovane na stručnom znanju.
- Zajednički prosperitet. Ekonomski prosperitet koji stvara veštačka inteligencija treba da se deli naširoko, kako bi koristilo celom čovečanstvu.
- Ljudska kontrola. Ljudi treba da biraju kako i da li će delegirati odluke na sisteme veštačke inteligencije da bi postigli ciljeve koje je izabrao čovek.
- Ne-subverzija. Moć koju daje kontrola visoko naprednih sistema veštačke inteligencije treba da poštuje i unapređuje, a ne da podriva, društvene i građanske procese od kojih zavisi zdravlje društva.
- VI trka u naoružanju. Treba izbegavati trku u naoružanju u smrtonosnom autonomnom oružju.
U svakom slučaju, važno je da se balansira između potrebe za napretkom i inovacijama u oblasti VI i potrebe za zaštitom privatnosti pojedinca. Kontrola primene i etička upotreba VI su ključni aspekti koji se moraju uzeti u obzir kako bi se osiguralo da se VI koristi na način koji štiti privatnost pojedinca. Potrebno je da se razvije i implementira jasan okvir za regulisanje upotrebe VI koji će osigurati da se privatnost pojedinca poštuje u svim situacijama.
Comments are closed.