Контрола примене и етичка употребе вештачке интелигенције
Вештачка интелигенција (ВИ) постаје све присутнија у нашем свакодневном животу, како у пословном, тако и у приватном сектору. Она може бити најважнија технологија коју је развио људски род. Она је важан алат за истраживаче. Пример је систем ВИ назван AlphaFold који је направио огроман искорак у правцу решавање проблема савијања протеина, на чему су научници радили деценијама. Међутим, контрола примене и етичка употреба ВИ су кључни аспекти који се морају узети у обзир како би се осигурала да се ВИ користи на начин који штити приватност појединца.
Један од главних проблема са ВИ је то што се подаци о појединцима користе за тренирање алгоритама. Ово може укључивати скупљање личних података, као што су имена, адресе, бројеви телефона или лични подаци о здравственом стању. Ако се ти подаци не чувају на сигуран начин или ако се користе на неетичан начин, то може представљати ризик за приватност појединца.
Други проблем је тачност ВИ. Системи за вештачку интелигенцију су још увек далеко од савршенства и могу погрешно предвидети или доносити одлуке што може имати негативне последице за појединце. На пример, ако се ВИ користи за одлучивање о кредитној способности појединца, његовом зпослењу, или потреби за социјалном помоћи – погрешна одлука може имати негативне последице за њихов финансијски живот.
Има много етичких проблема у вези употребе ВИ. Навешћемо неколико најважнијих:
1. Незапосленост. Шта се дешава након завршетка послова?
Хијерархија рада се првенствено бави аутоматизацијом. Пошто смо измислили начине да аутоматизујемо послове, могли бисмо да створимо простор за људе да преузму сложеније улоге, прелазећи са физичког рада који је доминирао прединдустријским светом до когнитивног рада који карактерише стратешки и административни рад у нашем глобализованом друштву.
2. Неједнакост. Како распоређујемо богатство које стварају машине?
Наш економски систем се заснива на накнади за допринос привреди, која се често процењује коришцћењем сатнице. Вецћина компанија и даље зависи од рада по сату када су у питању производи и услуге. Али коришцћењем вештачке интелигенције, компанија може драстично да смањи ослањање на људску радну снагу, а то значи да ће приходи ићи мањем броју људи. Сходно томе, појединци који имају власништво у компанијама вођеним вештачком интелигенцијом ће зарадити сав новац.
3. Хуманост. Како машине утичу на наше понашање и интеракцију?
Вештачки интелигентни ботови постају све бољи у моделирању људских разговора и односа. 2015. године, бот по имену Јуџин Густман је по први пут победио Турингов изазов. У овом изазову, људи који оцењују користили су унос текста да ћаскају са непознатим ентитетом, а затим су погађали да ли су ћаскали са човеком или машином. Јуџин Густман је преварио више од половине људи који су оцењивали људе да мисле да су разговарали са људским бићем.
4. Вештачка глупост. Како се можемо заштитити од грешака?
Интелигенција долази од учења, било да сте човек или машина. Системи обично имају фазу обуке у којој „уче“ да открију праве обрасце и делују у складу са својим уносом. Када је систем потпуно обучен, онда може да пређе у фазу тестирања, где се добија више примера и видимо како се понаша. Али, обука никад није потпуна…
5. Расистички роботи. Како да елиминишемо пристрасност ВИ?
Иако је вештачка интелигенција способна за брзину и капацитет обраде који су далеко већи од људских, не може се увек веровати да је фер и неутрална. Google и његова матична компанија Alphabet су једни од лидера када је у питању вештачка интелигенција, као што се види у Google-овој услузи Photos, где се вештачка интелигенција користи за идентификацију људи, објеката и сцена. Али може поћи наопако, као када је камера промашила ознаку расне осетљивости или када је софтвер који се користи за предвиђање будућих криминалаца показао пристрасност према црнцима.
6. Сигурност. Како да заштитимо вештачку интелигенцију од противника?
Што технологија постаје моћнија, то више може да се користи из лоших, али и добрих разлога. Ово се не односи само на роботе произведене да замене људске војнике или аутономно оружје, већ и на системе вештачке интелигенције који могу да изазову штету ако се користе злонамерно. Пошто се ове борбе неће водити само на бојном пољу, сајбер безбедност ће постати још важнија. На крају крајева, имамо посла са системом који је бржи и способнији од нас.
7. Зли духови. Како да се заштитимо од нежељених последица?
Не морамо да бринемо само о противницима. Шта ако се сама вештачка интелигенција окрене против нас? То не значи претварање у „зло“ на начин на који људска моћ може, или на начин на који су катастрофе ВИ приказане у холивудским филмовима. Уместо тога, напредни систем вештачке интелигенције можемо замислити као „духа у боци“ који може да испуни жеље, али са страшним непредвиђеним последицама.
8. Сингуларност. Како да задржимо контролу над сложеним интелигентним системом?
Разлог зашто су људи на врху ланца исхране није у оштрим зубима или снажним мишићима. Људска доминација је скоро у потпуности последица наше домишљатости и интелигенције. Можемо да добијемо боље од већих, бржих, јачих животиња јер можемо да креирамо и користимо алате да их контролишемо: како физичке алате као што су кавези и оружје, тако и когнитивне алате попут тренинга и кондиционирања.
9. Права робота. Како дефинишемо хумани третман ВИ?
Док неуронаучници још увек раде на откривању тајни свесног искуства, разумемо више о основним механизмима награде и аверзије. Ове механизме делимо чак и са једноставним животињама. На неки начин градимо сличне механизме награђивања и аверзије у системима вештачке интелигенције. На пример, учење са појачањем је слично обуци пса: побољшани учинак је појачан виртуелном наградом.
С обзиром на ове потенцијалне проблеме, важно је да се развију јасна правила и регулатива о употреби ВИ, као и да се осигура да се подаци о појединцима чувају на сигуран и транспарентан начин. То подразумева јасно дефинисана правила о томе како се подаци о појединцима могу користити, као и механизме за праћење и контролу употребе тих података.
Такође, важно је да постоји транспарентност у вези са употребом ВИ. То подразумева да грађани имају приступ информацијама о томе како се ВИ користи и који подаци се скупљају. Осим тога, грађани треба да имају право да знају да ли су њихови подаци похрањени у систему и да имају право да захтевају да се ти подаци бришу.
Етичка употреба ВИ такође игра важну улогу у заштити приватности. Етичка употреба ВИ подразумева да се алгоритми користе на начин који је у складу са људским вредностима, као што су једнакост, слобода и достојанство појединца. То подразумева да се ВИ не користи на начин који дискриминише појединце или крши њихове људске права.
Још једна важна ствар је да се осигура да се ВИ користи у складу са законом. То подразумева да се ВИ користи у складу са законима који штите приватност појединца, као што су закони о заштити података и закони о људским правима. Осим тога, важно је да постоји механизам за контролу и одговорност за употребу ВИ.
Радећи на етичкој употреби ВИ током тзв. Асиломар конференције дошло се до следећих принципа који су од изузетне важности:
- Сигурност. Системи вештачке интелигенције треба да буду безбедни и безбедни током свог радног века и проверљиво тамо где је применљиво и изводљиво.
- Транспарентност неуспеха. Ако систем вештачке интелигенције наноси штету, требало би да буде могуће утврдити зашто.
- Транспарентност судства. Свако учешће аутономног система у доношењу судских одлука требало би да пружи задовољавајуће објашњење које може да ревидира надлежни људски орган.
- Одговорност. Дизајнери и градитељи напредних ВИ система су заинтересоване стране у моралним импликацијама њихове употребе, злоупотребе и радњи, са одговорношћу и могућношћу да обликују те импликације.
- Усклађивање вредности. Високо аутономни системи вештачке интелигенције треба да буду дизајнирани тако да њихови циљеви и понашање могу да буду у складу са људским вредностима током њиховог рада.
- Људске вредности. Системи вештачке интелигенције треба да буду дизајнирани и функционисани тако да буду компатибилни са идеалима људског достојанства, права, слобода и културне разноликости.
- Лична приватност. Људи би требало да имају право приступа, управљања и контроле података које генеришу, с обзиром на моћ ВИ система да анализира и користи те податке.
- Слобода и приватност. Примена вештачке интелигенције на личне податке не сме неоправдано да угрози стварну или уочену слободу људи.
- Заједничка корист. Технологије вештачке интелигенције треба да имају користи и оснаже што је могуће више људи. Ово, на пример, укључује употребу вештачке интелигенције за олакшавање послова, оптимизацију коришћења енергије или као системе засноване на стручном знању.
- Заједнички просперитет. Економски просперитет који ствара вештачка интелигенција треба да се дели нашироко, како би користило целом човечанству.
- Људска контрола. Људи треба да бирају како и да ли ће делегирати одлуке на системе вештачке интелигенције да би постигли циљеве које је изабрао човек.
- Не-субверзија. Моћ коју даје контрола високо напредних система вештачке интелигенције треба да поштује и унапређује, а не да подрива, друштвене и грађанске процесе од којих зависи здравље друштва.
- ВИ трка у наоружању. Треба избегавати трку у наоружању у смртоносном аутономном оружју.
У сваком случају, важно је да се балансира између потребе за напретком и иновацијама у области ВИ и потребе за заштитом приватности појединца. Контрола примене и етичка употреба ВИ су кључни аспекти који се морају узети у обзир како би се осигурало да се ВИ користи на начин који штити приватност појединца. Потребно је да се развије и имплементира јасан оквир за регулисање употребе ВИ који ће осигурати да се приватност појединца поштује у свим ситуацијама.
Comments are closed.