Да ли бисте жртвовали једну особу да бисте спасили пет?
Нове технологије

Да ли бисте жртвовали једну особу да бисте спасили пет?

пре 7 месеци

Аутор текста: Јелена Бабић

Може ли вештачка интелигенција да развије осећај за етику?


Етика и вештачка интелигенција

 

Замислимо ситуацију у којој се тролејбус неконтролисано креће низбрдо. На путу испред њега налази се пет особа које ће тролејбус неминовно ударити и убити уколико нешто не предузмете. Окренете се око себе и угледате полугу којом је могуће скренути тролејбус на други колосек. Међутим, на другом колосеку се налази једна особа коју бисте скретањем полуге убили. Шта ћете урадити? Да ли ћете повући полугу и жртвовати једну особу да бисте спасили пет?

Ова ситуација, позната под називом „проблем тролејбуса“ (енг. Trolley problem), је етичка дилема која поставља питање како се треба односити према ситуацијама у којима је потребно донети одлуку која ће имати негативних последица, а последњих година поново је доспела у жижу интересовања захваљујући експанзији вештачке интелигенције. Замислимо нпр. аутономно возило које се суочава са ситуацијом у којој не може избећи судар. Да ли би вештачка интелигенција требалo да преусмери возило како би избегло ударање у групу пешака, али да при томе удари у једног пешака? Ако је ваш одговор да, да ли бисте исто то одлучили ако је тај један пешак трудница или члан ваше породице? Или ауто треба испрограмирати тако да по сваку цену избегне овакве ситуације, па макар и у крајњем исходу страдао возач? Али, да ли бисте онда купили такав ауто?

Оваквих и сличних питања има много, и како све више аутономних система постаје део нашег свакодневног живота, од аутономних возила, преко вештачке интелигенције у здравству, безбедности, роботици и другим областима, постаје неопходно размотрити и унапред испрограмирати одговоре на ове дилеме.

Уопште узев, доношење одлука је комплексан процес који може утицати на животе многих. Код људи, оно се заснива на упоређивању информација, међутим наше одлуке никад нису искључиво производ рационалног закључивања. Поред рација, на наше одлуке утицај могу имати и емоције, социјални фактори (друштво, култура, норме, вредности), предрасуде и др. Због тога је проналажење једног универзалног одговора на моралне дилеме изузетно важан и захтеван проблем.

Од поставке проблема тролејбуса 1967. године до данас бројни научници, филозофи и етичари који су се бавили овим проблемом изнели су различите аргументе и закључке, али консензус око решења још увек није постигнут. 2017. године, Масачусетски институт за технологију (МИТ) спровео је једно опсежно онлајн истраживање под називом Moral Machine Survey, које је укључивало низ сценарија у којима је постојала дилема избора између спасавања живота једних људи на штету других. Закључци из тог истраживања били су следећи:

  • Спасавање већег броја живота: Већина учесника је подржавала опције које би спасиле већи број људских живота. На пример, ако би требало изабрати између спасавања пет особа и спасавања једне особе, већина је изабрала прву опцију.
  • Вредност људског живота: Истраживање је показало да су људи склонији да спасавају младе особе, особе са више година образовања и особе које су у улогама пешака, него старије особе, особе са мање образовања и особе које су у улогама путника.
  • Различите вредности: Истраживање је идентификовало неке културне и регионалне разлике у представама и вредностима. На пример, постојале су разлике у ставовима између западних и источних земаља или између земаља са индивидуалистичким и колективистичким културама.

Као што видимо, упркос томе што је нагли развој вештачке интелигенције и њен консекутивни продор у људски живот поново вратио питање постојања универзалних вредности, резултати истраживања ипак говоре у прилог становишта моралног релативизма: свет у коме живимо не састоји се од бинарних супротности, не постоји јединствени стандард за процену етичке истине. Стога, данас више него раније, неопходно је да се начини неки шири консензус када су у питању нове технологије.

Један од првих корака ка том циљу био би обавезно укључивање стручњака за етику сваком тиму научника који се баве вештачком интелигенцијом. Ово обезбеђује разматрање етичких аспеката, промовише одговорно поступање и спречава потенцијалне нежељене последице. Интеграција етичких принципа и стручњака за етику доприноси развоју вештачке интелигенције која је морално осетљива, одговорна и усклађена са потребама и вредностима друштва у целини. У ери експанзије вештачке интелигенције, важно је да технолошки развој буде вођен моралним вредностима и да уважава последице које наше одлуке имају на друштво и појединце.

Можемо ли направити вештачку интелигенцију са осећајем за етику? Истраживачи из Лабораторије за вештачку интелигенцију из Сијетла тврде да можемо. Али њихов осећај за етику ће, кажу, највероватније бити збуњујући баш као и људски.

Да ли бисте жртвовали једну особу да бисте спасили пет?

Отворена врата СУК-а

Пријави се на мејлинг листу.


Слањем Ваше мејл адресе сагласни сте да се иста користи само ради обавештавања о детаљима одржавања овог догађаја.

Једнакост

Служба за управљање кадровима чува Ваше право на различитост и једнаке могућности запошљавања у органима државне управе.

Сазнај више!

Прикључи се и ти

Буди у току!

Служба за управљање кадровима отворила је многе информативне канале за комуникацију са заинтересованом јавношћу.

више од

180000

решених квизова у нашем Кутку знања.

више од

1000

оглашених конкурса у последњих годину дана за потребе државних органа широм земље.

више од

4000

тестираних кандидата у последњих годину дана за потребе конкурса широм земље.

Хвала што посећујете

Кутак за кандидате

Служба за управљање кадровима