Етика вештачке интелигенције

С Википедије, слободне енциклопедије

Етика вештачке интелигенције је део етике технологије специфичне за роботе и друга вештачко интелигентна бића. То је типично подељен на роботику, брига моралног понашања људи при, изградњи, коришћењу и третирају вештачко интелигентних бића, и етику машина, забринутост моралног понашања вештачке интелигенције.[1][2][3][4]

Права робота су моралне обавезе друштва према роботима, вештачкој интелигенцији, слично као права људи или права животиња. То може да укључује право на живот и слободу, слободу мишљења и изражавања и једнакости пред законом.[5] Ово питање се сматра од стране Института за будућност и Уједињеном Краљевству Одељења за трговину и индустрију.[6]

Претња приватности[уреди | уреди извор]

Александар Солжењицин описује коришћење технологије препознавања говора у служби тираније.[7] Ако постоји АИ програм кој може да разуме природу језика и говора , а затим, уз адекватне процесорске снаге, могоао би теоретски слушати сваки телефонски разговор и прочитати сваки е-маил у свету, разуме их и дати извештај операторима овог програма дали је оно што је рекао и тачно ко је то рекао. АИ програм овако може дозволити влади или друге субјекте да ефикасно сузби побуну и нападају своје непријатеље.

Претња за људско достојанство[уреди | уреди извор]

Џозеф Веизенбаум тврди у 1976. да АИ технологија не треба да се користи као замена људи на позицијама које захтевају поштовање и бригу, као што је било који од ових:

  • представника корисничке службе (АИ технологија се већ користи за системе Говорни телефонских-басед)
  • терапеут (као што је предложио Кеннетх Цолби у 1970)
  • дадиљу за старије (као што је рекла Памела МцЦордуцк у својој књизи "Пета генерација")
  • војник
  • судија
  • полицајац

Веизенбаум објашњава да захтевамо аутентичне осећања емпатије од народа на овим позицијама. Ако би их машине замениле, наћи ћемо сами отуђени и фрустриран. Вештачка интелигенција, ако се користи на овај начин, представља опасност за људско достојанство. Веизенбаум тврди да је чињеница да се забављају могућност машина у овим позицијама указује на то да смо искусили "атрофије људског духа који долази од размишљања о себи као компјутера."

Памела МцЦордуцк узвраћа, говорећи за жене и мањине "Ја бих радије ризиковала са непристрасним рачунара", истичући да постоје услови у којима бисмо радије да имамо аутоматске судије и полицију који немају личне циљеве на све.

Билл Хиббард пише да је "Људско достојанство захтева да се трудимо да уклони наше незнање о природи постојања, а АИ је потребан за те тежње."

Производња вештачке интелигенције за рат[уреди | уреди извор]

Неки стручњаци и научници доводе у питање употребу робота за војну борбу, посебно када се таквим роботима даје одређени степен аутономних функција. Америчка морнарица је финансирала извештај који указује да како војни роботи постају сложенији, не треба да буде већа пажња на последице њихове способности да аутономне одлуке. Један истраживач каже да би аутономни роботи можда били хуманији, пошто би могли ефикасније доћи до доношења одлука.

У оквиру ове последње деценије, дошло је до интензивног истраживања у аутономне власти са могућношћу да уче помоћу додељене моралне одговорности. "Резултати се могу користити приликом израде будућих војних робота, да контролишу нежељене тенденције да додели одговорност робота." постоји шанса да ће роботи развијају способност да доносе сопствене логичке одлуке о кога да убије и зато треба да постоји низ морални оквир да АИ не може заменити.

АИ оружје представља врсту опасности другачије него људско управљено оружје. Многе владе су почеле да финансирају програме за развој АИ оружје. Због потенцијал АИ оружја постане опаснији од људско управљеног оружјија, Стивен Хокинг и Макс Тегмарк потписали су петиције за забрану АИ оружје. Порука од  Хокинг и Тегмарк наводи да АИ оружје представља непосредну опасност и да је потребна акција како би се избегле катастрофе у блиској будућности.

"Ако било која велика војна сила гура напред са развојем АИ оружја, глобална трка у наоружању је практично неизбежна, а крајња тачка ове технолошке путање је очигледна: аутономно оружје ће постати Калашникови сутрашњице", каже петиција, која укључује Скајп цо -фоундер Јаан Талин и МИТ професор лингвистике Ноам Чомски.

Основни аргумент[уреди | уреди извор]

Ако суперинтеллигент АИ могућ, I а ако је могуће суперинтеллигенце идеје бити у супротности са основним људским вредностима, онда А.I. представља опасност људског изумирања. Суперинтеллигенце, који се може дефинисати као систем који превазилази могућности људи у свим релевантним подухватима, могу надмудрити људе било које време када своје циљеве ступе у конфликт са људским циљевима; Стога, осим ако суперинтеллигенце одлучи да дозволи човечанство да коегзистирају, први суперинтеллигенце да се створи ће неумитно довести до људском истребљења

Не постоји физички закон онемогућава честице од тога да буде организоване на начине који обављају чак и више напредних прорачуна од аранжмана честица у људским мозговима. Појава суперинтеллигенце, ако и када се деси, може да изненади људски род. Експлозивна транзиција је могућа: чим се направи прва Вештача интелигеницја, она ће саму себе унапредити док не дође настанак Суперинтелигенције. Баш као што је садашњи опстанак шимпанзе зависи од људских одлука, исто тако би људски опстанак зависио од одлуке и циљева надљудским АИ. Резултат би могао бити истребљења људи, или нека друга глобална катастрофа.


Референце[уреди | уреди извор]

  1. ^ Андерсон. „Мацхине Етхицс”. Архивирано из оригинала 28. 09. 2011. г. Приступљено 27. 6. 2011. 
  2. ^ Андерсон, Мицхаел; Андерсон, Сусан Леигх, ур. (јул 2011). Мацхине Етхицс. Цамбридге Университy Пресс. ИСБН 978-0-521-11235-2. 
  3. ^ Андерсон, Мицхаел; Андерсон, Сусан Леигх, ур. (Јулy—Аугуст 2006). „Специал Иссуе он Мацхине Етхицс”. ИЕЕЕ Интеллигент Сyстемс. 21 (4): 10—63. ИССН 1541-1672. дои:10.1109/мис.2006.70. Архивирано из оригинала 12. 10. 2012. г. Приступљено 09. 10. 2016.  Проверите вредност парамет(а)ра за датум: |дате= (помоћ)
  4. ^ Андерсон, Мицхаел; Андерсон, Сусан Леигх (зима 2007). „Мацхине Етхицс: Цреатинг ан Етхицал Интеллигент Агент”. АИ Магазине. Америцан Ассоциатион фор Артифициал Интеллигенце. 28 (4): 15—26. ИССН 0738-4602. 
  5. ^ Еванс, Wоодy (2015). „Постхуман Ригхтс: Дименсионс оф Трансхуман Wорлдс”. Универсидад Цомплутенсе Мадрид. Приступљено 7. 4. 2016. 
  6. ^ „Роботс цоулд деманд легал ригхтс”. ББЦ Неwс. 21. 12. 2006. Приступљено 3. 1. 2010. 
  7. ^ МцЦордуцк 2004, стр. 308

Спољашње везе[уреди | уреди извор]