Безбедност вештачке интелигенције

С Википедије, слободне енциклопедије

Безбедност вештачке интелигенције је интердисциплинарна област која се бави спречавањем несрећа, злоупотреба или других штетних последица које би могле бити резултат система вештачке интелигенције (VI). Она обухвата машинску етику и усклађивање вештачке интелигенције, који имају за циљ да системе вештачке интелигенције учине моралним и корисним. Безбедност вештачке интелигенције обухвата техничке проблеме, укључујући системе за праћење ризика, чинећи их високо поузданим. Осим истраживања вештачке интелигенције, ова област обухвата развој норми и политика које промовишу безбедност.

Мотивације[уреди | уреди извор]

Неки начини на које би напредна неусклађена вештачка интелигенција могла да покуша да добије више моћи.[1] Понашање у потрази за моћи може да се јави зато што је моћ корисна за постизање практично било ког циља[2] (видети инструменталну конвергенцију).

Истраживачи вештачке интелигенције имају веома различита мишљења о озбиљности и примарним изворима ризика које представља технологија вештачке интелигенције[3][4][5] – иако анкете сугеришу да стручњаци озбиљно схватају ризике великих последица. У две анкете истраживача вештачке интелигенције, средишњи испитаник је био оптимиста по питању вештачке интелигенције у целини, али је дао 5% вероватноће за „изузетно лош (нпр. изумирање људи)“ исход напредне вештачке интелигенције.[3] У анкети заједнице за обраду природног језика (НЛП) из 2022. године, 37% се сложило или се донекле сложило да је вероватно да одлуке вештачке интелигенције могу довести до катастрофе која је „бар толико лоша као свеопшти нуклеарни рат“.[6] Научници расправљају о тренутним ризицима од критичних грешака система,[7] пристрасности,[8] и надзору омогућеном вештачком интелигенцијом;[9] новим ризицима од технолошке незапослености, дигиталних манипулација[10] и наоружавања;[11] и спекулативним ризицима од губитка контроле над будућим агенатима опште вештачке интелигенције (АГИ).[12]

Неки су критиковали забринутост због АГИ, као што је Ендру Нг који их је 2015. упоредио са „бригом о пренасељености Марса када још нисмо ни крочили на планету“.[13] Стјуарт Џ. Расел са друге стране позива на опрез, тврдећи да је „боље предвидети људску домишљатост него је потценити“.[14]

Референце[уреди | уреди извор]

  1. ^ Царлсмитх, Јосепх (2022-06-16). „Ис Поwер-Сеекинг АИ ан Еxистентиал Риск?”. арXив:2206.13353Слободан приступ [цс.ЦY]. 
  2. ^ „'Тхе Годфатхер оф А.I.' wарнс оф 'нигхтмаре сценарио' wхере артифициал интеллигенце бегинс то сеек поwер”. Фортуне (на језику: енглески). Приступљено 2023-06-10. 
  3. ^ а б Граце, Катја; Салватиер, Јохн; Дафое, Аллан; Зханг, Баобао; Еванс, Оwаин (2018-07-31). „Виеwпоинт: Wхен Wилл АИ Еxцеед Хуман Перформанце? Евиденце фром АИ Еxпертс”. Јоурнал оф Артифициал Интеллигенце Ресеарцх. 62: 729—754. ИССН 1076-9757. С2ЦИД 8746462. дои:10.1613/јаир.1.11222Слободан приступ. Архивирано из оригинала 2023-02-10. г. Приступљено 2022-11-28. 
  4. ^ Зханг, Баобао; Андерљунг, Маркус; Кахн, Лаурен; Дрекслер, Ноеми; Хороwитз, Мицхаел C.; Дафое, Аллан (2021-05-05). „Етхицс анд Говернанце оф Артифициал Интеллигенце: Евиденце фром а Сурвеy оф Мацхине Леарнинг Ресеарцхерс”. Јоурнал оф Артифициал Интеллигенце Ресеарцх. 71. арXив:2105.02117Слободан приступ. дои:10.1613/јаир.1.12895. 
  5. ^ Стеин-Перлман, Зацх; Wеинстеин-Раун, Бењамин; Граце (2022-08-04). „2022 Еxперт Сурвеy он Прогресс ин АИ”. АИ Импацтс. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23. 
  6. ^ Мицхаел, Јулиан; Холтзман, Ари; Паррисх, Алициа; Муеллер, Аарон; Wанг, Алеx; Цхен, Ангелица; Мадаан, Дивyам; Нангиа, Никита; Панг, Рицхард Yуанзхе; Пханг, Јасон; Боwман, Самуел Р. (2022-08-26). „Wхат До НЛП Ресеарцхерс Белиеве? Ресултс оф тхе НЛП Цоммунитy Метасурвеy”. Ассоциатион фор Цомпутатионал Лингуистицс. арXив:2208.12852Слободан приступ. 
  7. ^ Де-Артеага, Мариа (2020-05-13). Мацхине Леарнинг ин Хигх-Стакес Сеттингс: Рискс анд Оппортунитиес (ПхД). Царнегие Меллон Университy. 
  8. ^ Мехраби, Нинарех; Морстаттер, Фред; Саxена, Нрипсута; Лерман, Кристина; Галстyан, Арам (2021). „А Сурвеy он Биас анд Фаирнесс ин Мацхине Леарнинг”. АЦМ Цомпутинг Сурвеyс (на језику: енглески). 54 (6): 1—35. ИССН 0360-0300. С2ЦИД 201666566. арXив:1908.09635Слободан приступ. дои:10.1145/3457607. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-28. 
  9. ^ Фелдстеин, Стевен (2019). Тхе Глобал Еxпансион оф АИ Сурвеилланце (Извештај). Царнегие Ендоwмент фор Интернатионал Пеаце. 
  10. ^ Барнес, Бетх (2021). „Рискс фром АИ персуасион”. Лессwронг. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23. 
  11. ^ Брундаге, Милес; Авин, Схахар; Цларк, Јацк; Тонер, Хелен; Ецкерслеy, Петер; Гарфинкел, Бен; Дафое, Аллан; Сцхарре, Паул; Зеитзофф, Тхомас; Филар, Боббy; Андерсон, Хyрум; Рофф, Хеатхер; Аллен, Грегорy C; Стеинхардт, Јацоб; Флyнн, Царрицк (2018-04-30). „Тхе Малициоус Усе оф Артифициал Интеллигенце: Форецастинг, Превентион, анд Митигатион”. Аполло-Университy Оф Цамбридге Репоситорy, Аполло-Университy Оф Цамбридге Репоситорy. Аполло - Университy оф Цамбридге Репоситорy. С2ЦИД 3385567. дои:10.17863/цам.22520. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-28. 
  12. ^ Царлсмитх, Јосепх (2022-06-16). „Ис Поwер-Сеекинг АИ ан Еxистентиал Риск?”. арXив:2206.13353Слободан приступ. 
  13. ^ „АГИ Еxперт Петер Восс Саyс АИ Алигнмент Проблем ис Богус | НеxтБигФутуре.цом” (на језику: енглески). 2023-04-04. Приступљено 2023-07-23. 
  14. ^ Дафое, Аллан (2016). „Yес, Wе Аре Wорриед Абоут тхе Еxистентиал Риск оф Артифициал Интеллигенце”. МИТ Тецхнологy Ревиеw. Архивирано из оригинала 2022-11-28. г. Приступљено 2022-11-28. 

Литература[уреди | уреди извор]

  • Wаллацх, Wенделл; Аллен, Цолин (Новембер 2008). Морал Мацхинес: Теацхинг Роботс Ригхт фром Wронг. УС: Оxфорд Университy Пресс.
  • Андерсон, Мицхаел; Андерсон, Сусан Леигх, едс (Јулy 2011). Мацхине Етхицс. Цамбридге Университy Пресс.
  • Сторрс Халл, Ј. (Маy 30, 2007). Беyонд АИ: Цреатинг тхе Цонсциенце оф тхе Мацхине Прометхеус Боокс.
  • Моор, Ј. (2006). Тхе Натуре, Импортанце, анд Диффицултy оф Мацхине Етхицс. ИЕЕЕ Интеллигент Сyстемс, 21(4), пп. 18–21.
  • Андерсон, M. анд Андерсон, С. (2007). Цреатинг ан Етхицал Интеллигент Агент. АИ Магазине, Волуме 28(4).
  • Хагендорфф, Тхило (2021). Линкинг Хуман Анд Мацхине Бехавиор: А Неw Аппроацх то Евалуате Траининг Дата Qуалитy фор Бенефициал Мацхине Леарнинг. Миндс анд Мацхинес, doi:10.1007/s11023-021-09573-8.
  • Андерсон, Мицхаел; Андерсон, Сусан Леигх, едс (Јулy/Аугуст 2006). "Специал Иссуе он Мацхине Етхицс". ИЕЕЕ Интеллигент Сyстемс 21 (4): 10–63.
  • Бендел, Оливер (Децембер 11, 2013). Цонсидератионс абоут тхе Релатионсхип бетwеен Анимал анд Мацхине Етхицс. АИ & СОЦИЕТY, doi:10.1007/s00146-013-0526-3.
  • Дабрингер, Герхард, ед. (2010). "Етхицал анд Легал Аспецтс оф Унманнед Сyстемс. Интервиеwс". Аустриан Министрy оф Дефенце анд Спортс, Виенна 2010, ISBN 978-3-902761-04-0.
  • Gardner, A. (1987). An Artificial Approach to Legal Reasoning. Cambridge, MA: MIT Press.
  • Georges, T. M. (2003). Digital Soul: Intelligent Machines and Human Values. Cambridge, MA: Westview Press.
  • Singer, P.W. (December 29, 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century: Penguin.
  • Winfield, A., Michael, K., Pitt, J. and Evers, V. (March 2019). Special Issue on Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems. Proceedings of the IEEE. 107 (3): 501–615, doi:10.1109/JPROC.2019.2900622

Спољашње везе[уреди | уреди извор]