Bezbednost veštačke inteligencije

С Википедије, слободне енциклопедије

Bezbednost veštačke inteligencije je interdisciplinarna oblast koja se bavi sprečavanjem nesreća, zloupotreba ili drugih štetnih posledica koje bi mogle biti rezultat sistema veštačke inteligencije (VI). Ona obuhvata mašinsku etiku i usklađivanje veštačke inteligencije, koji imaju za cilj da sisteme veštačke inteligencije učine moralnim i korisnim. Bezbednost veštačke inteligencije obuhvata tehničke probleme, uključujući sisteme za praćenje rizika, čineći ih visoko pouzdanim. Osim istraživanja veštačke inteligencije, ova oblast obuhvata razvoj normi i politika koje promovišu bezbednost.

Motivacije[уреди | уреди извор]

Neki načini na koje bi napredna neusklađena veštačka inteligencija mogla da pokuša da dobije više moći.[1] Ponašanje u potrazi za moći može da se javi zato što je moć korisna za postizanje praktično bilo kog cilja[2] (videti instrumentalnu konvergenciju).

Istraživači veštačke inteligencije imaju veoma različita mišljenja o ozbiljnosti i primarnim izvorima rizika koje predstavlja tehnologija veštačke inteligencije[3][4][5] – iako ankete sugerišu da stručnjaci ozbiljno shvataju rizike velikih posledica. U dve ankete istraživača veštačke inteligencije, središnji ispitanik je bio optimista po pitanju veštačke inteligencije u celini, ali je dao 5% verovatnoće za „izuzetno loš (npr. izumiranje ljudi)“ ishod napredne veštačke inteligencije.[3] U anketi zajednice za obradu prirodnog jezika (NLP) iz 2022. godine, 37% se složilo ili se donekle složilo da je verovatno da odluke veštačke inteligencije mogu dovesti do katastrofe koja je „bar toliko loša kao sveopšti nuklearni rat“.[6] Naučnici raspravljaju o trenutnim rizicima od kritičnih grešaka sistema,[7] pristrasnosti,[8] i nadzoru omogućenom veštačkom inteligencijom;[9] novim rizicima od tehnološke nezaposlenosti, digitalnih manipulacija[10] i naoružavanja;[11] i spekulativnim rizicima od gubitka kontrole nad budućim agenatima opšte veštačke inteligencije (AGI).[12]

Neki su kritikovali zabrinutost zbog AGI, kao što je Endru Ng koji ih je 2015. uporedio sa „brigom o prenaseljenosti Marsa kada još nismo ni kročili na planetu“.[13] Stjuart Dž. Rasel sa druge strane poziva na oprez, tvrdeći da je „bolje predvideti ljudsku domišljatost nego je potceniti“.[14]

Reference[уреди | уреди извор]

  1. ^ Carlsmith, Joseph (2022-06-16). „Is Power-Seeking AI an Existential Risk?”. arXiv:2206.13353Слободан приступ [cs.CY]. 
  2. ^ „'The Godfather of A.I.' warns of 'nightmare scenario' where artificial intelligence begins to seek power”. Fortune (на језику: енглески). Приступљено 2023-06-10. 
  3. ^ а б Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (2018-07-31). „Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts”. Journal of Artificial Intelligence Research. 62: 729—754. ISSN 1076-9757. S2CID 8746462. doi:10.1613/jair.1.11222Слободан приступ. Архивирано из оригинала 2023-02-10. г. Приступљено 2022-11-28. 
  4. ^ Zhang, Baobao; Anderljung, Markus; Kahn, Lauren; Dreksler, Noemi; Horowitz, Michael C.; Dafoe, Allan (2021-05-05). „Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers”. Journal of Artificial Intelligence Research. 71. arXiv:2105.02117Слободан приступ. doi:10.1613/jair.1.12895. 
  5. ^ Stein-Perlman, Zach; Weinstein-Raun, Benjamin; Grace (2022-08-04). „2022 Expert Survey on Progress in AI”. AI Impacts. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23. 
  6. ^ Michael, Julian; Holtzman, Ari; Parrish, Alicia; Mueller, Aaron; Wang, Alex; Chen, Angelica; Madaan, Divyam; Nangia, Nikita; Pang, Richard Yuanzhe; Phang, Jason; Bowman, Samuel R. (2022-08-26). „What Do NLP Researchers Believe? Results of the NLP Community Metasurvey”. Association for Computational Linguistics. arXiv:2208.12852Слободан приступ. 
  7. ^ De-Arteaga, Maria (2020-05-13). Machine Learning in High-Stakes Settings: Risks and Opportunities (PhD). Carnegie Mellon University. 
  8. ^ Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021). „A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys (на језику: енглески). 54 (6): 1—35. ISSN 0360-0300. S2CID 201666566. arXiv:1908.09635Слободан приступ. doi:10.1145/3457607. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-28. 
  9. ^ Feldstein, Steven (2019). The Global Expansion of AI Surveillance (Извештај). Carnegie Endowment for International Peace. 
  10. ^ Barnes, Beth (2021). „Risks from AI persuasion”. Lesswrong. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23. 
  11. ^ Brundage, Miles; Avin, Shahar; Clark, Jack; Toner, Helen; Eckersley, Peter; Garfinkel, Ben; Dafoe, Allan; Scharre, Paul; Zeitzoff, Thomas; Filar, Bobby; Anderson, Hyrum; Roff, Heather; Allen, Gregory C; Steinhardt, Jacob; Flynn, Carrick (2018-04-30). „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”. Apollo-University Of Cambridge Repository, Apollo-University Of Cambridge Repository. Apollo - University of Cambridge Repository. S2CID 3385567. doi:10.17863/cam.22520. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-28. 
  12. ^ Carlsmith, Joseph (2022-06-16). „Is Power-Seeking AI an Existential Risk?”. arXiv:2206.13353Слободан приступ. 
  13. ^ „AGI Expert Peter Voss Says AI Alignment Problem is Bogus | NextBigFuture.com” (на језику: енглески). 2023-04-04. Приступљено 2023-07-23. 
  14. ^ Dafoe, Allan (2016). „Yes, We Are Worried About the Existential Risk of Artificial Intelligence”. MIT Technology Review. Архивирано из оригинала 2022-11-28. г. Приступљено 2022-11-28. 

Literatura[уреди | уреди извор]

  • Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. US: Oxford University Press.
  • Anderson, Michael; Anderson, Susan Leigh, eds (July 2011). Machine Ethics. Cambridge University Press.
  • Storrs Hall, J. (May 30, 2007). Beyond AI: Creating the Conscience of the Machine Prometheus Books.
  • Moor, J. (2006). The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, 21(4), pp. 18–21.
  • Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  • Hagendorff, Thilo (2021). Linking Human And Machine Behavior: A New Approach to Evaluate Training Data Quality for Beneficial Machine Learning. Minds and Machines, doi:10.1007/s11023-021-09573-8.
  • Anderson, Michael; Anderson, Susan Leigh, eds (July/August 2006). "Special Issue on Machine Ethics". IEEE Intelligent Systems 21 (4): 10–63.
  • Bendel, Oliver (December 11, 2013). Considerations about the Relationship between Animal and Machine Ethics. AI & SOCIETY, doi:10.1007/s00146-013-0526-3.
  • Dabringer, Gerhard, ed. (2010). "Ethical and Legal Aspects of Unmanned Systems. Interviews". Austrian Ministry of Defence and Sports, Vienna 2010, ISBN 978-3-902761-04-0.
  • Gardner, A. (1987). An Artificial Approach to Legal Reasoning. Cambridge, MA: MIT Press.
  • Georges, T. M. (2003). Digital Soul: Intelligent Machines and Human Values. Cambridge, MA: Westview Press.
  • Singer, P.W. (December 29, 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century: Penguin.
  • Winfield, A., Michael, K., Pitt, J. and Evers, V. (March 2019). Special Issue on Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems. Proceedings of the IEEE. 107 (3): 501–615, doi:10.1109/JPROC.2019.2900622

Spoljašnje veze[уреди | уреди извор]