Вештачка интелигенција — разлика између измена

С Википедије, слободне енциклопедије
Садржај обрисан Садржај додат
Ред 854: Ред 854:


== Филозофија ==
== Филозофија ==
{{Main|Филозофија вештачке интелигенције}}
{{Main|Philosophy of artificial intelligence}}


=== Дефинисање вештачке интелигенције ===
=== Defining artificial intelligence ===
{{Main|Тјурингов тест|Интелигентни агент|Дартмутска радионица|Синтетичка интелигенција}}
{{Main|Turing test|Intelligent agent|Dartmouth workshop|Synthetic intelligence}}

[[Alan Turing]] wrote in 1950 "I propose to consider the question 'can machines think'?"{{sfnp|Turing|1950|p=1}} He advised changing the question from whether a machine "thinks", to "whether or not it is possible for machinery to show intelligent behaviour".{{sfnp|Turing|1950|p=1}} He devised the Turing test, which measures the ability of a machine to simulate human conversation.<ref name="Turing test">
[[Алан Тјуринг]] је 1950. године написао: „Предлажем да размотримо питање 'могу ли машине да мисле'?“{{sfnp|Turing|1950|p=1}} Он је саветовао да се питање промени са да ли машина „мисли“, на „да ли је могуће или не да машине показују интелигентно понашање“.{{sfnp|Turing|1950|p=1}} Он је осмислио Тјурингов тест, који мери способност машине да симулира људски разговор.<ref name="Turing test">
Turing's original publication of the [[Turing test]] in "[[Computing machinery and intelligence]]":
Turing's original publication of the [[Turing test]] in "[[Computing machinery and intelligence]]":
* {{Harvtxt|Turing|1950}}
* {{Harvtxt|Turing|1950}}
Ред 866: Ред 867:
* {{Harvtxt|McCorduck|2004|pp=70–71}}
* {{Harvtxt|McCorduck|2004|pp=70–71}}
* {{Harvtxt|Russell|Norvig|2021|pp=2 and 984}}
* {{Harvtxt|Russell|Norvig|2021|pp=2 and 984}}
</ref> Since we can only observe the behavior of the machine, it does not matter if it is "actually" thinking or literally has a "mind". Turing notes that we can not determine these things about other people{{efn|See [[Problem of other minds]]}} but "it is usual to have a polite convention that everyone thinks"{{sfnp|Turing|1950|loc=Under "The Argument from Consciousness"}}
</ref> Пошто можемо само да посматрамо понашање машине, није битно да ли она „заправо“ размишља или дословно има „ум“. Тјуринг напомиње да не можемо да одредимо ове ствари о другим људима,{{efn|Погледајте [[Problem of other minds|Проблем других умова]]}} али да „уобичајено да имамо љубазну конвенцију за коју сви мисле“.{{sfnp|Turing|1950|loc=Under "The Argument from Consciousness"}}


[[Stuart J. Russell|Russell]] and [[Peter Norvig|Norvig]] agree with Turing that AI must be defined in terms of "acting" and not "thinking".{{sfnp|Russell|Norvig|2021|loc=chpt. 2}} However, they are critical that the test compares machines to ''people''. "[[Aeronautics|Aeronautical engineering]] texts," they wrote, "do not define the goal of their field as making 'machines that fly so exactly like [[pigeon]]s that they can fool other pigeons.{{' "}}{{sfnp|Russell|Norvig|2021|p=3}} AI founder [[John McCarthy (computer scientist)|John McCarthy]] agreed, writing that "Artificial intelligence is not, by definition, simulation of human intelligence".{{sfnp|Maker|2006}}
[[Stuart J. Russell|Расел]] и [[Peter Norvig|Норвиг]] се слажу са Тјурингом да вештачка интелигенција мора бити дефинисана у смислу „деловања“, а не „размишљања“.{{sfnp|Russell|Norvig|2021|loc=chpt. 2}} Међутим, они су критични јер тест упоређује машине са ''људима''. „Текстови [[Aeronautics|ваздухопловног инжењерства]], написали су, „не дефинишу циљ своје области као прављење „машина које лете до те мере као [[голуб]]ови да могу да заварају друге голубове. Творац вештачке интелигенције [[John McCarthy (computer scientist)|Џон Макарти]] се сложио, пишући да „Вештачка интелигенција није, по дефиницији, симулација људске интелигенције“.{{sfnp|Maker|2006}}


Макарти дефинише интелигенцију као „компјутерски део способности да се постигну циљеви у свету“.{{sfnp|McCarthy|1999}} Други оснивач вештачке интелигенције, [[Marvin Minsky|Марвин Мински]], на је сличан начин дефинише као „способност решавања тешких проблема“.{{sfnp|Minsky|1986}} Ове дефиниције посматрају интелигенцију у смислу добро дефинисаних проблема са добро дефинисаним решењима, где су тежина проблема и перформансе програма директне мере „интелигенције” машине - и није потребна никаква друга филозофска расправа, или можда не би била ни могућа.
McCarthy defines intelligence as "the computational part of the ability to achieve goals in the world."{{sfnp|McCarthy|1999}} Another AI founder, [[Marvin Minsky]] similarly defines it as "the ability to solve hard problems".{{sfnp|Minsky|1986}} These definitions view intelligence in terms of well-defined problems with well-defined solutions, where both the difficulty of the problem and the performance of the program are direct measures of the "intelligence" of the machine—and no other philosophical discussion is required, or may not even be possible.


Another definition has been adopted by Google,<ref>{{Cite web |title=What Is Artificial Intelligence (AI)? |url=https://cloud.google.com/learn/what-is-artificial-intelligence |url-status=live |archive-url=https://web.archive.org/web/20230731114802/https://cloud.google.com/learn/what-is-artificial-intelligence |archive-date=31 July 2023 |access-date=16 October 2023 |website=[[Google Cloud Platform]]}}</ref> a major practitioner in the field of AI. This definition stipulates the ability of systems to synthesize information as the manifestation of intelligence, similar to the way it is defined in biological intelligence.
Још једну дефиницију је усвојио [[Гугл]],<ref>{{Cite web |title=What Is Artificial Intelligence (AI)? |url=https://cloud.google.com/learn/what-is-artificial-intelligence |url-status=live |archive-url=https://web.archive.org/web/20230731114802/https://cloud.google.com/learn/what-is-artificial-intelligence |archive-date=31 July 2023 |access-date=16 October 2023 |website=[[Google Cloud Platform]]}}</ref> главни практичар у области вештачке интелигенције. Ова дефиниција предвиђа способност система да синтетише информације као манифестацију интелигенције, слично као што је дефинисано у биолошкој интелигенцији.


=== Евалуација приступа вештачке интелигенције ===
=== Evaluating approaches to AI ===


Ниједна успостављена обједињујућа теорија или [[парадигма]] није предводила истраживање вештачке интелигенције током већег дела њене историје.{{efn|[[Nils Nilsson (researcher)|Нилс Нилсон]] је 1983. написао: „Једноставно речено, постоји велика неслагања на терену око тога шта је вештачка интелигенција.”{{sfnp|Nilsson|1983|p=10}}}} Невиђени успех статистичког машинског учења 2010-их засјенио је све друге приступе (толико да неки извори, посебно у пословном свету, користе термин „вештачка интелигенција” да значи „машинско учење са неуронским мрежама”). Овај приступ је углавном [[sub-symbolic|подсимболички]], [[soft computing|мекан]] и [[artificial general intelligence|узак]] (види испод). Критичари тврде да ће будуће генерације истраживача вештачке интелигенције можда морати поново да размотре ова питања.
No established unifying theory or [[paradigm]] has guided AI research for most of its history.{{efn
|[[Nils Nilsson (researcher)|Nils Nilsson]] wrote in 1983: "Simply put, there is wide disagreement in the field about what AI is all about."{{sfnp|Nilsson|1983|p=10}}}} The unprecedented success of statistical machine learning in the 2010s eclipsed all other approaches (so much so that some sources, especially in the business world, use the term "artificial intelligence" to mean "machine learning with neural networks"). This approach is mostly [[sub-symbolic]], [[soft computing|soft]] and [[artificial general intelligence|narrow]] (see below). Critics argue that these questions may have to be revisited by future generations of AI researchers.


==== Симболичка вештачка интелигенција и његове границе ====
====Symbolic AI and its limits====

Symbolic AI (or "[[GOFAI]]"){{sfnp|Haugeland|1985|pp=112–117}} simulated the high-level conscious reasoning that people use when they solve puzzles, express legal reasoning and do mathematics. They were highly successful at "intelligent" tasks such as algebra or IQ tests. In the 1960s, Newell and Simon proposed the [[physical symbol systems hypothesis]]: "A physical symbol system has the necessary and sufficient means of general intelligent action."<ref name="Physical symbol system hypothesis">
Симболичка вештачка интелигенција (или „[[GOFAI]]“){{sfnp|Haugeland|1985|pp=112–117}} је симулирала свесно резоновање на високом нивоу које људи користе када решавају загонетке, изражавају правно резоновање и решавају математичке проблеме. Она је била веома успешна на „интелигентним” задацима као што су алгебра или тестови интелигенције. Током 1960-их, Њуел и Сајмон су предложили [[physical symbol systems hypothesis|хипотезу о системима физичких симбола]]: „Физички систем симбола има неопходна и довољна средства опште интелигентне акције.“<ref name="Physical symbol system hypothesis">
Physical symbol system hypothesis:
Physical symbol system hypothesis:
* {{Harvtxt|Newell|Simon|1976|p=116}}
* {{Harvtxt|Newell|Simon|1976|p=116}}
Ред 888: Ред 889:
</ref>
</ref>


Међутим, симболички приступ није успео у многим задацима које људи лако решавају, као што су учење, препознавање предмета или здраворазумско размишљање. [[Moravec's paradox|Моравецов парадокс]] је откриће да су „интелигентни“ задаци високог нивоа били лаки за вештачку интелигенцију, док су „инстинктивни“ задаци ниског нивоа били изузетно тешки.<ref>
However, the symbolic approach failed on many tasks that humans solve easily, such as learning, recognizing an object or commonsense reasoning. [[Moravec's paradox]] is the discovery that high-level "intelligent" tasks were easy for AI, but low level "instinctive" tasks were extremely difficult.<ref>
[[Moravec's paradox]]:
[[Moravec's paradox]]:
* {{Harvtxt|Moravec|1988|pp=15–16}}
* {{Harvtxt|Moravec|1988|pp=15–16}}
* {{Harvtxt|Minsky|1986|p=29}}
* {{Harvtxt|Minsky|1986|p=29}}
* {{Harvtxt|Pinker|2007|pp=190–91}}
* {{Harvtxt|Pinker|2007|pp=190–91}}
</ref> Philosopher [[Hubert Dreyfus]] had [[Dreyfus' critique of AI|argued]] since the 1960s that human expertise depends on unconscious instinct rather than conscious symbol manipulation, and on having a "feel" for the situation, rather than explicit symbolic knowledge.<ref name="Dreyfus' critique">
</ref> Филозоф [[Hubert Dreyfus|Хјуберт Драјфус]] је од 1960-их [[Dreyfus' critique of AI|тврдио]] да људска стручност зависи од несвесног инстинкта, а не од свесне манипулације симболима, и од „осећаја“ за ситуацију, а не од експлицитног симболичког знања.<ref name="Dreyfus' critique">
[[Dreyfus' critique of AI]]:
[[Dreyfus' critique of AI]]:
* {{Harvtxt|Dreyfus|1972}}
* {{Harvtxt|Dreyfus|1972}}
Ред 902: Ред 903:
* {{Harvtxt |Russell|Norvig|2021|pp=981–982}}
* {{Harvtxt |Russell|Norvig|2021|pp=981–982}}
* {{Harvtxt |Fearn|2007|loc=Chpt. 3}}
* {{Harvtxt |Fearn|2007|loc=Chpt. 3}}
</ref> Иако су његови аргументи били исмевани и игнорисани када су први пут представљени, на крају су се истраживања вештачке интелигенције сложила са њим.{{efn|Данијел Кревијер је написао да је „време доказало тачност и проницљивост неких Драјфусових коментара. Да их је формулисао мање агресивно, конструктивне акције које су они предлагали могле су бити предузете много раније“.{{sfnp|Crevier|1993|p=125}}
</ref> Although his arguments had been ridiculed and ignored when they were first presented, eventually, AI research came to agree with him.{{efn|
Daniel Crevier wrote that "time has proven the accuracy and perceptiveness of some of Dreyfus's comments. Had he formulated them less aggressively, constructive actions they suggested might have been taken much earlier."{{sfnp|Crevier|1993|p=125}}
}}<ref name="Psychological evidence of sub-symbolic reasoning"/>
}}<ref name="Psychological evidence of sub-symbolic reasoning"/>


Проблем није решен: [[sub-symbolic|подсимболичко]] резоновање може направити многе од истих несагледивих грешака које чини људска интуиција, као што је [[algorithmic bias|алгоритамска пристрасност]].<ref>{{Cite book |last1=Suresh |first1=Harini |last2=Guttag |first2=John |title=Equity and Access in Algorithms, Mechanisms, and Optimization |chapter=A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle |date=2021-11-04 |chapter-url=https://dl.acm.org/doi/10.1145/3465416.3483305 |series=EAAMO '21 |location=New York, NY, USA |publisher=Association for Computing Machinery |pages=1–9 |doi=10.1145/3465416.3483305 |isbn=978-1-4503-8553-4|s2cid=235436386 }}</ref><ref name="Striphas">{{cite web|url=http://culturedigitally.org/2012/02/what-is-an-algorithm/|title=What is an Algorithm? – Culture Digitally|last1=Striphas|first1=Ted|website=culturedigitally.org|date=February 2012 |access-date=20 November 2017}}</ref><ref name="Cormen">{{cite book|title=Introduction to Algorithms|url=https://archive.org/details/introductiontoal00corm_805|url-access=limited|last1= Cormen|first1=Thomas H.|last2=Leiserson|first2=Charles E.|last3=Rivest|first3=Ronald L.|last4=Stein|first4=Clifford|date=2009|publisher=MIT Press|isbn=978-0-262-03384-8|edition=3rd|location=Cambridge, Mass.|page=[https://archive.org/details/introductiontoal00corm_805/page/n25 5]}}</ref> Критичари као што је [[Noam Chomsky|Ноам Чомски]] тврде да ће наставак истраживања симболичке вештачке интелигенције и даље бити неопходан да би се остварила општа интелигенција,{{sfnp|Langley|2011}}{{sfnp|Katz|2012}} делом зато што је подсимболична вештачка интелигенција вид удаљавања од [[explainable AI|објашњиве вештачке интелигенције]]: може бити тешко или немогуће разумети зашто савремени статистички програм вештачке интелигенције донео дату одлуку.<ref>{{Cite journal |last=Mihály |first=Héder |date=2023 |title=Explainable AI: A Brief History of the Concept |url=https://ercim-news.ercim.eu/images/stories/EN134/EN134-web.pdf |journal=ERCIM News |issue=134 |pages=9–10}}</ref><ref>{{Cite journal |last1=Phillips |first1=P. Jonathon |last2=Hahn |first2=Carina A. |last3=Fontana |first3=Peter C. |last4=Yates |first4=Amy N. |last5=Greene |first5=Kristen |last6=Broniatowski |first6=David A. |last7=Przybocki |first7=Mark A. |date=2021-09-29 |title=Four Principles of Explainable Artificial Intelligence |url=https://doi.org/10.6028/NIST.IR.8312 |doi=10.6028/nist.ir.8312}}</ref><ref>{{Cite journal|last1=Vilone|first1=Giulia|last2=Longo|first2=Luca|title=Notions of explainability and evaluation approaches for explainable artificial intelligence|url=https://www.sciencedirect.com/science/article/pii/S1566253521001093|journal=Information Fusion|year=2021|volume= December 2021 - Volume 76 |pages=89–106|doi=10.1016/j.inffus.2021.05.009}}</ref><ref>{{Cite journal |last=Castelvecchi |first=Davide |date=2016-10-06 |title=Can we open the black box of AI? |url=http://www.nature.com/articles/538020a |journal=Nature |language=en |volume=538 |issue=7623 |pages=20–23 |doi=10.1038/538020a |pmid=27708329 |bibcode=2016Natur.538...20C |s2cid=4465871 |issn=0028-0836}}</ref><ref name=guardian>{{cite news|last1=Sample|first1=Ian|title=Computer says no: why making AIs fair, accountable and transparent is crucial|url=https://www.theguardian.com/science/2017/nov/05/computer-says-no-why-making-ais-fair-accountable-and-transparent-is-crucial|access-date=30 January 2018|work=The Guardian |date=5 November 2017|language=en}}</ref> Ново поље [[Neuro-symbolic AI|неуро-симболичке]] вештачке интелигенције настоји да премости ова два приступа.<ref>{{Cite journal |last=Garcez |first=Artur d'Avila |last2=Lamb |first2=Luis C. |last3=Gabbay |first3=Dov M. |date=2009 |title=Neural-Symbolic Cognitive Reasoning |url=https://link.springer.com/book/10.1007/978-3-540-73246-4 |journal=Cognitive Technologies |language=en |doi=10.1007/978-3-540-73246-4 |issn=1611-2482}}</ref><ref>{{Cite conference| publisher = Association for Computational Linguistics| doi = 10.18653/v1/W16-1309| pages = 45–50| last1 = Rocktäschel| first1 = Tim| last2 = Riedel| first2 = Sebastian| title = Learning Knowledge Base Inference with Neural Theorem Provers| book-title = Proceedings of the 5th Workshop on Automated Knowledge Base Construction| location = San Diego, CA| access-date = 2022-08-06| date = 2016| url = https://aclanthology.org/W16-1309| doi-access = free}}</ref><ref>{{cite arXiv | eprint = 1606.04422| last1 = Serafini| first1 = Luciano| last2 = Garcez| first2 = Artur d'Avila| title = Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge | date = 2016 | class = cs.AI}}</ref>
The issue is not resolved: [[sub-symbolic]] reasoning can make many of the same inscrutable mistakes that human intuition does, such as [[algorithmic bias]]. Critics such as [[Noam Chomsky]] argue continuing research into symbolic AI will still be necessary to attain general intelligence,{{sfnp|Langley|2011}}{{sfnp|Katz|2012}} in part because sub-symbolic AI is a move away from [[explainable AI]]: it can be difficult or impossible to understand why a modern statistical AI program made a particular decision. The emerging field of [[Neuro-symbolic AI|neuro-symbolic artificial intelligence]] attempts to bridge the two approaches.


==== Neat vs. scruffy ====
==== Уредно наспрам неуредног ====
{{Main|Neats and scruffies}}
{{Main|Уредни и неуредни}}

"Neats" hope that intelligent behavior is described using simple, elegant principles (such as [[logic]], [[optimization (mathematics)|optimization]], or [[Artificial neural network|neural networks]]). "Scruffies" expect that it necessarily requires solving a large number of unrelated problems. Neats defend their programs with theoretical rigor, scruffies rely mainly on incremental testing to see if they work. This issue was actively discussed in the 1970s and 1980s,<ref name="Neats vs. scruffies">
„Уредни“ се надају да је интелигентно понашање описано коришћењем једноставних, елегантних принципа (као што су [[логика]], [[optimization (mathematics)|оптимизација]] или [[Artificial neural network|неуронске мреже]]). „Неуредни” очекују да то нужно захтева решавање великог броја неповезаних проблема. Уредни бране своје програме теоретском строгошћу, а опозиција се углавном ослања на инкрементално тестирање да би видели да ли раде. О овом питању се активно расправљало током 1970-их и 1980-их,<ref name="Neats vs. scruffies">
[[Neats vs. scruffies]], the historic debate:
[[Neats vs. scruffies]], the historic debate:
* {{Harvtxt|McCorduck|2004|pp=421–424, 486–489}}
* {{Harvtxt|McCorduck|2004|pp=421–424, 486–489}}
Ред 920: Ред 921:
A modern example of neat AI and its aspirations in the 21st century:
A modern example of neat AI and its aspirations in the 21st century:
* {{Harvtxt|Domingos|2015}}
* {{Harvtxt|Domingos|2015}}
</ref> али је на крају све то виђено као ирелевантно. Модерна вештачка интелигенција има елементе оба приступа.
</ref> but eventually was seen as irrelevant. Modern AI has elements of both.


==== Меко наспрам тврдог рачунарства ====
==== Soft vs. hard computing ====
{{Main|Soft computing}}
{{Main|Меко рачунарство}}
Finding a provably correct or optimal solution is [[Intractability (complexity)|intractable]] for many important problems.<ref name="Intractability"/> Soft computing is a set of techniques, including [[genetic algorithms]], [[fuzzy logic]] and neural networks, that are tolerant of imprecision, uncertainty, partial truth and approximation. Soft computing was introduced in the late 1980s and most successful AI programs in the 21st century are examples of soft computing with neural networks.


Проналажење доказано исправног или оптималног решења је [[Intractability (complexity)|неоствариво]] за многе важне проблеме.<ref name="Intractability"/> Меко рачунарство је скуп техника, укључујући [[genetic algorithms|генетске алгоритме]],<ref>{{Cite book|last1=Gerges|first1=Firas|last2=Zouein|first2=Germain|last3=Azar|first3=Danielle|title=Proceedings of the 2018 International Conference on Computing and Artificial Intelligence |chapter=Genetic Algorithms with Local Optima Handling to Solve Sudoku Puzzles |date=2018-03-12|chapter-url=https://doi.org/10.1145/3194452.3194463|series=ICCAI 2018|location=New York, NY, USA|publisher=Association for Computing Machinery|pages=19–22|doi=10.1145/3194452.3194463|isbn=978-1-4503-6419-5|s2cid=44152535 }}</ref><ref>{{cite journal |last1=Burkhart |first1=Michael C. |last2=Ruiz |first2=Gabriel |title=Neuroevolutionary representations for learning heterogeneous treatment effects |journal=Journal of Computational Science |date=2023 |volume=71 |page=102054 |doi=10.1016/j.jocs.2023.102054 |s2cid=258752823 |doi-access=free }}</ref> [[fuzzy logic|расплинуту логику]]<ref>{{cite book |last1=Novák, V. |last2=Perfilieva, I. |last3=Močkoř, J. |title=Mathematical principles of fuzzy logic |date=1999 |publisher=Kluwer Academic |location=Dordrecht |isbn=978-0-7923-8595-0 }}</ref><ref>{{cite encyclopedia |url=http://plato.stanford.edu/entries/logic-fuzzy/ |title=Fuzzy Logic |access-date=2008-09-30 |encyclopedia=Stanford Encyclopedia of Philosophy |publisher=Bryant University |date=2006-07-23 }}</ref><ref>{{cite journal | last1 = Pelletier | first1 = Francis Jeffry | year = 2000 | title = Review of ''Metamathematics of fuzzy logics'' | url = https://www.sfu.ca/~jeffpell/papers/ReviewHajek.pdf | journal = The Bulletin of Symbolic Logic | volume = 6 | issue = 3 | pages = 342–346 | jstor = 421060 | doi = 10.2307/421060 | url-status = live | archive-url = https://web.archive.org/web/20160303172812/http://www.sfu.ca/~jeffpell/papers/ReviewHajek.pdf | archive-date = 2016-03-03 }}</ref> и неуронске мреже, које су толерантне на непрецизност, неизвесност, делимичну истину и апроксимацију.<ref>{{Cite journal |last=Zadeh |first=Lotfi A. |date=March 1994 |title=Fuzzy logic, neural networks, and soft computing |journal=Communications of the ACM |language=en |volume=37 |issue=3 |pages=77–84 |doi=10.1145/175247.175255 |issn=0001-0782|doi-access=free }}</ref><ref name="Procedia">Ibrahim, Dogan. "An overview of soft computing." Procedia Computer Science 102 (2016): 34-38.</ref><ref name=":1">{{Cite book |last=Kecman |first=Vojislav |url=https://books.google.com/books?id=W5SAhUqBVYoC&dq=neural+networks+in+soft+computing&pg=PP1 |title=Learning and Soft Computing: Support Vector Machines, Neural Networks, and Fuzzy Logic Models |date=2001 |publisher=MIT Press |isbn=978-0-262-11255-0 |language=en}}</ref><ref>Chaturvedi, Devendra K. "Soft computing." Studies in Computational intelligence 103 (2008): 509-612.</ref><ref name=":0">{{Cite book |last1=Ram |first1=Mangey |url=https://books.google.com/books?id=qjL3DwAAQBAJ&dq=history%20of%20soft%20computing&pg=PA74 |title=Advanced Mathematical Techniques in Engineering Sciences |last2=Davim |first2=J. Paulo |date=2018-05-04 |publisher=CRC Press |isbn=978-1-351-37189-6 |language=en}}</ref> Меко рачунарство је уведено током касних 1980-их и најуспешнији програми вештачке интелигенције у 21. веку су примери меког рачунарства са неуронским мрежама.
==== Narrow vs. general AI ====
{{Main|Artificial general intelligence}}
AI researchers are divided as to whether to pursue the goals of artificial general intelligence and [[superintelligence]] directly or to solve as many specific problems as possible ([[Weak artificial intelligence|narrow AI]]) in hopes these solutions will lead indirectly to the field's long-term goals.{{sfnp|Pennachin|Goertzel|2007}}{{sfnp|Roberts|2016}} General intelligence is difficult to define and difficult to measure, and modern AI has had more verifiable successes by focusing on specific problems with specific solutions. The experimental sub-field of artificial general intelligence studies this area exclusively.


==== Уска у односу на општу вештачку интелигенцију ====
=== Machine consciousness, sentience and mind ===
{{Main|Општа вештачка интелигенција}}
{{Main|Philosophy of artificial intelligence|Artificial consciousness}}
The [[philosophy of mind]] does not know whether a machine can have a [[mind]], [[consciousness]] and [[philosophy of mind|mental states]], in the same sense that human beings do. This issue considers the internal experiences of the machine, rather than its external behavior. Mainstream AI research considers this issue irrelevant because it does not affect the goals of the field: to build machines that can solve problems using intelligence. [[Stuart J. Russell|Russell]] and [[Peter Norvig|Norvig]] add that "[t]he additional project of making a machine conscious in exactly the way humans are is not one that we are equipped to take on."{{sfnp|Russell|Norvig|2021|p=986}} However, the question has become central to the philosophy of mind. It is also typically the central question at issue in [[artificial intelligence in fiction]].


Истраживачи вештачке интелигенције су подељени око тога да ли да следе циљеве опште вештачке интелигенције и [[superintelligence|суперинтелигенције]] директно,<ref>{{Cite journal |last=Chalmers |first=David |author-link=David Chalmers |date=2010 |title=The Singularity: A Philosophical Analysis |url=http://consc.net/papers/singularity.pdf |journal=Journal of Consciousness Studies |volume=17 |pages=7–65 }}</ref><ref>{{Cite thesis |last=Legg |first=Shane |title=Machine Super Intelligence |type=PhD |url=http://www.vetta.org/documents/Machine_Super_Intelligence.pdf |year=2008 |publisher=Department of Informatics, University of Lugano |access-date=September 19, 2014 }}</ref><ref>{{cite encyclopedia|year=2016|title=Fundamental Issues of Artificial Intelligence|publisher=Springer|chapter-url=http://www.philpapers.org/archive/MLLFPI|last1=Müller|first1=Vincent C. |author-link=Vincent C. Müller|editor-last=Müller|editor-first=Vincent C.|pages=553–571|last2=Bostrom|first2=Nick|author-link2=Nick Bostrom|chapter=Future Progress in Artificial Intelligence: A Survey of Expert Opinion}}</ref><ref>{{Cite journal |last=Santos-Lang |first=Christopher | date=2014 |title=Our responsibility to manage evaluative diversity |url=http://grinfree.com/Responsibility.pdf |journal=ACM SIGCAS Computers & Society |volume=44 |issue=2 |pages=16–19 |doi=10.1145/2656870.2656874 |s2cid=5649158 }}</ref> или да реше што је могуће више специфичних проблема ([[Weak artificial intelligence|уска]] вештачка интелигенција<ref name="Gizmodo">{{cite web |last1=Dvorsky |first1=George |title=How Much Longer Before Our First AI Catastrophe? |url=https://gizmodo.com/how-much-longer-before-our-first-ai-catastrophe-464043243 |website=Gizmodo |access-date=November 27, 2021 |date=April 1, 2013}}</ref><ref>{{cite web |last1=Muehlhauser |first1=Luke |title=Ben Goertzel on AGI as a Field |url=https://intelligence.org/2013/10/18/ben-goertzel/ |website=Machine Intelligence Research Institute |access-date=November 27, 2021 |date=October 18, 2013}}</ref><ref>{{cite web |last1=Chalfen |first1=Mike |title=The Challenges Of Building AI Apps |url=https://techcrunch.com/2015/10/15/machine-learning-its-the-hard-problems-that-are-valuable/ |website=TechCrunch |access-date=November 27, 2021 |date=October 15, 2015}}</ref><ref>{{Cite book|title=The Cambridge handbook of artificial intelligence|others=Frankish, Keith., Ramsey, William M., 1960-|isbn=978-0-521-87142-6|location=Cambridge, UK|pages=342|oclc=865297798|date = 12 June 2014}}</ref><ref name="Dictionary of Media and Communication">{{Cite book |last1=Chandler |first1=Daniel |last2=Munday |first2=Rod |date=2020 |title=A Dictionary of Media and Communication |url=http://dx.doi.org/10.1093/acref/9780198841838.001.0001 |publisher=Oxford University Press |doi=10.1093/acref/9780198841838.001.0001 |isbn=978-0-19-884183-8}}</ref>) у нади да ће ова решења индиректно довести до дугорочних циљева ове области.{{sfnp|Pennachin|Goertzel|2007}}{{sfnp|Roberts|2016}} Општу интелигенцију је тешко дефинисати и тешко је измерити, и савремена вештачка интелигенција је имала више проверљивих успеха при фокусирању на специфичне проблеме са специфичним решењима. Експериментална подобласт вештачке опште интелигенције проучава искључиво ову област.<ref>{{Citation|last=Pearce|first=David|title=The Biointelligence Explosion: How Recursively Self-Improving Organic Robots will Modify their Own Source Code and Bootstrap Our Way to Full-Spectrum Superintelligence |date=2012|url=http://link.springer.com/10.1007/978-3-642-32560-1_11|work=Singularity Hypotheses|series=The Frontiers Collection |pages=199–238|editor-last=Eden|editor-first=Amnon H.|place=Berlin, Heidelberg|publisher=Springer Berlin Heidelberg|doi=10.1007/978-3-642-32560-1_11|isbn=978-3-642-32559-5|access-date=2022-01-16|editor2-last=Moor|editor2-first=James H.|editor3-last=Søraker|editor3-first=Johnny H.|editor4-last=Steinhart|editor4-first=Eric}}</ref><ref>{{Cite book|title=The Age of Artificial Intelligence: An Exploration|year=2020|isbn=978-1-62273-872-4|editor-last=Gouveia|editor-first=Steven S.|chapter=ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce|publisher=Vernon Press |chapter-url=https://www.biointelligence-explosion.com/parable.html}}</ref>
==== Consciousness ====
{{Main|Hard problem of consciousness|Theory of mind}}
[[David Chalmers]] identified two problems in understanding the mind, which he named the "hard" and "easy" problems of consciousness.{{sfnp|Chalmers|1995}} The easy problem is understanding how the brain processes signals, makes plans and controls behavior. The hard problem is explaining how this ''feels'' or why it should feel like anything at all, assuming we are right in thinking that it truly does feel like something (Dennett's consciousness illusionism says this is an illusion). Human [[Information processing (psychology)|information processing]] is easy to explain, however, human [[subjective experience]] is difficult to explain. For example, it is easy to imagine a color-blind person who has learned to identify which objects in their field of view are red, but it is not clear what would be required for the person to ''know what red looks like''.{{sfnp|Dennett|1991}}


=== Машинска свест, осећај и ум ===
==== Computationalism and functionalism ====
{{Main|Филозофија вештачке интелигенције|Вештачка свест}}
{{Main|Computational theory of mind|Functionalism (philosophy of mind)|Chinese room}}
Computationalism is the position in the [[philosophy of mind]] that the human mind is an information processing system and that thinking is a form of computing. Computationalism argues that the relationship between mind and body is similar or identical to the relationship between software and hardware and thus may be a solution to the [[mind–body problem]]. This philosophical position was inspired by the work of AI researchers and cognitive scientists in the 1960s and was originally proposed by philosophers [[Jerry Fodor]] and [[Hilary Putnam]].{{sfnp|Horst|2005}}


[[philosophy of mind|Филозофија ума]] не зна да ли машина може имати [[mind|ум]], [[consciousness|свест]] и [[philosophy of mind|ментална стања]], у истом смислу као и људска бића. Ово питање разматра унутрашња искуства машине, а не њено спољашње понашање. Главни ток истраживања вештачке интелигенције сматра ово питање ирелевантним, јер не утиче на циљеве ове области: да се направе машине које могу да решавају проблеме користећи интелигенцију. [[Stuart J. Russell|Расел]] и [[Peter Norvig|Норвиг]] додају да „додатни пројекат освешћивања машине на начин на који људи то попримају није онај за који смо опремљени да преузмемо.“{{sfnp|Russell|Norvig|2021|p=986}} Међутим, питање је постало централно за филозофију ума. То је такође типично централно питање о [[artificial intelligence in fiction|вештачкој интелигенцији у фикцији]].<ref>{{cite journal |last=Goode |first=Luke |title=Life, but not as we know it: A.I. and the popular imagination |journal=Culture Unbound |publisher=Linkoping University Electronic Press |volume=10 |issue=2 |date=30 October 2018 |issn=2000-1525 |doi=10.3384/cu.2000.1525.2018102185 |pages=185–207 |s2cid=149523987 |doi-access=free }}</ref><ref>{{cite thesis |last=Lucas |first=Duncan |title=Body, Mind, Soul—The'Cyborg Effect': Artificial Intelligence in Science Fiction |date=2002 |publisher=[[McMaster University]] (PhD thesis) |hdl=11375/11154 |url=http://hdl.handle.net/11375/11154|type=thesis }}</ref><ref>{{cite journal |last1=Mubin |first1=Omar |last2=Wadibhasme |first2=Kewal |last3=Jordan |first3=Philipp |last4=Obaid |first4=Mohammad |year=2019 |title=Reflecting on the Presence of Science Fiction Robots in Computing Literature |journal=ACM Transactions on Human-Robot Interaction |volume=8 |issue=1 |at=Article 5 |doi=10.1145/3303706|s2cid=75135568 |doi-access=free }}</ref><ref>{{cite book |last=Solarewicz |first=Krzysztof |title=Beyond Artificial Intelligence |series=Topics in Intelligent Engineering and Informatics |chapter=The Stuff That Dreams Are Made of: AI in Contemporary Science Fiction |publisher=Springer International Publishing |year=2015 |volume=9 |doi=10.1007/978-3-319-09668-1_8 |pages=111–120|isbn=978-3-319-09667-4 }}</ref><ref>{{cite web |last=Wiegel |first=Alexander |title=AI in Science-fiction: a comparison of Moon (2009) and 2001: A Space Odyssey (1968) |url=https://www.aventinus-online.de/visio/neuzeit/art/AI_in_Science_f/html/ca/64165e576dc879478a599f7e3feb5409/indexee27.html |publisher=Aventinus |date=2012}}</ref>
Philosopher [[John Searle]] characterized this position as "[[Strong AI hypothesis|strong AI]]": "The appropriately programmed computer with the right inputs and outputs would thereby have a mind in exactly the same sense human beings have minds."{{efn|name="Searle's strong AI"|

Searle presented this definition of "Strong AI" in 1999.{{sfnp|Searle|1999}} Searle's original formulation was "The appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states."{{sfnp|Searle|1980|p=1}} Strong AI is defined similarly by [[Stuart J. Russell|Russell]] and [[Peter Norvig|Norvig]]: "Stong AI – the assertion that machines that do so are ''actually'' thinking (as opposed to ''simulating'' thinking)."{{sfnp|Russell|Norvig|2021|p=9817}}
==== Свест ====
}} Searle counters this assertion with his Chinese room argument, which attempts to show that, even if a machine perfectly simulates human behavior, there is still no reason to suppose it also has a mind.<ref name="Chinese room">
{{Main|Тежак проблем свести|теорија ума}}

[[David Chalmers|Дејвид Чалмерс]] је идентификовао два проблема у разумевању ума, које је назвао „тешким“ и „лаким“ проблемима свести.{{sfnp|Chalmers|1995}} Лак проблем је разумети како мозак обрађује сигнале, прави планове и контролише понашање. Тежак проблем је објаснити како се ово ''осећа'' или зашто би уопште требало да се осећа као било шта, под претпоставком да смо у праву када мислимо да се то заиста осећа као нешто (Денетов илузионизам свести каже да је ово илузија). Људску [[Information processing (psychology)|обраду информација]] је лако објаснити, међутим, људско [[subjective experience|субјективно искуство]] је тешко објаснити. На пример, лако је замислити далтонисту који је научио да идентификује који су објекти у њиховом видном пољу црвени, али није јасно шта би било потребно да би особа ''знала како изгледа црвена''.{{sfnp|Dennett|1991}}

==== Компјутеризам и функционализам ====
{{Main|Рачунска теорија ума|Функционализам (филозофија ума)|Кинеска соба}}

Компјутеризам је став у [[philosophy of mind|филозофији ума]] да је људски ум систем за обраду информација и да је размишљање облик рачунарства. Компјутеризам тврди да је однос између ума и тела сличан или идентичан односу између софтвера и хардвера и стога може бити решење за [[mind–body problem|проблем ума и тела]]. Ова филозофска позиција је инспирисана радом истраживача вештачке интелигенције и когнитивних научника током 1960-их, а првобитно су је предложили филозофи [[Jerry Fodor|Џери Фодор]] и [[Hilary Putnam|Хилари Патнам]].{{sfnp|Horst|2005}}

Филозоф [[John Searle|Џон Сирл]] је ову позицију окарактерисао као „[[Strong AI hypothesis|јаку]] вештачку интелигенцију“: „Одговарајуће програмирани рачунар са правим улазима и излазима би стога имао ум у потпуно истом смислу као и људска бића“.{{efn|name="Searle's strong AI"|Серл је представио ову дефиницију „јаке вештачке интелигенције“ 1999. године.{{sfnp|Searle|1999}} Сирлова оригинална формулација је била „Одговарајуће програмирани рачунар је заиста ум, у смислу да се за компјутере којима су дати одговарајући програмима дословног може рећи да разумеју и имају друга когнитивна стања.“{{sfnp|Searle|1980|p=1}} Јаку вештачку интелигенцију су слично дефинисали [[Stuart J. Russell|Расел]] и [[Peter Norvig|Норвиг]]: „Јака вештачка интелигенција – тврдња да машине које то чине заправо размишљају (за разлику од ''симулације'' размишљања).“{{sfnp|Russell|Norvig|2021|p=9817}} }} Сирл супротставља овој тврдњи свој аргумент кинеске собе, који покушава да покаже да, чак и ако машина савршено симулира људско понашање, још увек нема разлога да се претпостави да и она има ум.<ref name="Chinese room">
Searle's [[Chinese room]] argument:
Searle's [[Chinese room]] argument:
* {{Harvtxt|Searle|1980}}. Searle's original presentation of the thought experiment.
* {{Harvtxt|Searle|1980}}. Searle's original presentation of the thought experiment.
Ред 954: Ред 958:
</ref>
</ref>


==== Социјала вештачке интелигенције и права ====
==== AI welfare and rights ====

It is difficult or impossible to reliably evaluate whether an advanced AI is [[Sentience|sentient]] (has the ability to feel), and if so, to what degree.<ref>{{Cite web |last=Leith |first=Sam |date=2022-07-07 |title=Nick Bostrom: How can we be certain a machine isn’t conscious? |url=https://www.spectator.co.uk/article/nick-bostrom-how-can-we-be-certain-a-machine-isnt-conscious/ |access-date=2024-02-23 |website=The Spectator |language=en-US}}</ref> But if there is a significant chance that a given machine can feel and suffer, then it may be entitled to certain rights or welfare protection measures, similarly to animals.<ref name=":02">{{Cite web |last=Thomson |first=Jonny |date=2022-10-31 |title=Why don't robots have rights? |url=https://bigthink.com/thinking/why-dont-robots-have-rights/ |access-date=2024-02-23 |website=Big Think |language=en-US}}</ref><ref name=":12">{{Cite web |last=Kateman |first=Brian |date=2023-07-24 |title=AI Should Be Terrified of Humans |url=https://time.com/6296234/ai-should-be-terrified-of-humans/ |access-date=2024-02-23 |website=TIME |language=en}}</ref> [[Sapience]] (a set of capacities related to high intelligence, such as discernment or [[self-awareness]]) may provide another moral basis for AI rights.<ref name=":02" /> [[Robot rights]] are also sometimes proposed as a practical way to integrate autonomous agents into society.<ref>{{Cite news |last=Wong |first=Jeff |date=July 10, 2023 |title=What leaders need to know about robot rights |url=https://www.fastcompany.com/90920769/what-leaders-need-to-know-about-robot-rights |work=Fast Company |ref=none}}</ref>
Тешко је или немогуће поуздано проценити да ли је напредни вештачка интелигенција [[Sentience|осетна]] (има способност да осећа), и ако јесте, у ком ступњу.<ref>{{Cite web |last=Leith |first=Sam |date=2022-07-07 |title=Nick Bostrom: How can we be certain a machine isn’t conscious? |url=https://www.spectator.co.uk/article/nick-bostrom-how-can-we-be-certain-a-machine-isnt-conscious/ |access-date=2024-02-23 |website=The Spectator |language=en-US}}</ref> Међутим ако постоји значајна шанса да дата машина може да осети и пати, онда може имати право на одређена права или мере заштите добробити, слично животињама.<ref name=":02">{{Cite web |last=Thomson |first=Jonny |date=2022-10-31 |title=Why don't robots have rights? |url=https://bigthink.com/thinking/why-dont-robots-have-rights/ |access-date=2024-02-23 |website=Big Think |language=en-US}}</ref><ref name=":12">{{Cite web |last=Kateman |first=Brian |date=2023-07-24 |title=AI Should Be Terrified of Humans |url=https://time.com/6296234/ai-should-be-terrified-of-humans/ |access-date=2024-02-23 |website=TIME |language=en}}</ref> [[Sapience|Разумност]] (скуп капацитета повезаних са високом интелигенцијом, као што је разлучивање или [[self-awareness|самосвест]]) може да пружи још једну моралну основу за права вештачке интелигенције.<ref name=":02" /> [[Robot rights|Права робота]] се такође понекад предлажу као практичан начин интеграције аутономних агената у друштво.<ref>{{Cite news |last=Wong |first=Jeff |date=July 10, 2023 |title=What leaders need to know about robot rights |url=https://www.fastcompany.com/90920769/what-leaders-need-to-know-about-robot-rights |work=Fast Company |ref=none}}</ref>


In 2017, the European Union considered granting "electronic personhood" to some of the most capable AI systems. Similarly to the legal status of companies, it would have conferred rights but also responsibilities.<ref>{{Cite news |last=Hern |first=Alex |date=2017-01-12 |title=Give robots 'personhood' status, EU committee argues |url=https://www.theguardian.com/technology/2017/jan/12/give-robots-personhood-status-eu-committee-argues |access-date=2024-02-23 |work=The Guardian |language=en-GB |issn=0261-3077}}</ref> Critics argued in 2018 that granting rights to AI systems would downplay the importance of [[human rights]], and that legislation should focus on user needs rather than speculative futuristic scenarios. They also noted that robots lacked the autonomy to take part to society on their own.<ref>{{Cite web |last=Dovey |first=Dana |date=2018-04-14 |title=Experts Don't Think Robots Should Have Rights |url=https://www.newsweek.com/robots-human-rights-electronic-persons-humans-versus-machines-886075 |access-date=2024-02-23 |website=Newsweek |language=en}}</ref><ref>{{Cite web |last=Cuddy |first=Alice |date=2018-04-13 |title=Robot rights violate human rights, experts warn EU |url=https://www.euronews.com/2018/04/13/robot-rights-violate-human-rights-experts-warn-eu |access-date=2024-02-23 |website=euronews |language=en}}</ref>
Европска унија је 2017. разматрала давање „електронске личности“ неким од најспособнијих система вештачке интелигенције. Слично правном статусу компанија, она би имала права, али и одговорности.<ref>{{Cite news |last=Hern |first=Alex |date=2017-01-12 |title=Give robots 'personhood' status, EU committee argues |url=https://www.theguardian.com/technology/2017/jan/12/give-robots-personhood-status-eu-committee-argues |access-date=2024-02-23 |work=The Guardian |language=en-GB |issn=0261-3077}}</ref> Критичари су 2018. тврдили да би давање права системима вештачке интелигенције умањило важност [[human rights|људских права]] и да би се законодавство требало фокусирати на потребе корисника, а не на спекулативне футуристичке сценарије. Такође су приметили да роботима недостаје аутономија да сами учествују у друштву.<ref>{{Cite web |last=Dovey |first=Dana |date=2018-04-14 |title=Experts Don't Think Robots Should Have Rights |url=https://www.newsweek.com/robots-human-rights-electronic-persons-humans-versus-machines-886075 |access-date=2024-02-23 |website=Newsweek |language=en}}</ref><ref>{{Cite web |last=Cuddy |first=Alice |date=2018-04-13 |title=Robot rights violate human rights, experts warn EU |url=https://www.euronews.com/2018/04/13/robot-rights-violate-human-rights-experts-warn-eu |access-date=2024-02-23 |website=euronews |language=en}}</ref>


Напредак у вештачкој интелигенцији повећао је интересовање за ову тему. Заговорници благостања и права вештачке интелигенције често тврде да би осећај вештачке интелигенције, ако се појави, било посебно лако порећи. Они упозоравају да би ово могла бити [[Moral blindness|морална слепа тачка]] аналогна [[slavery|ропству]] или [[factory farming|фабричкој пољопривреди]], што би могло довести до [[Suffering risks|патње великих размера]] ако се створи разумна вештачка интелигенција и неопрезно искоришћава.<ref name=":12" /><ref name=":02" />
Progress in AI increased interest in the topic. Proponents of AI welfare and rights often argue that AI sentience, if it emerges, would be particularly easy to deny. They warn that this may be a [[Moral blindness|moral blind spot]] analogous to [[slavery]] or [[factory farming]], which could lead to [[Suffering risks|large-scale suffering]] if sentient AI is created and carelessly exploited.<ref name=":12" /><ref name=":02" />


== Будућност ==
== Будућност ==

Верзија на датум 12. март 2024. у 04:39

Хондин интелигентни хуманоидни робот ASIMO

Вештачка интелигенција (такође VI) је подобласт рачунарства која развија и проучава интелигентне машине.[1][2] Вештачка интелигенција је интелигенција машина или софтвера, за разлику од интелигенције живих бића, првенствено људи. Циљ истраживања вештачке интелигенције је развијање програма (софтвера), који ће рачунарима омогућити да се понашају на начин који би се могао окарактерисати интелигентним. Прва истраживања се вежу за саме корене рачунарства. Идеја о стварању машина које ће бити способне да обављају различите задатке интелигентно, била је централна преокупација научника рачунарства који су се определили за истраживање вештачке интелигенције, током целе друге половине 20. века. Савремена истраживања у вештачкој интелигенцији су оријентисана на експертске и преводилачке системе у ограниченим доменима, препознавање природног говора и писаног текста, аутоматске доказиваче теорема, као и константно интересовање за стварање генерално интелигентних аутономних агената. Вештачка интелигенција као појам у ширем смислу, означава капацитет једне вештачке творевине за реализовање функција које су карактеристика људског размишљања. Могућност развоја сличне творевине је будила интересовање људи још од античког доба; ипак, тек у другој половини XX века таква могућност је добила прва оруђа (рачунаре), чиме се отворио пут за тај подухват.[3] Потпомогнута напретком модерне науке, истраживања на пољу вештачке интелигенције се развијају у два основна смера: психолошка и физиолошка истраживања природе људског ума, и технолошки развој све сложенијих рачунарских система. У том смислу, појам вештачке интелигенције се првобитно приписао системима и рачунарским програмима са способностима реализовања сложених задатака, односно симулацијама функционисања људског размишљања, иако и дан данас, прилично далеко од циља. У тој сфери, најважније области истраживања су обрада података, препознавање модела различитих области знања, игре и примијењене области, као на пример медицина. AI технологија се широко користи у индустрији, влади и науци. Неке апликације високог профила су: напредни веб претраживачи (нпр. Гоогле претрага), системи препорука (које користе YouTube, Амазон и Нетфликс), интеракција путем људског говора (нпр. Гугл асистант, Сири и Алекса), самостална вожња аутомобиле (нпр. Вејмо), генеративни и креативни алати (нпр. ChatGPT и AI уметност), и надљудска игру и анализа у стратешким играма (нпр. шах и го).[4]

Неке области данашњих истраживања обрађивања података се концентришу на програме који настоје оспособити рачунар за разумевање писане и вербалне информације, стварање резимеа, давање одговара на одређена питања или редистрибуцију података корисницима заинтересованим за одређене делове тих информација. У тим програмима је од суштинског значаја капацитет система за конструисање граматички коректних реченица и успостављање везе између речи и идеја, односно идентификовање значења. Истраживања су показала да, док је проблеме структурне логике језика, односно његове синтаксе, могуће решити програмирањем одговарајућих алгоритама, проблем значења, или семантика, је много дубљи и иде у правцу аутентичне вештачке интелигенције. Основне тенденције данас, за развој система VI представљају: развој експертских система и развој неуронских мрежа. Експертски системи покушавају репродуковати људско размишљање преко симбола. Неуронске мреже то раде више из биолошке перспективе (рекреирају структуру људског мозга уз помоћ генетских алгоритама). Упркос сложености оба система, резултати су веома далеко од стварног интелигентног размишљања. Многи научници су скептици према могућности развијања истинске VI. Функционисање људског размишљања, још увек није дубље познато, из ког разлога ће информатички дизајн интелигентних система, још дужи временски период бити у суштини онеспособљен за представљање тих непознатих и сложених процеса. Истраживања у VI су фокусирана на следеће компоненте интелигенције: учење, размишљање, решавање проблема, перцепција и разумијевање природног језика.

Алан Тјуринг је био прва особа која је спровела значајна истраживања у области коју је назвао машинска интелигенција.[5] Вештачка интелигенција је основана као академска дисциплина 1956. године.[6] Поље је прошло кроз више циклуса оптимизма,[7][8] праћених периодима разочарења и губитка финансирања, познатим као AI зима.[9][10] Финансирање и интересовање су се знатно повећали након 2012. када је дубоко учење надмашило све претходне технике вештачке интелигенције,[11] и после 2017. са архитектуром трансформатора.[12] Ово је довело до AI пролећа почетком 2020-их, при чему су компаније, универзитети и лабораторије које су претежно са седиштем у Сједињеним Државама, остварили значајне пионирске напретке у вештачкој интелигенцији.[13] Све већа употреба вештачке интелигенције у 21. веку утиче на друштвени и економски помак ка повећању аутоматизације, доношења одлука заснованих на подацима и интеграцији AI система у различите економске секторе и области живота, утичући на тржишта рада, здравство, владу , индустрија и образовање. Ово поставља питања о етичким импликацијама и ризицима од AI, што подстиче дискусије о регулаторним политикама како би се осигурала безбедност и предности технологије. Различите подобласти AI истраживања су усредсређене на одређене циљеве и употребу специфичних алата. Традиционални циљеви истраживања вештачке интелигенције обухватају расуђивање, представљање знања, планирање, учење, обрада природног језика, перцепција и подршка роботици.[а] Општа интелигенција (способност да се обави било који задатак који човек може да изврши) спада у дугорочне цињеве у овој области.[14] Да би решили ове проблеме, истраживачи вештачке интелигенције су прилагодили и интегрисали широк спектар техника решавања проблема, укључујући претрагу и математичку оптимизацију, формалну логику, вештачке неуронске мреже и методе засноване на статистици, операционом истраживању и економији.[б] AI се такође ослања на психологију, лингвистику, филозофију, неуронауку и друге области.[15]

Циљеви

Општи проблем симулације (или стварања) интелигенције подељен је на подпроблеме. Они се састоје од одређених особина или способности које истраживачи очекују да интелигентни систем покаже. Испод описане особине су задобиле највише пажње и покривају обим истраживања вештачке интелигенције.[а]

Основни циљеви истраживања на пољу вештачке интелигенције

Тренутно, када су у питању истраживања на пољу вештачке интелигенције, могуће је постићи два комплементарна циља, који респективно наглашавају два аспекта вештачке интелигенције, а то су теоријски и технолошки аспект.

Први циљ је студија људских когнитивних процеса уопште, што потврђује дефиницију Патрика Ј. Хејеса - „студија интелигенције као компутације“, чиме се вештачка интелигенција усмерава ка једној својеврсној студији интелигентног понашања код људи.

Вештачка интелигенција, као област информатике, бави се пројектовањем програмских решења за проблеме које настоји решити.

Размишљање и решавање проблема

Размишљање је процес извлачења закључака који одговарају датој ситуацији. Закључци се класификују као дедуктивни и индуктивни. Пример дедуктивног начина закључивања би могао бити, „Саво је или у музеју, или у кафићу. Није у кафићу; онда је сигурно у музеју“; и индуктивног, „Претходне несреће ове врсте су биле последица грешке у систему; стога је и ова несрећа узрокована грешком у систему“. Најзначајнија разлика између ова два начина закључивања је да, у случају дедуктивног размишљања, истинитост премисе гарантује истинитост закључка, док у случају индуктивног размишљања истинитост премисе даје подршку закључку без давања апсолутне сигурности његовој истинитости. Индуктивно закључивање је уобичајено у наукама у којима се сакупљају подаци и развијају провизиони модели за опис и предвиђање будућег понашања, све док се не појаве аномалије у моделу, који се тада реконструише. Дедуктивно размишљање је уобичајено у математици и логици, где детаљно обрађене структуре непобитних теорема настају од мањих скупова основних аксиома и правила. Постоје значајни успеси у програмирању рачунара за извлачење закључака, нарочито дедуктивне природе. Ипак, истинско размишљање се састоји од сложенијих аспеката; укључује закључивање на начин којим ће се решити одређени задатак, или ситуација. Ту се налази један од највећих проблема с којим се сусреће вештачка интелигенција.

Решавање проблема, нарочито у вештачкој интелигенцији, карактерише систематска претрага у рангу могућих акција с циљем изналажења неког раније дефинисаног решења. Методе решавања проблема се деле на оне посебне и оне опште намене. Метода посебне намене је тражење адаптираног решења за одређени проблем и садржи врло специфичне особине ситуација од којих се проблем састоји. Супротно томе, метод опште намене се може применити на шири спектар проблема. Техника опште намене која се користи у VI је метод крајње анализе, део по део, или постепено додавање, односно редуковање различитости између тренутног стања и крајњег циља. Програм бира акције из листе метода - у случају једноставног робота кораци су следећи: PICKUP, PUTDOWN, MOVEFROWARD, MOVEBACK, MOVELEFT и MOVERIGHT, све док се циљ не постигне. Већи број различитих проблема су решени преко програма вештачке интелигенције. Неки од примера су тражење победничког потеза, или секвенце потеза у играма, сложени математички докази и манипулација виртуелних објеката у вештачким, односно синтетичким рачунарским световима.

Рани истраживачи су развили алгоритме који су имитирали размишљање корак по корак које људи користе када решавају загонетке или извођењу логичког закључка.[16] До касних 1980-их и 1990-их, развијене су методе за рад са несигурним или непотпуним информацијама, користећи концепте вероватноће и економије.[17]

Многи од ових алгоритама су недовољни за решавање великих проблема резоновања, јер доживљавају „комбинаторијску експлозију“: они постају експоненцијално спорији како проблеми постајају све већи..[18] Чак и људи ретко користе дедукцију корак по корак, коју би рано истраживање вештачке интелигенције могло да моделира. Они решавају већину својих проблема користећи брзе, интуитивне одлуке.[19] Тачно и ефикасно резоновање је нерешен проблем.

Репрезентација знања

Онтологија представља знање као скуп концепата унутар домена и односа између тих концепата.

Представљање знања и инжењеринг знања[20] омогућавају AI програмима да интелигентно одговарају на питања и доносе закључке о чињеницама из стварног света. Формалне репрезентације знања се користе у индексирању и претрагама заснованим на садржају,[21] тумачењу сцене,[22] подршци при доношењу клиничких одлука,[23] откривању знања (деривација „занимљивих“ и практичних закључака из великих база података)[24] и другим областима.[25]

База знања је тело знања представљено у облику који може да користи програм. Онтологија је скуп објеката, односа, концепата и својстава које користи одређени домен знања.[26] Базе знања треба да представљају ствари као што су: објекти, својства, категорије и односи између објеката;[27] ситуације, догађаји, стања и време;[28] узроци и последице;[29] знање о знању (шта знамо о томе што други људи знају);[30] подразумевано резоновање (ствари за које људи претпостављају да су истините док им се не каже другачије, и остаће истините чак и када се друге чињенице мењају);[31] и многи други аспекти и домени знања.

Међу најтежим проблемима у представљању знања су: ширина здраворазумског знања (скуп атомских чињеница које просечна особа зна је огроман);[32] и подсимболички облик већине здраворазумског знања (већи део онога што људи знају није представљен као „чињенице“ или „изјаве“ које би могли вербално да изразе).[19] Постоји такође тешкоћа стицања знања, проблем добијања знања за AI апликације.[в]

Планирање и доношење одлука

„Агент“ је све што опажа и предузима акције у свету. Рационални агент има циљеве или преференције и предузима акције да их оствари.[г][35] У аутоматизованом планирању, агент има специфичан циљ.[36] У аутоматизованом доношењу одлука, агент има преференције – постоје неке ситуације у којима би преферирао да буде, а неке покушава да избегне. Агент за доношење одлука свакој ситуацији додељује број (који се назива „корисност”) који мери колико је агент преферира. За сваку могућу акцију, може се израчунати „очекивана корисност“: корисност свих могућих исхода акције, пондерисана вероватноћом да ће се исход догодити. Затим се може изабрати акција са максималном очекиваном корисношћу.[37]

У класичном планирању, агент тачно зна какав ће бити ефекат било које акције.[38] У већини проблема у стварном свету, међутим, агент можда није сигуран у ситуацију у којој се налази (она је „непозната“ или „неуочљива“) и можда неће са сигурношћу знати шта ће се десити након сваке могуће акције (то није „детерминистичко”). Он мора да изабере акцију тако што ће направити пробабилистичку претпоставку, и затим поново проценити ситуацију да види да ли је акција била успешна.[39]

У неким проблемима, преференције агента могу бити неизвесне, посебно ако су укључени други агенти или људи. Оне се могу научити (нпр. уз инверзно учење са потрепљивањем) или агент може тражити информације да побољша своје преференције.[40] Теорија вредности информација може се користити за одмеравање вредности истраживачких или експерименталних радњи.[41] Простор могућих будућих радњи и ситуација је обично нерешиво велик, тако да агенти морају да предузимају акције и процењују ситуације мада нису сигурни какав ће бити исход.

Марковљев процес одлучивања има транзициони модел који описује вероватноћу да ће одређена акција променити стање на одређени начин и функцију награђивања која обезбеђује корисност сваког стања и цену сваке акције. Устројство повезује одлуку са сваким могућим стањем. Курс одлука може да буде прорачунат (нпр. итерацијом), може бити хеуристичке природе или се може научити.[42]

Теорија игара описује рационално понашање више агената у интеракцији и користи се у AI програмима који доносе одлуке које укључују друге агенте.[43]

Учење

Постоји више различитих облика учења који су примењени на област вештачке интелигенције. Најједноставнији се односи на учење на грешкама преко покушаја. На пример, најједноставнији рачунарски програм за решавање проблема матирања у једном потезу у шаху, је истраживање мат позиције случајним потезима. Једном изнађено решење, програм може запамтити позицију и искористити је следећи пут када се нађе у идентичној ситуацији. Једноставно памћење индивидуалних потеза и процедура - познато као механичко учење - је врло лако имплементирати у рачунарски систем. Приликом покушаја имплементације тзв. уопштавања, јављају се већи проблеми и захтеви. Уопштавање се састоји од примене прошлих искустава на аналогне нове ситуације. На пример, програм који учи прошла времена глагола на српском језику механичким учењем, неће бити способан да изведе прошло време, рецимо глагола скочити, док се не нађе пред обликом глагола скочио, где ће програм који је способан за уопштавање научити „додај -о и уклони -ти“ правило, те тако формирати прошло време глагола скочити, заснивајући се на искуству са сличним глаголима.

Машинско учење је проучавање програма који могу аутоматски побољшати своје перформансе на датом задатку.[44] Оно је било део вештачке интелигенције од почетка.[д]

Постоји неколико врста машинског учења. Учење без надзора анализира ток података, проналази обрасце и изводи предвиђања без икаквог спољашњег упутства.[47] Учење под надзором захтева од човека да прво означи улазне податке, и долази у две главне варијанте: класификација (где програм мора да научи да предвиди којој категорији улаз припада) и регресија (где програм мора да изведе нумеричку функцију на основу нумеричког уноса).[48]

У подржаном учењу агент је награђен за добре одговоре и кажњен за лоше. Агент учи да бира одговоре који су класификовани као „добри“.[49] Трансферно учење примењује знање стечено из једног проблема на нови проблем.[50] Дубоко учење је врста машинског учења која покреће инпуте кроз биолошки инспирисане вештачке неуронске мреже за све ове врсте учења.[51]

Теорија рачунарског учења може проценити ученике према рачунској сложености, комплексности узорка (колико података је потребно) или другим појмовима оптимизације.[52]

Обрада природног језика

Обрада природног језика (NLP)[53] омогућава програмима да читају, пишу и комуницирају на људским језицима као што је енглески. Специфични проблеми укључују препознавање говора, синтезу говора, машинско превођење, екстракцију информација, проналажење информација и одговарање на питања.[54]

Рани радови, засновани на генеративној граматици и семантичким мрежама Ноама Чомског, имали су потешкоћа са разазначавањем смисла речи[ђ] осим ако нису били ограничени на мале домене зване „микро-светови“ (због проблема са поимањем здравог разума[32]). Маргарет Мастерман је веровала да је значење, а не граматика, кључ за разумевање језика и да би тезауруси, а не речници, требало да буду основа рачунске језичке структуре.

Савремене технике дубоког учења за NLP укључују уграђивање речи (који представљају речи, типично као векторе који кодирају њихово значење),[55] трансформаторе (архитектура дубоког учења која користи механизам пажње)[56] и друге.[57] Године 2019, генеративни унапред обучени трансформаторски (или „GPT“) језички модели почели су да генеришу кохерентан текст,[58][59] и до 2023. ови модели су могли да остваре резултате на нивоу човека на правосудном испиту, SAT тесту, GRE тесту, и у многим другим апликацијама у стварном свету.[60]

Перцепција

Машинска перцепција је способност да се користи улаз са сензора (као што су камере, микрофони, бежични сигнали, активни лидар, сонар, радар и тактилни сензори) да би се извели закључили о аспектима света. Компјутерски вид је способност анализе визуелног уноса.[61]

Ова област обухвата препознавање говора,[62] класификацију слика,[63] препознавање лица, препознавање објеката[64] и роботску перцепцију.[65]

Социјална интелигенција

Кисмет, глава робота која је направљена 1990-их; машина која може да препозна и симулира емоције.[66]

Афективно рачунарство је интердисциплинарна област који се састоји од система који препознају, тумаче, обрађују или симулирају људска осећања, емоције и расположење.[67] На пример, неки виртуелни асистенти су програмирани да конверзационо разговарају или чак да се шале на духовит начин. Они су стога осетљивији на емоционалну динамику људске интеракције, или да на други начин олакшају интеракцију између човека и рачунара.

Међутим, ово има тенденцију да наивним корисницима пружи нереалну концепцију интелигенције постојећих компјутерских агената.[68] Умерени успеси у вези са афективним рачунарством укључују текстуалну анализу осећања и, у скорије време, мултимодалну анализу осећања, где AI класификује афекте које приказује субјект приказан на видео снимку.[69]

Општа интелигенција

Машина са вештачком општом интелигенцијом требало би да буде у стању да реши широк спектар проблема са ширином и свестраношћу која је слична људској интелигенцији.[14]

Проблем дефиниције вештачке интелигенције

За разлику од других области, у вештачкој интелигенцији не постоји сагласност око једне дефиниције, него их има више зависно од различитих погледа и метода за решавање проблема.

Дефиниција и циљеви

Упркос времену које је прошло од када је Џон Макарти дао име овој области на конференцији одржаној 1956. године у Дартмуду, није нимало лако тачно дефинисати садржај и достигнућа вештачке интелигенције.

Највероватније, једна од најкраћих и најједноставнијих карактеристика која се приписује вештачкој интелигенцији, парафразирајући Марвина Минског, (једног од стручњака и најпознатијих истраживача вештачке интелигенције), је „конструисање рачунарских система са особинама које би код људских бића биле окарактерисане као интелигентне“.

Тјурингов тест

Људско и вештачко интелигентно понашање.

У познатом такозваном Тјуринговом тесту, који је Алан Тјуринг описао и објавио у једном чланку из 1950. године, под насловом Computing machinery and intelligence (Рачунске машине и интелигенција), предлаже се један експеримент чији је циљ откривање интелигентног понашања једне машине. Тест полази од једне игре у којој испитивач треба да погоди пол два интерлокутора, A и Б, а који се налазе у посебним и одвојеним собама. Иако обоје тврде да су женског пола, у ствари ради се о мушкарцу и жени. У изворном Тјуринговом предлогу урађена је извесна модификација, те је жену заменио рачунар. Испитивач треба да погоди ко је од њих машина, полазећи од њиховог међусобног разговора и имајући у виду да обоје тврде да су људи. Задатак треба постићи упркос чињеници да ниједан од интерлокутора није обавезан да говори истину, те на пример, машина може одлучити да да погрешан резултат једне аритметичке операције, или чак да га саопшти много касније како би варка била уверљивија.

По оптимистичкој хипотези самог Тјуринга, око 2000. године, већ је требало да постоје рачунари оспособљени за игру ове игре довољно добро, тако да просечан испитивач нема више од 70% шансе да уради исправну идентификацију, након пет минута постављања питања. Када би то данас заиста било тако, налазили би се пред једном истински интелигентном машином, или у најмању руку машином која уме да се представи као интелигентна. Не треба ни поменути да су Тјурингова предвиђања била превише оптимистична, што је био врло чест случај у самим почецима развоја области вештачке интелигенције. У стварности проблем није само везан за способност рачунара за обраду података, него на првом мјесту, за могућност програмирања рачунара са способностима за интелигентно понашање.

Вештачка интелигенција у образовању

Сан о рачунарима који би могли да образују ученике и студенте, више деценија је инспирисао научнике когнитивне науке. Прва генерација таквих система (названи Computer Aided Instruction или Computer Based Instruction), углавном су се заснивали на хипертексту. Структура тих система се састојала од презентације материјала и питања са више избора, која шаљу ученика на даље информације, у зависности од одговора на постављена питања.

Наредна генерација ових система Intelligent CAI или Intelligent Tutoring Systems, заснивали су се на имплементацији знања о одређеној теми, у сам рачунар. Постајала су два типа оваквих система. Први је тренирао ученика у самом процесу решавања сложених проблема, као што је нпр. препознавање грешака дизајна у једном електричном колу или писање рачунарског програма. Други тип система је покушавао да одржава силогистички дијалог са студентима. Имплементацију другог типа система је било врло тешко спровести у праксу, великим делом због проблема програмирања система за разумевање спонтаног и природног људског језика. Из тог разлога, пројектовано их је само неколико.

Типични систем за тренирање ученика и студената се обично састоји од четири основне компоненте.

  1. Прва компонента је окружење у којем ученик или студент ради на решавању сложених задатака. То може бити симулација компоненте или компонената електронских уређаја представљена као серија проблема које студент треба да реши.
  2. Друга компонента је експертски систем који може решити представљене проблеме на којима студент ради.
  3. Трећу чини један посебан модул који може упоредити решења која нуди студент са онима које су уграђене у експертски систем и његов циљ је да препозна студентов план за решење проблема, као и које делове знања највероватније студент користи.
  4. Четврту чини педагошки модул који сугерише задатке које треба решити, одговара на питања студента и указује му на могуће грешке. Одговори на питања студента и сугестије за планирање решавања задатака, заснивају се на прикупљеним подацима из претходног модула.

Свака од ових компонената може користити технологију вештачке интелигенције. Окружење може садржати софистицирану симулацију или интелигентног агента, односно симулираног студента или чак опонента студенту. Модул који чини експертски систем се састоји од класичних проблема вештачке интелигенције, као што су препознавање плана и резоновање над проблемима који укључују неизвесност. Задатак педагошког модула је надгледање плана инструкције и његово адаптирање на основу нових информација о компетентности студента за решавање проблема. Упркос сложености система за тренирање ученика и студената, пројектовани су у великом броју, а неки од њих се регуларно користе у школама, индустрији и за војне инструкције.

Технике

Истраживање вештачке интелигенције користи широк спектар техника за постизање горе наведених циљева.[б]

Претрага и оптимизација

AI може да реши многе проблеме интелигентним претраживањем многих могућих решења.[70] Постоје две веома различите врсте претраге које се користе у AI: претрага простора стања и локална претрага.

Претрага простора стања

Претрага простора стања претражује стабло могућих стања како би покушала да пронађе циљно стање.[71] На пример, алгоритми планирања претражују кроз стабла циљева и подциљева, покушавајући да пронађу пут до жељеног циља, процес који се назива анализа средстава и циљева.[72]

Једноставне исцрпне претраге[73] ретко су довољне за већину проблема из стварног света: простор за претрагу (број места за претрагу) брзо расте до астрономских размера. Резултат је претрага која је преспора или се никада не завршава.[18]Хеуристика“ или „правила палца“ могу помоћи да се одреде приоритети избора за које је већа вероватноћа да ће постићи циљ.[74]

Супарничка претрага се користи за програме за играње игара, као што су шах или го. Она претражује стабло могућих потеза и контра-потеза, тражећи победничку позицију.[75]

Локална претрага

Илустрација градијентног спуштања за 3 различите почетне тачке. Два параметра (представљена координатама плана) су подешена да би се функција губитка (висина) минимизирала.

Локална претрага користи математичку оптимизацију да пронађе решење за проблем. Почиње неким обликом нагађања и постепено га рафинира.[76]

Опадајуће спуштање је врста локалне претраге која оптимизује скуп нумеричких параметара тако што их поступно прилагођава да би се минимизовала функција губитка. Варијанте градијентног спуштања се обично користе за обуку неуронских мрежа.[77]

Други тип локалне претраге је еволуционо рачунање, које има за циљ да итеративно побољша скуп решења кандидата тако што ће их „мутирати“ и „рекомбиновати“, бирајући само најспособније да преживе сваку генерацију.[78]

Дистрибуирани процеси претраживања могу да се координирају преко алгоритама ројевске интелигенције. Два популарна ројевска алгоритма који се користе у претраживању су оптимизација роја честица (инспирисана јатом птица) и оптимизација колонија мрава (инспирисана мрављим стазама).[79]

Логика

Формална логика се користи за расуђивање и представљање знања.[80] Формална логика долази у два главна облика: пропозициона логика (која оперише на изјавама које су истините или нетачне, и користи логичке повезнице као што су „и“, „или“, „не“ и „имплицира“[81] и предикатска логика (која такође ради на објектима, предикатима и односима и користи квантификаторе као што су „Свако X је Y“ и „Постоје неки X-еви који су Y“).[82]

Логички закључак (или дедукција) је процес доказивања новог исказа (закључка) на основу других исказа за које се већ зна да су тачни (премисе).[83] Логичка база знања такође обрађује упите и тврдње као посебан случај закључивања.[84] Правило закључивања описује шта је ваљан корак у доказу. Најопштије правило закључивања је резолуција.[85] Закључивање се може свести на извођење претраге како би се пронашао пут који води од премиса до закључака, где је сваки корак примена правила закључивања.[86] Закључак изведен на овај начин је недосежан осим за кратке доказе у ограниченим доменима. Није откривен ниједан ефикасан, моћан и општи метод.

Расплинута логика приписује „степен истине“ између 0 и 1. Стога може да обрађује пропозиције које су нејасне и делимично тачне.[87] Немонотонске логике су дизајниране да обрађују подразумевано резоновање.[31] Друге специјализоване верзије логике су развијене да опишу многе сложене домене (погледајте репрезентацију знања изнад).

Пробабилистичке методе за неизвесно резоновање

Једноставна Бајесова мрежа, са придруженим табелама условних вероватноћа.

Многи проблеми у области вештачке интелигенције (укључујући расуђивање, планирање, учење, перцепцију и роботику) захтевају од агента да ради са непотпуним или несигурним информацијама. Истраживачи вештачке интелигенције су осмислили бројне алате за решавање ових проблема користећи методе из теорије вероватноће и економије.[88]

Бајесове мреже[89] су веома општи алат који се може користити за многе проблеме, укључујући расуђивање (користећи алгоритам Бајесовог закључивања),[е][91] учење (користећи алгоритам максимизације очекивања),[ж][93] планирање (користећи мреже одлучивања)[94] и перцепцију (користећи динамичке Бајесове мреже).[95]

Пробабилистички алгоритми се такође могу користити за филтрирање, предвиђање, уједначавање и проналажење објашњења за токове података, помажући системима перцепције да анализирају процесе који се дешавају током времена (нпр. скривени Марковљеви модели или Калманови филтри).[95]

Развијени су прецизни математички алати који анализирају како агент може да доноси изборе и планира, користећи теорију одлучивања, анализу одлука,[96] и теорију вредности информација.[97] Ови алати укључују моделе као што су Марковљеви процеси одлучивања,[98] динамичке мреже одлучивања,[95] теорија игара и дизајн механизама.[99]

Груписање података о ерупцијама Старог Верног са максимизацијом очекивања почиње од случајног нагађања, али се затим успешно приближава тачном груписању два физички различита начина ерупције.

Класификатори и статистичке методе учења

Најједноставније AI апликације се могу поделити у два типа: класификатори (нпр. „ако је сјајан онда је дијамант“), с једне стране, и контролери (нпр. „ако је дијамант онда га узми“), с друге стране. Класификатори[100] су функције које користе подударање шаблона за одређивање најближег подударања. Могу се фино подесити на основу одабраних примера коришћењем учења под надзором. Сваки образац (који се назива и „опсервација”) је означен одређеном унапред дефинисаном класом. Сва запажања у комбинацији са њиховим ознакама класа позната су као скуп података. Када се прими ново запажање, то запажање се класификује на основу претходног искуства.[48]

У употреби је много врста класификатора. Стабло одлучивања је најједноставнији и најчешће коришћени симболички алгоритам машинског учења.[101] Алгоритам К-најближег суседа је био најраспрострањенији аналогни вид вештачке интелигенције до средине 1990-их, а методе кернела као што је метода потпорних вектора (SVM) су замениле приступ к-најближег суседа током 1990-их.[102] Наивни Бајесов класификатор се сматра „највише коришћеним видом учења“[103] у Гуглу, делимично због своје скалабилности.[104] Неуронске мреже се такође користе као класификатори.[105]

Вештачке неуронске мреже

Неуронска мрежа је међусобно повезана група чворова, слична огромној мрежи неурона у људском мозгу.

Вештачка неуронска мрежа се заснива на колекцији чворова познатих и као вештачки неурони, који лабаво моделују неуроне у биолошком мозгу. Она је обучена да препозна обрасце; када се једном обучи, може препознати те обрасце у свежим подацима. Постоји улаз, најмање један скривени слој чворова и излаз. Сваки чвор примењује функцију и када тежина пређе одређени праг, подаци се преносе на следећи слој. Мрежа се обично назива дубоком неуронском мрежом ако има најмање 2 скривена слоја.[105]

Алгоритми за учење за неуронске мреже користе локалну претрагу да би одабрали параметре које ће произвести адекватан излаз за сваки улаз током тренинга. Најчешћа техника обуке је алгоритам бекпропагације.[106] Неуронске мреже уче да моделују сложене односе између улаза и излаза и проналазе обрасце у подацима. У теорији, неуронска мрежа може научити било коју функцију.[107]

У неуронским мрежама директне комуникације сигнал пролази само у једном правцу.[108] Рекурентне неуронске мреже враћају излазни сигнал назад у улаз, што омогућава краткорочно памћење претходних улазних догађаја. Дуга краткорочна меморија је најуспешнија мрежна архитектура за рекурентне мреже.[109] Перцептрони[110] користе само један слој неурона, дубоко учење[111] користи више слојева. Конволуционе неуронске мреже јачају везу између неурона који су „блиски“ један другом – ово је посебно важно у обради слике, где локални скуп неурона мора да идентификује „ивицу“ пре него што мрежа може да идентификује објекат.[112]

Дубоко учење

Дубоко учење[111] користи неколико слојева неурона између улаза и излаза мреже. Више слојева може прогресивно извући карактеристике вишег нивоа из сировог уноса. На пример, у обради слике, нижи слојеви могу да идентификују ивице, док виши слојеви могу да идентификују концепте релевантне за човека као што су цифре, слова или лица.[113]

Дубоко учење је знатно побољшало перформансе програма у многим важним подобластима вештачке интелигенције, укључујући компјутерски вид, препознавање говора, обраду природног језика, класификацију слика[114] и друге. Разлог због којег дубоко учење има тако добре резултате у толиком броју апликација није познат према подацима из 2023. године.[115] До изненадног успеха дубоког учења 2012–2015. није дошло због неког новог открића или теоријског продора (дубоке неуронске мреже и пропагацију уназад су описали многи људи још од 1950-их)[з] већ због два фактора: невероватно повећање снаге рачунара (укључујући стоструко повећање брзине преласком на GPU процесоре) и доступност огромних количина података за обуку, посебно гигантских разврстаних скупова података који се користе за контролно тестирање, као што је ImageNet.[и]

GPT

Генеративни унапред обучени трансформатори (GPT) су велики језички модели који се заснивају на семантичким односима између речи у реченицама (обрада природног језика). GPT модели засновани на тексту су унапред обучени за велики корпус текста који може бити преузет са интернета. Претходна обука се састоји у предвиђању следеће лексеме (токен је обично реч, подреч или интерпункција). Током ове пред-обуке, GPT модели акумулирају знање о свету, а затим могу да генеришу текст сличан оном који су људи створили понављањем предвиђања следећег токена. Типично, наредна фаза обуке чини модел истинитијим, кориснијим и безопаснијим, обично уз технику која се зове подржано учење на основу људских повратних информација (RLHF). Садашњи GPT модели су још увек склони генерисању неистина које се називају „халуцинације“, иако се то може смањити помоћу RLHF и података о квалитету. Користе се у чатботовима, који омогућавају кориснику да постави питање или да постави задатак једноставним текстом.[124][125]

Тренутни модели и услуге укључују: Гемини (раније Бард), ChatGPT, Грок, Кауд, Копилот и LLaMA.[126] Мултимодални GPT модели могу да обрађују различите типове података (модалитета) као што су слике, видео записи, звук и текст.[127]

Специјализовани хардвер и софтвер

Крајем 2010-их, графичке процесорске јединице (GPU) које су све више дизајниране са побољшањима специфичним за AI и коришћене са специјализованим TensorFlow софтвером, у знатној мери су замениле претходно коришћену централну процесорску јединицу (CPU) као доминантно средство за велике (комерцијалне и академске) обуке модела машинског учења.[128] Историјски гледано, коришћени су специјализовани језици, као што су Лисп, Пролог, Питон и други.

Примене

Технологија вештачке интелигенције и машинског учења се користи у већини есенцијалних апликација 2020-их, укључујући: претраживаче (као што је Гугл претрага), циљање онлајн реклама, системе препорука (које нуде Нетфликс, Јутјуб или Амазон), повећање интернет саобраћаја, циљано оглашавање (Адсенс, Фејсбук), виртуелни асистенти (као што су Сири или Алекса), аутономна возила (укључујући дронове, ADAS и самовозеће аутомобиле), аутоматски превод језика (Мајкрософт преводилац, Гугл преводилац), препознавање лица (Еплов Фејс ИД или Мајкрософтов Дипфејс и Гуглов Фејснет) и означавање слика (које користе Фејсбук, Еплов Ајфото и Тикток).

Здравље и медицина

Примена вештачке интелигенције у медицини и медицинским истраживањима има потенцијал да побољша негу пацијената и квалитет живота.[129] Кроз сочиво Хипократске заклетве, медицински радници су етички приморани да користе вештачку интелигенцију, ако апликације могу прецизније да дијагнозирају и лече пацијенте.

За медицинска истраживања, AI је важан алат за обраду и интеграцију великих количина података. Ово је посебно важно за развој органоидног и ткивног инжењеринга који користи микроскопско снимање као кључну технику у производњи.[130] Предложено је да вештачка интелигенција може да превазиђе разлике у финансирању додељене различитим областима истраживања.[130] Нови AI алати могу продубити наше разумевање биомедицински релевантних путева. На пример, Алфафолд 2 (2021) је показао способност да се апроксимира, у временском распону од неколико сати, а не месеци, 3Д структура протеина.[131] Године 2023, објављено је да је откривање лекова вођено вештачком интелигенцијом помогло у проналажењу класе антибиотика способних да убију две различите врсте бактерија отпорних на лекове.[132]

Игре

Програми за играње игица се користе од 1950-их за демонстрацију и тестирање најнапреднијих техника вештачке интелигенције.[133] Дип блу је постао први компјутерски систем за играње шаха који је победио актуелног светског шампиона у шаху, Гарија Каспарова, 11. маја 1997. године.[134] Године 2011, у егзибиционом мечу квиз шоа Jeopardy!, IBM-ов систем одговора на питања, Вотсон, победио је два највећа шампиона шоа, Брада Рутера и Кена Џенингса, са значајном маргином.[135] У марту 2016, Алфаго је победио у 4 од 5 игара гоа у мечу са го шампионом Лијем Седолом, поставши први компјутерски го-играчки систем који је победио професионалног го играча без хендикепа. Затим је 2017. победио Ке Јија, који је био најбољи го играч на свету.[136] Други програми обрађују игре са несавршеним информацијама, као што је програм за играње покера Плурибус.[137] Дипмајд је развио све генералистичке моделе подржаног учења, као што је Музеро, који би се могао обучити да игра шах, го или Атари игре.[138] У 2019. години, Дипмајндов Алфастар је достигао ниво велемајстора у Старкрафт II, посебно изазовној стратешкој игри у реалном времену која укључује непотпуно знање о томе шта се дешава на мапи.[139] Године 2021, AI агент се такмичио у Плејстејшон Гран Турисмо такмичењу, победивши четири најбоља светска возача Гран Турисма користећи подржано дубоко учење.[140]

Војска

Разне земље примењују AI војне апликације.[141] Главне апликације побољшавају команду и контролу, комуникације, сензоре, интеграцију и интероперабилност.[142] Истраживање је усмерено на прикупљање и анализу обавештајних података, логистику, сајбер операције, информационе операције, и полуаутономна и аутономна возила.[141] AI технологије омогућавају координацију сензора и ефектора, откривање и идентификацију претњи, обележавање непријатељских позиција, фокусирање на мете, координацију и деконфликацију дистрибуираних заједничких паљби између умрежених борбених возила која укључују тимове са посадом и без посаде.[142] AI је била укључена у војне операције у Ираку и Сирији.[141]

У новембру 2023. године, потпредседница САД Камала Харис објавила је декларацију коју је потписала 31 држава о постављању заштитних ограда за војну употребу IA. Обавезе укључују коришћење правних прегледа како би се осигурала усклађеност војне вештачке интелигенције са међународним законима, као и опрез и транспарентност у развоју ове технологије.[143]

Генеративни AI

Винцент ван Гог у акварелу креиран генеративним AI софтвером

Почетком 2020-их, генеративна вештачка интелигенција је стекла широку важност. У марту 2023, 58% одраслих у САД је чуло за ChatGPT, а 14% га је опробало.[144] Све већи реализам и лакоћа коришћења генератора текста у слику заснованих на вештачкој интелигенцији, као што су Midjourney, DALL-E и Стабилна дифузија, изазвали су тренд виралних AI-генерисаних фотографија. Широку пажњу привукла је лажна фотографија папе Фрање у белом пуфер капуту, измишљено хапшење Доналда Трампа и обмана о нападу на Пентагон, као и употреба у професионалној креативној уметности.[145][146]

Задаци специфични за индустрију

Такође постоје хиљаде успешних AI апликација које се користе за решавање специфичних проблема за одређене индустрије или институције. У истраживању из 2017. године, једна од пет компанија је изјавила да је инкорпорирала „AI“ у неке понуде или процесе.[147] Неколико примера су складиштење енергије, медицинска дијагностика, војна логистика, апликације које предвиђају резултат судских одлука, спољна политика или управљање ланцем снабдевања.

У пољопривреди, вештачка интелигенција је помогла пољопривредницима да идентификују подручја којима је потребно наводњавање, ђубрење, третмани пестицидима, што доводи до повећања приноса. Агрономи користе вештачку интелигенцију за спровођење истраживања и развоја. AI се користи за предвиђање времена сазревања усева као што је парадајз, праћење влаге у земљишту, управљање пољопривредним роботима, спровођење предиктивне аналитике, класификацију емоција парења код свиња, аутоматизацију стакленика, откривање болести и штеточина, и уштеду воде.

Вештачка интелигенција се користи у астрономији за анализу све веће количине доступних података и апликација, углавном за „класификацију, регресију, груписање, предвиђање, генерисање, откриће и развој нових научних увида“, на пример за откривање егзопланета, предвиђање соларне активности и разликовање сигнала и инструменталних ефеката у астрономији гравитационих таласа. Такође би се могла користити за активности у свемиру као што је истраживање свемира, укључујући анализу података из свемирских мисија, научне одлуке свемирских летелица у реалном времену, избегавање свемирског отпада и аутономнији рад.

Етика

Вештачка интелигенција, као и свака моћна технологија, има потенцијалне предности и потенцијалне ризике. Сматра се да вештачка интелигенција може да унапреди науку и пронађе решења за озбиљне проблеме: Демис Хасабис из Дип Мајнда се нада да ће „решити интелигенцију, а затим то искористити да реши све остало“.[148] Међутим, како је употреба вештачке интелигенције постала широко распрострањена, идентификовано је неколико нежељених последица и ризика.[149]

Свако ко жели да користи машинско учење као део стварног света, система у производњи, треба да уведе етику у своје процесе AI обуке и настоји да избегне пристрасност. Ово је посебно тачно када се у дубоком учењу користе AI алгоритми који су инхерентно необјашњиви.[150]

Ризици и штета

Приватност и ауторска права

Алгоритми машинског учења захтевају велике количине података. Технике које се користе за добијање ових података изазвале су забринутост у вези са приватношћу, надзором и ауторским правима.

Технолошке компаније прикупљају широк спектар података од својих корисника, укључујући онлајн активности, геолокацијске податке, видео и аудио записе.[151] На пример, да би изградио алгоритме за препознавање говора, Амазон је снимио милионе приватних разговора и дозволио привременим радницима да слушају и транскрибују неке од њих.[152] Мишљења о овом широко распрострањеном надзору се крећу од оних који га виде као неопходно зло до оних за које је то очигледно неетично и кршење права на приватност.[153]

AI програмери тврде да је то једини начин да се испоруче вредне апликације, и да су развили неколико техника које покушавају да очувају приватност док и се даље добијају подаци, као што су агрегација података, деидентификација и диференцијална приватност.[154] Од 2016. неки стручњаци за приватност, попут Синтије Дворк, почели су да посматрају приватност у смислу правичности. Брајан Кристијан је написао да су се стручњаци окренули „од питања 'шта знају' на питање 'шта раде с тим'”.[155]

Генеративна вештачка интелигенција се често обучава на нелиценцираним делима заштићеним ауторским правима, укључујући и домене као што су слике или компјутерски код; резултат се онда користи под образложењем „поштене употребе“. Такође власници веб локација који не желе да њихов садржај заштићен ауторским правима буде AI индексиран или 'оструган' могу да додају код на своју веб локацију, ако не желе да њихов сајт буде индексиран од стране претраживача, који је тренутно доступан за одређене сервисе као што је OpenAI. Стручњаци се не слажу око тога колико добро и под којим околностима ће се ово образложење одржати на судовима; релевантни фактори могу укључивати „сврху и карактер коришћења дела заштићеног ауторским правима“ и „утицај на потенцијално тржиште дела заштићеног ауторским правима“.[156] Године 2023, водећи аутори (укључујући Џона Гришама и Џонатана Франзена) тужили су AI компаније због коришћења њиховог рада за обуку генеративне вештачке интелигенције.[157][158]

Дезинформације

Јутјуб, Фејсбук и други користе системе препорука који воде кориснике до више садржаја. Овим AI програмима је дат циљ да максимизирају ангажовање корисника (то јест, једини циљ је био да људи што више гледају). Вештачка интелигенција је спознала да корисници имају тенденцију да бирају дезинформације, теорије завере и екстремне партијске садржаје, и да би их задржала да гледају, AI је препоручила више тога. Корисници су такође имали тенденцију да гледају више садржаја на исту тему, тако да је вештачка интелигенција довела људе до филтерских мехурића где су добијали више верзија истих дезинформација.[159] То је многе кориснике уверило да су дезинформације истините и на крају поткопало поверење у институције, медије и владу.[160] AI програм је исправно научио да максимизира свој циљ, али резултат је био штетан за друштво. Након избора у САД 2016. године, велике технолошке компаније предузеле су кораке да ублаже проблем.

Године 2022, генеративна вештачка интелигенција је почела да ствара слике, аудио, видео и текст који се не разликују од стварних фотографија, снимака, филмова или људског писања. Постоји могућност је да лоши актери користе ову технологију за стварање огромне количине дезинформација или пропаганде.[161] Пионир вештачке интелигенције Џефри Хинтон изразио је забринутост због тога што, поред осталих ризика, вештачка интелигенција омогућава „ауторитарним лидерима да манипулишу својим бирачким телом“ у великим размерама.[162]

Алгоритамска пристрасност и правичност

Апликације за машинско учење ће бити пристрасне ако уче из пристрасних података.[163] Могуће је да градитељи нису свесни да пристрасност постоји.[164] Пристрасност се може унети начином на који се бирају подаци за обуку и начином на који је модел примењује.[165][163] Ако се пристрасни алгоритам користи за доношење одлука које могу озбиљно да нашкоде људима (као што може бити случај у медицини, финансијама, запошљавању, стамбеној изградњи или одржавању реда), онда алгоритам може довести до дискриминације.[166] Праведност у машинском учењу је студија о томе како спречити штету узроковану алгоритамском пристрасношћу. То је постала озбиљна област академског проучавања унутар AI. Истраживачи су открили да није увек могуће дефинисати „правичност“ на начин који задовољава све заинтересоване стране.[167]

Дана 28. јуна 2015, нова функција за означавање слика у Гугл фотографијама грешком је идентификовала Џеки Алсиа и пријатеља као „гориле“ јер су они црни. Систем је обучен на скупу података који је садржао врло мало слика црних људи,[168] што је проблем који се назива „диспаритет величине узорка“.[169] Гугл је „поправио” овај проблем тако што је спречио систем да било шта означи као „горила”. Осам година касније, 2023. године, Гугл фотографије и даље нису могле да идентификују горилу, као ни слични производи из Епла, Фејсбука, Мајкрософта и Амазона.[170]

COMPAS је комерцијални програм који судови у САД нашироко користе за процену вероватноће да ће оптужени постати рецидивиста. У 2016, Џулија Енгвин из Пропаблика открила је да COMPAS показује расну пристрасност, упркос чињеници да у програму нису биле наведене расе оптужених. Иако је стопа грешке за белце и за црнце једнако калибрисана на тачно 61%, грешке за сваку расу су биле различите — систем је доследно прецењивао шансе да ће црнац поновити прекршај и потцењивао шансе да белац неће то учинити.[171] У 2017. години, неколико истраживача[ј] је показало да је математички немогуће да COMPAS прихвати све могуће мере правичности када су основне стопе понављања прекршаја биле различите за белце и црнце у подацима.[172]

Програм може доносити пристрасне одлуке чак и ако подаци експлицитно не помињу проблематичну карактеристику (као што је „раса“ или „пол“). Функција ће бити у корелацији са другим карактеристикама (као што су „адреса“, „историја куповине“ или „име“), а програм ће доносити исте одлуке на основу ових карактеристика као и о „раси“ или „полу“.[173] Мориц Харт је рекао да је „најробуснија чињеница у овој области истраживања да правичност кроз слепило не функционише.“[174]

Критика COMPAS-а је истакла дубљи проблем са злоупотребом AI. Модели машинског учења су дизајнирани да праве „предвиђања“ која су важећа само ако се претпоставља да ће будућност личити на прошлост. Ако су обучени на основу података који укључују резултате расистичких одлука у прошлости, модели машинског учења морају предвидети да ће се расистичке одлуке доносити у будућности. Нажалост, ако апликација тада користи ова предвиђања као препоруке, неке од ових препорука ће вероватно бити расистичке.[175] Према томе, машинско учење није добро прилагођено да помогне у доношењу одлука у областима у којима постоји нада да ће будућност бити боља од прошлости. Оно је нужно дескриптивно, а не проскриптивно.[к]

Пристрасност и неправедност могу остати неоткривени, јер су градитељи претежно белци и мушкарци: међу инжењерима вештачке интелигенције, око 4% су црнци, а 20% жене.[169]

На својој Конференцији о правичности, одговорности и транспарентности 2022. (ACM FAccT 2022) Удружење за рачунарске машине у Сеулу, Јужна Кореја, представило је и објавило налазе у којима препоручује да док се не покаже да су вештачка интелигенција и роботски системи без грешака пристрасности, они нису безбедни и коришћење самоучећих неуронских мрежа обучених на огромним, нерегулисаним изворима мањкавих интернет података треба да се ограничи.[177]

Недостатак транспарентности

Лидар тестно возило за аутономну вожњу

Многи системи вештачке интелигенције су толико сложени да њихови дизајнери не могу да објасне како се долази до одлука.[178] То је посебно случај са дубоким неуронским мрежама, у којима постоји велика количина нелинеарних односа између улаза и излаза. Међутим постоје неке популарне технике за објашњавање.[179]

Било је много случајева где је програм машинског учења прошао ригорозне тестове, али је ипак научио нешто другачије од онога што су програмери намеравали. На пример, откривено је да систем који би могао да идентификује кожне болести боље од медицинских стручњака заправо има јаку тенденцију да класификује слике са лењиром као „канцерогене“, јер слике малигнитета обично укључују лењир који показује размеру.[180] Утврђено је да је један други систем машинског учења, који је осмишљен да помогне у ефикасној алокацији медицинских ресурса, класификује пацијенте са астмом да имају „ниски ризик” да умру од упале плућа. Имати астму је заправо озбиљан фактор ризика, али пошто би пацијенти са астмом обично добијали много више медицинске неге, релативно мало је вероватно да ће умрети према подацима обуке. Корелација између астме и ниског ризика од умирања од упале плућа била је стварна, али заваравајућа.[181]

Људи који су оштећени одлуком алгоритма имају право на објашњење. Од лекара се, на пример, захтева да јасно и потпуно објасне разлоге за сваку одлуку коју донесу.[182] Рани нацрти Опште уредбе о заштити података Европске уније из 2016. године укључивали су експлицитну изјаву да ово право постоји.[л] Стручњаци из индустрије су приметили да је ово нерешен проблем без решења на видику. Регулатори су тврдили да је штета ипак стварна: ако проблем нема решење, не треба користити алате.[183] DARPA је успоставила програм XAI („Објашњива вештачка интелигенција“) 2014. у покушају да се реше ови проблеми.[184]

Постоји неколико потенцијалних решења за проблем транспарентности. SHAP помаже да се визуелизује допринос сваке карактеристике резултату.[185] LIME може локално апроксимирати модел са једноставнијим моделом који се може интерпретирати.[186] Вишезадатно учење пружа велики број резултата поред циљне класификације. Ови други резултати могу помоћи развијачима да разлуче шта је мрежа научила.[187] Деконволуција, Дипдрим и друге генеративне методе могу омогућити стручњацима да виде шта су различити слојеви дубоке мреже научили и произведу излаз који може да сугерише шта мрежа учи.[188]

Конфликт, присмотра и наоружана вештачка интелигенција

Смртоносно аутономно оружје је машина која лоцира, бира и ангажује људске мете без људског надзора.[љ] До 2015. године пријављено је да преко педесет земаља истражује роботе на бојном пољу.[190] Ово оружје се сматра посебно опасним из неколико разлога: ако убије невину особу, није јасно ко треба да одговара, мало је вероватно да ће поуздано изабрати мете, а ако се производи у великим размерама, то је потенцијално оружје за масовно уништење.[191] У 2014. години, 30 држава (укључујући Кину) подржало је забрану аутономног оружја у складу са Конвенцијом о одређеном конвенционалном оружју Уједињених нација, међутим Сједињене Државе и други се с тим нису сложили.[192]

Вештачка интелигенција пружа низ алата који су посебно корисни за ауторитарне владе: паметни шпијунски софтвер, препознавање лица и гласа омогућавају широко распрострањено праћење; такав надзор омогућава машинском учењу да класификује потенцијалне непријатеље државе и може спречити да се скривају; системи препорука могу прецизно испоручивати пропаганду и дезинформације ради максималног ефекта; дипфејкови и генеративна вештачка интелигенција помажу у стварању дезинформација; напредна вештачка интелигенција може учинити ауторитарно централизовано доношење одлука конкурентнијим либералним и децентрализованим системима као што су тржишта.[193]

Системи вештачке интелигенције за препознавање лица се користе за масовно надгледање, посебно у Кини.[194][195] Године 2019, Бенгалуру у Индији је поставио саобраћајне сигнале којима управља вештачка интелигенција. Овај систем користи камере за праћење густине саобраћаја и прилагођавање времена сигнала на основу интервала потребног за расерећење саобраћаја.[196] Терористи, криминалци и одметничке државе могу да користе наоружану вештачку интелигенцију као што је напредно дигитално ратовање и смртоносно аутономно оружје. Вештачка интелигенција са машинским учењем је такође у стању да дизајнира десетине хиљада токсичних молекула за неколико сати.[197]

Безбедносне смернице за протеине дизајниране вештачком интелигенцијом

Истраживачи су покренули иницијативу која позива на безбедну и етичку употребу дизајна протеина. Добровољни напор долази након извештаја законодаваца, истраживачких центара и других организација које истражују могућност да алати вештачке интелигенције — у распону од мрежа за предвиђање структуре протеина као што је Алфафолд до великих језичких модела као што је онај који покреће ChatGPT — могу олакшати за развој биолошког оружја, укључујући нове токсине или високо преносиве вирусе. Нова иницијатива позива биодизајнерску заједницу да врши контролу и да се побољша скрининг синтезе ДНК, што је кључни корак у прављењу протеина дизајнираних посредством вештачке интелигенције, за потенцијално штетне молекуле.[198][199]

Технолошка незапосленост

Од раних дана развоја вештачке интелигенције постојали су аргументи, на пример они које је изнео Џозеф Вајзенбаум, о томе да ли задатке које рачунари могу да обављају заправо они треба да раде, с обзиром на разлику између рачунара и људи, и између квантитативног израчунавања и квалитативног вредносног просуђивања.[200]

Економисти су често истицали ризике од отпуштања услед деловања вештачке интелигенције и спекулисали о незапослености уколико не постоји адекватна социјална политика за пуну запосленост.[201]

У прошлости, технологија је имала тенденцију да повећава, а не да смањује укупну запосленост, али економисти признају да смо „на неистраженој територији“ са вештачком интелигенцијом.[202] Економска истраживања су показала неслагање око тога да ли ће све већа употреба робота и вештачке интелигенције изазвати значајно повећање дугорочне незапослености, али се генерално слажу да би то могло бити нето корисно ако се прерасподели повећање продуктивности.[203] Процене ризика варирају; на пример, током 2010-их, Мајкл Озборн и Карл Бенедикт Фреј су проценили да је 47% радних места у САД изложено „високом ризику” од потенцијалне аутоматизације, док је један OECD извештај класификовао само 9% послова у САД као „високи ризик”.[м][205] Методологија спекулисања о будућим нивоима запослености је критикована по основи недостатка доказног темеља и због имплицирања да технологија, а не социјална политика, ствара незапосленост, за разлику од отпуштања.[201]

У контасту са претходним таласима аутоматизације, многи послови средње класе могу бити елиминисани вештачком интелигенцијом; The Economist је 2015. године навео да је „забринутост да би вештачка интелигенција могла да уради пословима белих оковратника оно што је парна енергија учинила онима са плавим оковратницима током индустријске револуције“ „вредно озбиљно разматрања“.[206] Екстремно ризични послови се крећу од правних помоћника до кувара брзе хране, док ће потражња вероватно порасти за професијама везаним за негу, од личне здравствене заштите до свештенства.[207]

У априлу 2023. објављено је да је 70% послова за кинеске илустраторе видео игрица елиминисано генеративном вештачком интелигенцијом.[208][209]

Егзистенцијални ризик

Тврдило се да ће вештачка интелигенција постати толико моћна да би човечанство могло неповратно изгубити контролу над њом. Ово би, како је изјавио физичар Стивен Хокинг, могло да „доведе до краја људске расе“.[210] Овај сценарио је уобичајен у научној фантастици, када компјутер или робот изненада развију „самосвест“ (или „осећајност“ или „свесност“) налик човеку и постану злонамерни.[н] Ови сценарији научне фантастике су обмањујући на неколико начина.

Прво, вештачка интелигенција не захтева „осећајност” налик људској да би била егзистенцијални ризик. Савременим програмима вештачке интелигенције дају се специфични циљеви и они користе учење и интелигенцију да би их постигли. Филозоф Ник Бостром је тврдио да ако неко зада скоро било који циљ довољно моћној вештачкој интелигенцији, она може изабрати да уништи човечанство да би то постигала (користио је пример менаџера фабрике спајалица).[212] Стјуарт Расел даје пример кућног робота који покушава да пронађе начин да убије свог власника како би спречио да буде искључен, резонујући да „не можеш донети кафу ако си мртав.“[213] Да би било безбедна за човечанство, суперинтелигенција би морала да буде истински усклађена са моралом и вредностима човечанства како би била „у основи на нашој страни“.[214]

Друго, Јувал Ноа Харари тврди да вештачкој интелигенцији није потребно тело робота или физичка контрола да би представљала егзистенцијални ризик. Есецијални делови цивилизације нису физички. Ствари као што су идеологије, закон, [влада], новац и економија су говорне конструкције; постоје јер постоје приче у које верују милијарде људи. Тренутна преваленција дезинформација сугерише да би вештачка интелигенција могла да користи језик да убеди људе да верују у било шта, чак и да предузму акције које су деструктивне.[215]

Мишљења међу стручњацима и инсајдерима из индустрије нису јединствена, при чему постоје знатне фракције које су забринуте и као и оне које нису забринуте због ризика од евентуалне суперинтелигентне вештачке интелигенције.[216] Личности као што су Стивен Хокинг, Бил Гејтс и Елон Маск изразиле су забринутост због егзистенцијалног ризика од вештачке интелигенције.[217]

Почетком 2010-их, стручњаци су тврдили да су ризици у сувише удаљеној будућности да би оправдали истраживање или да ће људи бити вредни из перспективе суперинтелигентне машине.[218] Међутим, након 2016. године, проучавање садашњих и будућих ризика и могућих решења постало је озбиљна област истраживања.[219]

Пионири вештачке интелигенције, као што су Феј-Феј Ли, Џофри Хинтон, Јошуа Бенџо, Синтија Брезил, Рана ел Калиоуби, Демис Хасабис, Џој Буоламвини и Сам Олтман, изразили су забринутост због ризика од вештачке интелигенције. Године 2023, многи водећи стручњаци за вештачку интелигенцију издали су заједничку изјаву да би „ублажавање ризика од изумирања од вештачке интелигенције требало да буде глобални приоритет заједно са другим ризицима на друштвеном нивоу као што су пандемије и нуклеарни рат“.[220]

Други истраживачи су, међутим, говорили у прилог мање дистопијског гледишта. Пионир вештачке интелигенције Јирген Шмидубер није потписао заједничку изјаву, наглашавајући да се у 95% свих случајева истраживање вештачке интелигенције односи на настојање да „људски животи буду дужи, здравији и лакши“.[221] Док алати који се сада користе за побољшање живота исто тако могу да се користе у лоше сврхе, „они такође могу да се користе као негативни чиниоци.“[222][223] Ендру Нг је такође тврдио да је „грешка је наседати на гласине о вештачкој интелигенцији — и да ће регулатори који то чине имати само користи од стечених интереса."[224] Јан Лекан „исмијава дистопијске сценарије својих пандана препуне дезинформација, па чак и евентуално изумирање човечанства”.[225]

Ограничавање вештачке интелигенције

Могуће опције за ограничавање вештачке интелигенције укључују: коришћење уграђене етике или уставне вештачке интелигенције где компаније или владе могу да уносе прописе, ограничавање високог нивоа рачунарске моћи у обуци, ограничавање могућности прераде сопствене кодне базе, ограничавање одређених техника вештачке интелигенције, али не у фази обуке, отворен код (транспарентност) у односу на власнички код (могао би бити у већој мери ограничен), резервни модел са редундантношћу, ограничавање безбедности, приватности и ауторских права, ограничавање или контрола меморије, праћење у реалном времену, анализа ризика, искључивање у хитним случајевима, ригорозна симулација и тестирање, сертификација модела, процена познатих рањивости, ограничавање материјала за обуку, ограничавање приступа интернету, издавање услова коришћења.

Етичке машине и усклађивање

Пријатељска вештачка интелигенција су машине које су дизајниране од почетка да минимизирају ризике и да доносе одлуке од користи људима. Елизер Јадковски, који је сковао термин, тврди да развој пријатељске вештачке интелигенције треба да буде виши приоритет истраживања: то може захтевати велика улагања и мора бити окончано пре него што вештачка интелигенција постане егзистенцијални ризик.[226]

Машине са интелигенцијом имају потенцијал да искористе своју интелигенцију за доношење етичких одлука. Област машинске етике обезбеђује машинама етичке принципе и процедуре за решавање етичких дилема.[227] Област машинске етике се такође назива рачунарска моралност,[227] и основана је на AAAI симпозијуму 2005. године.[228]

Други приступи укључују „вештачке моралне агенте” Вендела Валаха[229] и три принципа Стјуарта Џ. Расела за развој доказано корисних машина.[230]

Оквири

Пројекти вештачке интелигенције могу да се тестирају по основи њихове етичке прихватљивости током дизајнирања, развоја и имплементације система вештачке интелигенције. Оквир вештачке интелигенције као што је Пазите и поступајте оквир који садржи SUM вредности – који је развио Алан Тјурингов институт тестира пројекте у четири главне области:[231][232]

  • Поштовање достојанство појединачних људи
  • Повезивање са другим људима искрено, отворено и инклузивно
  • Брига за добробит свих
  • Заштита друштвених вредности, правде и јавног интереса

Остали напреци у етичким оквирима укључују оне о којима је одлучено током Асиломар конференције, Монтреалску декларацију за одговорну вештачку интелигенцију и иницијативу IEEE за етику аутономних система, између осталог;[233] међутим, ови принципи не пролазе без критике, посебно у погледу људски одабраних доприноса овим оквирима.[234]

Промовисање благостања људи и заједница на које ове технологије утичу захтева разматрање друштвених и етичких импликација у свим фазама дизајна, развоја и имплементације система вештачке интелигенције, као и сарадњу између радних улога као што су научници података, менаџери производа, инжењери података, доменски стручњаци и менаџери испоруке.[235]

Регулација

Самит о безбедности вештачке интелигенције
Први глобални самит о безбедности вештачке интелигенције одржан је 2023. године са декларацијом која позива на међународну сарадњу.

Регулисање вештачке интелигенције је развој политика јавног сектора и закона за промовисање и регулисање вештачке интелигенције; стога је везано за ширу регулацију алгоритама.[236] Регулаторни и политички пејзаж за вештачку интелигенцију је ново питање у јурисдикцијама широм света.[237] Према станфордском Индексу вештачке интелигенције, годишњи број закона у вези са вештачком интелигенцијом усвојених у 127 разматраних земаља скочио је са једног усвојеног у 2016. на 37 усвојених само у 2022. години.[238][239] Између 2016. и 2020. године, више од 30 земаља усвојило је наменске стратегије за вештачку интелигенцију.[240] Већина држава чланица ЕУ објавила је националне стратегије вештачке интелигенције, као и Канада, Кина, Индија, Јапан, Маурицијус, Руска Федерација, Саудијска Арабија, Уједињени Арапски Емирати, САД и Вијетнам. Други су били у процесу израде сопствене стратегије вештачке интелигенције, укључујући Бангладеш, Малезију и Тунис.[240] Глобално партнерство за вештачку интелигенцију покренуто је у јуну 2020. године, наводећи потребу да се вештачка интелигенција развија у складу са људским правима и демократским вредностима, како би се обезбедило поверење јавности и поуздање у технологију.[240] Хенри Кисинџер, Ерик Шмит и Данијел Хатенлохер објавили су заједничку изјаву у новембру 2021. позивајући на владину комисију која би регулисала вештачку интелигенцију.[241] У 2023. години, лидери OpenAI објавили су препоруке за управљање суперинтелигенцијом, за коју верују да би се могло формирати за мање од 10 година.[242] Уједињене нације су 2023. године такође покренуле саветодавно тело за давање препорука о управљању вештачком интелигенцијом; тело се састоји од руководилаца технолошких компанија, владиних званичника и академика.[243]

У истраживању Ипсоса из 2022. године, ставови према вештачкој интелигенцији су се веома разликовали од земље до земље; 78% кинеских грађана, али само 35% Американаца, сложило се да „производи и услуге који користе вештачку интелигенцију имају више предности него недостатака“.[238] Анкета Ројтерс/Ипсоса из 2023. показала је да се 61% Американаца слаже, а 22% се не слаже, да вештачка интелигенција представља ризик за човечанство.[244] У анкети Фок Њуза из 2023. године, 35% Американаца мислило је да је то „веома важно”, а додатних 41% мислило је да је „донекле важно” да савезна влада регулише вештачку интелигенцију, наспрам 13% који је одговорило „не баш важно” и 8% је одговарило „уопште није важно”.[245][246]

У новембру 2023, одржан је први глобални Самит о безбедности вештачке интелигенције у Блечли парку у Великој Британији да би се разговарало о краткорочним и даљим ризицима вештачке интелигенције и могућности обавезних и добровољних регулаторних оквира.[247] Сет од 28 земаља, укључујући Сједињене Државе, Кину и Европску унију, издао је декларацију на почетку самита, позивајући на међународну сарадњу у управљању изазовима и ризицима вештачке интелигенције.[248][249]

Историја

Историјски преглед развоја

Појам вештачка интелигенција (VI), настаје лета 1956. године у Дартмуду, Хановер (САД), на скупу истраживача заинтересованих за теме интелигенције, неуронских мрежа и теорије аутомата. Скуп је организовао Џон Макарти, уједно са Клодом Шеноном, Марвином Минским и Н. Рочестером. На скупу су такође учествовали Т. Мур (Принстон), А. Семјуел (IBM), Р. Соломоноф и О. Селфриџ (МИТ), као и А. Невил, Х. Сајмон (Carnegie Tech, данас Карнеги Мелон универзитет). На скупу су постављене основе области вештачке интелигенције и трасиран пут за њен даљи развој.

Раније, 1950. године, Алан Тјуринг је објавио један чланак у ревији Мајнд ((Mind)), под насловом „Рачунари и интелигенција“, где говори о концепту вештачке интелигенције и поставља основе једне врсте пробе, преко које би се утврђивало да ли се одређени рачунарски систем понаша у складу са оним што се подразумева под вештачком интелигенцијом, или не. Касније ће та врста пробе добити име, Тјурингов тест.

Скуп је последица првих радова у области. Невил и Сајмон су на њему представили свој програм за аутоматско резоновање, Логик Теорист (који је направио сензацију). Данас се сматра да су концепт вештачке интелигенције поставили В. Мекулок и M. Питс, 1943. године, у раду у ком се представља модел вештачких неурона на бази три извора: спознаја о физиологији и функционисању можданих неурона, исказна логика Расела и Вајтехеда, и Тјурингова компутациона теорија. Неколико година касније створен је први неурални рачунар SNARC. Заслужни за подухват су студенти Принстона, Марвин Мински и Д. Едмонс, 1951. године. Негде из исте епохе су и први програми за шах, чији су аутори Шенон и Тјуринг.

Иако се ова истраживања сматрају зачетком вештачке интелигенције, постоје многа друга који су битно утицала на развој ове области. Нека потичу из области као што су филозофија (први покушаји формализације резоновања су силогизми грчког филозофа Аристотела), математика (теорија одлучивања и теорија пробабилитета се примењују у многим данашњим системима), или психологија (која је заједно са вештачком интелигенцијом формирала област когнитивне науке).

У годинама које следе скуп у Дартмуду постижу се значајни напреци. Конструишу се програми који решавају различите проблеме. На пример, студенти Марвина Минског су крајем шездесетих година имплементирати програм Analogy, који је оспособљен за решавање геометријских проблема, сличним онима који се јављају у тестовима интелигенције, и програм Студент, који решава алгебарске проблеме написане на енглеском језику. Невил и Сајмон ће развити General Problem Solver (ГПС), који покушава да имитира људско резоновање. Семјуел је написао програме за игру сличну дами, који су били оспособљени за учење те игре. Макарти, који је у међувремену отишао на МИТ, имплементира програмски језик Лисп, 1958. године. Исте године је написао чланак, Programs With Common Sense, где описује један хипотетички програм који се сматра првим комплетним системом вештачке интелигенције.

Ова серија успеха се ломи средином шездесетих година и превише оптимистичка предвиђања из ранијих година се фрустрирају. До тада имплементирани системи су функционисали у ограниченим доменима, познатим као микросветови (microworlds). Трансформација која би омогућила њихову примену у стварним окружењима није била тако лако изводљива, упркос очекивањима многих истраживача. По Раселу и Норивигу, постоје три фундаментална фактора који су то онемогућили:

  1. Многи дизајнирани системи нису поседовали сазнање о окружењу примене, или је имплементирано сазнање било врло ниског нивоа и састојало се од неких једноставних синтактичких манипулација.
  2. Многи проблеми које су покушавали решити су били у суштини нерешиви, боље речено, док је количина сазнања била мала и ограничена решење је било могуће, али када би дошло до пораста обима сазнања, проблеми постају нерешиви.
  3. Неке од основних структура које су се користиле за стварање одређеног интелигентног понашања су биле веома ограничене.

До тог момента решавање проблема је било засновано на једном механизму опште претраге преко којег се покушавају повезати, корак по корак, елементарне основе размишљања да би се дошло до коначног решења. Наравно такав приступ подразумева и велике издатке, те да би се смањили, развијају се први алгоритми за потребе контролисања трошкова истраживања. На пример, Едсхер Дајкстра 1959. године дизајнира један метод за стабилизацију издатака, Невил и Ернст, 1965. године развијају концепт хеуристичке претраге и Харт, Нилсон и Рафаел, алгоритам А. У исто време, у вези програма за игре, дефинише се претрага алфа-бета. Творац идеје је иначе био Макарти, 1956. године, а касније ју је користио Невил, 1958. године.

Важност схватања сазнања у контексту домена и примене, као и грађе структуре, којој би било лако приступати, довела је до детаљнијих студија метода представљања сазнања. Између осталих, дефинисале су се семантичке мреже (дефинисане почетком шездесетих година, од стране Килијана) и окружења (које је дефинисао Мински 1975. године). У истом периоду почињу да се користе одређене врсте логике за представљање сазнања.

Паралелно с тим, током истих година, настављају се истраживања за стварање система за игру чекерс, за који је заслужан Самуел, оријентисан на имплементацију неке врсте методе учења. Е. Б. Хунт, Ј. Мартин и П. Т. Стоне, 1969. године конструишу хијерархијску структуру одлука (ради класификације), коју је већ идејно поставио Шенон, 1949. године. Килијан, 1979, представља метод IDZ који треба да послужи као основа за конструкцију такве структуре. С друге стране, П. Винстон, 1979. године, развија властити програм за учење описа сложених објеката, и Т. Мичел, 1977, развија тзв. простор верзија. Касније, средином осамдесетих, поновна примена методе учења на неуралне мреже тзв., backpropagation, доводи до поновног оживљавања ове области. Конструкција апликација за стварна окружења, довела је до потребе разматрања аспеката као што су неизвесност, или непрецизност (који се такође јављају приликом решавања проблема у играма). За решавање ових проблема примењиване су пробабилистичке методе (теорија пробабилитета, или пробабилистичке мреже) и развијали други формализми као дифузни скупови (дефинисани од Л. Задеха 1965. године), или Демпстер-Шаферова теорија (творац теорије је А. Демпстер, 1968, са значајним доприносом Г. Шафера 1976. године). На основу ових истраживања, почев од осамдесетих година, конструишу се први комерцијални системи вештачке интелигенције, углавном тзв. експертски системи.

Савремени проблеми који се настоје решити у истраживањима вештачке интелигенције, везани су за настојања конструисања кооперативних система на бази агената, укључујући системе за управљање подацима, утврђивање редоследа обраде података и покушаје имитације природног језика, између осталих.

Историја вештачке интелигенције

Проучавање механичког или „формалног” расуђивања почело је са филозофима и математичарима у антици. Проучавање логике довело је директно до теорије рачунања Алана Тјуринга, која је сугерисала да машина, мешањем симбола једноставних као што су „0“ и „1“, може да симулира математичку дедукцију и формално резоновање, које је познато као Черч-Тјурингова теза.[250] Ово, заједно са истовременим открићима у кибернетици и теорији информација, навело је истраживаче да размотре могућност изградње „електронског мозга“.[њ][252]

Алан Тјуринг је размишљао о машинској интелигенцији бар од 1941. године, када је дистрибуирао рад о машинској интелигенцији који би могао бити најранији рад у области вештачке интелигенције – иако је сада изгубљен.[5] Први доступни рад који је генерално препознат као „вештачка интелигенција“ био је Макалуков и Питсов дизајн за Тјуринг-комплетне „вештачке неуроне“ из 1943. године – први математички модел неуронске мреже.[253] На рад је утицао Тјурингов ранији рад „О израчунљивим бројевима“ из 1936. који је користио сличне логичке „неуроне“ са два стања, али је био први који их је применио на неуронске функције.[5]

Алан Туринг је током свог живота користио термин „машинска интелигенција“ која је касније често називана „вештачком интелигенцијом“ након његове смрти 1954. године. Тјуринг је 1950. године објавио најпознатији од својих радова „Рачунарска машинерија и интелигенција“, у које је представио свој концепт онога што је сада познато као Тјурингов тест широј јавности. Затим су уследила три Тјурингова радио-емисија о вештачкој интелигенцији, предавања: „Интелигентна машинерија, јеретичка теорија“, „Могу ли дигитални рачунари да мисле“? и панел дискусија „Може ли се за аутоматске рачунске машине рећи да мисле“. До 1956. године компјутерска интелигенција се у Британији активно изучавала више од једне деценије; тамо су написани најранији програми вештачке интелигенције током 1951–1952.[5]

Године 1951, коришћењем компјутера Феранти Марк 1 Универзитета у Манчестеру, написани су програми за игре дама и шах где је особа могла да игра против компјутера.[254] Област америчког истраживања вештачке интелигенције основана је на радионици на Дартмут колеџу 1956. године.[о][6] Полазници су постали лидери истраживања вештачке интелигенције током 1960-их.[п] Они и њихови студенти производили су програме које је штампа описала као „зачуђујуће”:[р] компјутери су учили стратегије игре дама, решавали проблеме са речима у алгебри, доказивали логичке теореме и говорили енглески.[с][7] Лабораторије за вештачку интелигенцију су основане на бројним британским и америчким универзитетима током касних 1950-их и раних 1960-их.[5]

Они су, међутим, потценили тежину проблема.[т] Америчка и британска влада прекинуле су експлоративна истраживања као одговор на критику сер Џејмса Лајхила[259] и стални притисак америчког Конгреса да финансира продуктивније пројекте. Минскијева и Папертова књига Перцептрони је схваћена као доказ да вештачке неуронске мреже никада неће бити корисне за решавање задатака у стварном свету, чиме се потпуно дискредитује приступ.[260] Уследила је „зима вештачке интелигенције“, период када је добијање средстава за пројекте вештачке интелигенције било тешко.[9]

Почетком 1980-их, истраживање вештачке интелигенције је оживело комерцијалним успехом експертских система,[261] облика програма вештачке интелигенције који је симулирао знање и аналитичке вештине људских стручњака. До 1985. године тржиште вештачке интелигенције достигло је преко милијарду долара. Истовремено, јапански компјутерски пројекат пете генерације инспирисао је владе САД и Велике Британије да поврате финансирање академских истраживања.[8] Међутим, почевши од колапса тржишта Лисп машина 1987. године, вештачка интелигенција је поново пала на лош глас и почела је друга, дуготрајнија зима.[10]

Многи истраживачи су почели да сумњају да ће садашње праксе бити у стању да имитирају све процесе људске спознаје, посебно перцепцију, роботику, учење и препознавање образаца.[262] Известан број истраживача је почео да истражује „подсимболичке“ приступе.[263] Истраживачи роботике, као што је Родни Брукс, одбацили су „репрезентацију“ уопштено и фокусирали се директно на инжењерске машине које се крећу и преживљавају.[ћ] Џудиа Перл, Лофти Задех и други развили су методе које су се бавиле непотпуним и несигурним информацијама правећи разборита нагађања, а не прецизном логиком.[88][268] Али најважнији развој је био оживљавање „конекционизма“, укључујући истраживање неуронских мрежа, од стране Џефрија Хинтона и других.[269] Јан Лекан је 1990. године успешно показао да конволуцијске неуронске мреже могу да препознају руком писане цифре, што је прва од многих успешних примена неуронских мрежа.[270]

Вештачка интелигенција је постепено обнављала своју репутацију крајем 1990-их и почетком 21. века коришћењем формалних математичких метода и проналажењем специфичних решења за специфичне проблеме. Овај „уски“ и „формални“ фокус омогућио је истраживачима да произведу проверљиве резултате и сарађују са другим областима (као што су статистика, економија и математика).[271] До 2000. решења која су развили истраживачи вештачке интелигенције била су у широкој употреби, иако су током 1990-их ретко описивана као „вештачка интелигенција“.[272]

Неколико академских истраживача је постало забринуто да вештачка интелигенција више не следи првобитни циљ стварања свестраних, потпуно интелигентних машина. Почевши од 2002. године, основали су подобласт вештачке опште интелигенције (или „AGI“), која је до 2010-их имала неколико добро финансираних институција.[14]

Дубоко учење је почело да доминира индустријским мерилима 2012. године и усвојено је у целој области.[11] За многе специфичне задатке, друге методе су напуштене.[у] Успех дубоког учења био је заснован и на побољшањима хардвера (бржи рачунари,[274] јединице за обраду графике, рачунарство у облаку[275]) и приступ великим количинама података[276] (укључујући куриране скупове података,[275] као што је ImageNet).

Успех дубоког учења довео је до огромног повећања интересовања и финансирања за вештачку интелигенцију.[ф] Количина истраживања машинског учења (мерена укупним бројем публикација) порасла је за 50% у годинама 2015–2019,[240] а WIPO је известио да је вештачка интелигенција била најплоднија технологија у настајању у смислу броја пријава патената и одобрених патената.[277] Према 'AI Impacts', око 50 милијарди долара годишње је уложено у вештачку интелигенцију око 2022. године само у САД и око 20% нових дипломаца из области рачунарских наука у САД специјализирало се за ту специјалност;[278] око 800.000 радних места везаних за вештачку интелигенцију настало је током 2022. у САД.[279] Велика већина напретка се догодила у Сједињеним Државама, са њиховим компанијама, универзитетима и истраживачким лабораторијама које воде истраживања вештачке интелигенције.[13]

У 2016. години, питања правичности и злоупотребе технологије су катапултирана у централно место на конференцијама о машинском учењу, учесталост публикација се знатно повећала, финансирање је постало доступно, а многи истраживачи су поново фокусирали своје каријере на ова питања. Проблем усклађивања постао је озбиљно поље академских студија.[219]

Филозофија

Дефинисање вештачке интелигенције

Алан Тјуринг је 1950. године написао: „Предлажем да размотримо питање 'могу ли машине да мисле'?“[280] Он је саветовао да се питање промени са да ли машина „мисли“, на „да ли је могуће или не да машине показују интелигентно понашање“.[280] Он је осмислио Тјурингов тест, који мери способност машине да симулира људски разговор.[281] Пошто можемо само да посматрамо понашање машине, није битно да ли она „заправо“ размишља или дословно има „ум“. Тјуринг напомиње да не можемо да одредимо ове ствари о другим људима,[х] али да „уобичајено да имамо љубазну конвенцију за коју сви мисле“.[282]

Расел и Норвиг се слажу са Тјурингом да вештачка интелигенција мора бити дефинисана у смислу „деловања“, а не „размишљања“.[283] Међутим, они су критични јер тест упоређује машине са људима. „Текстови ваздухопловног инжењерства“, написали су, „не дефинишу циљ своје области као прављење „машина које лете до те мере као голубови да могу да заварају друге голубове. Творац вештачке интелигенције Џон Макарти се сложио, пишући да „Вештачка интелигенција није, по дефиницији, симулација људске интелигенције“.[284]

Макарти дефинише интелигенцију као „компјутерски део способности да се постигну циљеви у свету“.[285] Други оснивач вештачке интелигенције, Марвин Мински, на је сличан начин дефинише као „способност решавања тешких проблема“.[286] Ове дефиниције посматрају интелигенцију у смислу добро дефинисаних проблема са добро дефинисаним решењима, где су тежина проблема и перформансе програма директне мере „интелигенције” машине - и није потребна никаква друга филозофска расправа, или можда не би била ни могућа.

Још једну дефиницију је усвојио Гугл,[287] главни практичар у области вештачке интелигенције. Ова дефиниција предвиђа способност система да синтетише информације као манифестацију интелигенције, слично као што је дефинисано у биолошкој интелигенцији.

Евалуација приступа вештачке интелигенције

Ниједна успостављена обједињујућа теорија или парадигма није предводила истраживање вештачке интелигенције током већег дела њене историје.[ц] Невиђени успех статистичког машинског учења 2010-их засјенио је све друге приступе (толико да неки извори, посебно у пословном свету, користе термин „вештачка интелигенција” да значи „машинско учење са неуронским мрежама”). Овај приступ је углавном подсимболички, мекан и узак (види испод). Критичари тврде да ће будуће генерације истраживача вештачке интелигенције можда морати поново да размотре ова питања.

Симболичка вештачка интелигенција и његове границе

Симболичка вештачка интелигенција (или „GOFAI“)[289] је симулирала свесно резоновање на високом нивоу које људи користе када решавају загонетке, изражавају правно резоновање и решавају математичке проблеме. Она је била веома успешна на „интелигентним” задацима као што су алгебра или тестови интелигенције. Током 1960-их, Њуел и Сајмон су предложили хипотезу о системима физичких симбола: „Физички систем симбола има неопходна и довољна средства опште интелигентне акције.“[290]

Међутим, симболички приступ није успео у многим задацима које људи лако решавају, као што су учење, препознавање предмета или здраворазумско размишљање. Моравецов парадокс је откриће да су „интелигентни“ задаци високог нивоа били лаки за вештачку интелигенцију, док су „инстинктивни“ задаци ниског нивоа били изузетно тешки.[291] Филозоф Хјуберт Драјфус је од 1960-их тврдио да људска стручност зависи од несвесног инстинкта, а не од свесне манипулације симболима, и од „осећаја“ за ситуацију, а не од експлицитног симболичког знања.[292] Иако су његови аргументи били исмевани и игнорисани када су први пут представљени, на крају су се истраживања вештачке интелигенције сложила са њим.[ч][19]

Проблем није решен: подсимболичко резоновање може направити многе од истих несагледивих грешака које чини људска интуиција, као што је алгоритамска пристрасност.[294][295][296] Критичари као што је Ноам Чомски тврде да ће наставак истраживања симболичке вештачке интелигенције и даље бити неопходан да би се остварила општа интелигенција,[297][298] делом зато што је подсимболична вештачка интелигенција вид удаљавања од објашњиве вештачке интелигенције: може бити тешко или немогуће разумети зашто савремени статистички програм вештачке интелигенције донео дату одлуку.[299][300][301][302][303] Ново поље неуро-симболичке вештачке интелигенције настоји да премости ова два приступа.[304][305][306]

Уредно наспрам неуредног

„Уредни“ се надају да је интелигентно понашање описано коришћењем једноставних, елегантних принципа (као што су логика, оптимизација или неуронске мреже). „Неуредни” очекују да то нужно захтева решавање великог броја неповезаних проблема. Уредни бране своје програме теоретском строгошћу, а опозиција се углавном ослања на инкрементално тестирање да би видели да ли раде. О овом питању се активно расправљало током 1970-их и 1980-их,[307] али је на крају све то виђено као ирелевантно. Модерна вештачка интелигенција има елементе оба приступа.

Меко наспрам тврдог рачунарства

Проналажење доказано исправног или оптималног решења је неоствариво за многе важне проблеме.[18] Меко рачунарство је скуп техника, укључујући генетске алгоритме,[308][309] расплинуту логику[310][311][312] и неуронске мреже, које су толерантне на непрецизност, неизвесност, делимичну истину и апроксимацију.[313][314][315][316][317] Меко рачунарство је уведено током касних 1980-их и најуспешнији програми вештачке интелигенције у 21. веку су примери меког рачунарства са неуронским мрежама.

Уска у односу на општу вештачку интелигенцију

Истраживачи вештачке интелигенције су подељени око тога да ли да следе циљеве опште вештачке интелигенције и суперинтелигенције директно,[318][319][320][321] или да реше што је могуће више специфичних проблема (уска вештачка интелигенција[322][323][324][325][326]) у нади да ће ова решења индиректно довести до дугорочних циљева ове области.[327][328] Општу интелигенцију је тешко дефинисати и тешко је измерити, и савремена вештачка интелигенција је имала више проверљивих успеха при фокусирању на специфичне проблеме са специфичним решењима. Експериментална подобласт вештачке опште интелигенције проучава искључиво ову област.[329][330]

Машинска свест, осећај и ум

Филозофија ума не зна да ли машина може имати ум, свест и ментална стања, у истом смислу као и људска бића. Ово питање разматра унутрашња искуства машине, а не њено спољашње понашање. Главни ток истраживања вештачке интелигенције сматра ово питање ирелевантним, јер не утиче на циљеве ове области: да се направе машине које могу да решавају проблеме користећи интелигенцију. Расел и Норвиг додају да „додатни пројекат освешћивања машине на начин на који људи то попримају није онај за који смо опремљени да преузмемо.“[331] Међутим, питање је постало централно за филозофију ума. То је такође типично централно питање о вештачкој интелигенцији у фикцији.[332][333][334][335][336]

Свест

Дејвид Чалмерс је идентификовао два проблема у разумевању ума, које је назвао „тешким“ и „лаким“ проблемима свести.[337] Лак проблем је разумети како мозак обрађује сигнале, прави планове и контролише понашање. Тежак проблем је објаснити како се ово осећа или зашто би уопште требало да се осећа као било шта, под претпоставком да смо у праву када мислимо да се то заиста осећа као нешто (Денетов илузионизам свести каже да је ово илузија). Људску обраду информација је лако објаснити, међутим, људско субјективно искуство је тешко објаснити. На пример, лако је замислити далтонисту који је научио да идентификује који су објекти у њиховом видном пољу црвени, али није јасно шта би било потребно да би особа знала како изгледа црвена.[338]

Компјутеризам и функционализам

Компјутеризам је став у филозофији ума да је људски ум систем за обраду информација и да је размишљање облик рачунарства. Компјутеризам тврди да је однос између ума и тела сличан или идентичан односу између софтвера и хардвера и стога може бити решење за проблем ума и тела. Ова филозофска позиција је инспирисана радом истраживача вештачке интелигенције и когнитивних научника током 1960-их, а првобитно су је предложили филозофи Џери Фодор и Хилари Патнам.[339]

Филозоф Џон Сирл је ову позицију окарактерисао као „јаку вештачку интелигенцију“: „Одговарајуће програмирани рачунар са правим улазима и излазима би стога имао ум у потпуно истом смислу као и људска бића“.[џ] Сирл супротставља овој тврдњи свој аргумент кинеске собе, који покушава да покаже да, чак и ако машина савршено симулира људско понашање, још увек нема разлога да се претпостави да и она има ум.[343]

Социјала вештачке интелигенције и права

Тешко је или немогуће поуздано проценити да ли је напредни вештачка интелигенција осетна (има способност да осећа), и ако јесте, у ком ступњу.[344] Међутим ако постоји значајна шанса да дата машина може да осети и пати, онда може имати право на одређена права или мере заштите добробити, слично животињама.[345][346] Разумност (скуп капацитета повезаних са високом интелигенцијом, као што је разлучивање или самосвест) може да пружи још једну моралну основу за права вештачке интелигенције.[345] Права робота се такође понекад предлажу као практичан начин интеграције аутономних агената у друштво.[347]

Европска унија је 2017. разматрала давање „електронске личности“ неким од најспособнијих система вештачке интелигенције. Слично правном статусу компанија, она би имала права, али и одговорности.[348] Критичари су 2018. тврдили да би давање права системима вештачке интелигенције умањило важност људских права и да би се законодавство требало фокусирати на потребе корисника, а не на спекулативне футуристичке сценарије. Такође су приметили да роботима недостаје аутономија да сами учествују у друштву.[349][350]

Напредак у вештачкој интелигенцији повећао је интересовање за ову тему. Заговорници благостања и права вештачке интелигенције често тврде да би осећај вештачке интелигенције, ако се појави, било посебно лако порећи. Они упозоравају да би ово могла бити морална слепа тачка аналогна ропству или фабричкој пољопривреди, што би могло довести до патње великих размера ако се створи разумна вештачка интелигенција и неопрезно искоришћава.[346][345]

Будућност

Superintelligence and the singularity

A superintelligence is a hypothetical agent that would possess intelligence far surpassing that of the brightest and most gifted human mind.[328]

If research into artificial general intelligence produced sufficiently intelligent software, it might be able to reprogram and improve itself. The improved software would be even better at improving itself, leading to what I. J. Good called an "intelligence explosion" and Vernor Vinge called a "singularity".[351]

However, technologies cannot improve exponentially indefinitely, and typically follow an S-shaped curve, slowing when they reach the physical limits of what the technology can do.[352]

Transhumanism

Robot designer Hans Moravec, cyberneticist Kevin Warwick, and inventor Ray Kurzweil have predicted that humans and machines will merge in the future into cyborgs that are more capable and powerful than either. This idea, called transhumanism, has roots in Aldous Huxley and Robert Ettinger.[353]

Edward Fredkin argues that "artificial intelligence is the next stage in evolution", an idea first proposed by Samuel Butler's "Darwin among the Machines" as far back as 1863, and expanded upon by George Dyson in his book of the same name in 1998.[354]

У фикцији

The word "robot" itself was coined by Karel Čapek in his 1921 play R.U.R., the title standing for "Rossum's Universal Robots".

Thought-capable artificial beings have appeared as storytelling devices since antiquity,[355] and have been a persistent theme in science fiction.[356]

A common trope in these works began with Mary Shelley's Frankenstein, where a human creation becomes a threat to its masters. This includes such works as Arthur C. Clarke's and Stanley Kubrick's 2001: A Space Odyssey (both 1968), with HAL 9000, the murderous computer in charge of the Discovery One spaceship, as well as The Terminator (1984) and The Matrix (1999). In contrast, the rare loyal robots such as Gort from The Day the Earth Stood Still (1951) and Bishop from Aliens (1986) are less prominent in popular culture.[357]

Isaac Asimov introduced the Three Laws of Robotics in many books and stories, most notably the "Multivac" series about a super-intelligent computer of the same name. Asimov's laws are often brought up during lay discussions of machine ethics;[358] while almost all artificial intelligence researchers are familiar with Asimov's laws through popular culture, they generally consider the laws useless for many reasons, one of which is their ambiguity.[359]

Several works use AI to force us to confront the fundamental question of what makes us human, showing us artificial beings that have the ability to feel, and thus to suffer. This appears in Karel Čapek's R.U.R., the films A.I. Artificial Intelligence and Ex Machina, as well as the novel Do Androids Dream of Electric Sheep?, by Philip K. Dick. Dick considers the idea that our understanding of human subjectivity is altered by technology created with artificial intelligence.[360]

Напомене

  1. ^ а б Ова листа интелигентних особина заснована је на темама које покривају главни AI уџбеници, укључујући: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
  2. ^ а б Ова листа алата је заснована на темама које покривају главни AI уџбеници, укључујући: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
  3. ^ То је један од разлога што су се експертски системи показали неефикасним за прикупљање знања.[33][34]
  4. ^ „Рационални агент“ је општи термин који се користи у економији, филозофији и теоријској вештачкој интелигенцији. Он се може се односити на било шта што усмерава своје понашање на постизање циљева, као што су особа, животиња, корпорација, нација или, у случају вештачке интелигенције, компјутерски програм.
  5. ^ Алан Тјуринг је расправљао о централној важности учења још 1950. године, у свом класичном раду „Рачунарска машина и интелигенција“.[45] Године 1956, на оригиналној Дартмутској AI летњој конференцији, Реј Соломоноф је написао извештај о ненадгледаном пробабилистичком машинском учењу: „Машина за индуктивно закључивање”.[46]
  6. ^ Погледајте AI зима § Машинско превођење и ALPAC извештај из 1966
  7. ^ У поређењу са симболичком логиком, формално Бајесово закључивање је рачунски скупо. Да би закључивање било прихватљиво, већина запажања мора бити условно независна једно од другог. AdSense користи Бајесову мрежу са преко 300 милиона веза да научи које огласе да приказује.[90]
  8. ^ Максимизација очекивања, један од најпопуларнијих алгоритама у машинском учењу, који омогућава груписање у присуству непознатих латентних варијабли.[92]
  9. ^ Неки облик дубоких неуронских мрежа (без специфичног алгоритма учења) описали су: Алан Тјуринг (1948);[116]] Френк Розенблат(1957);[116] Карл Стајнбух и Роџер Дејвид Џозеф (1961).[117] Дубоке или рекурентне мреже које су научиле (или користиле градијентно спуштање) развили су: Ернст Исинг и Вилхелм Ленц (1925);[118] Оливер Селфриџ (1959);[117] Алексеј Ивахненко и Валентин Лапа (1965);[118] Каору Накано (1977);[119] Шун-Ичи Амари (1972);[119] Џон Џозеф Хопфилд (1982).[119] Бекпропагацију су независно открили: Хенри Џ. Кели (1960);[116] Артур Е. Брисон (1962);[116] Стјуарт Дреифус (1962);[116] Артур Е. Брисон и Ју-Чи Хо (1969);[116] Сепо Линајнма (1970);[120] Пол Вербос (1974).[116] Заправо, пропагација уназад и спуштање градијента су директне примене правила Готфрид Лајбницовог ланчаног правила у калкулусу (1676),[121] и у суштини су идентичне (за један слој) методи најмањих квадрата, коју су независно развили Јохан Карл Фридрих Гаус (1795) и Адријен-Мари Лежандр (1805).[122] Вероватно има много других, које тек треба да открију историчари науке.
  10. ^ Џефри Хинтон је рекао, о свом раду на неуронским мрежама током 1990-их, „наши означени скупови података били су хиљаде пута премали. [и] наши рачунари су били милионима пута преспори.” [123]
  11. ^ Укључујући [Jon Kleinberg[
  12. ^ Мориц Хардт (директор на Институту Макс Планк за интелигентне системе) тврди да је машинско учење „у основи погрешан алат за многе домене, где покушавате да дизајнирате интервенције и механизме који мењају свет“.[176]
  13. ^ Када је закон донет 2018. године, још је садржао форму ове одредбе.
  14. ^ Ово је дефиниција Уједињених нација и укључује исто тако направе као што су нагазне мине.[189]
  15. ^ Види табелу 4; 9% је просек OECD-а и просек САД.[204]
  16. ^ Понекад се назива „робокалипса”.[211]
  17. ^ „Електронски мозак“ је био термин који је штампа користила отприлике у то време.[251]
  18. ^ Даниел Кревиер је написао, „конференција је генерално призната као званични датум рођења нове науке.“[255] Расел и Норвиг су конференцију назвали „почетком вештачке интелигенције“.[253]
  19. ^ Расел и Норвиг су написали „у наредних 20 година овим пољем ће доминирати ови људи и њихови ученици“.[256]
  20. ^ Расел и Норвиг су написали „било је запањујуће кад год би рачунар урадио нешто паметно”.[257]
  21. ^ Описани програми су Артур Самјуелов програм игре даме за IBM 701, Даниел Бобровов STUDENT, Њуелов и Сајмонов Логички теоретичар и Тери Виноградов SHRDLU.
  22. ^ Расел и Норвиг су написали: „у скоро свим случајевима, ови рани системи нису били успешни на тежим проблемима“[258]
  23. ^ Отелотворене приступе вештачкој интелигенцији[264] заступали су Ханс Моравец[265] и Родни Брукс[266] и носили су бројна имена: Nouvelle AI,[266] развојна роботика,[267]
  24. ^ Матео Вонг је написао у Атлантику: „Док су деценијама области рачунарске науке као што су обрада природног језика, компјутерски вид и роботика користиле изузетно различите методе, сада сви користе метод програмирања који се зове „дубоко учење“. Као резултат тога, њихов код и приступи су постали сличнији, а њихови модели се лакше интегришу један у други."[273]
  25. ^ Џек Кларк је написао у Блумбергу: „После пола деценије тихих открића у вештачкој интелигенцији, 2015. је била значајна година. Рачунари су паметнији и уче брже него икад“, и приметио је да је број софтверских пројеката који користе машинско учење у Гуглу повећан са „спорадичне употребе” у 2012. на више од 2.700 пројеката у 2015.[275]
  26. ^ Погледајте Проблем других умова
  27. ^ Нилс Нилсон је 1983. написао: „Једноставно речено, постоји велика неслагања на терену око тога шта је вештачка интелигенција.”[288]
  28. ^ Данијел Кревијер је написао да је „време доказало тачност и проницљивост неких Драјфусових коментара. Да их је формулисао мање агресивно, конструктивне акције које су они предлагали могле су бити предузете много раније“.[293]
  29. ^ Серл је представио ову дефиницију „јаке вештачке интелигенције“ 1999. године.[340] Сирлова оригинална формулација је била „Одговарајуће програмирани рачунар је заиста ум, у смислу да се за компјутере којима су дати одговарајући програмима дословног може рећи да разумеју и имају друга когнитивна стања.“[341] Јаку вештачку интелигенцију су слично дефинисали Расел и Норвиг: „Јака вештачка интелигенција – тврдња да машине које то чине заправо размишљају (за разлику од симулације размишљања).“[342]

Референце

  1. ^ Russell, Stuart J.; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach (4th изд.). Hoboken: Pearson. ISBN 978-0134610993. LCCN 20190474. 
  2. ^ Rich, Elaine; Knight, Kevin; Nair, Shivashankar B (2010). Artificial Intelligence (на језику: енглески) (3rd изд.). New Delhi: Tata McGraw Hill India. ISBN 978-0070087705. 
  3. ^ Artificial Intelligence Архивирано на сајту Wayback Machine (21. фебруар 2011), Приступљено 28. 3. 2013.
  4. ^ Google (2016).
  5. ^ а б в г д Copeland, J., ур. (2004). The Essential Turing: the ideas that gave birth to the computer age (на језику: енглески). Oxford, England: Clarendon Press. ISBN 0-19-825079-7. 
  6. ^ а б Dartmouth workshop: The proposal:
  7. ^ а б Successful programs the 1960s:
  8. ^ а б Funding initiatives in the early 1980s: Fifth Generation Project (Japan), Alvey (UK), Microelectronics and Computer Technology Corporation (US), Strategic Computing Initiative (US):
  9. ^ а б First AI Winter, Lighthill report, Mansfield Amendment
  10. ^ а б Second AI Winter:
  11. ^ а б Deep learning revolution, AlexNet:
  12. ^ Toews (2023).
  13. ^ а б Frank (2023).
  14. ^ а б в Artificial general intelligence: Proposal for the modern version: Warnings of overspecialization in AI from leading researchers:
  15. ^ Russell & Norvig (2021, §1.2).
  16. ^ Problem solving, puzzle solving, game playing and deduction:
  17. ^ Uncertain reasoning:
  18. ^ а б в Intractability and efficiency and the combinatorial explosion:
  19. ^ а б в Psychological evidence of the prevalence sub-symbolic reasoning and knowledge:
  20. ^ Knowledge representation and knowledge engineering:
  21. ^ Smoliar & Zhang (1994).
  22. ^ Neumann & Möller (2008).
  23. ^ Kuperman, Reichley & Bailey (2006).
  24. ^ McGarry (2005).
  25. ^ Bertini, Del Bimbo & Torniai (2006).
  26. ^ Russell & Norvig (2021), стр. 272.
  27. ^ Representing categories and relations: Semantic networks, description logics, inheritance (including frames and scripts):
  28. ^ Representing events and time:Situation calculus, event calculus, fluent calculus (including solving the frame problem):
  29. ^ Causal calculus:
  30. ^ Representing knowledge about knowledge: Belief calculus, modal logics:
  31. ^ а б Default reasoning, Frame problem, default logic, non-monotonic logics, circumscription, closed world assumption, abduction: (Poole et al. places abduction under "default reasoning". Luger et al. places this under "uncertain reasoning").
  32. ^ а б Breadth of commonsense knowledge:
  33. ^ Newquist (1994), стр. 296.
  34. ^ Crevier (1993), стр. 204–208.
  35. ^ Russell & Norvig (2021), стр. 528.
  36. ^ Automated planning:
  37. ^ Automated decision making, Decision theory:
  38. ^ Classical planning:
  39. ^ Sensorless or "conformant" planning, contingent planning, replanning (a.k.a online planning):
  40. ^ Uncertain preferences: Inverse reinforcement learning:
  41. ^ Information value theory:
  42. ^ Markov decision process:
  43. ^ Game theory and multi-agent decision theory:
  44. ^ Learning:
  45. ^ Turing (1950).
  46. ^ Solomonoff (1956).
  47. ^ Unsupervised learning:
  48. ^ а б Supervised learning:
  49. ^ Reinforcement learning:
  50. ^ Transfer learning:
  51. ^ „Artificial Intelligence (AI): What Is AI and How Does It Work? | Built In”. builtin.com. Приступљено 2023-10-30. 
  52. ^ Computational learning theory:
  53. ^ Natural language processing (NLP):
  54. ^ Subproblems of NLP:
  55. ^ Russell & Norvig (2021), стр. 856–858.
  56. ^ Dickson (2022).
  57. ^ Modern statistical and deep learning approaches to NLP:
  58. ^ Vincent (2019).
  59. ^ Russell & Norvig (2021), стр. 875–878.
  60. ^ Bushwick (2023).
  61. ^ Computer vision:
  62. ^ Russell & Norvig (2021), стр. 849–850.
  63. ^ Russell & Norvig (2021), стр. 895–899.
  64. ^ Russell & Norvig (2021), стр. 899–901.
  65. ^ Russell & Norvig (2021), стр. 931–938.
  66. ^ MIT AIL (2014).
  67. ^ Affective computing:
  68. ^ Waddell (2018).
  69. ^ Poria et al. (2017).
  70. ^ Search algorithms:
  71. ^ State space search:
  72. ^ Russell & Norvig (2021), §11.2.
  73. ^ Uninformed searches (breadth first search, depth-first search and general state space search):
  74. ^ Heuristic or informed searches (e.g., greedy best first and A*):
  75. ^ Adversarial search:
  76. ^ Local or "optimization" search:
  77. ^ Singh Chauhan, Nagesh (18. 12. 2020). „Optimization Algorithms in Neural Networks”. KDnuggets (на језику: енглески). Приступљено 2024-01-13. 
  78. ^ Evolutionary computation:
  79. ^ Merkle & Middendorf (2013).
  80. ^ Logic:
  81. ^ Propositional logic:
  82. ^ First-order logic and features such as equality:
  83. ^ Logical inference:
  84. ^ Russell & Norvig (2021), §8.3.1.
  85. ^ Resolution and unification:
  86. ^ Forward chaining, backward chaining, Horn clauses, and logical deduction as search:
  87. ^ Fuzzy logic:
  88. ^ а б Stochastic methods for uncertain reasoning:
  89. ^ Bayesian networks:
  90. ^ Domingos (2015), chapter 6.
  91. ^ Bayesian inference algorithm:
  92. ^ Domingos (2015), стр. 210.
  93. ^ Bayesian learning and the expectation-maximization algorithm:
  94. ^ Bayesian decision theory and Bayesian decision networks:
  95. ^ а б в Stochastic temporal models: Hidden Markov model: Kalman filters: Dynamic Bayesian networks:
  96. ^ decision theory and decision analysis:
  97. ^ Information value theory:
  98. ^ Markov decision processes and dynamic decision networks:
  99. ^ Game theory and mechanism design:
  100. ^ Statistical learning methods and classifiers:
  101. ^ Decision trees:
  102. ^ Non-parameteric learning models such as K-nearest neighbor and support vector machines:
  103. ^ Domingos (2015), стр. 152.
  104. ^ Naive Bayes classifier:
  105. ^ а б Neural networks:
  106. ^ Gradient calculation in computational graphs, backpropagation, automatic differentiation:
  107. ^ Universal approximation theorem: The theorem:
  108. ^ Feedforward neural networks:
  109. ^ Recurrent neural networks:
  110. ^ Perceptrons:
  111. ^ а б Deep learning:
  112. ^ Convolutional neural networks:
  113. ^ Deng & Yu (2014), стр. 199–200.
  114. ^ Ciresan, Meier & Schmidhuber (2012).
  115. ^ Russell & Norvig (2021), стр. 751.
  116. ^ а б в г д ђ е Russell & Norvig (2021), стр. 785.
  117. ^ а б Schmidhuber (2022), §5.
  118. ^ а б Schmidhuber (2022), §6.
  119. ^ а б в Schmidhuber (2022), §7.
  120. ^ Schmidhuber (2022), §8.
  121. ^ Schmidhuber (2022), §2.
  122. ^ Schmidhuber (2022), §3.
  123. ^ Quoted in Christian (2020, стр. 22)
  124. ^ Smith (2023).
  125. ^ „Explained: Generative AI”. 9. 11. 2023. 
  126. ^ „AI Writing and Content Creation Tools”. MIT Sloan Teaching & Learning Technologies. Приступљено 25. 12. 2023. 
  127. ^ Marmouyet (2023).
  128. ^ Kobielus (2019).
  129. ^ Davenport, T; Kalakota, R (јун 2019). „The potential for artificial intelligence in healthcare”. Future Healthc J. (на језику: енглески). 6 (2): 94—98. PMC 6616181Слободан приступ. PMID 31363513. doi:10.7861/futurehosp.6-2-94. 
  130. ^ а б Bax, Monique; Thorpe, Jordan; Romanov, Valentin (децембар 2023). „The future of personalized cardiovascular medicine demands 3D and 4D printing, stem cells, and artificial intelligence”. Frontiers in Sensors (на језику: енглески). 4. ISSN 2673-5067. doi:10.3389/fsens.2023.1294721Слободан приступ. 
  131. ^ Jumper, J; Evans, R; Pritzel, A (2021). „Highly accurate protein structure prediction with AlphaFold”. Nature (на језику: енглески). 596 (7873): 583—589. Bibcode:2021Natur.596..583J. PMC 8371605Слободан приступ. PMID 34265844. doi:10.1038/s41586-021-03819-2. 
  132. ^ „AI discovers new class of antibiotics to kill drug-resistant bacteria”. 2023-12-20. 
  133. ^ Grant, Eugene F.; Lardner, Rex (1952-07-25). „The Talk of the Town – It”. The New Yorker (на језику: енглески). ISSN 0028-792X. Приступљено 2024-01-28. 
  134. ^ Anderson, Mark Robert (2017-05-11). „Twenty years on from Deep Blue vs Kasparov: how a chess match started the big data revolution”. The Conversation (на језику: енглески). Приступљено 2024-01-28. 
  135. ^ Markoff, John (2011-02-16). „Computer Wins on 'Jeopardy!': Trivial, It's Not”Неопходна новчана претплата. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 2024-01-28. 
  136. ^ Byford, Sam (2017-05-27). „AlphaGo retires from competitive Go after defeating world number one 3-0”. The Verge (на језику: енглески). Приступљено 2024-01-28. 
  137. ^ Brown, Noam; Sandholm, Tuomas (2019-08-30). „Superhuman AI for multiplayer poker”. Science (на језику: енглески). 365 (6456): 885—890. ISSN 0036-8075. doi:10.1126/science.aay2400. 
  138. ^ „MuZero: Mastering Go, chess, shogi and Atari without rules”. Google DeepMind (на језику: енглески). 2020-12-23. Приступљено 2024-01-28. 
  139. ^ Sample, Ian (2019-10-30). „AI becomes grandmaster in 'fiendishly complex' StarCraft II”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 2024-01-28. 
  140. ^ Wurman, P.R.; Barrett, S.; Kawamoto, K. (2022). „Outracing champion Gran Turismo drivers with deep reinforcement learning”. Nature 602. 602 (7896): 223—228. doi:10.1038/s41586-021-04357-7. 
  141. ^ а б в Congressional Research Service (2019). Artificial Intelligence and National Security (PDF). Washington, DC: Congressional Research Service. PD-notice
  142. ^ а б Slyusar, Vadym (2019). „Artificial intelligence as the basis of future control networks”. ResearchGate. doi:10.13140/RG.2.2.30247.50087. 
  143. ^ Knight, Will. „The US and 30 Other Nations Agree to Set Guardrails for Military AI”. Wired (на језику: енглески). ISSN 1059-1028. Приступљено 2024-01-24. 
  144. ^ Marcelline, Marco (27. 5. 2023). „ChatGPT: Most Americans Know About It, But Few Actually Use the AI Chatbot”. PCMag (на језику: енглески). Приступљено 2024-01-28. 
  145. ^ Lu, Donna (2023-03-31). „Misinformation, mistakes and the Pope in a puffer: what rapidly evolving AI can – and can't – do”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 2024-01-28. 
  146. ^ Hurst, Luke (2023-05-23). „How a fake image of a Pentagon explosion shared on Twitter caused a real dip on Wall Street”. euronews (на језику: енглески). Приступљено 2024-01-28. 
  147. ^ Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (2017-09-06). „Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review (на језику: енглески). Архивирано из оригинала 13. 2. 2024. г. 
  148. ^ Simonite (2016).
  149. ^ Russell & Norvig (2021), стр. 987.
  150. ^ Laskowski (2023).
  151. ^ GAO (2022).
  152. ^ Valinsky (2019).
  153. ^ Russell & Norvig (2021), стр. 991.
  154. ^ Russell & Norvig (2021), стр. 991–992.
  155. ^ Christian (2020), стр. 63.
  156. ^ Vincent (2022).
  157. ^ Reisner (2023).
  158. ^ Alter & Harris (2023).
  159. ^ Nicas (2018).
  160. ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22. 7. 2019). „Trust and Distrust in America”. Pew Research Center. Архивирано из оригинала 22. 2. 2024. г. 
  161. ^ Williams (2023).
  162. ^ Taylor & Hern (2023).
  163. ^ а б Rose (2023).
  164. ^ CNA (2019).
  165. ^ Goffrey (2008), стр. 17.
  166. ^ Berdahl et al. (2023); Goffrey (2008, стр. 17); Rose (2023); Russell & Norvig (2021, стр. 995)
  167. ^ Algorithmic bias and Fairness (machine learning):
  168. ^ Christian (2020), стр. 25.
  169. ^ а б Russell & Norvig (2021), стр. 995.
  170. ^ Grant & Hill (2023).
  171. ^ Larson & Angwin (2016).
  172. ^ Christian (2020, стр. 67–70); Russell & Norvig (2021, стр. 993–994)
  173. ^ Russell & Norvig (2021, стр. 995); Lipartito (2011, стр. 36); Goodman & Flaxman (2017, стр. 6); Christian (2020, стр. 39–40, 65)
  174. ^ Quoted in Christian (2020, стр. 65).
  175. ^ Russell & Norvig (2021, стр. 994); Christian (2020, стр. 40, 80–81)
  176. ^ Quoted in Christian (2020, стр. 80)
  177. ^ Dockrill (2022).
  178. ^ Sample (2017). harv грешка: више циљева (2×): CITEREFSample2017 (help)
  179. ^ „Black Box AI”. 16. 6. 2023. 
  180. ^ Christian (2020), стр. 110.
  181. ^ Christian (2020), стр. 88–91.
  182. ^ Christian (2020, стр. 83); Russell & Norvig (2021, стр. 997)
  183. ^ Christian (2020), стр. 91.
  184. ^ Christian (2020), стр. 83.
  185. ^ Verma (2021).
  186. ^ Rothman (2020).
  187. ^ Christian (2020), стр. 105-108.
  188. ^ Christian (2020), стр. 108–112.
  189. ^ Russell & Norvig (2021), стр. 989.
  190. ^ Robitzski (2018); Sainato (2015)
  191. ^ Russell & Norvig (2021), стр. 987-990.
  192. ^ Russell & Norvig (2021), стр. 988.
  193. ^ Harari (2018).
  194. ^ Buckley, Chris; Mozur, Paul (22. 5. 2019). „How China Uses High-Tech Surveillance to Subdue Minorities”. The New York Times. 
  195. ^ „Security lapse exposed a Chinese smart city surveillance system”. 3. 5. 2019. Архивирано из оригинала 7. 3. 2021. г. Приступљено 14. 9. 2020. 
  196. ^ „AI traffic signals to be installed in Bengaluru soon”. NextBigWhat (на језику: енглески). 24. 9. 2019. Приступљено 1. 10. 2019. 
  197. ^ Urbina et al. (2022).
  198. ^ Ewen Callaway. „Could AI-designed proteins be weaponized? Scientists lay out safety guidelines?”. 
  199. ^ Ewen Callaway (11. July 2023). „AI tools are designing entirely new proteins that could transform medicine”.  Проверите вредност парамет(а)ра за датум: |date= (помоћ)
  200. ^ Tarnoff, Ben (4. 8. 2023). „Lessons from Eliza”. The Guardian Weekly. стр. 34—9. 
  201. ^ а б E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2022) 51(3) Industrial Law Journal 511–559 Архивирано 27 мај 2023 на сајту Wayback Machine
  202. ^ Ford & Colvin (2015);McGaughey (2022)
  203. ^ IGM Chicago (2017).
  204. ^ Arntz, Gregory & Zierahn (2016), стр. 33.
  205. ^ Lohr (2017); Frey & Osborne (2017); Arntz, Gregory & Zierahn (2016, стр. 33)
  206. ^ Morgenstern (2015).
  207. ^ Mahdawi (2017); Thompson (2014)
  208. ^ Zhou, Viola (2023-04-11). „AI is already taking video game illustrators' jobs in China”. Rest of World (на језику: енглески). Приступљено 2023-08-17. 
  209. ^ Carter, Justin (2023-04-11). „China's game art industry reportedly decimated by growing AI use”. Game Developer (на језику: енглески). Приступљено 2023-08-17. 
  210. ^ Cellan-Jones (2014).
  211. ^ Russell & Norvig 2021, стр. 1001.
  212. ^ Bostrom (2014).
  213. ^ Russell (2019).
  214. ^ Bostrom (2014); Müller & Bostrom (2014); Bostrom (2015).
  215. ^ Harari (2023).
  216. ^ Müller & Bostrom (2014).
  217. ^ Leaders' concerns about the existential risks of AI around 2015:
  218. ^ Arguments that AI is not an imminent risk:
  219. ^ а б Christian (2020), стр. 67, 73.
  220. ^ Valance (2023).
  221. ^ Taylor, Josh (7. 5. 2023). „Rise of artificial intelligence is inevitable but should not be feared, 'father of AI' says”. The Guardian (на језику: енглески). Приступљено 26. 5. 2023. 
  222. ^ Colton, Emma (7. 5. 2023). „'Father of AI' says tech fears misplaced: 'You cannot stop it'. Fox News (на језику: енглески). Приступљено 26. 5. 2023. 
  223. ^ Jones, Hessie (23. 5. 2023). „Juergen Schmidhuber, Renowned 'Father Of Modern AI,' Says His Life's Work Won't Lead To Dystopia”. Forbes (на језику: енглески). Приступљено 26. 5. 2023. 
  224. ^ McMorrow, Ryan (19. 12. 2023). „Andrew Ng: 'Do we think the world is better off with more or less intelligence?'. Financial Times (на језику: енглески). Приступљено 30. 12. 2023. 
  225. ^ Levy, Steven (22. 12. 2023). „How Not to Be Stupid About AI, With Yann LeCun”. Wired (на језику: енглески). Приступљено 30. 12. 2023. 
  226. ^ Yudkowsky (2008).
  227. ^ а б Anderson & Anderson (2011).
  228. ^ AAAI (2014).
  229. ^ Wallach (2010).
  230. ^ Russell (2019), стр. 173.
  231. ^ Alan Turing Institute (2019). „Understanding artificial intelligence ethics and safety” (PDF). 
  232. ^ Alan Turing Institute (2023). „AI Ethics and Governance in Practice” (PDF). 
  233. ^ Floridi, Luciano; Cowls, Josh (2019-06-23). „A Unified Framework of Five Principles for AI in Society”. Harvard Data Science Review (на језику: енглески). 1 (1). S2CID 198775713. doi:10.1162/99608f92.8cd550d1Слободан приступ. 
  234. ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (2020-09-01). „A critical perspective on guidelines for responsible and trustworthy artificial intelligence”. Medicine, Health Care and Philosophy (на језику: енглески). 23 (3): 387—399. ISSN 1572-8633. PMID 32236794. S2CID 214766800. doi:10.1007/s11019-020-09948-1. 
  235. ^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (2023-01-01). „Ethical issues in the development of artificial intelligence: recognizing the risks”. International Journal of Ethics and Systems. ahead-of-print (ahead-of-print). ISSN 2514-9369. S2CID 259614124. doi:10.1108/IJOES-05-2023-0107. 
  236. ^ Regulation of AI to mitigate risks:
  237. ^ а б Vincent (2023).
  238. ^ Stanford University (2023).
  239. ^ а б в г UNESCO (2021).
  240. ^ Kissinger (2021).
  241. ^ Altman, Brockman & Sutskever (2023).
  242. ^ VOA News (25. 10. 2023). „UN Announces Advisory Body on Artificial Intelligence”. 
  243. ^ Edwards (2023).
  244. ^ Kasperowicz (2023).
  245. ^ Fox News (2023).
  246. ^ Milmo, Dan (3. 11. 2023). „Hope or Horror? The great AI debate dividing its pioneers”. The Guardian Weekly. стр. 10—12. 
  247. ^ „The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023”. GOV.UK. 1. 11. 2023. Архивирано из оригинала 1. 11. 2023. г. Приступљено 2. 11. 2023. 
  248. ^ „Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration”. GOV.UK (Саопштење). Архивирано из оригинала 1. 11. 2023. г. Приступљено 1. 11. 2023. 
  249. ^ Berlinski (2000).
  250. ^ „Google books ngram”. 
  251. ^ AI's immediate precursors:
  252. ^ а б Russell & Norvig (2021), стр. 17.
  253. ^ See "A Brief History of Computing" at AlanTuring.net.
  254. ^ Crevier (1993), стр. 47–49.
  255. ^ Russell & Norvig (2003), стр. 17.
  256. ^ Russell & Norvig (2003), стр. 18.
  257. ^ Russell & Norvig (2021), стр. 21.
  258. ^ Lighthill (1973).
  259. ^ Russell & Norvig (2021), стр. 22.
  260. ^ Expert systems:
  261. ^ Russell & Norvig (2021), стр. 24.
  262. ^ Nilsson (1998), стр. 7.
  263. ^ McCorduck (2004), стр. 454–462.
  264. ^ Moravec (1988).
  265. ^ а б Brooks (1990).
  266. ^ Developmental robotics:
  267. ^ Russell & Norvig (2021), стр. 25.
  268. ^
  269. ^ Russell & Norvig (2021), стр. 26.
  270. ^ Formal and narrow methods adopted in the 1990s:
  271. ^ AI widely used in the late 1990s:
  272. ^ Wong (2023).
  273. ^ Moore's Law and AI:
  274. ^ а б в Clark (2015b).
  275. ^ Big data:
  276. ^ „Intellectual Property and Frontier Technologies”. WIPO. Архивирано из оригинала 2. 4. 2022. г. Приступљено 30. 3. 2022. 
  277. ^ DiFeliciantonio (2023).
  278. ^ Goswami (2023).
  279. ^ а б Turing (1950), стр. 1.
  280. ^ Turing's original publication of the Turing test in "Computing machinery and intelligence": Historical influence and philosophical implications:
  281. ^ Turing (1950), Under "The Argument from Consciousness".
  282. ^ Russell & Norvig (2021), chpt. 2.
  283. ^ Maker (2006).
  284. ^ McCarthy (1999).
  285. ^ Minsky (1986).
  286. ^ „What Is Artificial Intelligence (AI)?”. Google Cloud Platform. Архивирано из оригинала 31. 7. 2023. г. Приступљено 16. 10. 2023. 
  287. ^ Nilsson (1983), стр. 10.
  288. ^ Haugeland (1985), стр. 112–117.
  289. ^ Physical symbol system hypothesis: Historical significance:
  290. ^ Moravec's paradox:
  291. ^ Dreyfus' critique of AI: Historical significance and philosophical implications:
  292. ^ Crevier (1993), стр. 125.
  293. ^ Suresh, Harini; Guttag, John (2021-11-04). „A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle”. Equity and Access in Algorithms, Mechanisms, and Optimization. EAAMO '21. New York, NY, USA: Association for Computing Machinery. стр. 1—9. ISBN 978-1-4503-8553-4. S2CID 235436386. doi:10.1145/3465416.3483305. 
  294. ^ Striphas, Ted (фебруар 2012). „What is an Algorithm? – Culture Digitally”. culturedigitally.org. Приступљено 20. 11. 2017. 
  295. ^ Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to AlgorithmsСлободан приступ ограничен дужином пробне верзије, иначе неопходна претплата (3rd изд.). Cambridge, Mass.: MIT Press. стр. 5. ISBN 978-0-262-03384-8. 
  296. ^ Langley (2011).
  297. ^ Katz (2012).
  298. ^ Mihály, Héder (2023). „Explainable AI: A Brief History of the Concept” (PDF). ERCIM News (134): 9—10. 
  299. ^ Phillips, P. Jonathon; Hahn, Carina A.; Fontana, Peter C.; Yates, Amy N.; Greene, Kristen; Broniatowski, David A.; Przybocki, Mark A. (2021-09-29). „Four Principles of Explainable Artificial Intelligence”. doi:10.6028/nist.ir.8312. 
  300. ^ Vilone, Giulia; Longo, Luca (2021). „Notions of explainability and evaluation approaches for explainable artificial intelligence”. Information Fusion. December 2021 - Volume 76: 89—106. doi:10.1016/j.inffus.2021.05.009. 
  301. ^ Castelvecchi, Davide (2016-10-06). „Can we open the black box of AI?”. Nature (на језику: енглески). 538 (7623): 20—23. Bibcode:2016Natur.538...20C. ISSN 0028-0836. PMID 27708329. S2CID 4465871. doi:10.1038/538020a. 
  302. ^ Sample, Ian (5. 11. 2017). „Computer says no: why making AIs fair, accountable and transparent is crucial”. The Guardian (на језику: енглески). Приступљено 30. 1. 2018. 
  303. ^ Garcez, Artur d'Avila; Lamb, Luis C.; Gabbay, Dov M. (2009). „Neural-Symbolic Cognitive Reasoning”. Cognitive Technologies (на језику: енглески). ISSN 1611-2482. doi:10.1007/978-3-540-73246-4. 
  304. ^ Rocktäschel, Tim; Riedel, Sebastian (2016). „Learning Knowledge Base Inference with Neural Theorem Provers”. Proceedings of the 5th Workshop on Automated Knowledge Base Construction. San Diego, CA: Association for Computational Linguistics. стр. 45—50. doi:10.18653/v1/W16-1309Слободан приступ. Приступљено 2022-08-06. 
  305. ^ Serafini, Luciano; Garcez, Artur d'Avila (2016). „Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge”. arXiv:1606.04422Слободан приступ [cs.AI]. 
  306. ^ Neats vs. scruffies, the historic debate: A classic example of the "scruffy" approach to intelligence: A modern example of neat AI and its aspirations in the 21st century:
  307. ^ Gerges, Firas; Zouein, Germain; Azar, Danielle (2018-03-12). „Genetic Algorithms with Local Optima Handling to Solve Sudoku Puzzles”. Proceedings of the 2018 International Conference on Computing and Artificial Intelligence. ICCAI 2018. New York, NY, USA: Association for Computing Machinery. стр. 19—22. ISBN 978-1-4503-6419-5. S2CID 44152535. doi:10.1145/3194452.3194463. 
  308. ^ Burkhart, Michael C.; Ruiz, Gabriel (2023). „Neuroevolutionary representations for learning heterogeneous treatment effects”. Journal of Computational Science. 71: 102054. S2CID 258752823. doi:10.1016/j.jocs.2023.102054Слободан приступ. 
  309. ^ Novák, V.; Perfilieva, I.; Močkoř, J. (1999). Mathematical principles of fuzzy logic. Dordrecht: Kluwer Academic. ISBN 978-0-7923-8595-0. 
  310. ^ „Fuzzy Logic”. Stanford Encyclopedia of Philosophy. Bryant University. 2006-07-23. Приступљено 2008-09-30. 
  311. ^ Pelletier, Francis Jeffry (2000). „Review of Metamathematics of fuzzy logics (PDF). The Bulletin of Symbolic Logic. 6 (3): 342—346. JSTOR 421060. doi:10.2307/421060. Архивирано (PDF) из оригинала 2016-03-03. г. 
  312. ^ Zadeh, Lotfi A. (март 1994). „Fuzzy logic, neural networks, and soft computing”. Communications of the ACM (на језику: енглески). 37 (3): 77—84. ISSN 0001-0782. doi:10.1145/175247.175255Слободан приступ. 
  313. ^ Ibrahim, Dogan. "An overview of soft computing." Procedia Computer Science 102 (2016): 34-38.
  314. ^ Kecman, Vojislav (2001). Learning and Soft Computing: Support Vector Machines, Neural Networks, and Fuzzy Logic Models (на језику: енглески). MIT Press. ISBN 978-0-262-11255-0. 
  315. ^ Chaturvedi, Devendra K. "Soft computing." Studies in Computational intelligence 103 (2008): 509-612.
  316. ^ Ram, Mangey; Davim, J. Paulo (2018-05-04). Advanced Mathematical Techniques in Engineering Sciences (на језику: енглески). CRC Press. ISBN 978-1-351-37189-6. 
  317. ^ Chalmers, David (2010). „The Singularity: A Philosophical Analysis” (PDF). Journal of Consciousness Studies. 17: 7—65. 
  318. ^ Legg, Shane (2008). Machine Super Intelligence (PDF) (PhD). Department of Informatics, University of Lugano. Приступљено 19. 9. 2014. 
  319. ^ Müller, Vincent C.; Bostrom, Nick (2016). „Future Progress in Artificial Intelligence: A Survey of Expert Opinion”. Ур.: Müller, Vincent C. Fundamental Issues of Artificial Intelligence. Springer. стр. 553—571. 
  320. ^ Santos-Lang, Christopher (2014). „Our responsibility to manage evaluative diversity” (PDF). ACM SIGCAS Computers & Society. 44 (2): 16—19. S2CID 5649158. doi:10.1145/2656870.2656874. 
  321. ^ Dvorsky, George (1. 4. 2013). „How Much Longer Before Our First AI Catastrophe?”. Gizmodo. Приступљено 27. 11. 2021. 
  322. ^ Muehlhauser, Luke (18. 10. 2013). „Ben Goertzel on AGI as a Field”. Machine Intelligence Research Institute. Приступљено 27. 11. 2021. 
  323. ^ Chalfen, Mike (15. 10. 2015). „The Challenges Of Building AI Apps”. TechCrunch. Приступљено 27. 11. 2021. 
  324. ^ The Cambridge handbook of artificial intelligence. Frankish, Keith., Ramsey, William M., 1960-. Cambridge, UK. 12. 6. 2014. стр. 342. ISBN 978-0-521-87142-6. OCLC 865297798. 
  325. ^ Chandler, Daniel; Munday, Rod (2020). A Dictionary of Media and Communication. Oxford University Press. ISBN 978-0-19-884183-8. doi:10.1093/acref/9780198841838.001.0001. 
  326. ^ Pennachin & Goertzel (2007).
  327. ^ а б Roberts (2016).
  328. ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric, ур., „The Biointelligence Explosion: How Recursively Self-Improving Organic Robots will Modify their Own Source Code and Bootstrap Our Way to Full-Spectrum Superintelligence”, Singularity Hypotheses, The Frontiers Collection, Berlin, Heidelberg: Springer Berlin Heidelberg, стр. 199—238, ISBN 978-3-642-32559-5, doi:10.1007/978-3-642-32560-1_11, Приступљено 2022-01-16 
  329. ^ Gouveia, Steven S., ур. (2020). „ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce”. The Age of Artificial Intelligence: An Exploration. Vernon Press. ISBN 978-1-62273-872-4. 
  330. ^ Russell & Norvig (2021), стр. 986.
  331. ^ Goode, Luke (30. 10. 2018). „Life, but not as we know it: A.I. and the popular imagination”. Culture Unbound. Linkoping University Electronic Press. 10 (2): 185—207. ISSN 2000-1525. S2CID 149523987. doi:10.3384/cu.2000.1525.2018102185Слободан приступ. 
  332. ^ Lucas, Duncan (2002). Body, Mind, Soul—The'Cyborg Effect': Artificial Intelligence in Science Fiction (thesis). McMaster University (PhD thesis). hdl:11375/11154. 
  333. ^ Mubin, Omar; Wadibhasme, Kewal; Jordan, Philipp; Obaid, Mohammad (2019). „Reflecting on the Presence of Science Fiction Robots in Computing Literature”. ACM Transactions on Human-Robot Interaction. 8 (1). Article 5. S2CID 75135568. doi:10.1145/3303706Слободан приступ. 
  334. ^ Solarewicz, Krzysztof (2015). „The Stuff That Dreams Are Made of: AI in Contemporary Science Fiction”. Beyond Artificial Intelligence. Topics in Intelligent Engineering and Informatics. 9. Springer International Publishing. стр. 111—120. ISBN 978-3-319-09667-4. doi:10.1007/978-3-319-09668-1_8. 
  335. ^ Wiegel, Alexander (2012). „AI in Science-fiction: a comparison of Moon (2009) and 2001: A Space Odyssey (1968)”. Aventinus. 
  336. ^ Chalmers (1995).
  337. ^ Dennett (1991).
  338. ^ Horst (2005).
  339. ^ Searle (1999).
  340. ^ Searle (1980), стр. 1.
  341. ^ Russell & Norvig (2021), стр. 9817.
  342. ^ Searle's Chinese room argument: Discussion:
  343. ^ Leith, Sam (2022-07-07). „Nick Bostrom: How can we be certain a machine isn’t conscious?”. The Spectator (на језику: енглески). Приступљено 2024-02-23. 
  344. ^ а б в Thomson, Jonny (2022-10-31). „Why don't robots have rights?”. Big Think (на језику: енглески). Приступљено 2024-02-23. 
  345. ^ а б Kateman, Brian (2023-07-24). „AI Should Be Terrified of Humans”. TIME (на језику: енглески). Приступљено 2024-02-23. 
  346. ^ Wong, Jeff (10. 7. 2023). „What leaders need to know about robot rights”. Fast Company. 
  347. ^ Hern, Alex (2017-01-12). „Give robots 'personhood' status, EU committee argues”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 2024-02-23. 
  348. ^ Dovey, Dana (2018-04-14). „Experts Don't Think Robots Should Have Rights”. Newsweek (на језику: енглески). Приступљено 2024-02-23. 
  349. ^ Cuddy, Alice (2018-04-13). „Robot rights violate human rights, experts warn EU”. euronews (на језику: енглески). Приступљено 2024-02-23. 
  350. ^ The Intelligence explosion and technological singularity: I. J. Good's "intelligence explosion" Vernor Vinge's "singularity"
  351. ^ Russell & Norvig (2021), стр. 1005.
  352. ^ Transhumanism:
  353. ^ AI as evolution:
  354. ^ AI in myth:
  355. ^ McCorduck (2004), стр. 340–400.
  356. ^ Buttazzo (2001).
  357. ^ Anderson (2008).
  358. ^ McCauley (2007).
  359. ^ Galvan (1997).

Литература

Спољашње везе