Корисник:ГрупаМАТФ/песак

С Википедије, слободне енциклопедије
Дијаграм тока који приказује одлуке које доносе системи за препоруке, отприлике 2001. године [1]

Алгоритамска пристрасност описује систематске и понављајуће грешке у рачунарском систему које стварају неправедне исходе, као што је привилеговање једне категорије у односу на другу на начине који се разликују од намењене функције алгоритма.

Пристрасност може настати из многих фактора, укључујући, али не ограничавајући се на дизајн алгоритма, ненамерну употребу, неочекивану употребу или одлуке које се односе на начин кодирања, прикупљања, одабира или употребе података за обуку алгоритма. На пример, примећена је алгоритамска пристрасност у резултатима претраге на претраживачима и друштвеним мрежама. Ова пристрасност може имати утицај који варира од ненамерног кршења приватности до јачања друштвених пристрасности везаних за расу, пол, сексуалну оријентацију и етничку припадност. Проучавање алгоритамске пристрасности највише се бави алгоритмима који одражавају систематску и неправедну дискриминацију. Ова пристрасност је недавно почела да се адресира у правним оквирима, као што су Општа уредба о заштити података (2018) и предложени Закон о вештачкој интелигенцији (2021), Европске уније.

Како алгоритми проширују своју способност да организују друштво, политику, институције и понашање, социолози су постали забринути због начина на који неочекивани излаз и манипулација подацима могу утицати на физички свет. Због тога што се алгоритми често сматрају неутралним и без пристрасности, они могу погрешно дати привид већег ауторитета од људског стручног знања (делом због психолошког феномена пристрасности аутоматизације), а у неким случајевима, ослањање на алгоритме може заменити људску одговорност за њихове исходе. Пристрасност може ући у алгоритамске системе као резултат постојећих културних, друштвених или институционалних очекивања; због техничких ограничења њиховог дизајна; или коришћењем у неочекиваним контекстима или од стране публике која није узета у обзир у почетном дизајну софтвера.

Алгоритамска пристрасност је била наведена у случајевима који се крећу од исхода избора до ширења говора мржње на интернету. Такође се појавила у правосуђу, здравству, запошљавању, погоршавајући постојеће расне, социјалне и родне предрасуде. Релативна неспособност технологије препознавања лица да тачно идентификује тамнопуте особе повезана је са вишеструким неправедним хапшењима црних мушкараца, а то је питање које произлази из неуравнотежених скупова података. Проблеми у разумевању, истраживању и откривању алгоритамске пристрасности и даље постоје због заштићене природе алгоритама који се обично третирају као пословна тајна. Чак и када се пружи потпуна транспарентност, сложеност одређених алгоритама представља препреку у разумевању њиховог функционисања. Осим тога, алгоритми се могу мењати или одговарати на улаз или излаз на начине који се не могу предвидети или лако репродуковати за анализу. У многим случајевима, чак и унутар једне wеб странице или апликације, не постоји један алгоритам за испитивање, већ мрежа многих повезаних програма и улаза података, чак и између корисника исте услуге.

Дефиниције[уреди | уреди извор]

Дијаграм из 1969. године који приказује како једноставан рачунарски програм доноси одлуке, илуструјући врло једноставан алгоритам.

Алгоритми су тешки за дефинисање,[2] али се опште могу схватити као листе инструкција које одређују како програми читају, прикупљају, обрађују и анализирају податке како би генерисали излаз.[3] За строго технички увод, погледајте Алгоритам. Напредак у рачунарском хардверу довео је до повећане способности обраде, складиштења и преноса података. То је подстакло дизајн и усвајање технологија попут машинског учења и вештачке интелигенције.[4] Анализирајући и обрађујући податке, алгоритми су основа претраживача,[5] друштвених медија,[6] система препорука,[7] онлајн трговине,[8] онлајн оглашавања,[9] и многих других услуга.[10]

Савремени друштвени научници су забринути због алгоритамских процеса уграђених у хардверске и софтверске апликације због њиховог политичког и друштвеног утицаја, те доводе у питање претпоставке неутралности алгоритма.[11][12][13][14] Појам алгоритамске пристрасности описује систематске и понављајуће грешке које стварају неправедне исходе, као што је давање привилегија једној произвољној групи корисника у односу на друге.На пример, алгоритам кредитног рејтинга може одбити кредит без неправде, ако доследно узима у обзир релевантне финансијске критеријуме. Ако алгоритам препоручује кредите једној групи корисника, али одбија кредите другом скупу готово идентичних корисника на основу неповезаних критеријума, и ако се овакво понашање може поновити у многим ситуацијама, тада се алгоритам може описати као пристрасан.[15] Ова пристраност може бити намерна или ненамерна (на пример, може произлазити из пристраних података добијених од радника који је претходно обављао посао који ће алгоритам сада обављати).

Методе[уреди | уреди извор]

Пристраност се може унети у алгоритам на неколико начина. Приликом састављања скупа података, подаци се могу прикупљати, дигитализовати, прилагођавати и унети у базу података према критеријумима каталогизације које је осмислио човек.[16] Затим, програмери додељују приоритете, односно хијерархије, за начин на који програм процењује и сортира те податке. То захтева људске одлуке о томе како се подаци категоризују, и који подаци се укључују или одбацују.[16]  Неки алгоритми прикупљају сопствене податке на основу критеријума које су одабрали људи, што такође може одражавати пристрасност људских дизајнера.[16] Други алгоритми могу ојачати стереотипе и преференце док обрађују и приказују релевантне податке за људске кориснике, на пример, одабиром информација на основу претходних избора сличног корисника или групе корисника.[16]

Осим састављања и обраде података, пристраност може произаћи и из самог дизајна.[17] На пример, алгоритми који одређују расподелу ресурса или надзор (као што је одређивање места у школи) могу ненамерно дискриминисати категорију када процењују ризик на основу сличних корисника (као у случају кредитног рејтинга).[18] У међувремену, системи за препоруку који раде тако што повезују кориснике са сличним корисницима, или који користе претпостављене маркетиншке особине, могу се ослањати на нетачне асоцијације које одражавају широке етничке, родне, социо-економске или расне стереотипе. Још један пример долази од утврђивања критеријума за оно што се укључује и искључује из резултата. Ти критеријуми могу представљати неочекиване исходе за резултате претраге, као што је случај са софтвером за препоруку летова који изоставља летове који не прате путање летова спонзорске авиокомпаније.[17] Алгоритми такође могу показати пристраност према неизвесности, нудећи сигурније процене када су доступни већи скупови података. То може искривити алгоритамске процесе у правцу резултата који више одговарају већим узорцима, што може занемарити податке о недовољно заступљеним популацијама.[19]

Историја[уреди | уреди извор]

Ова картица се користила за учитавање софтвера у стари мејнфрејм рачунар. Сваки бајт (на пример, слово 'А') се уноси прављењем рупа. Иако су савремени рачунари сложенији, они одражавају овај људски процес доношења одлука при прикупљању и обради података.[20]

Ране критике[уреди | уреди извор]

Најранији рачунарски програми су били дизајнирани да опонашају људско закључивање и дедукцију, те су сматрани функционалним када су успешно и доследно репродуковали ту људску логику. У својој књизи „Рачунарска моћ и људски разум” из 1976. године, пионир вештачке интелигенције Џозеф Вајзенбаум је предложио да пристрасност може произаћи како из података коришћених у програму, тако и из начина на који је програмиран.[21]

Вајзенбаум је написао да су програми низ правила која су створили људи да би их рачунар следио. Следећи та правила доследно, такви програми инкарнирају закон,[21] тј. примењују специфичан начин за решавање проблема. Правила која рачунар следи заснивају се на претпоставкама програмера о томе како би ти проблеми могли бити решени. То значи да код може укључивати ​​имагинацију програмера о томе како свет функционише, укључујући њихове предрасуде и очекивања.[21]  Иако рачунарски програм може на овај начин укључити пристрасност, Вајзенбаум је такође приметио да било који подаци који се уносе у машину такође одражавају људске процесе одлучивања јер се подаци бирају.[21]

На крају, приметио је да машине могу такође преносити добре информације с нежељеним последицама ако корисницима није јасно о томе како интерпретирати резултате. [21] Вајзенбаум је упозорио да се не треба уздати у одлуке које доносе рачунарски програми које корисник не разуме, поредећи такво поверење са туристом који може пронаћи своју хотелску собу искључиво кретањем лево или десно бацањем новчића. Битно је да туриста нема основу за разумевање како или зашто је стигао до своје дестинације, а успешан долазак не значи да је процес тачан или поуздан.[21]

Један од раних примера алгоритамске пристрасности резултирао је у томе да је од 1982. до 1986. године чак 60 жена и етничких мањина било одбијено за упис на Медицински факултет у Лондону. То се десило због имплементације новог рачунарског система за вођење оцена који је одбијао улазак женама и мушкарцима са именима која звуче страно, на основу историјских трендова у пријемима.[22] Иако су многе школе у то време примењивале сличне пристрасности у свом процесу селекције, овај факултет се истицао по томе што је аутоматизовао ту пристрасност кроз употребу алгоритма, чиме је привукао пажњу људи на много ширем нивоу.

У последњих неколико година, када је све више алгоритама почело да користи методе машинског учења на стварним подацима, алгоритамска пристрасност се чешће проналази због пристрасности која постоји у подацима.

Савремене критике и одговори[уреди | уреди извор]

Иако добро дизајнирани алгоритми често доводе до једнаких или чак праведнијих исхода од одлука које доносе људи, ипак се догађају случајеви пристрасности, а тешко их је предвидети и анализирати.[23] Сложеност анализирања алгоритамске пристрасности порасла је заједно са сложеношћу програма и њиховог дизајна. Одлуке које доноси један дизајнер или тим дизајнера могу бити скривене међу многим деловима кода који су направљени за један програм. Временом се ове одлуке и њихов заједнички утицај на излаз програма могу заборавити.[24] У теорији, ове пристрасности могу створити нове обрасце понашања, односно скрипте, у вези са одређеним технологијама, како се код интерактује са другим елементима друштва.[25] Пристрасности такође могу утицати на то како се друштво обликује око података које алгоритми захтевају. На пример, ако подаци показују висок број хапшења у одређеном подручју, алгоритам може доделити више полицијских патрола том подручју, што може довести до више хапшења.[26]

Одлуке алгоритамских програма могу се сматрати ауторитативнијим од одлука људи које су намењени да подрже,[27] процес који аутор Клеј Ширки описује као алгоритамска ауторитативност.[28] Ширки користи овај термин да би описао „одлуку да се неуправљан процес екстракције вредности из различитих, непоузданих извора сматра ауторитативним”, као што су резултати претраге.[28] Ова неутралност може бити погрешно представљена језиком који користе стручњаци и медији приликом презентовања резултата јавности. На пример, листа вести која је одабрана и представљена као популарна или актуелна може бити креирана на основу критеријума који су значајно шири од саме популарности.[16]

Због своје практичности и ауторитета, алгоритми се теоретски посматрају као средство за преношење одговорности са људи.[27][29]  То може имати ефекат смањења алтернативних опција, компромиса или флексибилности. Социолог Скот Лаш је критиковао алгоритме као нову форму генеративне моћи, у смислу да су они виртуелно средство генерисања стварних циљева. Где је раније људско понашање генерисало податке који су се сакупљали и проучавали, моћни алгоритми све више могу обликовати и дефинисати људско понашање.[30]

Забринутост због утицаја алгоритама на друштво довела је до формирања радних група у организацијама попут Гугла и Мајкрософта, које су заједно основале радну групу под називом „Правичност, Одговорност и Транспарентност у Машинском Учењу”.[31] Идеје из Гугл укључују заједничке групе које надгледају резултате алгоритама и гласају да би контролисале или ограничиле излазе који имају негативне последице.[31] У последњих неколико година, проучавање правичности, одговорности и транспарентности алгоритама је постало самостално интердисциплинарно истраживачко подручје, са годишњом конференцијом названом ФАццТ.[32] Критичари су сугерисали да ове иницијативе не могу ефикасно деловати као независни надзорници када многе од њих финансирају корпорације које граде системе који се проучавају.[33]

Типови[уреди | уреди извор]

Већ постојећи[уреди | уреди извор]

Већ постојећа пристраност у алгоритму је последица темељних друштвених и институционалних идеологија. Такве идеје могу утицати или створити личне пристраности унутар појединих дизајнера или програмера. Такве предрасуде могу бити експлицитне и свесне, или имплицитне и несвесне.[15][13] Лоше одабрани улазни подаци или подаци са пристрасним извором ће утицати на резултате које стварају машине.[20] Уграђивање претходно постојећих предрасуда у софтвер може сачувати друштвене и институционалне предрасуде, а без исправљања, могу бити реплициране у свим будућим применама тог алгоритма.[24][29]

Пример оваквог облика пристрасности је Британски програм за закон о држављанству, дизајниран да аутоматизује евалуацију нових британских грађана након усвајања Закона о држављанству Британије 1981. године.[15] Програм је тачно одражавао начела закона који је наводио да „мушкарац може бити отац само своје брачне деце, док жена може бити мајка свог свог детета, било да је брачно или ванбрачно.”[34] У покушају да пренесе одређену логику у алгоритамски процес, Британски програм за закон о држављанству је утиснуо логику Закона о држављанству Британије у свој алгоритам, што би је одржавало чак и ако би закон био евентуално укинут.

Софтвер за препознавање лица који се користи заједно са надзорним камерама показао је пристрасност у препознавању азијских и црних лица у односу на бела лица.

Технички[уреди | уреди извор]

Техничка пристрасност се јавља кроз ограничења програма, рачунарске снаге, његовог дизајна или других ограничења система.[15] Таква пристрасност такође може бити ограничење дизајна, на пример, претраживач који приказује три резултата по екрану може се схватити да даје предност прва три резултата, као у приказу цена авио-компаније. Други случај је софтвер који се ослања на случајност за праведну дистрибуцију резултата. Ако механизам генерисања случајних бројева није заиста насумичан, може да уведе пристрасност.[15]

Деконтекстуализовани алгоритам користи неповезане информације за сортирање резултата, на пример, алгоритам за одређивање цена лета који сортира резултате по абецедном реду био би пристрасан у корист Американ ерлајнса у односу на Јунајтед ерлајнс.[15] Може се применити и супротно, при чему се резултати вреднују у различитим контекстима од којих су прикупљени. Подаци се могу прикупљати без кључног спољног контекста: на пример, када софтвер за препознавање лица користе камере за надзор, али га процењује удаљено особље у другој земљи или региону, или процењују нељудски алгоритми без свести о томе шта се дешава изван камере. Ово би могло да створи непотпуно разумевање места злочина, на пример, потенцијално погрешно посматрање оних који су починили злочин.[12]

Најзад, техничка пристрасност се може створити покушајем да се одлуке формализују у конкретне кораке под претпоставком да људско понашање функционише на исти начин. На пример, софтвер одмерава тачке података да би одредио да ли оптужени треба да прихвати нагодбу о признању кривице, игноришући утицај емоција на пороту.[15]

Новонастали[уреди | уреди извор]

Новонастала пристрасност је резултат употребе и ослањања на алгоритме у новим или неочекиваним контекстима.[15] Алгоритми можда нису прилагођени да узму у обзир нове облике знања, као што су нови лекови или медицинска открића, нови закони, пословни модели или померање културних норми.[15] Ово може искључити групе кроз технологију, без давања јасних обриса како би се разумело ко је одговоран за њихово искључење.[13] Слично, проблеми се могу појавити приликом обучавања података нису усклађени са контекстима са којима се алгоритам сусреће у стварном свету.

Године 1990, идентификован је пример брзе пристрасности у софтверу који је коришћен за смештање америчких студената медицине у резиденцију, Национални програм борачких односа (НРМП).[15] Алгоритам је дизајниран у време када би мало брачних парова тражило боравиште за боравак. Како је све више жена улазило у медицинске школе, све више студената ће вероватно тражити боравак заједно са својим партнерима. Процес је захтевао да сваки подносилац достави листу преференција за пласман широм САД, која је затим сортирана и додељена када су болница и апликант пристали на подударање. У случају брачних парова где су обоје тражили боравиште, алгоритам је прво одмерио избор локације партнера са вишим оценама. Резултат је био често додељивање школа са високим приоритетом првом партнеру, а школе са нижим преференцијама другом партнеру, уместо сортирања ради компромиса у избору положаја.[15][35]

Додатне новонастале предрасуде укључују:

Корелације[уреди | уреди извор]

Непредвидиве корелације могу се појавити када се велики скупови података упореде једни са другима. На пример, подаци прикупљени о обрасцима претраживања веба могу бити усклађени са сигналима који означавају осетљиве податке (као што су раса или сексуална оријентација). Одабиром према одређеном понашању или обрасцима прегледања, крајњи ефекат би био скоро идентичан дискриминацији коришћењем директних података о раси или сексуалној оријентацији.[19] У другим случајевима, алгоритам изводи закључке на основу корелација, а да не може да их изведе. На пример, један програм тријаже је дао мањи приоритет астматичарима који су имали упалу плућа него астматичарима који нису имали упалу плућа. Програмски алгоритам је то урадио јер је једноставно упоредио стопе преживљавања: астматичари са упалом плућа су у највећем ризику. Историјски гледано, из истог разлога, болнице обично таквим астматичарима пружају најбољу и најнепосреднију негу.[36]

Непредвиђене употребе[уреди | уреди извор]

До појаве пристрасности може доћи када непредвиђена публика користи алгоритам. На пример, машине могу захтевати да корисници могу да читају, пишу или разумеју бројеве, или да се односе на интерфејс користећи метафоре које не разумеју.[15] Ова искључења могу постати сложена, пошто је технологија пристрасности или искључивања дубље интегрисана.[26]

Осим искључења, непредвиђене употребе могу се појавити од крајњег корисника који се ослања на софтвер, а не на сопствено знање. У једном примеру, неочекивана група корисника довела је до алгоритамске пристрасности у Великој Британији национални законски програм креиран као доказ концепта од стране компјутерских научника и имиграционих адвоката да би проценили подобност за британско држављанство. Дизајнери су имали приступ правној експертизи осим крајњих корисника у имиграционим канцеларијама, чије би разумевање софтвера и закона о имиграцији вероватно било несофистицирано. Агенти који су постављали питања у потпуности су се ослањали на софтвер, који је искључио алтернативне путеве до држављанства, и користили су софтвер чак и након што су нова судска пракса и правна тумачења довели до тога да алгоритам застари. Као резултат дизајнирања алгоритма за кориснике за које се претпоставља да су правно упућени у закон о имиграцији, софтверски алгоритам је индиректно довео до пристрасности у корист кандидата који одговарају веома уском скупу правних критеријума постављеним алгоритмом, а не ширим критеријумима британског имиграционог закона.[15]

Повратне спреге[уреди | уреди извор]

Брза пристрасност такође може да створи повратну петљу, или рекурзију, ако подаци прикупљени за алгоритам резултирају одговорима у стварном свету који се враћају у алгоритам.[37][38] На пример, симулације предиктивног полицијског софтвера ( ПредПол ), распоређеног у Оукланду, Калифорнија, сугерисале су повећано присуство полиције у црним четвртима на основу података о криминалу које је објавила јавност.[39] Симулација је показала да је јавност пријавила злочин на основу погледа полицијских аутомобила, без обзира шта полиција ради. Симулација је тумачила виђења полицијских аутомобила у моделирању својих предвиђања злочина, и заузврат би довела до још већег повећања присуства полиције у тим насељима.[37][40][41] Група за анализу података о људским правима, која је спровела симулацију, упозорила је да на местима где је расна дискриминација фактор хапшења, такве повратне спреге могу да ојачају и продуже расну дискриминацију у полицији.[38] Још један добро познати пример таквог алгоритма који показује такво понашање је ЦОМПАС, софтвер који одређује вероватноћу појединца да постане починилац кривичног дела. Софтвер се често критикује због тога што црне појединце означава као криминалце много вероватније од других, а затим враћа податке у себе да појединци постану регистровани криминалци, додатно примењујући пристрасност коју ствара скуп података на који алгоритам делује.

Системи препорука као што су они који се користе за препоруку онлајн видео записа или новинских чланака могу створити повратне информације.[42] Када корисници кликну на садржај који је предложен од стране алгоритма, то утиче на следећи скуп предлога.[43] Временом то може довести до тога да корисници уђу у облачић филтера и не буду свесни важног или корисног садржаја.[44][45]

Утицаји[уреди | уреди извор]

Комерцијални утицаји[уреди | уреди извор]

Корпоративни алгоритми могу бити прилагођени тако да неопажано се фокусирају на финансијске аранжмане или споразуме између компанија, без знања корисника који би могао погрешно да алгоритам сматра непристрасним. Американ Ерлајнс је створио алгоритам за проналажење летова 1980-их. Софтвер је клијентима приказивао низ летова различитих авиокомпанија, али је посматрао факторе који су подстакли његове летове, без обзира на цену или погодност. Присуствујући Конгресу Сједињених Држава, председник авио-компаније је изјавио да је систем створен са намером да се стекне конкурентска предност путем преференцијалног поступка.[46][15]

У артиклу из 1998. који описује Гугл, оснивачи компаније су усвојили политику транспарентности у резултатима претраге у вези са плаћеним пласманом, тврдећи да ће „претраживачи који се финансирају рекламама бити пристрасни према оглашивачима и неприлагођени потребама потрошача”. Ова пристрасност би била скривена манипулација корисника.[46]

Гласачко понашање[уреди | уреди извор]

Група повезаних студија о неодлучним бирачима у САД-у и Индији открила је да су резултати претраживача могли да промене резултате гласања за око 20%. Истраживачи су закључили да кандидати немају намеру да се такмиче ако је алгоритам, намерно или ненамерно, повећао број бирача за конкурентског кандидата.[47] Корисници Фејсбука који су видели поруке везане за гласање чешће су гласали. Насумично испитивање корисника Фејсбука из 2010.[48] године показало је увећање за чак 20% (340.000 гласова) међу корисницима који су видели поруке које подстичу на гласање, као и слике својих пријатеља који су гласали. Правник Џонатан Зитрејн упозорио је да би ово могло да на изборима створи ефекат познат под називом дигитал геррyмандеринг, манипулација информацијама и њена селективна презентација од стране посредника како би испунио своје сопствене потребе, радије него задовољавање потреба корисника, ако је манипулација намерна.

Родна дискриминација[уреди | уреди извор]

Током 2016 године, откривено је да интернет сајт ЛинкедИн препоручује мушке варијације женских имена као одговор на корисникову претрагу. Сајт није правио сличне препоруке у претрагама мушких имена. На пример, на претрагу имена „Андреа” би излазили предлози ако су корисници мислили на име „Андреw” али у обрнутом случају када би корисници претражили име „Андреw” не би им се предлагало да ли су мислили на име „Андреа”. Компанија је одговорила да је то резултат анализе интеракција корисника са сајтом.[49]

Током 2012. године, робна кућа Таргет била је препозната по томе што прикупља податке који указују на то када су жене потрошачи трудне, иако нису то наглашавале, затим су делили те информације са маркетиншким партнерима.[50] Зато што су информације биле претпоставка, пре него директно наговештене или пријављене, компанија није имала легалну обавезу да заштити приватност муштерија.[51]

Алгоритми веб претраге су такође оптужени за пристрасност. Гугл резултати дају приоритет порнографском садржају у терминима претраге који се односе на сексуалност, на пример, „лезбејка”. Ова пристрасност се примењује и на претраживач који приказује популаран, али сексуализован садржај у неутралним претрагама. На пример, чланак „25 најсексипилнијих спортисткиња” приказан је као први резултат у претрагама за жене спортисткиње. [52] 2017. Гугл је прилагодио ове резултате заједно са осталима који су приказивали мржњу, расистичке ставове, злостављање деце и порнографију, и други узнемирујуће и увредљиве садржаје.[53] Други примери укључују приказивање више плаћених послова за мушке кандидате на веб страницама за тражење посла.[54] Истраживачи су такође идентификовали да машинско превођење показује снажну тенденцију према мушким пословима.[55] Ово се посебно примећује у областима повезаним са неуравнотеженом дистрибуцијом полова, укључујући МИНТ занимања.[56]

Током 2015. године, Амазон је искључио систем вештачке интелигенције који је развио за апликацију пријава за посао када су схватили да је развијен против жена.[57] Апликација за запошљавање је искључивала кориснике који су у својој биографији користили речи „жена“, или су похађали женске колеџе.[58] Такође је 2019. откривено да се сличан проблем дешавао и на апликацијама за музику, нпр. Спотифy и да се дешавала дискриминација жена уметница.[59]

Расна и етничка дискриминација[уреди | уреди извор]

Алгоритми су критиковани као метод за прикривање расних предрасуда у доношењу одлука.[60][61][62] Због начина на који су одређене расе и етничке групе третиране у прошлости, подаци често могу садржати скривене предрасуде.[63] На пример, црнци ће вероватно добити дуже казне од белаца за исте злочине, што би потенцијално могло да значи да систем појачава првобитне пристрасности у подацима.[64][65]

Гугл се 2015. године извинио када су се припадници тамне расе жалили да их је алгоритам за идентификацију слика идентификовао као гориле.[66] У 2010. години Никон фотоапарати су критиковани када су алгоритми за препознавање слика стално питали азијске кориснике да ли трепћу.[67] Такви примери су производ пристрасности у биометријским базама података. Биометријски подаци се извлаче из концепта тела, укључујући расне карактеристике које се посматрају или претпостављају, које се затим могу унети као подаци.[62] Технологија препознавања говора може имати различите тачности у зависности од акцента корисника.[68]

Биометријски подаци о раси се такође могу закључити, а не посматрати. На пример, студија из 2012. године показала је да је већа вероватноћа да ће имена која се обично повезују са црнцима дати резултате претраге који имплицирају на евиденцију о хапшењу, без обзира на то да ли постоји досије на имене те особе.[69]

У 2019. години, једна студија је открила да је здравствени алгоритам, који продаје Оптум, фаворизовао припаднике беле расе у односу на болесније припаднике црне расе. Овај алгоритам предвиђа колико ће пацијента коштати здравствено осигурање у будућности. Међутим, трошак није расно неутралан, јер су припадници црне расе имали око 1.800 долара мање медицинских трошкова годишње од припадника беле расе са истим бројем хроничних обољења, што је довело до тога да алгоритам процењује да су припадници беле расе подједнако у ризику од будућих здравствених проблема као и припадници црне расе који су боловали од знатно више болести.[70]

Студија коју су спровели истраживачи из Универзитета у Калифорнији, Беркли у новембру 2019. године открила је да су алгоритми за хипотеке дискриминаторни према Латиноамериканцима и Афроамериканцима. Алгоритми су дискриминисали мањине на основу кредитне способности која је укорењена у америчком закону о поштеном кредитирању, који дозвољава зајмодавцима да користе мере идентификације да би се утврдило да ли је појединац достојан примања кредита. Ови конкретни алгоритми били су присутни у ФинТецх компанијама и показало се да дискриминишу мањине.[71]

Говор мржње на мрежама[уреди | уреди извор]

У 2017. установљено је да је Фацебоок алгоритам дизајниран да уклони говор мржње на мрежи, али да даје предност мушкарцима беле расе у односу на децу која припадају црној раси, када процењује неприхватљив садржај, према интерним Фацебоок документима. Алгоритам, који је комбинација компјутерских програма и групе људи који прате и прегледају садржај на мрежи, креиран је да заштити широке категорије, а не специфичне подскупове категорија. На пример, постови који осуђују муслимане били би блокирани, док би постови који осуђују радикалне муслимане били дозвољени.[72]

Такође је утврђено да Фацебоок дозвољава купцима огласа да циљају „мрзитеље Јевреја” као категорију корисника, што је компанија рекла да је ненамеран резултат алгоритама који се користе у процени и категоризацији података. Дизајн алгоритма компаније је такође омогућио купцима огласа да блокирају Афроамериканце да виде огласе за становање.[73]

Док се алгоритми користе за праћење и блокирање говора мржње, за неке је утврђено да је 1,5 пута већа вероватноћа да ће означити информације које су објавили припадници црне расе и 2,2 пута вероватно да ће означити информације као говор мржње ако су написане на афроамеричком енглеском. Без контекста за увреде и епитете, чак и када су их користиле заједнице које су их поново присвојиле, били су означени.[74]

Надзор[уреди | уреди извор]

Софтвер за надзорне камере може се сматрати инхерентно политичким, јер захтева алгоритме за разликовање нормалног од абнормалног понашања и за одређивање ко припада одређеним локацијама у одређено време. Показало се да је способност таквих алгоритама да препознају лица широм расног спектра ограничена расном разноликошћу слика у бази података за обуку; ако већина фотографија припада једној раси или полу, софтвер је бољи у препознавању других припадника те расе или пола.[75]

Међутим, чак и ревизије ових система за препознавање слика су етички испуњене, а неки научници сугеришу да ће контекст технологије увек имати несразмеран утицај на заједнице чије су акције превише надгледане. На пример, анализа софтвера из 2002. коришћеног за идентификацију појединаца на надзорним камерама пронашла је неколико примера пристрасности када се користи против криминалних база података.[76] Оцењено је да софтвер идентификује мушкарце чешће него жене, старије људе чешће од младих и идентификује Азијате, Афроамериканце и друге расе чешће од белаца. Додатне студије софтвера за препознавање лица откриле су супротност када се обучавају на базама података без криминала, при чему је софтвер најмање тачан у идентификацији тамнопутих жена.[77]

Дискриминација над ЛQБТQ заједницом[уреди | уреди извор]

У 2011. години корисници апликације Гриндр која је намењена хомосексуалцима, пријавила је да Андроид продавница имала алгоритам који повезује Гриндр са апликацијама дизајнираним да пронађе сексуалне преступнике, за које критичари кажу да је повезивала хомосексуалност са педофилијом.[78]

У 2019. години откривено је да на Фејсбуку претрага „моји женски пријатељи” приказивао предлоге као што су „у бикинију” или „на плажи”, а са друге стране, претрага „моји мушки пријатељи“, није предлагала такве резултате.[79]

Уочено је да технологија препознавања лица изазива проблеме трансродним особама. У 2018. било је извештаја да су таксисти који су били трансродни имали потешкоћа са софтвером за препознавање лица који Убер примењује као уграђену безбедносну меру. Као резултат тога, неки од налога транс Убер возача су суспендовани, што их је коштало карата и потенцијално посла, а све због тога што је софтвер за препознавање лица имао потешкоћа са препознавањем лица транс возача. Иако би се чинило да решење за ово питање подразумева укључивање транс особа у сетове за обуку за моделе машинског учења, пример транс видео снимака који су прикупљени да би се користили у подацима о обуци није добио сагласност од транс особа које су укључене у видео снимке, што је створило питање кршења приватности.[80]

Постојала је и студија која је спроведена на Универзитету Станфорд 2017. године која је тестирала алгоритме у систему машинског учења за који је речено да може да открије сексуалну оријентацију појединца на основу њихових слика лица. Модел у студији је предвидео тачну разлику између геј и стрејт мушкараца у 81% времена и исправну разлику између геј и стрејт жена у 74% времена. Ова студија је довела до реакције ЛГБТQ заједнице, која се плашила могућих негативних последица које би овај систем вештачке интелигенције могао да има на те појединце доводећи их у опасност да буду „избачени” против своје воље.[81]

Имајући у виду стереотипе који још увек постоје у вези са инвалидитетом, осетљива природа откривања ових карактеристика такође носи огромне изазове у вези са приватношћу. Пошто откривање информација о инвалидности може бити табу и довести до даље дискриминације ове популације, постоји недостатак експлицитних података о инвалидитету који су доступни за алгоритамски систем за интеракцију. Особе са инвалидитетом се суочавају са додатним штетама и ризицима у вези са својом социјалном подршком, трошковима здравственог осигурања, дискриминацијом на радном месту и другим основним потребама након откривања статуса инвалидитета. Алгоритми додатно погоршавају овај јаз тако што поново стварају предрасуде које већ постоје у друштвеним системима и структурама.[82]

Дискриминација над људима са инвалидитетом[уреди | уреди извор]

Док су примери алгоритамске правичности оцењени на основу различитих аспеката пристрасности – као што су пол, раса и социо-економски статус, инвалидитет је често изостављен са листе.[83][84] Маргинализација са којом се особе са инвалидитетом тренутно суочавају у друштву се преводи у системе и алгоритме вештачке интелигенције, стварајући још већу искљученост.[85]

Променљива природа инвалидитета и његова субјективна карактеризација отежава компјутерски приступ. Недостатак историјске дубине у дефинисању инвалидитета, прикупљању његове инциденције и преваленције у упитницима доприноси двосмислености у његовој квантификацији и прорачунима.[86] О дефиницији инвалидитета се дуго расправљало о преласку са медицинског модела на друштвени модел инвалидитета, који утврђује да је инвалидитет резултат неусклађености међуљудских интеракција и баријера у њиховом окружењу, а не оштећења и здравствених стања.[87]

Инвалидност такође може бити ситуациона или привремена, сматрана у сталном стању. Инвалидитети су невероватно разнолики, спадају у широк спектар и могу бити јединствени за сваког појединца. Идентитет људи може варирати у зависности од специфичних врста инвалидитета које имају и начина на који користе помоћне технологије. Висок ниво варијабилности у искуствима људи у великој мери персонализује начин на који се инвалидитет може манифестовати.[88][89]

Препреке истраживању[уреди | уреди извор]

Постоји неколико проблема који ометају проучавање алгоритамске пристрасности на великој скали, што отежава примену академски ригорозних истраживања и јавног разумевања.[11]

Дефинисање поштености[уреди | уреди извор]

Литература о алгоритамској пристрасности се фокусира на постизање поштености, али дефиниције поштености често нису компатибилне једна с другом и стварностима оптимизације машинског учења. На пример, дефинисање поштености као једнакости исхода може се једноставно односити на систем који производи исти резултат за све људе, док се поштеност дефинисана као једнакост третмана може експлицитно узимати у обзир разлике између појединаца.[90] Као резултат, праведност се понекад описује као у конфликту са тачношћу модела, што указује на урођене напетости између приоритета друштвене добробити и приоритета добављача који дизајнирају ове системе.[91] Као одговор на ову напетост, истраживачи су предложили већу пажњу у дизајну и коришћењу система који се ослањају на потенцијално пристрасне алгоритме, при чему се праведност дефинише за специфичне примене и контексте.[92]

Комплексност[уреди | уреди извор]

Алгоритамски процеси су комплексни, често превазилазећи разумевање људи који их користе.[11][46] Операције великог обима могу бити неразумљиве чак и за оне који су укључени у њихово стварање.[93] Методе и процеси савремених програма често су засењени немогућношћу познавања сваке пермутације улаза или излаза кода.[94] Друштвени научник Бруно Латур идентификовао је овај процес као „црну кутију”, процес у којем „научни и технички рад постаје невидљив због сопственог успеха. Када машина ефикасно ради, када се нешто сматра чињеницом, фокус се усмерава само на улазе и излазе, а не на њену интерну сложеност.” Тако парадоксално, што више наука и технологија напредују и постижу успех, то постају све више непрозирни и нејасни.[95] Други су критиковали метафору црне кутије, сугеришући да тренутни алгоритми нису једна црна кутија, већ мрежа међусобно повезаних кутија.[96]

Пример ове комплексности може се наћи у распону улаза у прилагођавању повратних информација. Друштвена мрежа Фацебоок је 2013. године користила најмање 100.000 тачака података за одређивање распореда објава у корисниковој друштвеној мрежи.[97] Осим тога, велики тимови програмера могу радити у релативној изолацији једни од других и бити несвесни кумулативних ефеката малих одлука унутар повезаних и сложених алгоритама.[94] Сав код није оригиналан, већ се може позајмити из других библиотека, што ствара сложен скуп односа између система обраде података и система улазних података.[4]

Додатна сложеност настаје кроз машинско учење и персонализацију алгоритама на основу интеракција корисника као што су кликови, време проведено на сајту и други метрички подаци. Ова персонализована прилагођавања могу отежати покушаје разумевања алгоритама.[98] Једна неидентификована стриминг радио услуга пријавила је да користи пет јединствених алгоритама за одабир музике које је одабрала за своје кориснике, заснованих на њиховом понашању. Ово ствара различита искуства истих стриминг услуга за различите кориснике, што отежава разумевање функције ових алгоритама. Компаније такође често спроводе А/Б тестове како би усавршавале алгоритме на основу одзива корисника. На пример, претраживач Бинг може покренути до десет милиона суптилних варијација своје услуге дневно, стварајући различита искуства услуге за сваку употребу корисника.

Недостатак транспарентности[уреди | уреди извор]

Комерцијални алгоритми су власништво компанија и могу бити третирани као пословна тајна.[11][94] Третирање алгоритама као пословне тајне штити компаније, попут претраживача, где транспарентан алгоритам може открити тактике манипулације рангирања претраге.[98] То чини тешким за истраживаче да спроводе анализе како би открили како алгоритми функционишу.[4] Критичари сугеришу да таква тајност такође може замаглити могуће неетичке методе коришћене у производњи или обради алгоритамског излаза.[98] Други критичари сугеришу да недостатак транспарентности често представља резултат алгоритамске сложености, штитећи компаније од откривања или истраживања сопствених алгоритамских процеса.

Недостатак података о осетљивим категоријама[уреди | уреди извор]

Значајна препрека борби против пристрасности у пракси је то што осетљиве категорије, попут демографије појединаца заштићених антидискриминационим законима, често нису експлицитно узете у обзир приликом прикупљања и обраде података.[99] У неким случајевима, не постоји много прилика за експлицитно прикупљање ових података, као што је у случају праћења дигиталних отисака, свеприсутног рачунарства и интернет ствари. У другим случајевима, управљач података можда не жели да прикупи такве податке из репутационих разлога, или зато што то представља повећан ризик од одговорности и сигурности. Такође може бити случај да ови подаци, барем у вези са Општом уредбом о заштити података Европске уније, спадају под одредбе специјалне категорије (члан 9), те стога долазе са више ограничења у погледу потенцијалног прикупљања и обраде.

Неки су покушали да процене и надоместе недостајуће осетљиве категорије како би омогућили смањење пристрасности, на пример изградњом система за закључивање о етничкој припадности на основу имена,[100] међутим, то може да уведе друге облике пристрасности ако се не предузме са пажњом.[101] Истраживачи машинског учења су се ослонили на криптографске технологије за унапређење приватности, попут сигурног вишестраничког рачунања, како би предложили методе којима се може проценити или ублажити алгоритамска пристрасност, а да ови подаци никада не буду доступни у читљивом формату.[102]

Алгоритамска пристрасност не обухвата само заштићене категорије, већ може се односити и на карактеристике које су теже уочљиве, попут политичких ставова. У овим случајевима, ретко постоји лако доступна или неполитички спорна истинска вредност, а уклањање пристрасности из таквог система је теже.[103] Такође, лажне и случајне корелације могу настати услед недостатка разумевања заштићених категорија, на пример, тарифе осигурања засноване на историјским подацима о саобраћајним несрећама које се могу преклапати, искључиво случајно, са стамбеним насељима етничких мањина.[104]

Решења[уреди | уреди извор]

Студија која је обухватила 84 смернице политике о етичкој вештачкој интелигенцији открила је да су праведност и умањивање нежељене пристрасности били заједнички проблем који је решаван комбинацијом техничких решења, транспарентности и надзора, права на исправку и повећаног надзора, као и напора на разноликости и инклузији.[105]

Техничка[уреди | уреди извор]

Постојало је неколико покушаја да се креирају методе и алати који могу да открију и посматрају пристрасност унутар алгоритма. Ова нова поља се фокусирају на алате који се обично примењују на (тренинг) подацима које програм користи, а не на интерној обради алгоритма. Ове методе такође могу анализирати излаз програма и његову корисност, па стога могу укључивати анализу матрице конфузије (или табеле конфузије).[106][107][108] Објашњива вештачка интелигенција (XАИ) за откривање пристрасности алгоритма је предложени начин за откривање постојања пристрасности у алгоритму или моделу машинског учења.[109] Употреба машинског учења за откривање пристрасности назива се спровођење ревизије вештачке интелигенције, где ревизор представља алгоритам који пролази кроз модел вештачке интелигенције и тренинг податке како би идентификовао пристрасности.[110] Осигуравање да алат вештачке интелигенције попут класификатора буде слободан од пристрасности је теже од самог уклањања осетљивих информација из улазних сигнала, јер су ове информације обично имплицитне у другим сигналима. На пример, хобији, спортови и школе које је посетио кандидат за посао могу открити његов пол софтверу, чак и када је пол уклоњен из анализе. Решења за овај проблем укључују осигуравање да нема никакве информације које би могле бити коришћене за реконструкцију заштићених и осетљивих информација о субјекту, као што је први пут приказано [111] где је дубока неуронска мрежа истовремено обучавана за извршавање задатка и потпуно незаинтересована за заштићену карактеристику. Једноставнија метода је предложена у контексту вектора угнежђавања речи и подразумева уклањање информација које су корелиране са заштићеном карактеристиком.[112]

Тренутно се припрема нови ИЕЕЕ стандард који има за циљ да дефинише методологије које ће помоћи креаторима алгоритама да елиминишу проблеме пристрасности и да јасно изразе транспарентност (односно према властима или крајњим корисницима) у вези са функцијом и могућим ефектима њихових алгоритама.

Транспарентност и надзор[уреди | уреди извор]

Смернице за етику у вези са вештачком интелигенцијом указују на потребу за одговорношћу, препоручујући да се предузму кораци за побољшање разумевања резултата.[113] Таква решења укључују разматрање права на разумевање у алгоритмима машинског учења, као и отпор против примене машинског учења у ситуацијама у којима одлуке не би могле бити објашњене или прегледане.[114] У ту сврху, већ је у току покрет за „Објашњиву вештачку интелигенцију” (XАИ) унутар организација попут ДАРПА-е, из разлога који превазилазе само исправљање пристрасности.[115] На пример, ПwЦ такође предлаже да надгледање излаза значи дизајнирање система на начин да се осигура изолација и искључивање појединачних компоненти система уколико утичу на резултате.[116]

Један почетни приступ транспарентности укључује откривање кода алгоритама.[117] Софтверски код може бити прегледан, а могу се предложити и побољшања путем платформи за хостовање изворног кода. Међутим, овај приступ не мора нужно да производи жељене ефекте. Компаније и организације могу делити све могуће документације и код, али то не успоставља транспарентност уколико публика не разуме пружене информације. Стога, улога заинтересоване критичке публике је вредна истраживања у вези са транспарентношћу. Алгоритми не могу бити одговорни без критичке публике која их прати.[118]

Право на правни лек[уреди | уреди извор]

Са регулаторне перспективе, Торонтска декларација позива на примену оквира људских права на штету узроковану алгоритамском пристрасношћу.[119] То подразумева законско регулисање очекивања одговарајуће пажње с стране дизајнера ових алгоритама, као и успостављање одговорности када приватни актери не успеју да заштите јавни интерес. Напомиње се да таква права могу бити замагљена комплексношћу одређивања одговорности у мрежи сложених и испреплетаних процеса. Други предлажу потребу за јасним механизмима осигурања одговорности.[120]

Разноврсност и инклузија[уреди | уреди извор]

Уз забринутост да је дизајн система вештачке интелигенције углавном у домену белих, мушких инжењера,[121] неколико научника је сугерисало да би се алгоритамски пристрасност могла смањити проширењем укључености у редовима оних који дизајнирају АИ системе.[114][105] На пример, само 12% инжењера машинског учења су жене,[122] са црним лидерима ове области који указују на кризу разноликости у пољу.[123] Групе попут Блацк ин АИ покушавају да створе више инклузивних простора у заједници вештачке интелигенције и раде против често штетних жеља корпорација које контролишу путање истраживања вештачке интелигенције.[124] Критике једноставних напора укључености сугеришу да програми разноликости не могу адресирати преклапајуће форме неједнакости и позвали су на примену циља интерсекционалности у дизајну алгоритама.[125][126]

Интердисциплинарност и сарадња[уреди | уреди извор]

Интегрисање интердисциплинарности и сарадње у развоју система вештачке интелигенције може играти кључну улогу у решавању алгоритамске пристрасности. Укључивање сазнања, стручности и перспектива из области изван рачунарских наука може унапредити разумевање утицаја решења заснованих на подацима, на друштво. Пример овога у истраживању интелигенције је ПАЦТ или Партиципативни приступ за омогућавање способности у заједницама, предложени оквир за олакшавање сарадње при развоју решења заснованих на вештачкој интелигенцији која се баве друштвеним утицајем.[127] Овај оквир идентификује водеће принципе за учешће заинтересованих страна приликом рада на пројектима вештачке интелигенције за добробит друштва (АИ4СГ). Академска иницијатива у вези са тим је Институт за вештачку интелигенцију усмерену на човека на Станфорд универзитету, који има за циљ подстицање мултидисциплинарне сарадње. Мисија института је унапређивање истраживања, образовања, политике и праксе вештачке интелигенције како би се побољшали људски животни услови.[128]

Сарадња са страним стручњацима и различитим заинтересованим странама олакшава етички, инклузиван и одговоран развој интелигентних система. Она укључује етичка разматрања, разумевање социјалног и културног контекста, промовисање дизајна усмереног на човека, искоришћавање техничке експертизе и бављење политичким и правним питањима.[129] Сарадња преко дисциплина је кључна за ефикасно ублажавање пристрасности у системима вештачке интелигенције и осигурање да су ове технологије фер, транспарентне и одговорне.

Регулација[уреди | уреди извор]

Европа[уреди | уреди извор]

Општа уредба о заштити података (ГДПР), кориговани режим за заштиту података Европске уније који је ступио на снагу 2018. године, обрађује „Аутоматизовано доношење одлука појединаца, укључујући профилисање” у чланку 22. Ови прописи забрањују „искључиво” аутоматизоване одлуке које имају значајан или правни ефекат на појединца, осим ако су изричито ауторизоване сагласношћу, уговором или законом државе чланице. Где су дозвољене, морају постојати заштитне мере, као што је право на укључивање људског фактора у процес доношења одлука, као и необавезујуће право на објашњење одлука које су донете. Иако се ови прописи обично сматрају новим, готово идентичне одредбе постоје у целој Европи још од 1995. године, у чланку 15 Директиве о заштити података. Изворни прописи о аутоматским одлукама и заштитама у француском закону налазе се од краја седамдесетих година.[130]

ГДПР говори о алгоритамској пристрасности у профилним системима, као и о статистичким приступима за њено отклањање, директно у одломку 71, напомињући да:

контролор треба да користи одговарајуће математичке или статистичке процедуре за профилисање, примењује техничке и организационе мере које су адекватне ... а које спречавају, између осталог, дискриминаторске ефекте према физичким лицима на основу расе или етничког порекла, политичког мишљења, религије или веровања, чланства у синдикату, генетског или здравственог стања или сексуалне оријентације, или које резултирају мерама које имају такав ефекат.

Као што је и необавезујуће право на објашњење у одломку 71, проблем је необавезујући карактер одломака.[131] Иако је третирано као захтев од стране Радне групе члана 29 која је саветовала о спровођењу закона о заштити података,[130] практичне димензије тог захтева су нејасне. Предложено је да процене утицаја заштите података за профилисање података високог ризика (уз друге превентивне мере у оквиру заштите података) могу бити бољи начин за решавање проблема алгоритамске дискриминације, јер ограничава радње оних који примењују алгоритме, уместо да захтева од потрошача да подносе притужбе или траже промене.[132]

Сједињене Америчке Државе[уреди | уреди извор]

Сједињене Америчке Државе немају општу законску регулативу која контролише алгоритамску пристрасност, приступајући проблему кроз различите државне и федералне законе који се могу разликовати по индустрији, сектору и начину на који се алгоритам користи. Многе политике се саморегулишу или их контролише Федерална трговинска комисија.[133] У 2016. години, Обамина администрација је објавила Национални план стратегије истраживања и развоја вештачке интелигенције,[134]који је требао да усмери доносиоце одлука према критичкој процени алгоритама. Препоручено је истраживачима да „дизајнирају ове системе тако да њихове акције и доношење одлука буду транспарентни и лако интерпретирани од стране људи, како би се могли испитивати на евентуалну пристрасност коју могу садржати”. Извештај, иако само као смерница, није створио правни преседан.

У 2017. години, град Њујорк је усвојио први закон о одговорности алгоритама у Сједињеним Америчким Државама.[135] Наведени закон, који је ступио на снагу 1. јануара 2018. године, захтевао је „формирање радне групе која пружа препоруке о начину дељења информација о аутоматизованим одлучивачким системима агенција, са јавношћу, као и о начину којим агенције могу реаговати у случајевима када људи претрпе штету од аутоматизованих одлучивачких система агенција”.[136]

Индија[уреди | уреди извор]

Дана 31. јула 2018. године, представљен је нацрт Закона о личним подацима.[137] Нацрт закона предлаже стандарде за складиштење, обраду и пренос података. Иако не користи термин алгоритам, предвиђа одредбе за „штету насталу услед било које обраде или било које врсте обраде коју врши повереник”. Дефинише „свако одбијање или повлачење услуге, погодности или добра које произлази из евалуативне одлуке о субјекту података” или „било коју дискриминаторску обраду” као извор штете који може произаћи из неправилне употребе података. Такође, доноси посебне одредбе за особе са интерсекс статусом.[138]

Референце[уреди | уреди извор]

  1. ^ Јацоби, Јеннифер (26. 9. 2006). „Патент #УС7113917Б2”. Еспаценет. Приступљено 26. 4. 2023. 
  2. ^ Стрипхас, Тед (1. 2. 2012). „Wхат ис ан Алгоритхм?”. Цултуре Дигиталлy. Приступљено 27. 4. 2023. 
  3. ^ Цормен, Тхомас Х.; Леисерсон, Цхарлес Е.; Ривест, Роналд L.; Стеин, Цлиффорд (2009). Интродуцтион то АлгоритхмсСлободан приступ ограничен дужином пробне верзије, иначе неопходна претплата (3. изд.). Цамбридге, Масс.: МИТ Пресс. стр. 13. ИСБН 978-0-262-03384-8. 
  4. ^ а б в Китцхин, Роб (25. 2. 2016). „Тхинкинг цритицаллy абоут анд ресеарцхинг алгоритхмс” (ПДФ). Информатион, Цоммуницатион & Социетy. 20 (1): 14—29. дои:10.1080/1369118X.2016.1154087. 
  5. ^ „Хоw Гоогле Сеарцх Wоркс”. Приступљено 27. 4. 2023. 
  6. ^ Луцкерсон, Вицтор (9. 7. 2015). „Хере'с Хоw Yоур Фацебоок Неwс Феед Ацтуаллy Wоркс”. Тиме. Приступљено 27. 4. 2023. 
  7. ^ Вандербилт, Том (7. 8. 2013). „Тхе Сциенце Бехинд тхе Нетфлиx Алгоритхмс Тхат Дециде Wхат Yоу'лл Wатцх Неxт”. Wиред. Приступљено 27. 4. 2023. 
  8. ^ Ангwин, Јулиа (20. 9. 2016). „Амазон Саyс Ит Путс Цустомерс Фирст. Бут Итс Прицинг Алгоритхм Доесн'т”. ПроПублица. Приступљено 27. 4. 2023. 
  9. ^ Ливингстоне, Роб (13. 3. 2017). „Тхе футуре оф онлине адвертисинг ис биг дата анд алгоритхмс”. Тхе Цонверсатион. Приступљено 27. 4. 2023. 
  10. ^ Хицкман, Лео (1. 6. 2013). „Хоw алгоритхмс руле тхе wорлд”. Тхе Гуардиан. Приступљено 27. 4. 2023. 
  11. ^ а б в г ДигиталСТС : а фиелд гуиде фор сциенце & тецхнологy студиес. Јанет Вертеси, Давид Рибес. Принцетон, Неw Јерсеy. 2019. стр. 412—420. ИСБН 978-0-691-18708-2. ОЦЛЦ 1051133976. 
  12. ^ а б Грахам, Степхен D.Н. (јул 2016). „Софтwаре-сортед геограпхиес” (ПДФ). Прогресс ин Хуман Геограпхy (Субмиттед манусцрипт). 29 (5): 562—580. дои:10.1191/0309132505пх568оа. 
  13. ^ а б в Теwелл, Еамон (4. 4. 2016). „Тоwард тхе Ресистант Реадинг оф Информатион: Гоогле, Ресистант Спецтаторсхип, анд Цритицал Информатион Литерацy”. Портал: Либрариес анд тхе Ацадемy. 16 (2): 289—310. ИССН 1530-7131. дои:10.1353/пла.2016.0017. Приступљено 27. 4. 2023. 
  14. ^ Цраwфорд, Кате (1. 4. 2013). „Тхе Хидден Биасес ин Биг Дата”. Харвард Бусинесс Ревиеw. 
  15. ^ а б в г д ђ е ж з и ј к л љ Фриедман, Батyа; Ниссенбаум, Хелен (јул 1996). „Биас ин Цомпутер Сyстемс” (ПДФ). АЦМ Трансацтионс он Информатион Сyстемс. 14 (3): 330—347. дои:10.1145/230538.230561. Приступљено 27. 4. 2023. 
  16. ^ а б в г д Гиллеспие, Тарлетон; Боцзкоwски, Пабло; Фоот, Кристин (2014). Медиа Тецхнологиес. Цамбридге, Масс.: МИТ Пресс. стр. 1—30. ИСБН 9780262525374. 
  17. ^ а б Диакопоулос, Ницхолас (2014). „Алгоритхмиц Аццоунтабилитy Репортинг: Он тхе Инвестигатион оф Блацк Боxес” (на језику: енглески). дои:10.7916/Д8ЗК5ТW2. 
  18. ^ Липартито, Кеннетх (2011-01-06). „Тхе Нарративе анд тхе Алгоритхм: Генрес оф Цредит Репортинг фром тхе Нинетеентх Центурy то Тодаy” (на језику: енглески). Роцхестер, НY. дои:10.2139/ссрн.1736283. 
  19. ^ а б Гоодман, Брyце; Флаxман, Сетх (2017-10-02). „Еуропеан Унион Регулатионс он Алгоритхмиц Децисион-Макинг анд а “Ригхт то Еxпланатион. АИ Магазине (на језику: енглески). 38 (3): 50—57. ИССН 2371-9621. дои:10.1609/аимаг.в38и3.2741. 
  20. ^ а б Софтwаре студиес : а леxицон. Маттхеw Фуллер. Цамбридге, Масс.: МИТ Пресс. 2008. ИСБН 978-0-262-27334-3. ОЦЛЦ 232299603. 
  21. ^ а б в г д ђ Wеизенбаум, Јосепх (1976). Цомпутер поwер анд хуман реасон : фром јудгмент то цалцулатион. Сан Францисцо, Цал. ИСБН 0-7167-0464-1. ОЦЛЦ 1527521. 
  22. ^ Лоwрy, Стелла; Мацпхерсон, Гордон (1988-03-05). „А блот он тхе профессион”. Бр Мед Ј (Цлин Рес Ед) (на језику: енглески). 296 (6623): 657—658. ИССН 0267-0623. ПМЦ 2545288Слободан приступ. ПМИД 3128356. дои:10.1136/бмј.296.6623.657. 
  23. ^ Миллер, Алеx П. (2018-07-26). „Wант Лесс-Биасед Децисионс? Усе Алгоритхмс.”. Харвард Бусинесс Ревиеw. ИССН 0017-8012. Приступљено 2023-04-27. 
  24. ^ а б Интрона, Луцас D. (2. 12. 2011). „Тхе Енфраминг оф Цоде”. Тхеорy, Цултуре & Социетy. 28 (6): 113—141. дои:10.1177/0263276411418131. 
  25. ^ Богост, Иан (2015-01-15). „Тхе Цатхедрал оф Цомпутатион”. Тхе Атлантиц (на језику: енглески). Приступљено 2023-04-27. 
  26. ^ а б Интрона, Луцас; Wоод, Давид (2004). „Пицтуринг алгоритхмиц сурвеилланце: тхе политицс оф фациал рецогнитион сyстемс”. Сурвеилланце & Социетy (на језику: енглески). 2 (2/3): 177—198. 
  27. ^ а б Интрона, Луцас D. (2007-03-01). „Маинтаининг тхе реверсибилитy оф фолдингс: Макинг тхе етхицс (политицс) оф информатион тецхнологy висибле”. Етхицс анд Информатион Тецхнологy (на језику: енглески). 9 (1): 11—25. ИССН 1572-8439. дои:10.1007/с10676-006-9133-з. 
  28. ^ а б Боyд, Стоwе (2016-05-11). „А Спецулативе Пост он тхе Идеа оф Алгоритхмиц Аутхоритy « Цлаy Схиркy”. Медиум (на језику: енглески). Приступљено 2023-04-27. 
  29. ^ а б Зиеwитз, Малте (30. 9. 2015). „Говернинг Алгоритхмс: Мyтх, Месс, анд Метходс”. Сциенце, Тецхнологy, & Хуман Валуес (на језику: енглески). 41 (1): 3—16. ИССН 0162-2439. дои:10.1177/0162243915608948. 
  30. ^ Ласх, Сцотт (1. 5. 2007). „Поwер афтер Хегемонy: Цултурал Студиес ин Мутатион?”. Тхеорy, Цултуре & Социетy (на језику: енглески). 24 (3): 55—78. ИССН 0263-2764. дои:10.1177/0263276407075956. 
  31. ^ а б Гарциа, Меган (2016-12-01). „Рацист ин тхе Мацхине”. Wорлд Полицy Јоурнал. 33 (4): 111—117. ИССН 0740-2775. дои:10.1215/07402775-3813015. 
  32. ^ „АЦМ ФАццТ - 2021 Регистратион”. фаццтцонференце.орг. Приступљено 2023-04-27. 
  33. ^ ОцхигамеДецембер 20 2019, Родриго ОцхигамеРодриго; П.м, 6:19. „Хоw Биг Тецх Манипулатес Ацадемиа то Авоид Регулатион”. Тхе Интерцепт (на језику: енглески). Приступљено 2023-04-27. 
  34. ^ Сергот, M. Ј.; Садри, Ф.; Коwалски, Р. А.; Криwацзек, Ф.; Хаммонд, П.; Цорy, Х. Т. (1986-05-01). „Тхе Бритисх Натионалитy Ацт ас а логиц програм”. Цоммуницатионс оф тхе АЦМ. 29 (5): 370—386. ИССН 0001-0782. дои:10.1145/5689.5920. 
  35. ^ Ротх, Алвин Е. (1990-12-14). „Неw Пхyсицианс: А Натурал Еxперимент ин Маркет Организатион”. Сциенце (на језику: енглески). 250 (4987): 1524—1528. ИССН 0036-8075. дои:10.1126/сциенце.2274783. 
  36. ^ Тхе Неw Yорк Тимес Магазине (на језику: енглески), 2023-04-07, Приступљено 2023-04-28 
  37. ^ а б Јоувенал, Јустин (25. 11. 2017). „Полице аре усинг софтwаре то предицт цриме. Ис ит а 'холy граил' ор биасед агаинст миноритиес?”. 
  38. ^ а б Цхамма, Маурице (2016-02-03). „Полицинг тхе Футуре”. 
  39. ^ Лум, Кристиан; Исаац, Wиллиам (октобар 2016). „То предицт анд серве?”. ацадемиц.оуп.цом. дои:10.1111/ј.1740-9713.2016.00960.x. Приступљено 2023-04-28. 
  40. ^ Смитх, Јацк. „Предицтиве полицинг онлy амплифиес рациал биас, студy схоwс”. 
  41. ^ Лум, Кристиан; Исаац, Wиллиам (1. 10. 2016). „ФАQс он Предицтиве Полицинг анд Биас”. 
  42. ^ Сун, Wенлонг; Насраоуи, Олфа; Схафто, Патрицк (2023-04-28). „Итератед Алгоритхмиц Биас ин тхе Интерацтиве Мацхине Леарнинг Процесс оф Информатион Филтеринг”: 110—118. ИСБН 978-989-758-330-8. дои:10.5220/0006938301100118. 
  43. ^ Синха, Аyан; Глеицх, Давид Ф.; Рамани, Картхик (2018-08-09). „Гаусс’с лаw фор нетwоркс дирецтлy ревеалс цоммунитy боундариес”. Сциентифиц Репортс (на језику: енглески). 8 (1): 11909. ИССН 2045-2322. ПМЦ 6085300Слободан приступ. ПМИД 30093660. дои:10.1038/с41598-018-30401-0. 
  44. ^ Хао, Карен (фебруар 2018). „Гоогле ис финаллy адмиттинг ит хас а филтер-буббле проблем”. 
  45. ^ „Фацебоок Ис Тестинг Тхис Неw Феатуре то Фигхт 'Филтер Бубблес'. 
  46. ^ а б в Сандвиг, Цхристиан; Хамилтон, Кевин; Карахалиос, Каррие; Лангборт, Цедриц (2014). Гангадхаран, Сеета Пена; Еубанкс, Виргиниа; Бароцас, Солон, ур. „Ан Алгоритхм Аудит” (ПДФ). Дата анд Дисцриминатион: Цоллецтед Ессаyс. 
  47. ^ Епстеин, Роберт; Робертсон, Роналд Е. (2015-08-18). „Тхе сеарцх енгине манипулатион еффецт (СЕМЕ) анд итс поссибле импацт он тхе оутцомес оф елецтионс”. Процеедингс оф тхе Натионал Ацадемy оф Сциенцес (на језику: енглески). 112 (33). ИССН 0027-8424. ПМЦ 4547273Слободан приступ. ПМИД 26243876. дои:10.1073/пнас.1419828112. 
  48. ^ Бонд, Роберт M.; Фарисс, Цхристопхер Ј.; Јонес, Јасон Ј.; Крамер, Адам D. I.; Марлоw, Цамерон; Сеттле, Јаиме Е.; Фоwлер, Јамес Х. (2012-09-12). „А 61-миллион-персон еxперимент ин социал инфлуенце анд политицал мобилизатион”. Натуре (на језику: енглески). 489 (7415): 295—298. ИССН 1476-4687. ПМЦ 3834737Слободан приступ. ПМИД 22972300. дои:10.1038/натуре11421. 
  49. ^ „Цуриоус ЛинкедИн сеарцх ресултс хигхлигхт тецх'с диверситy проблемс”. Тхе Сеаттле Тимес (на језику: енглески). 2016-08-31. Приступљено 2023-04-29. 
  50. ^ Духигг, Цхарлес (2012-02-16). „Хоw Цомпаниес Леарн Yоур Сецретс”. Тхе Неw Yорк Тимес (на језику: енглески). ИССН 0362-4331. Приступљено 2023-04-29. 
  51. ^ Цраwфорд, Кате; Сцхултз, Јасон (2013-10-01). „Биг Дата анд Дуе Процесс: Тоwард а Фрамеwорк то Редресс Предицтиве Привацy Хармс” (на језику: енглески). Роцхестер, НY. 
  52. ^ Нобле, Сафиyа У. (2012-01-01). „Миссед Цоннецтионс: Wхат Сеарцх Енгинес Саy Абоут Wомен”. Битцх магазине. 
  53. ^ Гуyнн, Јессица. „Гоогле стартс флаггинг оффенсиве цонтент ин сеарцх ресултс”. УСА ТОДАY (на језику: енглески). Приступљено 2023-04-29. 
  54. ^ „Пробинг тхе Дарк Сиде оф Гоогле’с Ад-Таргетинг Сyстем”. МИТ Тецхнологy Ревиеw (на језику: енглески). Приступљено 2023-04-29. 
  55. ^ Пратес, Марцело О. Р.; Авелар, Педро Х. C.; Ламб, Луис (2019-03-11). „Ассессинг Гендер Биас ин Мацхине Транслатион -- А Цасе Студy wитх Гоогле Транслате”. арXив:1809.02208 [цс]. 
  56. ^ Пратес, Марцело О. Р.; Авелар, Педро Х.; Ламб, Луíс C. (2020-05-01). „Ассессинг гендер биас ин мацхине транслатион: а цасе студy wитх Гоогле Транслате”. Неурал Цомпутинг анд Апплицатионс (на језику: енглески). 32 (10): 6363—6381. ИССН 1433-3058. дои:10.1007/с00521-019-04144-6. 
  57. ^ „Амазон сцрапс сецрет АИ рецруитинг тоол тхат схоwед биас агаинст wомен”. Реутерс (на језику: енглески). 2018-10-10. Приступљено 2023-04-29. 
  58. ^ Винцент, Јамес (2018-10-10). „Амазон репортедлy сцрапс интернал АИ рецруитинг тоол тхат wас биасед агаинст wомен”. Тхе Верге (на језику: енглески). Приступљено 2023-04-29. 
  59. ^ „Рефлецтинг он Спотифy’с Рецоммендер Сyстем – СонгДата” (на језику: енглески). Приступљено 2023-04-29. 
  60. ^ Буоламwини, Јоy; Гебру, Тимнит (2018-01-21). „Гендер Схадес: Интерсецтионал Аццурацy Диспаритиес ин Цоммерциал Гендер Цлассифицатион”. Процеедингс оф тхе 1ст Цонференце он Фаирнесс, Аццоунтабилитy анд Транспаренцy (на језику: енглески). ПМЛР: 77—91. 
  61. ^ Нобле, Сафиyа Умоја (2018). Алгоритхмс оф оппрессион : хоw сеарцх енгинес реинфорце рацисм. Неw Yорк. ИСБН 978-1-4798-3724-3. ОЦЛЦ 987591529. 
  62. ^ а б Тхе неw медиа оф сурвеилланце. Схосхана Магнет, Келлy Гатес. Абингдон, Оxон: Роутледге. 2009. ИСБН 0-415-56812-9. ОЦЛЦ 463396828. 
  63. ^ Марабелли, Марцо; Неwелл, Суе; Хандунге, Валерие (2021-09-01). „Тхе лифецyцле оф алгоритхмиц децисион-макинг сyстемс: Организатионал цхоицес анд етхицал цхалленгес”. Тхе Јоурнал оф Стратегиц Информатион Сyстемс (на језику: енглески). 30 (3): 101683. ИССН 0963-8687. дои:10.1016/ј.јсис.2021.101683. 
  64. ^ Алеxандер, Рудолпх; Гyамерах, Јацqуелyн (1997-09-01). „Дифферентиал Пунисхинг оф Африцан Америцанс анд Wхитес Wхо Поссесс Другс: А Јуст Полицy ор а Цонтинуатион оф тхе Паст?”. Јоурнал оф Блацк Студиес (на језику: енглески). 28 (1): 97—111. ИССН 0021-9347. дои:10.1177/002193479702800106. 
  65. ^ Петерсилиа, Јоан (1985-01-04). „Рациал Диспаритиес ин тхе Цриминал Јустице Сyстем: А Суммарy”. Цриме & Делинqуенцy (на језику: енглески). 31 (1): 15—34. ИССН 0011-1287. дои:10.1177/0011128785031001002. 
  66. ^ Гуyнн, Јессица. „Гоогле Пхотос лабелед блацк пеопле 'гориллас'. УСА ТОДАY (на језику: енглески). Приступљено 2023-04-29. 
  67. ^ Росе, Адам (2010-01-22). „Аре Фаце-Детецтион Цамерас Рацист?”. Тиме (на језику: енглески). ИССН 0040-781X. Приступљено 2023-04-29. 
  68. ^ „Тхе аццент гап: Хоw Амазон’с анд Гоогле’с смарт спеакерс леаве цертаин воицес бехинд”. Wасхингтон Пост (на језику: енглески). Приступљено 2023-04-29. 
  69. ^ Сwеенеy, Латанyа (2013-01-28). „Дисцриминатион ин Онлине Ад Деливерy”. арXив:1301.6822 [цс]. 
  70. ^ „Рациал биас ин а медицал алгоритхм фаворс wхите патиентс овер сицкер блацк патиентс”. Wасхингтон Пост (на језику: енглески). ИССН 0190-8286. Приступљено 2023-04-29. 
  71. ^ Бартлетт, Роберт; Морсе, Адаир; Стантон, Рицхард; Wаллаце, Нанцy (јун 2019). „Цонсумер-Лендинг Дисцриминатион ин тхе ФинТецх Ера”. НБЕР Wоркинг Папер Но. 25943. Цамбридге, МА. дои:10.3386/w25943. 
  72. ^ Грассеггер, Јулиа Ангwин,Ханнес. „Фацебоок’с Сецрет Ценсорсхип Рулес Протецт Wхите Мен Фром Хате Спеецх Бут Нот Блацк Цхилдрен”. ПроПублица (на језику: енглески). Приступљено 2023-04-29. 
  73. ^ Тобин, Јулиа Ангwин,Маделеине Варнер,Ариана. „Фацебоок Енаблед Адвертисерс то Реацх ‘Јеw Хатерс. ПроПублица (на језику: енглески). Приступљено 2023-04-29. 
  74. ^ Гхаффарy, Схирин (2019-08-15). „Тхе алгоритхмс тхат детецт хате спеецх онлине аре биасед агаинст блацк пеопле”. Воx (на језику: енглески). Приступљено 2023-04-29. 
  75. ^ Фурл, Ницхолас; Пхиллипс, П. Јонатхон; О'Тооле, Алице Ј. (2002-02-11). „Фаце рецогнитион алгоритхмс анд тхе отхер-раце еффецт: цомпутатионал мецханисмс фор а девелопментал цонтацт хyпотхесис”. Цогнитиве Сциенце (на језику: енглески). 26 (6): 797—815. дои:10.1207/с15516709цог2606_4. 
  76. ^ Раји, Иниолуwа Деборах; Гебру, Тимнит; Митцхелл, Маргарет; Буоламwини, Јоy; Лее, Јоонсеок; Дентон, Емилy (2020-02-07). „Савинг Фаце: Инвестигатинг тхе Етхицал Цонцернс оф Фациал Рецогнитион Аудитинг”. Процеедингс оф тхе АААИ/АЦМ Цонференце он АИ, Етхицс, анд Социетy. АИЕС '20. Неw Yорк, НY, УСА: Ассоциатион фор Цомпутинг Мацхинерy: 145—151. ИСБН 978-1-4503-7110-0. дои:10.1145/3375627.3375820. 
  77. ^ Буоламwини, Јоy; Гебру, Тимнит (2018-01-21). „Гендер Схадес: Интерсецтионал Аццурацy Диспаритиес ин Цоммерциал Гендер Цлассифицатион”. Процеедингс оф тхе 1ст Цонференце он Фаирнесс, Аццоунтабилитy анд Транспаренцy (на језику: енглески). ПМЛР: 77—91. 
  78. ^ Ананнy, Мике (2011-04-14). „Тхе Цуриоус Цоннецтион Бетwеен Аппс фор Гаy Мен анд Сеx Оффендерс”. Тхе Атлантиц (на језику: енглески). Приступљено 2023-04-29. 
  79. ^ Матсакис, Лоуисе. „А ‘Сеxист’ Сеарцх Буг Саyс Море Абоут Ус Тхан Фацебоок”. Wиред (на језику: енглески). ИССН 1059-1028. Приступљено 2023-04-29. 
  80. ^ Самуел, Сигал (2019-04-19). „Соме АИ јуст схоулдн’т еxист”. Воx (на језику: енглески). Приступљено 2023-04-29. 
  81. ^ Wанг, Yилун; Косински, Мицхал (2017-02-15). „Дееп неурал нетwоркс аре море аццурате тхан хуманс ат детецтинг сеxуал ориентатион фром фациал имагес.” (на језику: енглески). дои:10.17605/ОСФ.ИО/ЗН79К. 
  82. ^ Левин, Сам (2017-09-09). „ЛГБТ гроупс деноунце 'дангероус' АИ тхат усес yоур фаце то гуесс сеxуалитy”. Тхе Гуардиан (на језику: енглески). ИССН 0261-3077. Приступљено 2023-04-29. 
  83. ^ Пал, Г.C. (2011-09-16). „Дисабилитy, Интерсецтионалитy анд Деприватион: Ан Еxцлудед Агенда”. Псyцхологy анд Девелопинг Социетиес (на језику: енглески). 23 (2): 159—176. ИССН 0971-3336. дои:10.1177/097133361102300202. 
  84. ^ Бринкман, Аурора Х.; Реа-Сандин, Гианна; Лунд, Емилy M.; Фитзпатрицк, Оливиа M.; Гусман, Мицхаела С.; Бонесс, Цассандра L.; Сцхоларс фор Елеватинг Еqуитy анд Диверситy (СЕЕД) (2023). „Схифтинг тхе дисцоурсе он дисабилитy: Мовинг то ан инцлусиве, интерсецтионал фоцус.”. Америцан Јоурнал оф Ортхопсyцхиатрy (на језику: енглески). 93 (1): 50—62. ИССН 1939-0025. дои:10.1037/орт0000653. 
  85. ^ „Миссион — Дисабилитy ис Диверситy — Деар Ентертаинмент Индустрy, ТХЕРЕ'С НО ДИВЕРСИТY, ЕQУИТY & ИНЦЛУСИОН WИТХОУТ ДИСАБИЛИТY”. Дисабилитy ис Диверситy (на језику: енглески). Приступљено 2023-04-29. 
  86. ^ „Мицрософт Инцлусиве Десигн”. инцлусиве.мицрософт.десигн (на језику: енглески). Приступљено 2023-04-29. 
  87. ^ „Дисабилитy Дата Репорт 2021”. Дисабилитy Дата Инитиативе (на језику: енглески). Приступљено 2023-04-29. 
  88. ^ Гивенс, Алеxандра Рееве (2020-02-06). „Хоw Алгоритхмиц Биас Хуртс Пеопле Wитх Дисабилитиес”. Слате (на језику: енглески). ИССН 1091-2339. Приступљено 2023-04-29. 
  89. ^ Моррис, Мередитх Рингел (2020-05-22). „АИ анд аццессибилитy”. Цоммуницатионс оф тхе АЦМ. 63 (6): 35—37. ИССН 0001-0782. дои:10.1145/3356727. 
  90. ^ Фриедлер, Сорелле А.; Сцхеидеггер, Царлос; Венкатасубраманиан, Суресх (2016-09-23). „Он тхе (им)поссибилитy оф фаирнесс”. арXив:1609.07236 [цс, стат]. 
  91. ^ Ху, Лилy; Цхен, Yилинг (2018-07-03). „Wелфаре анд Дистрибутионал Импацтс оф Фаир Цлассифицатион”. арXив:1807.01134 [цс, стат]. 
  92. ^ Дwорк, Цyнтхиа; Хардт, Моритз; Питасси, Тонианн; Реинголд, Омер; Земел, Рицх (2011-11-28). „Фаирнесс Тхроугх Аwаренесс”. арXив:1104.3913 [цс]. 
  93. ^ ЛаФранце, Адриенне (18. 9. 2015). „Тхе Алгоритхмс Тхат Поwер тхе Wеб Аре Онлy Геттинг Море Мyстериоус”. Тхе Атлантиц. Приступљено 27. 4. 2023. 
  94. ^ а б в Интрона, Луцас; Wоод, Давид (2004). „Пицтуринг алгоритхмиц сурвеилланце: тхе политицс оф фациал рецогнитион сyстемс”. Сурвеилланце & Социетy (на језику: енглески). 2 (2/3): 177—198. 
  95. ^ Латоур, Бруно (1999). Пандора'с хопе : ессаyс он тхе реалитy оф сциенце студиес. Цамбридге, Масс.: Харвард Университy Пресс. ИСБН 0-674-65335-1. ОЦЛЦ 40311545. 
  96. ^ Инновативе метходс ин медиа анд цоммуницатион ресеарцх. Себастиан Кубитсцхко, Анне Каун. Цхам, Сwитзерланд. 2016. ИСБН 978-3-319-40700-5. ОЦЛЦ 967532976. 
  97. ^ МцГее, Матт (16. 8. 2013). „ЕдгеРанк Ис Деад: Фацебоок'с Неwс Феед Алгоритхм Ноw Хас Цлосе То 100К Wеигхт Фацторс”. Маркетинг Ланд. Приступљено 27. 4. 2023. 
  98. ^ а б в Гранка, Лаура А. (2010-09-27). „Тхе Политицс оф Сеарцх: А Децаде Ретроспецтиве”. Тхе Информатион Социетy. 26 (5): 364—374. ИССН 0197-2243. дои:10.1080/01972243.2010.511560. 
  99. ^ Веале, Мицхаел; Биннс, Реубен (2017). „Фаирер мацхине леарнинг ин тхе реал wорлд: Митигатинг дисцриминатион wитхоут цоллецтинг сенситиве дата”. Биг Дата & Социетy (на језику: енглески). 4 (2): 205395171774353. ИССН 2053-9517. дои:10.1177/2053951717743530. 
  100. ^ Еллиотт, Марц Н.; Моррисон, Петер А.; Фремонт, Аллен; МцЦаффреy, Даниел Ф.; Пантоја, Пхилип; Лурие, Ницоле (2009-06-01). „Усинг тхе Ценсус Буреау’с сурнаме лист то импрове естиматес оф раце/етхницитy анд ассоциатед диспаритиес”. Хеалтх Сервицес анд Оутцомес Ресеарцх Метходологy (на језику: енглески). 9 (2): 69—83. ИССН 1572-9400. дои:10.1007/с10742-009-0047-1. 
  101. ^ Цхен, Јиахао; Каллус, Натхан; Мао, Xиаојие; Свацха, Геоффрy; Уделл, Маделеине (2019-01-29). „Фаирнесс Ундер Унаwаренесс: Ассессинг Диспаритy Wхен Протецтед Цласс Ис Унобсервед”. Процеедингс оф тхе Цонференце он Фаирнесс, Аццоунтабилитy, анд Транспаренцy. ФАТ* '19. Неw Yорк, НY, УСА: Ассоциатион фор Цомпутинг Мацхинерy: 339—348. ИСБН 978-1-4503-6125-5. дои:10.1145/3287560.3287594. 
  102. ^ Килбертус, Ники; Гасцóн, Адриà; Куснер, Матт Ј.; Веале, Мицхаел; Гуммади, Крисхна П.; Wеллер, Адриан (2018-06-08). „Блинд Јустице: Фаирнесс wитх Енцрyптед Сенситиве Аттрибутес”. арXив:1806.03281 [цс, стат]. 
  103. ^ Биннс, Реубен; Веале, Мицхаел; Ван Клеек, Маx; Схадболт, Нигел (2017). Циампаглиа, Гиованни Луца; Масххади, Афра; Yассери, Таха, ур. „Лике Траинер, Лике Бот? Инхеританце оф Биас ин Алгоритхмиц Цонтент Модератион”. Социал Информатицс (на језику: енглески). Цхам: Спрингер Интернатионал Публисхинг: 405—415. ИСБН 978-3-319-67256-4. дои:10.1007/978-3-319-67256-4_32. 
  104. ^ Ларге, Тхомас ЦлабурнЕдитор ат; МобилитyЈулy 18, Ентерприсе; 2016 (2016-07-18). „ЕУ Дата Протецтион Лаw Маy Енд Тхе Ункноwабле Алгоритхм”. ИнформатионWеек (на језику: енглески). Приступљено 2023-04-27. 
  105. ^ а б Јобин, Анна; Иенца, Марцелло; Ваyена, Еффy (2. 9. 2019). „Тхе глобал ландсцапе оф АИ етхицс гуиделинес”. Натуре Мацхине Интеллигенце (на језику: енглески). 1 (9): 389—399. ИССН 2522-5839. дои:10.1038/с42256-019-0088-2. 
  106. ^ Хардт, Моритз; Прице, Ериц; Сребро, Натхан (2016-10-07). „Еqуалитy оф Оппортунитy ин Супервисед Леарнинг”. арXив:1610.02413 [цс]. 
  107. ^ „Мицрософт ис девелопинг а тоол то хелп енгинеерс цатцх биас ин алгоритхмс”. ВентуреБеат (на језику: енглески). 2018-05-25. Приступљено 2023-04-28. 
  108. ^ „Митигатинг Биас ин Артифициал Интеллигенце (АИ) Моделс -- ИБМ Ресеарцх”. ИБМ Ресеарцх Блог (на језику: енглески). 2018-02-07. Приступљено 2023-04-28. 
  109. ^ Сен, Сајиб; Дасгупта, Дипанкар; Гупта, Кисхор Датта (17. 7. 2022). „Ан Емпирицал Студy он Алгоритхмиц Биас”. 2020 ИЕЕЕ 44тх Аннуал Цомпутерс, Софтwаре, анд Апплицатионс Цонференце (ЦОМПСАЦ): 1189—1194. дои:10.1109/ЦОМПСАЦ48688.2020.00-95. 
  110. ^ Зоу, Јамес; Сцхиебингер, Лонда (2018-07-18). „АИ цан бе сеxист анд рацист — ит’с тиме то маке ит фаир”. Натуре (на језику: енглески). 559 (7714): 324—326. дои:10.1038/д41586-018-05707-8. 
  111. ^ Јиа, Сен; Лансдалл-Wелфаре, Тхомас; Цристианини, Нелло (2018). „Ригхт фор тхе Ригхт Реасон: Траининг Агностиц Нетwоркс”. арXив:1806.06296 [цс, стат]. 11191: 164—174. дои:10.1007/978-3-030-01768-2_14. 
  112. ^ Суттон, Адам; Лансдалл-Wелфаре, Тхомас; Цристианини, Нелло (2018-06-16). „Биасед Ембеддингс фром Wилд Дата: Меасуринг, Ундерстандинг анд Ремовинг”. арXив:1806.06301 [цс, стат]. 
  113. ^ „Артифициал Интеллигенце & Мацхине Леарнинг: Полицy Папер”. Интернет Социетy (на језику: енглески). Приступљено 2023-04-28. 
  114. ^ а б „Хоw то Превент Дисцриминаторy Оутцомес ин Мацхине Леарнинг”. Wорлд Ецономиц Форум (на језику: енглески). Приступљено 2023-04-28. 
  115. ^ „Еxплаинабле Артифициал Интеллигенце”. www.дарпа.мил. Приступљено 2023-04-28. 
  116. ^ ПрицеwатерхоусеЦооперс. „Тхе респонсибле АИ фрамеwорк”. ПwЦ (на језику: енглески). Приступљено 2023-04-28. 
  117. ^ Транспаренцy : тхе кеy то беттер говернанце?. Цхристопхер Хоод, Давид Хеалд. Оxфорд: Оxфорд Университy Пресс. 2006. ИСБН 0-19-726383-6. ОЦЛЦ 70173197. 
  118. ^ Кемпер, Јакко; Колкман, Даан (2019-12-06). „Транспарент то wхом? Но алгоритхмиц аццоунтабилитy wитхоут а цритицал аудиенце”. Информатион, Цоммуницатион & Социетy. 22 (14): 2081—2096. ИССН 1369-118X. дои:10.1080/1369118X.2018.1477967. 
  119. ^ „Тхе Торонто Децларатион: Протецтинг тхе ригхтс то еqуалитy анд нон-дисцриминатион ин мацхине леарнинг сyстемс”. Хуман Ригхтс Wатцх (на језику: енглески). 2018-07-03. Приступљено 2023-04-28. 
  120. ^ Флориди, Луциано; Цоwлс, Јосх; Белтраметти, Моница; Цхатила, Раја; Цхазеранд, Патрице; Дигнум, Виргиниа; Луетге, Цхристопх; Маделин, Роберт; Пагалло, Уго (2018-12-01). „АИ4Пеопле—Ан Етхицал Фрамеwорк фор а Гоод АИ Социетy: Оппортунитиес, Рискс, Принциплес, анд Рецоммендатионс”. Миндс анд Мацхинес (на језику: енглески). 28 (4): 689—707. ИССН 1572-8641. ПМЦ 6404626Слободан приступ. ПМИД 30930541. дои:10.1007/с11023-018-9482-5. 
  121. ^ Цраwфорд, Кате (2016-06-25). „Опинион | Артифициал Интеллигенце’с Wхите Гуy Проблем”. Тхе Неw Yорк Тимес (на језику: енглески). ИССН 0362-4331. Приступљено 2023-04-28. 
  122. ^ Симоните, Том. „АИ Ис тхе Футуре—Бут Wхере Аре тхе Wомен?”. Wиред (на језику: енглески). ИССН 1059-1028. Приступљено 2023-04-28. 
  123. ^ „“Wе’ре ин а диверситy црисис”: цофоундер оф Блацк ин АИ он wхат’с поисонинг алгоритхмс ин оур ливес”. МИТ Тецхнологy Ревиеw (на језику: енглески). Приступљено 2023-04-28. 
  124. ^ „Инсиде тхе фигхт то рецлаим АИ фром Биг Тецх’с цонтрол”. МИТ Тецхнологy Ревиеw (на језику: енглески). Приступљено 2023-04-28. 
  125. ^ Цистон, Сарах (2019-05-01). „Интерсецтионал АИ ис ессентиал: полyвоцал, мултимодал, еxпериментал метходс то саве артифициал интеллигенце”. Јоурнал оф Сциенце анд Тецхнологy оф тхе Артс (на језику: енглески). 11 (2): 3—8. ИССН 2183-0088. дои:10.7559/цитарј.в11и2.665. 
  126. ^ D'Игназио, Цатхерине (2020). Дата феминисм. Лаурен Ф. Клеин. Цамбридге, Массацхусеттс. ИСБН 978-0-262-35852-1. ОЦЛЦ 1130235839. 
  127. ^ Бонди, Елизабетх; Xу, Лилy; Ацоста-Навас, Диана; Киллиан, Јацксон А. (2021-07-30). „Енвисионинг Цоммунитиес: А Партиципаторy Аппроацх Тоwардс АИ фор Социал Гоод”. Процеедингс оф тхе 2021 АААИ/АЦМ Цонференце он АИ, Етхицс, анд Социетy. АИЕС '21. Неw Yорк, НY, УСА: Ассоциатион фор Цомпутинг Мацхинерy: 425—436. ИСБН 978-1-4503-8473-5. дои:10.1145/3461702.3462612. 
  128. ^ Университy, Станфорд (2019-03-18). „Станфорд Университy лаунцхес тхе Институте фор Хуман-Центеред Артифициал Интеллигенце”. Станфорд Неwс (на језику: енглески). Приступљено 2023-04-28. 
  129. ^ Бонди, Елизабетх; Xу, Лилy; Ацоста-Навас, Диана; Киллиан, Јацксон А. (2021-07-30). „Енвисионинг Цоммунитиес: А Партиципаторy Аппроацх Тоwардс АИ фор Социал Гоод”. Процеедингс оф тхе 2021 АААИ/АЦМ Цонференце он АИ, Етхицс, анд Социетy. АИЕС '21. Неw Yорк, НY, УСА: Ассоциатион фор Цомпутинг Мацхинерy: 425—436. ИСБН 978-1-4503-8473-5. дои:10.1145/3461702.3462612. 
  130. ^ а б Бyграве, Лее А (2001-01-01). „АУТОМАТЕД ПРОФИЛИНГ: МИНДИНГ ТХЕ МАЦХИНЕ: АРТИЦЛЕ 15 ОФ ТХЕ ЕЦ ДАТА ПРОТЕЦТИОН ДИРЕЦТИВЕ АНД АУТОМАТЕД ПРОФИЛИНГ”. Цомпутер Лаw & Сецуритy Ревиеw (на језику: енглески). 17 (1): 17—24. ИССН 0267-3649. дои:10.1016/С0267-3649(01)00104-2. 
  131. ^ Wацхтер, Сандра; Миттелстадт, Брент; Флориди, Луциано (1. 5. 2017). „Wхy а Ригхт то Еxпланатион оф Аутоматед Децисион-Макинг Доес Нот Еxист ин тхе Генерал Дата Протецтион Регулатион”. Интернатионал Дата Привацy Лаw. 7 (2): 76—99. ИССН 2044-3994. дои:10.1093/идпл/ипx005Слободан приступ. 
  132. ^ Едwардс, Лилиан; Веале, Мицхаел (2017-05-23). „Славе то тхе Алгоритхм? Wхy а 'Ригхт то ан Еxпланатион' Ис Пробаблy Нот тхе Ремедy Yоу Аре Лоокинг Фор” (на језику: енглески). Роцхестер, НY. 
  133. ^ Сингер, Натасха (2. 2. 2013). „Цонсумер Дата Протецтион Лаwс, ан Оцеан Апарт”. Тхе Неw Yорк Тимес. Приступљено 27. 4. 2023. 
  134. ^ Фелтен, Ед; Лyонс, Терах (12. 10. 2016). „Тхе Администратион'с Репорт он тхе Футуре оф Артифициал Интеллигенце”. wхитехоусе.гов. Натионал Арцхивес. Приступљено 27. 4. 2023. 
  135. ^ Кирцхнер, Лаурен (18. 12. 2017). „Неw Yорк Цитy Мовес то Цреате Аццоунтабилитy фор Алгоритхмс”. ПроПублица. Приступљено 27. 4. 2023. 
  136. ^ „Тхе Неw Yорк Цитy Цоунцил - Филе #: Инт 1696-2017”. легистар.цоунцил.нyц.гов. Неw Yорк Цитy Цоунцил. 11. 1. 2018. Приступљено 27. 4. 2023. 
  137. ^ Раи, Саритха (31. 7. 2018). „Индиа Wеигхс Цомпрехенсиве Дата Привацy Билл, Симилар то ЕУ'с ГДПР”. Инсуранце Јоурнал. Приступљено 27. 4. 2023. 
  138. ^ „Тхе Персонал Дата Протецтион Билл, 2018” (ПДФ). Министрy оф Елецтроницс & Информатион Тецхнологy, Говернмент оф Индиа. 2018. Приступљено 27. 4. 2023.