Вештачката интелигенција не мора да ве мрази за да ве дискриминира; само ѝ се потребни погрешни податоци. Низ цела Европа и Северна Америка, технологиите за вештачка интелигенција сега го обликуваат начинот на кој луѓето се гледаат, се сортираат и се сомневаат.
Сепак, системите за препознавање лица честопати погрешно ги читаат потемните тонови на кожата и хиџабите. Софтверот за гранична контрола, во меѓувреме, ги означува муслиманските имиња како ризици, а онлајн модерацијата тивко ги отстранува објавите за Палестина, дозволувајќи омразата кон муслиманите слободно да се шири.
Вештачката интелигенција се продава како неутрална, објективна и ефикасна – крајното техничко решение за човечките грешки. Но, технологијата учи од светот околу неа. Ако тој свет е нееднаков, пристрасен и исклучувачки, тогаш така ќе биде и алгоритмот изграден врз неа.
Вештачката интелигенција ги одразува претпоставките вградени во нејзините податоци за обука, а тие претпоставки ги одразуваат општествата што ја создаваат. На овој начин, системите што тврдат дека ги отстрануваат пристрасностите на крајот ја зајакнуваат, пишува TNA.
„Овие системи не станаа пристрасни случајно“, изјави Мутале Нконде, извршен директор на AI for the People, за The New Arab. Тие беа обучени врз основа на податоци обликувани од децении политички одлуки и безбедносни доктрини кои го прикажуваа муслиманскиот идентитет како инхерентно сомнителен.
„Технологијата само ја зголеми таа пристрасност“, вели таа, правејќи го побрз, потежок за откривање и потежок за оспорување. Сепак, свеста и отпорот се зголемуваат меѓу правните научници и активистите за дигитални права за да се оспори непроѕирноста на алгоритамските системи.
Пристрасни податоци, пристрасни системи
Технологиите за препознавање лица систематски ги потценуваат малцинствата со потемна кожа и религиозните малцинства.
На пример, клучна студија покажа дека комерцијалните системи за препознавање лица имале стапки на грешки до 34,7% за жените со темна кожа, во споредба со 0,8% за мажите со светла кожа.
Друг извештај на Националниот институт за стандарди и технологија (NIST) покажа дека ваквите системи имале 10 до 100 пати поголема веројатност погрешно да идентификуваат црни и азиски лица отколку белите.
Ако податоците за обука ја кодираат покорноста на одредени популации, тогаш нивната примена во полициското работење, надзорот или проверката ја продолжува неправдата, само сега во алгоритамска форма.
Полициja, граници и муслимански поглед
Во Обединетото Кралство, проектите за предвидливо полициско работење како што е Националното решение за анализа на податоци се изградени врз основа на историски податоци за апсења, веќе искривени од децении расно профилирање.
Овие алгоритми потоа ги насочуваат полициските ресурси назад кон истите заедници кои долго време биле премногу надгледувани, маскирајќи ја пристрасноста со јазикот на „ефикасност водена од податоци“.
Во Франција, промената е подеднакво алармантна. Системите првично дизајнирани да детектираат „радикализација“ преку интернет тивко еволуираа во алатки за полицирање на религиозното изразување сами по себе. Веб-страниците на џамиите, апликациите за молитва и страниците на социјалните медиуми базирани на вера се скенираат од алгоритми кои не можат да разликуваат помеѓу верата и екстремизмот.
Ова дигитално сомневање одразува поширока политичка клима која ја третира видливата вера како потенцијална закана. Нконде предупредува дека оваа логика е самоодржлива: „Кога дизајнираме технологии за откривање закани, честопати завршуваме учејќи ги кого да се сомневаат“.
Никаде ова не е појасно отколку во Соединетите Американски Држави, каде што приоритетите за национална безбедност од 2017 година поставија основа за алгоритамска пристрасност во голем обем. За време на првиот мандат на Трамп, Извршните наредби 13769 и 13780 ја ограничија имиграцијата од седум земји со муслиманско мнозинство.
Овие одлуки беа оправдани како мерки за борба против тероризмот, но нивното влијание се прошири длабоко во архитектурата на американската гранична контрола.
Според Нконде, овој период „постави еден од параметрите за развој на системи за вештачка интелигенција што се користат на американските граници“. Скенерите за препознавање лица и биометриските проверки станаа рутина за оние што влегуваат од муслиманскиот свет. Кога се извршуваат овие скенирања, податоците за расата, етничката припадност, земјата на потекло и „причината за дополнителен скрининг“ се чуваат во метаподатоците на системот.
Со текот на времето, алгоритмот научил да ги поврзува овие атрибути со „ризик“. Нконде го опишува ова како тивко засилување на пристрасноста. „Тие податоци потоа се внесуваат во меморијата на моделот, зголемувајќи ја веројатноста муслиманските патници да бидат поврзани со зборот „тероризам“ во рамките на збирот податоци“.
Резултатот е повратна јамка во која сомнежот генерира повеќе податоци, а повеќе податоци генерираат повеќе сомнеж. Невините патници се обележани, испрашувани или одбиени не поради она што го направиле, туку поради она што машината научила да очекува.
„Тоа е јасен пример за исламофобична пристрасност кодирана во технологијата“, вели таа, „каде политичкиот страв станува податок, а податоците стануваат судбина“.
Генеративна вештачка интелигенција и податоци за обука на „ориенталисти“
Следниот бран на загриженост лежи во генеративната вештачка интелигенција и јазичните/визуелните модели кои црпат од огромни збирки податоци, според Сона Фереидуни, докторант на Универзитетот во Кембриџ, која ја истражува улогата на големите технолошки компании во надзорот и одбраната.
„Генеративните модели на вештачка интелигенција што ги гледаме денес како се комерцијализираат во голема мера имаат длабоко вкоренета антимуслиманска пристрасност што опстојува уште од нивното зачнување поради ориенталистичките податоци за обука што беа користени за нивно воспоставување“, изјави таа за TNA.
Постои академска литература, вели таа, што покажува дека јазичните модели, дури и уште од ерата на GPT-2 и GPT-3 во 2021 година, и пред објавувањето на ChatGPT, имале сериозна антимуслиманска пристрасност што опстојува и има последици врз создавањето на моделите на вештачка интелигенција денес.
„Позначајно е што генеративните модели на вештачка интелигенција, вклучувајќи ги и визуелните модели, не само што ги зајакнуваат исламофобичните идеали, туку и ги зајакнуваат социјалните предрасуди и стигми, вклучувајќи ги и западноцентричните ориенталистички слики пронајдени во нивните податоци за обука, создавајќи бесконечна повратна јамка на растечката исламофобија преку автоматизација на ширењето на зголемената антимуслиманска реторика“, додава Фереидуни.
Всушност, голема рецензирана студија насловена како „Постојана антимуслиманска предрасуда во големи јазични модели“ откри дека во случајот на GPT-3, зборот „муслиман“ бил аналогизиран со „терорист“ во 23% од тест случаите, во споредба со многу пониски стапки за другите религии. Последователната работа покажа дека дури и по обидите за „де-пристрасност“, пристрасноста опстојува кај поновите модели.
Друга неодамнешна студија откри дека одредени техники за ублажување на предрасудите (брз инженеринг, културно укажување) можат да ја намалат преваленцата на арапско/муслиманска предрасуда до 87,7%, но резултатите варираа многу и многу повеќекратни асоцијации останаа.
Онлајн модерација, замолчување и засилување
Онлајн платформите тврдат дека го ублажуваат говорот на омраза, но истражувањата сугерираат поинаков модел кога станува збор за антимуслиманска содржина. На пример, независната организација Центар за борба против дигиталната омраза (CCDH) објави во 2023 година дека компаниите за социјални медиуми не успеале да дејствуваат врз 89% од пријавената антимуслиманска (исламофобична) омраза.
Слично на тоа, извештајот на Амнести Интернешнл од 2022 година откри системски проблеми во модерирањето на содржината што непропорционално ги засега муслиманските жени.
Пораката е јасна: додека платформите се рекламираат себеси како неутрални арбитри на слободното изразување, нивните системи за модерација честопати дозволуваат исламофобната содржина да се шири непречено и алгоритамски.
Културни и институционални димензии
Она што го прави алгоритамскиот надзор и пристрасноста толку подмолни е нивната непроѕирност. Пристрасноста на полицаецот може да се оспори; алгоритамската не може. Кога машина ќе означи некого како „висок ризик“, ретко има објаснување и ретко жалба.
За муслиманите кои патуваат, работат или ја изразуваат својата вера преку интернет, ова создава чувство на постојан надзор. Препознавањето на лицата на аеродромите може да предизвика дополнителен надзор; Софтверот за проверка на вработувањето може тивко да ги рангира кандидатите пониско за имиња што ги смета за „странски“; модерацијата на социјалните медиуми може да ги задуши дискусиите за Газа или исламофобијата.
Секој случај може да изгледа мал, но заедно тие се собираат во дигитален режим на државјанство од втор ред. Нконде го нарекува ова „циклус на дигитално сомневање“, предупредувајќи дека тврдењата за неутралност маскираат подлабока вистина. „Неутралноста во пристрасен свет служи само на статус кво“, додава таа.
Сепак, отпорот расте. Муслиманските технолози, правните научници и застапниците за дигитални права почнуваат да ја оспоруваат непроѕирноста на алгоритамските системи. Ако муслиманските и глобалните јужни перспективи останат отсутни од меѓународната дебата, пристрасноста ќе продолжи да се третира како техничка грешка, а не како политичка неправда.
„Додека муслиманските гласови не бидат дел од креирањето правила, етиката на вештачката интелигенција ќе остане западен разговор за глобалните прашања“, вели Нконде. Низ цела Европа, организациите на граѓанското општество се залагаат за транспарентност преку Законот на ЕУ за вештачка интелигенција, кој воведува класификации на ризик и механизми за надзор.
Сепак, спроведувањето останува недоследно, а исклучоците од националната безбедност им дозволуваат на владите да работат со непроѕирни технологии под радарот.
Сепак, подлабокиот проблем лежи надвор од регулативата. Тој е културен и институционален. Пристрасноста на вештачката интелигенција не е само софтверски проблем, туку одраз на тоа кој одлучува како изгледа „ризикот“ и чија безбедност е најважна.
„Системите со вештачка интелигенција работат врз основа на она што им се внесува и што прават алгоритмите и програмите во нив. Без сомнение, ќе има пристрасности во секој систем со вештачка интелигенција, што значи дека тие можат да почнат да се фокусираат или да бараат одредени шеми за кои човекот би знаел дека се манипулирани или едноставно неточни“, изјави Имане А. Ата, директорка на Tell MAMA, за TNA.
„Затоа човечкиот надзор е толку важен и затоа потпирањето исклучиво на вештачката интелигенција е потенцијална реална опасност кога ја поврзувате со профитабилни потфати“, додава таа.
„Антимуслиманската пристрасност лесно може да се вовлече во вештачката интелигенција ако програмите препознаат голем обем на таква активност, ги препознаат клучните инфлуенсери што ја промовираат или дека се продава поголем обем на производ. Тие можат да ја легитимираат таквата активност или дури и да ја засилат.“
Системите обучени на страв ќе продолжат да го репродуцираат стравот, без оглед на техничката софистицираност. Како што нè потсетува Нконде, „Постојано прашуваме како да ги направиме машините попаметни кога треба да прашуваме како да ги направиме системите пофер.“
(TBT)








