Или за алгоритмите в земите на Юстиция*
Затова, любезни, аз твърдя, че във всички градове-държави едно и също нещо е справедливо – полезното за установената власт. Но властта господства така, че всеки, който правилно мисли, разбира, че навсякъде справедливото е едно и също – полезното за по-силния.
Платон, „Държавата“
Справедливостта е сложна категория и от древността търси възможно най-универсалното си обяснение в полето на човешката когнитивност. Аристотел се занимава пространно с тази Сократовска добродетел в контекста на социалния живот („Никомахова етика“) и съумява, за радост на любителите на дефинитивните подразделения, да я сведе до понятията дистрибутивна (при разпределението на благата) и корективна справедливост (в отношенията между хората). С това не постига окончателното ѝ обяснение, но поне поставя значимо начало. Исторически съвсем не той е първият, който прави опити за рефлексия върху понятието и векове след него, справедливостта като етичен концепт, ще продължи да е в дневния ред на социалните науки.
Дигиталното време рязко и по принуда навлезе в насрещния философски коловоз, доколкото все повече развива технологии, променящи жизнената среда и влияещи на понятийните ни рамки, ergo –преливат отвъд строгата инженерна логика. То е принудено да се съобразява със справедливостта в технологичните иновации и го прави посредством добилия известност в технологичния свят термин Fairness, в смисъла му на равнопоставеност. В сферата на изкуствения интелект, това е равноправността или реципрочността в междучовешките отношения (засега), дефинирана и контролирана от компютърен алгоритъм.
Идеята, поне на теория, е, че технологиите биха могли да реализират етап в еволюцията на социо-икономическия организъм, при който процесът на преценка да бъде иззет от ръцете на изпълнените с предразсъдъци, несъвършени и тесногръди хора и да бъде поверен на синтетичен интелект, който – обучен с цялата възможна предварителна информация – може да взима автономни и верни решения, изчистени от обичайните вътрешни противоречия и вродена релативност. При това с ниво на етична точност, за която човек, дори и бог, може само да мечтае. С други думи – чрез хладнокръвен и десубективизиран алгоритъм да опитаме да се справим там, където са се препъвали Платон, Аристотел, Тома Аквински, Хобс, Токвил или Джон Ройс по дългото трасе на културната ни история.
Да кажем, че вече леко сме подминали момента, когато е ставало дума само за акумулиране на големи данни и вече сме на следващото ниво – делегираме на компютърна система да взема решения, базирани на тях. Вероятно ще изненадам някого, ако подчертая, че тази уж утопична концепция е вече тренд в реалната икономика, където ударно се оптизират бизнес процеси на базата на големи данни („съвременна дигитална фабрика“). На първи етап се събира big data и се обучават алгоритми, които изграждат модели, на базата на които се правят прогнози и се вземат решения за печеливши бизнес стратегии. Но едно е изкуствен интелект да локализа пратки и да взема решение за приоритизиране на доставките в куриерски холдинг, избягвайки човешки грешки. Съвсем друго е когато навлезе в домейна на обществените отношения, вливайки се в кръвотока на флуидния и жив социален организъм, и въздействайки му в реално време.
Какво е Fairness?
Fairness междувременно се е сдобило с доста дефиниции, които само в контекста на изкуствения интелект се разклоняват в различни посоки, в зависимост от технологичните приложения – дали говорим за обработка на естествен език или за алгоритми, ползвани в генетиката и медицината. В най-широк смисъл и във връзка с вземането на решения, fairness или равнопоставеността се схваща като отсъствие на каквито и да било предразсъдъци или фаворизиране на индивид или група въз основа на техни присъщи или придобити характеристики. И ако даден алгоритъм е разработен за да преценява сам какво решение да предостави, то той бива несправедлив, ако формулира стратегии, изкривени в полза на конкретна група хора като по този начин дебалансира представата за равноправно отношение. Доколкото алгоритмите се обучават чрез масиви от данни, то изкривяванията са в резултат не на нещо друго, а на пристрастно селектирана data.
„Буквално разбирано, равенството е идеал, който лесно може да бъде предаден.“,
пише Майкъл Уолзър в обширната си монография, посветена на справедливостта.1 Пристрастията, идеите за равенството и дискриминацията имат дълга история в социалната теория преди да станат обект на машинното обучение. През 21-ви век то изневиделица се изправя пред древен проблем, зявявайки гръмко и с логическо високомерие: „Define: fairness“, за да установи единствено, че универсална дефиниция не просто липсва, но е трудно и невъзможно да бъде изкована със средствата на изчислителността. Колко изненадващо, че този път не можем просто да напишем няколко реда код.
Оказва се, че всички налични определения обхващат широк спектър от употреби и в резултат достигат до различни възгледи за това какво е равнопоставеност, а оттук става трудно да се разбере как ще се справи дадено справедливо решение, когато се изправи пред по-нюансирана дефиниция за справедливост. Говорим за реален проблем, който тепърва ще търси решение.
Британският политически коментатор Дъглас Мъри е един от гласовете в консервативното мисловно пространство, който не крие скепсиса си към способността на т.нар. Machine Learning Fairness (MLF) – „Справедливи самообучаващи се машини“ да реализират в изчистен вид концепция за равнопоставеност. В книгата си „Лудостта на тълпите“ 2, посветена на съвременните разпарчетосани идентичностни племена (сексуални, джендър, религиозни, расови и т.н.), всяко от които води битка за по-тлъстото парче от обществения договор, Мъри обръща спциално внимание на влиянието на технологиите.
„…едва след като потребителите започнаха да забелязват някои странни резултати при използване на търсачките, технологичните компании си направиха труда да обяснят какво е MLF. Естествено, те се опитаха да го представят във възможно най-безобидна светлина, сякаш зад това не се крие нищо друго. Това обаче не е така. Изобщо.“,
твърди Дейвид Мъри и дава примери за несправедливо интерпретиране на фактите от търсачката на Google, когато става въпрос за разпознаване на лица, за хомосексуални двойки или резултати за европейско изкуство, представени по начин, който пренаписва историческите факти.
Според него съществува усещане за скрита манипулативност и натрапване на нещо, за които не сме питали, но което е в съзвучие с актуалния социо-политически тренд да се фаворизират малцинствени групи (хомосексуални, чернокожи и т.н.) за сметка на други, с презумпцията, че първите досега са били онеправдани. Мъри дава пример за изкривявания при търсене в Google по ключови думи „европейско изкуство“ в раздела „Изображения“ на търсачката, която представя в първите топ двадесет резултата портрети на чернокожи хора. Според Мъри, това е интересно и със сигурност е политически коректно във времето на Black Lives Matter и антиколониалните настроения, но не е представително по отношение на историческата реалност.
„Явно в опита да предпазим компютрите от пристрастността, така присъща на човешката раса, сме успели да създадем някакъв нов вид непристрастност“, заключава Мъри.
Къде става дума за Fairness?
Машинното обучение се използва в съдилища предимно в САЩ за оценка на вероятността подсъдимият да се замеси отново в престъпление. То е в основата и на много други чувствителни инструменти за анализ в медицината, в социалните системи и автономните автомобили, при чатботовете, при маршрутизирането на полети или в дигиталния маркетинг. Във всяка от тези сфери може да става дума за пристрастрия и съответно говорим за fairness. И колкото повече алгоритмите създават усещането, че са нов властови център с нарастващо влияние върху начина на мислене и вземането на решения, толкова по-болезнена ще е тази тема.
В света, в който живеем, по-рядко се вглеждаме в метафизичните първопричини на нещото, създаващо ни главоболия и по-често просто се питаме: Как можем да го измерим и гарантираме? Равнопоставеността в технологиите е може би най-добрият пример за опит абстрактно понятие да бъде уловено и оразмерено в конкретни параметри. Вече са разработени инструменти за измерване степента на справедливост в дадена система, базирана на машинно обучение. Aequitas и Fairness 360 са такива инструментариуми за тестване на дискриминация, каквото и да значи това, и си поставят за цел да намалят щетите за определени групи от населението, причинени от AI решения. Гигант като IBM също тича в паралелна писта в опит да създаде техническо решение-еталон за оценка на справедливостта при алгоритмите.
Каква всъщност е потенциалната драма при Fairness 2.0, схващано като justice as fairness – справедливостта като равнопоставеност (по Ролс 3)? Възможен проблем е обезпокоителната парадигма, очертана още от Платоновия персонаж в диалога му „Държавата“ – Тразимах, който има важни реплики в този толкова ключов текст от Античността по темата за справедливостта като етична добродетел. Леко ядосан на многознайкото Сократ и на отвратителния му навик вечно да задава въпроси, Тразимах заявява гръмко своето твърдо разбиране за справедливостта като „онова, което е полезно за силните“.
Когато Дейвид Мъри се бунтува срещу: а) ползването на несправедливо обучени алгоритми от големи корпорации, които притежават надмощие и чрез технология и чрез данни и б) агресивността на малцинствените групи, които налагат диктата на правата си над другите – от думите му личи морална тревога. На първо място за това какво е новото разпределение на силите. И дали технологиите на изкуствения интелект не крачат в земите на Юстиция* твърде фриволно, пристрастно и опасно. Творение на силни корпорации, които тълкуват равнопоставеността според това, което им е полезно.
1.„Лудостта на тълпите. Джендър, раса и идентичност“, Дъглас Мъри, 2021, Издателство Изток-Запад
2. “Сфери на справедливостта”, Майкъл Уолзър, 2010, Издателство Критика и хуманизъм
3. “Теория на справедливостта”, Джон Ролс, 1998г., Изателство София-СА
*Юстиция – богинята на справедливостта, изобразявана с везна в ръката и с превръзка на очите. Тя трябва да отсъди безпристрастно полагаемото на всеки.