Системите с изкуствен интелект, които днес активно се внедряват във всички сфери на човешката дейност, демонстрират предубедено отношение към определени малцинства, твърдят представители на правозащитни организации. 

Неприемливото поведение на AI се проявява в срив на системите за разпознаване на лица, които трудно идентифицират чернокожи, неуспешна гласова идентификация за потребители с характерен регионален акцент или забрани за отпускане на заеми на представители на малцинствата от банките. 

Качеството на AI модела се определя от два компонента: материалите, използвани в обучението, и ефективността на алгоритмите, коментира през CNBC Набил Манджи, ръководител на отдела по криптовалута и Web3 в Worldpay. Платформи като Reddit, например, таксуват за достъп до данни за обучение на изкуствения интелект. 

Създава се фрагментация на данните и в традиционно консервативна индустрия като финансовите услуги ефективността на AI е по-ниска от тази на компаниите, които могат бързо да внедрят усъвършенствани решения и да анализират актуални данни. 

Руман Чоудхури, бивш ръководител на отдела за етика на машинното обучение на Twitter, нарече даването на заеми отличен пример за AI дискриминация. Подобна схема действаше в Чикаго през 30-те години на миналия век, спомня си експертът: в банките висяха големи карти на града, на които в червено бяха отбелязани райони с преобладаващо чернокожо население – на жителите на тези райони бяха отказвани заеми. 

Подобни грешки, според него, допускат и съвременните AI алгоритми за оценка на кредитоспособността на гражданите, като един от параметрите е етническата принадлежност на клиента. 

Ънгъл Буш, основател на организацията “Черните жени в изкуствения интелект” смята, че подобна дискриминация е неумишлена, и призова заемодателите поне да допускат възможността за грешка. 

Разработчикът на изкуствен интелект Фрост Ли посочва, че технологичната дискриминация вече е породила много малки финтех стартъпи специално за чужденци, тъй като традиционна банка може лесно да откаже да издаде кредитна карта на възпитаник на Токийския университет, дори ако той работи в Google, но обслужва всеки завършил местен колеж. 

Не е лесно да се докажат фактите за такава дискриминация. Apple и Goldman Sachs се опитаха да хвърлят вината върху факта, че банките определят по-ниски кредитни лимити за жените, използващи Apple Card, отколкото за мъжете. Но Министерството на финансовите услуги на Ню Йорк не успя да намери доказателства в подкрепа на тези твърдения. 

Според експерти, мерките за регулиране на индустрията, въведени от международни организации като ООН, ще помогнат за защита срещу човешка дискриминация от AI. Потенциалните проблеми на AI са елементите на дезинформация и предразсъдъци, които стават компоненти на алгоритми, както и „халюцинациите“. 

В тази връзка, при въвеждане на AI в работата на компаниите или властите, са необходими механизми за осигуряване на прозрачност и отчетност на алгоритмите, които ще помогнат дори на непрофесионалисти да преценят тяхната ефективност. Гражданите трябва да могат да се оплакват от подобни решения; AI алгоритмите трябва да бъдат тествани и на етапа на тяхното внедряване е необходим преглед за пристрастия.