Eksperti

MI diskriminē cilvēkus – ko tas iemācījies no mūsu aizspriedumiem?

Viesturs Bulāns, "Helmes Latvia" vadītājs,30.04.2025

Jaunākais izdevums

Labklājības ministrijas dati liecina, ka teju 40% Latvijas iedzīvotāju ir saskārušies ar kādu no diskriminācijas veidiem – dzimuma, vecuma, reliģiskās piederības u.c. Šie rādītāji ir ļoti augsti, turklāt, digitālo tehnoloģiju attīstība ir radījusi arī situācijas, kad arī mākslīgais intelekts (MI) diskriminē cilvēkus.

MI mācās no cilvēku aizspriedumiem un vēsturiskajiem lēmumiem, rezultātā pieņemot diskriminējošus lēmumus, piemēram, darbā pieņemšanas, kredītu piešķiršanas vai pat veselības aprūpes jomās. To dēvē par algoritmisko diskrimināciju.

MI diskriminācija izpaužas dažādās jomās

Saskaņā ar definīciju, diskriminācija ir nepamatota atšķirīga attieksme kāda aizliegta pamata dēļ, piemēram, dzimuma, ādas krāsas, vecuma, invaliditātes, reliģiskās vai politiskās pārliecības, sociālās izcelsmes vai seksuālās orientācijas. Būtībā tas nozīmē, ka konkrētiem cilvēkiem vai cilvēku grupām tiek radītas nelabvēlīgas situācijas bez objektīva pamata. Mūsdienās to dara arī MI un šī diskriminācija var izpausties dažādās jomās – darba tirgū, veselības aprūpē, satiksmes infrastruktūrā, kredītspējas vērtēšanā u.tml.

Personāla atlases sistēmas, kas diskriminē sievietes

MI mācās no datiem, ko esam radījuši mēs, cilvēki, – no vēsturiskiem ierakstiem, iepriekšējiem lēmumiem un citas informācijas. Ja neizvērtējam šos datus, MI turpina mūsu aizspriedumus. To spilgti apliecina vairāki starptautiski piemēri – kompānija “Amazon” izmantoja MI risinājumu darbinieku atlasei, taču algoritms, analizējot CV, sāka noraidīt sievietes, jo iepriekš kompānijā vadības un tehniskajās pozīcijās pārsvarā tika pieņemti vīrieši. Sistēmai bija radies priekšstats, ka vīrietis būs piemērotāks kandidāts, un šis kļūdainais pieņēmums noveda pie sieviešu diskriminācijas.

Saziņas robots, kas mācās no cilvēku naida runas

Savukārt kompānijas “Microsoft” saziņas robots (čatbots) “Tay”, kas tika radīts kā eksperimentāls MI rīks, nepilnas diennakts laikā kļuva rasistisks, seksistisks un antisemītisks. Čatbots darbojās interneta vidē un mācījās no cilvēku izteikumiem un sarunām, burtiski pārņemot mūsu sliktākos paradumus. Vēl viens zīmīgs piemērs ir “Google” foto lietotne, kas kļūdaini identificēja melnādainus cilvēkus kā gorillas – vienkārši tāpēc, ka algoritms netika apmācīts ar dažādu etnisko grupu attēliem.

MI nedrīkst būt mūsu sliktāko paradumu turpinātājs

Šie piemēri apliecina, cik viegli MI var kļūt aizspriedumains un diskriminējošs, un ir skaidrs, ka ar tehniskajiem risinājumiem vien nepietiek. Ir nepieciešamas arī ētiskas vadlīnijas un skaidra vērtību sistēma. Mums jādomā “kā vajadzētu būt”, nevis “kā ir bijis”, un jārada vide, kurā MI nav mūsu sliktāko paradumu turpinātājs, bet instruments taisnīgai un iekļaujošai sabiedrībai. ANO Vispārējā cilvēktiesību deklarācija nosaka, ka visi cilvēki ir vienlīdzīgi un visiem ir tiesības uz vienādu aizsardzību pret jebkādu diskrimināciju. Šim principam ir jābūt spēkā arī situācijām, kad lēmumu pieņemšanā ir iesaistīts MI.

Gala lēmums ir cilvēku rokās

Situācijai ir risinājumi, piemēram, MI īstenoto diskrimināciju var samazināt ar atbilstošiem likumiem un noteiktumiem. Eiropas Savienības Mākslīgā intelekta akts, kas ir saistošs arī Latvijai, pievērš uzmanību arī šai tēmai un nosaka, ka MI risinājumu pamatā jābūt iekļaujošiem datiem. Tas nozīmē, ka algoritmi ir jāpārbauda, jāveic risku izvērtēšana u.tml., tomēr tas negarantē 100% izvairīšanos no diskriminācijas riska. Arī tad, ja MI sniegtā informācija būs objektīva, gala lēmums daudzos jautājumos joprojām paliek mūsu, cilvēku, rokās – un tur saglabājas diskriminācijas risks. Ir būtiski ne tikai izstrādāt drošus un ētiski pārdomātus algoritmus, bet arī stiprināt cilvēku atbildību un iekļaujošu vidi sabiedrībā un organizācijās.

Risinājumi MI diskriminācijas mazināšanai

Lai mazinātu diskriminācijas riskus, MI rīku izstrādē un lietošanā nepieciešams ievērot vairākus aspektus - datiem ir jāatspoguļo sabiedrība tāda, kādai tai vajadzētu būt, nevis tāda, kāda tā bijusi; lēmumiem jābūt caurspīdīgiem, pamatotiem, bet algoritmu ietekmei – izsekojamai un atbildīgai. Uzņēmumiem un iestādēm ieteicams izveidot ētikas vadlīnijas un regulāri jāpārbauda, vai izmantotie MI risinājumi darbojas godīgi un vienlīdzīgi attiecībā pret visām sabiedrības grupām. Svarīga ir arī sabiedrības izglītošana par datu ētiku un vienlīdzību kopumā. Tehnoloģijas pašas par sevi nav ne labas, ne sliktas - tās atspoguļo mūsu izvēles. Un tieši mēs – cilvēki – esam tie, kuri var izšķirt, vai MI palīdzēs radīt taisnīgāku sabiedrību, vai tikai nostiprinās netaisnību un aizspriedumus vēl spēcīgā formā. Izvēle ir mūsu rokās.

Jaunākais izdevums

Dalies ar šo rakstu

IT uzņēmums “Helmes Latvia” uzsācis darbu pie apjomīga resursu vadības sistēmas projekta, ieviešot SAP platformu Rīgas Tehniskajā universitātē (RTU).

Sistēma palīdz uzņēmumiem, iestādēm un organizācijām integrēt un pārvaldīt to galvenos biznesa procesus (finanšu pārvaldību, personālvadību u.c.) vienotā digitālā vidē. Šis risinājums nozīmē centralizētu, modernu un efektīvu datu un resursu pārvaldību, balstītu globāli atzītā tehnoloģijā.

SAP tehnoloģiskā platforma nodrošina centralizētu un reāla laika datu pārvaldību ikvienai konkrēta uzņēmuma vai iestādes darbības jomai: finanšu pārvaldībai, sagādes vadībai, personāla vadībai, klientu attiecībām u.c. Risinājums palīdz uzlabot darba efektivitāti, pārvaldot sarežģītus biznesa procesus. Tas nozīmē, ka visi departamenti un funkcijas organizācijā darbojas vienotā sistēmā un dati brīvi plūst starp tām. Tā vietā, lai katrai funkcijai izmantotu atsevišķu programmu, SAP spēj savienot organizācijas finanšu uzskaiti, grāmatvedību, personāla valdību, darbinieku datus, projektu uzskaiti, kā arī specifiskus nozares risinājumus, piemēram, izglītībā tie būtu studiju un studentu dzīves cikla pārvaldība, zinātniski pētnieciskās jomas risinājumi u.c.