Dirbtinis intelektas

Dirbtinis intelektas ir lygybė – kas čia bendro?

Dirbtinis intelektas (DI) jau seniai yra mūsų kasdienio gyvenimo dalis – net jei to nepastebime. Pasaulyje jis naudojamas socialinių tinklų algoritmuose, reklamoje, bankuose, internetinėse parduotuvėse, darbo paieškos platformose, valstybės teikiamose paslaugose ir kitur.

DI sistemos analizuoja didelius kiekius duomenų ir gali padėti priimti sprendimus:
– kam parodyti darbo skelbimą,
– kam suteikti paskolą,
– ką atrinkti papildomam patikrinimui,
– kam pasiūlyti tam tikrą paslaugą.

Tokios technologijos gali būti naudingos – jos taupo laiką, leidžia greičiau apdoroti informaciją. Tačiau DI nėra neutralus savaime. Jis mokosi iš žmonių sukurtų duomenų ir sprendimų.

Asmenys ir įstaigos, paslaugų tiekėjai, darbdaviai – visi gali sukurti diskriminuojančias situacijas. Lygiai taip pat diskriminuoti gali ir dirbtinis intelektas.

Svarbu suprasti: problema nėra pats DI, o tai, kaip jis kuriamas, mokomas ir naudojamas.

Kaip DI gali diskriminuoti?

DI sistemos mokosi iš žmonių pateiktų duomenų. Jei tuose duomenyse atsispindėjo nelygybė ar išankstinės nuostatos, DI gali jas perimti ir sustiprinti.

Tai gali nutikti, kai:

  • vienos žmonių grupės duomenų yra daugiau nei kitų (pvz., dirbtinio intelekto mechanizmas daugiau žino apie vyrus, nei apie moteris);
  • istoriškai tam tikros grupės visuomenėje buvo vertinamos prasčiau, patyrė (ir vis dar patiria) atskirtį ir diskriminaciją, todėl tokios nuostatos persikelia ir į DI sistemas;
  • naudojami netikslūs ar nepilni duomenys;

Tokiais atvejais DI sprendimai gali būti nepalankūs dėl lyties, amžiaus, kilmės, negalios, gyvenamosios vietos ar kitų požymių, net jei tai nebuvo sąmoningas tikslas.

Diskriminacija gali vykti automatiškai ir nepastebimai, todėl ją sunkiau atpažinti nei žmogaus padarytą neteisybę. DI diskriminacija gali paliesti daug žmonių vienu metu.

DI diskriminacija gali atsirasti ir tada, kai DI sistemos naudojamos ne pagal paskirtį. Pavyzdžiui, įrankis, skirtas tik atkreipti dėmesį į galimas rizikas, pradedamas naudoti kaip galutinis sprendimas apie žmogų.

Kaip DI diskriminacija gali paveikti žmones realiame gyvenime?

Rizikingos situacijos dažniausiai kyla ten, kur DI daro įtaką svarbiems sprendimams apie žmogų. Pavyzdžiui:

  • Darbo paieška – algoritmai gali vienai lyčiai ar grupei dažniau rodyti tam tikrus darbo skelbimus, o kai kurių įmonių naudojamos automatinės CV atrankos sistemos gali nepagrįstai atmesti kurios nors asmenų grupės kandidatūras.
  • Paskolos ir draudimas – automatizuoti sprendimai gali būti nepalankūs daliai žmonių dėl amžiaus, lyties ar gyvenamosios vietos.
  • Veido ar elgesio atpažinimas – kai kurios sistemos prasčiau atpažįsta tam tikras žmonių grupes, priklausomai nuo jų odos spalvos, ūgio ir kitų bruožų.
  • Valstybės ar savivaldybių paslaugos – automatizuoti sprendimai gali būti naudojami atrenkant socialinių išmokų gavėjus, nustatant galimas sukčiavimo, piktnaudžiavimo rizikas. Taip sistema gali tiesiogiai paveikti tam tikras žmonių grupes.

Kas saugo nuo DI diskriminacijos?

Europos Sąjunga priėmė Dirbtinio intelekto aktą (DI Aktą) – pirmą tokio masto teisės aktą pasaulyje. Jis palaipsniui įsigalios ir sustiprins žmonių apsaugą nuo žalingo ar diskriminuojančio DI naudojimo.

DI Aktas:

  • nustato, kur DI naudojimas yra ypač rizikingas;
  • reikalauja daugiau skaidrumo ir atsakomybės – pavyzdžiui, leidžia tam tikriems DI produktams pasiekti rinką tik po kruopštaus testavimo;
  • stiprina žmogaus teisių apsaugą;
  • riboja arba draudžia tam tikrus pavojingus DI taikymo būdus.

Tai reiškia, kad ateityje bus daugiau apsaugos automatizuotų sprendimų priėmime, ir žmonės turės daugiau galimybių suprasti bei ginčyti neteisingus automatizuotus sprendimus.

Tikri DI diskriminacijos pavyzdžiai iš kitų šalių

Darbinantis „Amazon“ – diskriminacija pagal lytį (JAV)

  • Kas nutiko?
    „Amazon“ sukūrė dirbtinio intelekto sistemą, kuri turėjo automatiškai atrinkti geriausius kandidatų CV darbo pozicijoms.
  • Problema
    Sistema buvo apmokyta pagal ankstesnius įdarbinimo duomenis, kuriuose dauguma darbuotojų buvo vyrai. Dėl to DI pradėjo prasčiau vertinti moterų CV – pavyzdžiui, neigiamai reagavo į CV, kuriuose buvo paminėta veikla moterų organizacijose ar merginų mokyklose.
  • Pasekmė
    Sistema buvo pripažinta diskriminuojančia ir „Amazon“ ją visiškai nutraukė. Atvejis tapo vienu žinomiausių pavyzdžių, kaip DI gali perimti ir sustiprinti esamą nelygybę.

Socialinių išmokų sistema ir neteisingi įtarimai (Danija)

  • Kas nutiko?
    Danijoje buvo naudojamos automatizuotos sistemos, padedančios nustatyti galimą piktnaudžiavimą socialinėmis išmokomis.
  • Problema
    Algoritmai neteisingai pažymėdavo žmones kaip „įtartinus“, remdamiesi jų šeimos situacija, gyvenimo aplinkybėmis ar elgesio modeliais. Algoritmai vertino šeimas ne tik pagal finansinius duomenis, bet ir pagal tam tikrus tapatybės ir gyvenimo aplinkybių bruožus. Prasčiau buvo vertinamos šeimos ir asmenys, kurie:

    • turėjo užsienio kilmės narių ar migracijos patirties,
    • turėjo „netradicinę“ šeimos struktūrą (pvz., vieniši tėvai ar atskirai gyvenantys šeimos nariai su negalia),
    • buvo sudėtingesnėje socialinėje ar ekonominėje situacijoje.

Šie požymiai buvo naudojami kaip netiesioginiai „rizikos signalai“, nors jie nebūtinai reiškė sukčiavimą.

  • Pasekmė
    Žmonės patyrė stresą, reputacijos žalą ir finansinių sunkumų. Atvejis sukėlė diskusijas apie tai, kaip tokios sistemos gali paveikti pažeidžiamas visuomenės grupes.

Socialinių išmokų sistema ir neteisingi įtarimai (Nyderlandai)

  • Kas nutiko?
    Nyderlandų valdžia naudojo automatizuotą sistemą, skirtą nustatyti galimą sukčiavimą, kai gaunamos išmokos vaikų priežiūrai.
  • Problema
    Sistema rėmėsi griežtomis taisyklėmis ir diskriminaciniais kriterijais, dėl kurių tūkstančiai šeimų buvo neteisingai apkaltintos sukčiavimu. Kai kurios šeimos pateko į rizikos grupę vien dėl savo kilmės ar pilietybės.
  • Pasekmė
    Tūkstančiai šeimų buvo neteisingai apkaltintos, priverstos grąžinti dideles pinigų sumas, pateko į skolas ir patyrė didelį psichologinį stresą. Skandalas baigėsi politine krize: vyriausybė atsiprašė, buvo pažadėta kompensuoti žalą, o tokio tipo automatizuotų sistemų naudojimas buvo sustabdytas ir peržiūrėtas.

Egzaminų vertinimo algoritmo atvejis (Jungtinė Karalystė)

  • Kas nutiko?
    2020 m., dėl COVID-19 pandemijos, mokiniai Jungtinėje Karalystėje nelaikė baigiamųjų egzaminų. Vietoje to galutinių įvertinimų nustatymui nuspręsta panaudoti algoritmą, kuris pažymius skaičiavo pagal ankstesnius mokyklų rezultatus.
  • Problema
    Algoritmas labiau rėmėsi mokyklos istoriniu pažangumu nei individualaus mokinio gebėjimais. Dėl to mokiniai iš valstybinių ar tiesiog silpnesnių mokyklų dažnai gavo žemesnius pažymius nei nusipelnė, o privačių mokyklų mokiniai algoritmų buvo įvertinti geriau.
  • Pasekmė
    Tūkstančiai mokinių neteko galimybės stoti į norimus universitetus. Kilus visuomenės pasipiktinimui, algoritminiai rezultatai buvo atšaukti ir pakeisti mokytojų įvertinimais, kurie rėmėsi individualiais mokinių pasiekimais.