2026 kovo 2 d.
Viešose diskusijose apie dirbtinį intelektą nuolat kartojasi tas pats klausimas – ar teisė spėja paskui technologijas? Jis skamba logiškai, tačiau kartu sukelia ir ne visai realų lūkestį: kad teisė turėtų judėti tokiu pačiu tempu kaip technologinės inovacijos.
Teisė ir technologijos yra labai skirtingos savo prigimtimi. Technologijos kuriamos šuoliais – greitai, eksperimentuojant, rizikuojant, kartais net nežinant, kur tiksliai jos nuves. Teisė savo ruožtu turi būti stabili, nuspėjama ir atsargi, nes ji kalba apie atsakomybę, pasekmes ir žmones. Istoriškai teisė visada reaguoja – ir taip turi būti.
Iššūkiai prasideda ten, kur šios dvi disciplinos susiduria dirbtinio intelekto kontekste.
DI žalą dažnai pamatome per vėlai
Teisė negali remtis tik prielaidomis. Jai reikia fakto, įvykusios žalos, konkretaus atvejo. Tik tada galima nustatyti atsakomybę. Tačiau dirbtinio intelekto atveju ši logika ima braškėti. Žala dažnai nėra akivaizdi. Ji kaupiasi tyliai, sistemingai ir paaiškėja tik po kurio laiko.
Algoritminiai sprendimai gali diskriminuoti, riboti galimybes, daryti įtaką žmonių gyvenimams dar jiems patiems to nesuvokiant. Vis dėlto plačiai nuskambėję atvejai, pvz., kai Danijoje buvo automatizuota socialinių išmokų sistema, susiklostė ne todėl, kad algoritmai buvo blogi. Jie atsirado dėl to, kad sistemos padarė tai, kam buvo sukurtos – optimizavo efektyvumą, ignoruodamos žmogaus teisių balansą.
Dirbtinis intelektas remiasi informacija, kuri buvo pateikta jį apmokant. Jis automatizuoja ir sustiprina tai, kas jau yra. Jei duomenys šališki, rezultatas bus dar šališkesnis. Jei organizacijoje yra galios disbalansas, algoritmas jį tik įtvirtins. Tai tarsi didinamasis stiklas – ne moralinis agentas.
Kodėl dirbtinį intelektą taip sunku reguliuoti?
Pirmiausia todėl, kad jis yra greitas, globalus ir nuolat besimokantis. Duomenys gali būti surinkti vienoje šalyje, sistema sukurta kitoje, o sprendimai taikomi trečioje. Nacionalinės teisės ribos čia tampa akivaizdžios.
Antra, todėl, kad dirbtinis intelektas jau seniai egzistuoja reguliuojamose srityse – aviacijoje, farmacijoje, finansuose. Ten sistemos buvo audituojamos, testuojamos, prižiūrimos dar gerokai prieš generatyvinio DI bumą. Tad sakyti, jog iki šiol nebuvo jokio reguliavimo, yra netikslu. Skirtumas tas, kad šiandien DI tapo masinis ir prieinamas visiems – ir būtent tai kelia naujas rizikas.
Trečia, todėl, kad šiandien vyrauja greičio kultūra. Verslai bijo atsilikti, konferencijose kalbama apie sprendimus, kurių dar nėra, kuriamas FOMO efektas. Padaryti greitai tampa svarbiau nei padaryti teisingai.
Dirbtinio intelekto aktas – proveržis ar pavėluotas kompromisas?
Neturėčiau lūkesčio, kad šiemet įsigaliosiantis Dirbtinio intelekto aktas bus technologinis proveržis. Tai – politinės ir teisinės kultūros dokumentas, atspindintis Europos Sąjungos identitetą.
Jo stiprybė – rizika pagrįstas požiūris. Pirmą kartą bandoma reguliuoti ne pačią technologiją, o poveikį žmogui. Ne viską reikia automatizuoti. Ten, kur dar nesame tikri dėl pasekmių, turi likti žmogaus sprendimas.
Svarbu ir tai, kad atsakomybės našta perkeliama nuo individo prie sistemų kūrėjų. Žmogus neturėtų būti tas, kuris įrodinėja, jog algoritmas jį nuskriaudė. Atsakomybė turi būti įrodyta iš anksto, o ne tik po žalos.
Ar šis reguliavimas bus per lėtas? Taip, dalis šiandieninių problemų rytoj gali atrodyti nebeaktualios. Tačiau tai nereiškia, kad jis taps bevertis. Diskriminacija, nesąžiningumas, galios disbalansas – tai problemos, kurios aktualios šimtmečius, tik skirtinguose technologiniuose kontekstuose.
Šiandien per dažnai girdime: „taip nusprendė algoritmas“. Tarsi tai būtų galutinis argumentas. Tačiau algoritmas nėra nei šeimininkas, nei sprendimų priėmėjas. Jis yra įrankis.
Todėl svarbiausias klausimas, kurį visada užduodu organizacijoms, yra labai paprastas: kas atsitinka, kai jūsų modelis suklysta? Per kiek laiko jūs tai pastebite? Kas atsakingas? Kaip informuojate nukentėjusį žmogų?
Techninis sudėtingumas nėra vertybė savaime. Modelis gali būti techniškai puikus, bet socialiai žalingas. Todėl reguliavimas, net jei jis lėtas, gali tapti stabilumo ir atsakomybės pamatu.
Kur baigiasi inovacijų laisvė?
Mano atsakymas aiškus: inovacijų laisvė turi baigtis ten, kur technologija daro reikšmingą poveikį žmogui be galimybės suprasti, paaiškinti ir ištaisyti sprendimą. Grįžtamumas, paaiškinamumas ir atsakomybė nėra pažangos priešai. Jie yra jos sąlyga.
Technologijos visada bus greitesnės už įstatymus. Klausimas ne ar mes jas pasivysime, o ar spėsime apsaugoti žmogų, kol jos bėga į priekį.
Ir tai jau nėra technologinis klausimas. Tai – vertybinis pasirinkimas.
Informaciją apie dirbtinį intelektą ir lygias galimybes galima rasti ČIA.
Daugiau informacijos:
Miglė KOLINYTĖ
Diskriminacijos prevencijos ir komunikacijos grupės vyresnioji patarėja
Tel. +370 5 205 0635
El.p. migle.kolinyte@lygybe.lt

Straipsnis parengtas įgyvendinant projektą „Equitech – lygių galimybių užtikrinimas dirbtinio intelekto sistemose“. Projektas bendrai finansuojamas Europos Sąjungos. Požiūris, pateikiamas turinyje, atspindi autorių poziciją ir nebūtinai sutampa su Europos Sąjungos ir Europos Komisijos nuomone. Nei Europos Sąjunga, nei Europos Komisija neprisiima atsakomybės už išreikštą poziciją.