Dirbtinio intelekto etika ir reguliavimo iššūkiai: ką turi žinoti NVO sektorius

  • paskelbė

Dirbtinio intelekto plėtra pastaraisiais metais tapo vienu reikšmingiausių iššūkių informacinės politikos, duomenų apsaugos ir komunikacijos etikos srityse. Generatyviniai modeliai, automatizuoti sprendimų priėmimo procesai ir algoritmais grįsti komunikacijos įrankiai lemia naujas veiklos galimybes, tačiau kartu reikalauja atsakingo požiūrio. NVO sektorius šioje aplinkoje atsiduria dviguboje pozicijoje: viena vertus, organizacijos gali naudoti DI savo veiklos efektyvinimui, kita vertus, jos atlieka svarbų vaidmenį stiprinant visuomenės informacinį atsparumą ir etinės komunikacijos standartus.


Europos Sąjunga, siekdama suvaldyti DI rizikas, 2024 m. patvirtino Dirbtinio intelekto aktą (AI Act), kuriame numatytas rizikų klasifikavimas ir nauji skaidrumo reikalavimai aukštos rizikos sistemoms. Tai apima ir DI, naudojamą politinei komunikacijai, informacijos sklaidai, asmenų stebėsenai bei kitoms visuomenės procesus veikiančioms sritims. NVO sektorius, nors dažnai nelaikomas aukštos rizikos veiklos sritimi, neišvengiamai bus paveiktas naujų standartų: turinio žymėjimas, duomenų valdymo principai, algoritmų priežiūra ir žmogaus atsakomybės mechanizmai taps būtina veiklos dalimi.
Etiško DI naudojimo klausimai ypač svarbūs organizacijoms, kurios dirba informacijos, edukacijos, žurnalistikos ar viešosios komunikacijos srityse. Tyrimai rodo, kad DI sistemų skaidrumas, paaiškinamumas ir žmogaus vaidmens išsaugojimas yra esminiai veiksniai mažinant riziką netiksliai, šališkai ar klaidinančiai informacijai. Springer (2025) analizė pabrėžia, kad DI šališkumas dažnai kyla ne dėl technologijos, bet dėl duomenų, naudojamų jos mokymui, todėl organizacijos turi turėti aiškias procedūras, kaip tikrinami duomenys, kaip vertinama DI generuojama informacija ir kaip užtikrinama, kad sprendimai nebūtų palikti vien algoritmams.

Šių iššūkių kontekste svarbu paminėti kryptis, kurios padeda NVO sektoriui atsakingai naudoti DI. Pirmiausia, NVO turi suprasti, kokią įtaką jų veikloje gali daryti technologijos, todėl rekomenduojama aiškiai apsibrėžti DI naudojimo sritis. Antra, būtina parengti vidaus politiką, kuri reglamentuoja DI naudojimą. Trečia, turi būti įdiegti procesai, užtikrinantys žmogaus priežiūrą DI priimamų sprendimų atžvilgiu. Ketvirta, organizacijos turi vertinti DI generuojamo turinio rizikas ir jo poveikį auditorijai. Penkta, svarbu nuolat stebėti duomenų apsaugos reikalavimus ir užtikrinti jų laikymąsi.
Būtent šiam poreikiui reaguoja Lietuvos demokratiškumo ugdymo kolegijos (LDUK) įgyvendinamas 2025 m. projektas „Guardians United Against Rampant Disinformation“ (GUARD). Projektas orientuotas į tai, kaip NVO gali prisitaikyti prie skaitmeninės komunikacijos transformacijų, suprasti DI rizikas ir formuoti etiško naudojimo standartus. Didelis dėmesys skiriamas kompetencijoms, kurios leidžia vertinti DI sugeneruoto turinio patikimumą, aiškinti technologijų ribotumus ir ugdyti organizacijų atsakingo veikimo kultūrą.


Praktiniu lygmeniu NVO turėtų apsvarstyti kelias esmines gaires, kurios padeda integruoti DI etiškai:

1. Įsivertinti DI panaudojimo tikslus ir galimą poveikį auditorijai.

2. Etabliointi aiškias taisykles, kaip atpažįstamas, žymimas ir vertinamas DI sukurtas turinys.

3. Užtikrinti žmogaus priežiūrą sprendimų priėmimo procese, išvengiant automatizuoto sprendimų perėmimo.

4. Diegti duomenų apsaugos priemones, laikantis BDAR ir kitų teisinių reikalavimų.

5. Organizuoti mokymus darbuotojams apie DI ribas, šališkumo rizikas ir etikos principus.


NVO, kaip vieni svarbiausių demokratinės visuomenės veikėjų, turi galimybę kurti etišką ir atsakingą DI naudojimo kultūrą. Sėkmingai integruotos etikos gairės ne tik stiprina organizacijų patikimumą, bet ir prisideda prie visuomenės informacinio atsparumo. Technologijos, kaip teigia Luciano Floridi, niekada nėra neutralios, todėl DI plėtra turi būti lydima aiškių taisyklių ir vertybių. NVO sektorius gali veikti kaip tarpininkas tarp technologijų ir visuomenės, užtikrinantis, kad DI būtų naudojamas ne tik efektyviai, bet ir atsakingai.

Šį straipsnį parengė Lietuvos demokratiškumo ugdymo kolegija (LDUK) įgyvendindama projektą C.L.E.A.R. – Countering Lies, Empowering Awareness, and Resilience, kuriuo siekiama stiprinti NVO gebėjimus atpažinti ir valdyti dirbtinio intelekto kuriamą dezinformaciją. Projektas suteikia organizacijoms praktinius įrankius, mokymus ir gaires, padedančias analizuoti DI generuojamą turinį, informuoti visuomenę ir prisidėti prie atsakingos skaitmeninės politikos formavimo.

Projektą finansuoja Europos piliečių veiksmų tarnyba (ECAS) pagal Europos Sąjungos bendrai finansuojamą projektą. Išreikštos nuomonės ir požiūriai yra tik autoriaus (-ių) ir nebūtinai atspindi Europos Sąjungos ar ECAS nuomonę ir požiūrį. Nei Europos Sąjunga, nei ECAS negali būti laikomos už tai atsakingomis.

Naudota literatūra

  1. AI Act. European Union, 2024.
  2. Generative AI and Misinformation: A Scoping Review. Springer, 2025.
  3. EDMO. Trends in AI-Based Content Manipulation in Europe. 2024.
  4. DIGIRES. Baltijos skaitmeninio atsparumo tyrimas. 2023.
  5. Floridi, L. The Logic of Information. Oxford University Press, 2020.
  6. UNESCO. Recommendation on the Ethics of Artificial Intelligence. 2021.
  7. OECD. Principles on Artificial Intelligence. 2019.