Per pastaruosius kelerius metus dirbtinis intelektas (DI) tapo vienu svarbiausių informacinės sistemos veikėjų, o kartu — ir vienu sudėtingiausių iššūkių demokratijai bei visuomenės pasitikėjimui. Generatyviniai modeliai, deepfake vizualai, automatizuoti naratyvai ir algoritminiai rekomendavimo mechanizmai kardinaliai keičia informacijos cirkuliaciją, jos patikimumo suvokimą ir visuomenės gebėjimą orientuotis intensyviame informacijos sraute.
Moksliniai tyrimai (Harvard Misinformation Review, 2025; Springer, 2025; DIGIRES, 2023) aiškiai rodo, kad modernios dezinformacijos kampanijos paremti DI yra sisteminiai, greiti ir pritaikyti skirtingoms auditorijoms. Tokios kampanijos formuoja ne tik klaidingas nuomones, bet ir gilesnę „episteminę krizę“, kai visuomenė ima abejoti pačiu tikrovės patikimumu.
Šioje transformuotoje informacinėje aplinkoje nevyriausybinės organizacijos (NVO) tampa strateginėmis informacinio atsparumo grandimis. Jos yra arčiausiai bendruomenių, todėl jos yra pirmosios, kurios mato informacines grėsmes ir gali padėti visuomenei į jas reaguoti. Tačiau tam, kad NVO galėtų veikti efektyviai, joms būtina suprasti ne tik technologines DI galimybes, bet ir struktūrinius mechanizmus, kurie valdo šiuolaikinę dezinformaciją.
1. AI-driven dezinformacijos poveikis: naujos rizikos ir iššūkiai
DI suteikia galimybę kurti milžiniškus kiekius sintetinio turinio, kuris yra tikroviškas, emocingas ir pritaikytas konkrečioms auditorijoms. MDPI tyrimas (2025) rodo, kad iki 30 % vizualinio turinio socialiniuose tinkluose jau turi DI kilmės elementų, o SAGE Studios (2025) nustatė, kad net žiniasklaidos profesionalai dažnai nepajėgia identifikuoti DI sukurtų vaizdo įrašų ar balso klastočių.
Kartu su algoritminiais šališkumais tai sudaro terpę, kurioje melagingas turinys plinta greičiau nei faktinė informacija. Auditorijos elgsenos tyrimai (Emerald Insight, 2025) rodo, kad socialinių tinklų algoritmai natūraliai iškelia emocingesnį, poliarizuojantį turinį, taip sustiprindami DI generuojamų naratyvų poveikį.
Tokioje aplinkoje NVO susiduria su trimis esminiais iššūkiais:
– kaip atpažinti DI generuojamą turinį
– kaip greitai reaguoti į reputacijos krizes
– kaip padėti bendruomenėms atskirti tikrą informaciją nuo manipuliacijų
2. C.L.E.A.R. mokymai: atsako strategijos, žinios ir praktika
Įgyvendindama projektą C.L.E.A.R. – Countering Lies, Empowering Awareness and Resilience, Lietuvos demokratiškumo ugdymo kolegija (LDUK) suorganizavo dvi intensyvias mokymų sesijas NVO atstovams Lietuvoje.
Pirmojoje sesijoje buvo analizuojamos DI generuojamos dezinformacijos formos, deepfake turinys, OSINT metodai ir faktų tikrinimo platformos. Dalyviai atliko praktinius užsiėmimus, tikrino realius dezinformacijos atvejus ir mokėsi kurti atsako strategijas.
Antroji sesija gilinosi į algoritmines informacijos sklaidos logikas, naratyvų analizę, krizės komunikaciją ir bendradarbiavimo modelius. Dalyviai mokėsi kurti krizės komunikacijos protokolus, rengti atsako pareiškimus ir organizuoti atsparias bendruomenes.
Šie mokymai padėjo sustiprinti ne tik individualius gebėjimus, bet ir bendrą NVO sektoriaus pasirengimą sisteminėms informacinėms grėsmėms.
3. Politikos formuotojų vaidmuo: įtraukti, suprasti, reaguoti
Vienas svarbiausių C.L.E.A.R. projekto etapų buvo interviu su politikos formuotojais — dviem vietos lygmens ir vienu nacionaliniu politikos formuotoju. Interviu siekta suprasti:
– kokių žinių trūksta politikos kūrėjams apie DI generuojamą dezinformaciją
– kokius reguliavimo elementus jie laiko prioritetiniais
– kokias prevencijos priemones mato efektyviausiomis
– kokiu būdu NVO gali prisidėti prie politinių sprendimų formavimo
Šios įžvalgos tapo svarbia gairių dalimi, padedančia NVO sektoriui geriau suprasti politinio lauko logiką ir veikti kaip informacijos tarpininkė visuomenės ir sprendimų priėmėjų santykyje.
Interviu parodė, kad politinės institucijos dažnai neturi pakankamai įrankių ar informacijos apie DI generuojamą dezinformaciją. Todėl NVO tampa svarbiu partneriu formuojant strategijas, ribas ir atsako mechanizmus.
4. Parengtos gairės NVO sektoriui: praktinė ir politinė vertė
Apibendrinant projektą, buvo parengtas dokumentas AI-Driven Disinformation Guidelines, kuriame pateikiamos:
– praktinės rekomendacijos NVO apie DI turinio atpažinimą
– modeliai, kaip organizacijos gali kurti vidines etikos ir atsako sistemas
– krizės komunikacijos struktūra
– DI ženklinimo ir skaidrumo principai
– rekomendacijos politikos formuotojams, pagrįstos interviu analizėmis
Šios gairės yra vienas svarbiausių projekto rezultatų, padedantis sujungti tris sluoksnius: organizacinę praktiką, bendruomenės atsparumą ir politinę atsakomybę.
Su gairėmis galite susipažinti čia: [įkelkite nuorodą].
5. Ką reiškia atspari informacinė erdvė?
Atsparumas nereiškia tik gebėjimo paneigti melagingą žinutę. Tai visų pirma yra nuoseklios žinios, procesai ir pasitikėjimo kultūra. Tyrimai (EDMO, 2024; Lewandowsky, 2023; DIGIRES, 2023) rodo, kad labiausiai atsparios visuomenės yra tos, kuriose:
– NVO turi aiškias komunikacijos struktūras
– bendruomenės geba vertinti turinį kritiškai
– politika pagrįsta duomenimis, o ne reakcijomis
– technologijų naudojimas grindžiamas etika
Šiame kontekste projektas C.L.E.A.R. padeda kurti tiltą tarp technologinių pokyčių ir žmogaus saugumo — tarp DI inovacijų ir demokratinės atsakomybės.
DI generuojamos dezinformacijos era reikalauja naujos kompetencijos, naujų partneriščių ir naujo požiūrio į informacinį saugumą. NVO tampa ne tik švietėjomis, bet ir politikos formavimo partnerėmis, bendruomenių įgalintojomis ir kritinėmis demokratijos apsaugos institucijomis.
Atsparumo kūrimas yra ilgas, sisteminis procesas, tačiau su tinkamais įrankiais, žiniomis ir politikos parama jis gali tapti realiu pagrindu saugesnei, brandesnei ir atsakingesnei informacinei visuomenei.
Šį projektą finansuoja Europos piliečių veiksmų tarnyba (ECAS) pagal Europos Sąjungos bendrai finansuojamą projektą. Išreikštos nuomonės ir požiūriai yra tik autoriaus (-ių) ir nebūtinai atspindi Europos Sąjungos ar ECAS nuomonę ir požiūrį. Nei Europos Sąjunga, nei ECAS negali būti laikomos už tai atsakingomis.
Naudota literatūra
- DIGIRES (2023). Baltic Digital Resilience Report.
- Emerald Insight (2025). Exploring the Diffusion Mechanism of Generative AI.
- Harvard Misinformation Review (2025). AI-Driven Manipulation and Public Perception.
- Lewandowsky, S. (2023). The Debunking Handbook.
- Reuters Institute (2024). Digital News Report.
- SAGE Journals (2025). AI-Generated Misinformation Case Studies.
- Springer (2025). Generative AI and Misinformation Systems.
- EDMO (2024). Trends in AI-Based Content Manipulation in Europe.


