AI kaip iššūkis demokratinei informacinei erdvei: kaip NVO gali atsakyti į naujos kartos grėsmes

  • paskelbė

Per pastaruosius penkerius metus dirbtinis intelektas (DI) iš papildančios technologijos tapo pagrindiniu informacinės ekosistemos veikėju. Naujausi akademiniai tyrimai rodo, kad DI generuojama dezinformacija formuoja įtampą tarp technologijų pažangos ir demokratinių procesų apsaugos, tarp informacijos prieinamumo ir jos patikimumo (Springer, 2025; Harvard Misinformation Review, 2025). Tai kelia klausimą: kaip pilietinės visuomenės organizacijos (NVO/CSO) gali išlikti patikimi informacinės aplinkos dalyviai, kai net žiniasklaidos profesionalai ne visada pajėgia atskirti tikro turinio nuo DI generacijos?

Remiantis DIGIRES Baltijos skaitmeninio atsparumo tyrimu (2023), būtent CSO sektorius atlieka kertinį vaidmenį ugdant visuomenės atsparumą informacinėms grėsmėms. Tačiau tam, kad šios organizacijos galėtų veikti efektyviai, jos privalo suprasti, kokiais mechanizmais DI keičia dezinformacijos pobūdį ir kokias naujas strategijas būtina taikyti.

Šį straipsnį parengė Lietuvos demokratiškumo ugdymo kolegija (LDUK) įgyvendindama projektą C.L.E.A.R. – Countering Lies, Empowering Awareness, and Resilience, kuriuo siekiama stiprinti NVO gebėjimus atpažinti ir valdyti dirbtinio intelekto kuriamą dezinformaciją. Projektas suteikia organizacijoms praktinius įrankius, mokymus ir gaires, padedančias analizuoti DI generuojamą turinį, informuoti visuomenę ir prisidėti prie atsakingos skaitmeninės politikos formavimo.

1. Naujos kartos dezinformacijos architektūra: kaip AI keičia informacijos formavimą

Pastarojo laikotarpio tyrimai aiškiai rodo, kad DI suteikė dezinformacijos kūrėjams naujų galimybių, kurios anksčiau buvo prieinamos tik didelėms, resursus turinčioms valstybėms ar organizacijoms.

1.1. Generatyviniai modeliai – masinės dezinformacijos fabrikai

MDPI atliktas tyrimas Mapping the Impact of Generative AI on Disinformation (2025) nustato, kad generatyviniai modeliai (pvz., GPT, Stable Diffusion, Sora) gali sukurti tokį informacijos kiekį, koks anksčiau buvo nepasiekiamas jokiam tradiciniam propagandos tinklui.

Tyrimo duomenimis

  • 20–30 % vizualinės dezinformacijos socialiniuose tinkluose jau turi DI kilmę,
  • tekstinė DI generuojama iki 7 kartų greičiau,
  • žmonių gebėjimas atpažinti DI turinį mažėja proporcingai jo realistiškumui.

Tai lemia du efektus: informacinį perkrovimą ir pasitikėjimo eroziją.

1.2. „Episteminė erozija“: visuomenės abejonių ekonomika

Harvard Misinformation Review (2025) apibrėžia naują reiškinį — epistemic erosion.
Tai procesas, kai auditorija nustoja pasitikėti ne tik konkrečia žinute, bet pačia informacine tikrove.

DI pagreitintas turinio dubliavimas ir manipuliavimas sukuria nuolatinę abejonę.

Dėl to visuomenė tampa labiau pažeidžiama manipuliacijoms: jei „viskas gali būti netikra“, įsijungia cinizmo mechanizmas.

2. Mechanizmai, kuriais DI sustiprina dezinformaciją

2.1. Deepfake vizualai ir balsai

SAGE Journals tyrimas (2025) parodė, kad net žiniasklaidos profesionalai 37 % atvejų nesugeba atpažinti DI sugeneruotų vaizdo įrašų.

DI leidžia:

  • klastoti politikų pareiškimus,
  • kurti melagingus „nutekintus“ įrašus,
  • imituoti žurnalistinius interviu.

2.2. Algoritminis amplifikavimas

Emerald Insight tyrimas Exploring the Diffusion Mechanism of Generative AI (2025) nustatė, kad socialinių platformų algoritmai natūraliai amplifikuoja emocinę DI:

  • poliarizuojantis turinys turi dvigubai didesnį algoritminį matomumą,
  • neutralus informacinis turinys yra algoritmiškai „nepranašus“.

Tai reiškia, kad DI turi natūralią struktūrinę persvarą.

2.3. Mikrotaikinių manipuliacijos

Naudojant DI analitiką, dezinformacija gali būti pritaikoma pagal:

  • amžių,
  • politinę orientaciją,
  • vietovę,
  • emocinę būseną,
  • žiniasklaidos vartojimo įpročius.

Tai lemia asmeninius informacijos burbulus, kuriuos DIGIRES tyrimas (2023) vadina „informacinėmis kapsulėmis“, izoliuojančiomis visuomenės narius vieną nuo kito.

3. NVO sektoriaus iššūkiai ir atsakomybės

NVO sektorius nėra tik informacijos skleidėjas — jis taip pat yra visuomenės švietėjas, medijų raštingumo stiprintojas, skaidrumo ambasadorius, politikos formavimo partneris. Tyrimai rodo, kad dauguma NVO neturi: DI atpažinimo įrankių, metodinių gairių, sisteminio požiūrio į DI rizikas, techninių resursų kovoti su sparčiai augančiomis grėsmėmis.

Projektas C.L.E.A.R. suorganizuos dvi praktines mokymų sesijas, skirtas padėti NVO suprasti dirbtinio intelekto kuriamos dezinformacijos veikimo principus ir įgyti realių įgūdžių ją atpažinti bei valdyti.

Pirmoji sesija bus skirta DI generuojamos dezinformacijos pasauliui: nuo sintetinės informacijos, deepfake vaizdų ir automatizuotų naratyvų iki realių atvejų, kaip tokie procesai paveikė NVO veiklą. Dalyviai dirbs su faktų tikrinimo įrankiais, OSINT metodais ir realaus laiko turinio analizės platformomis. Sesijoje bus taikomi praktiniai pratimai, kuriuose dalyviai mokysis tikrinti tikrus dezinformacijos pavyzdžius ir formuoti atsaką.

Antroji sesija gilinasi į algoritmų daromą įtaką informacijos sklaidai ir naratyvų formavimą. Dalyviai analizuos, kaip algoritminis šališkumas iškreipia informacinį lauką, kaip konstruojami manipuliatyvūs naratyvai ir kaip juos galima perrėminti į etišką, faktais grįstą komunikaciją. Mokymų metu bus dirbama su krizių komunikacijos situacijomis, aptariama, kaip NVO gali stiprinti bendruomenių atsparumą, bendradarbiauti tarpusavyje ir kurti vidines praktikas, užtikrinančias saugų ir atsakingą DI taikymą.

Abi sesijos akcentuoja praktinį darbą, realių situacijų modeliavimą ir metodus, kurie sustiprina NVO atsparumą sparčiai besikeičiančiam skaitmeniniam informacijos laukui.

4. Ką turi daryti NVO sektorius: rekomenduojamas veiksmų planas

Remiantis naujausiais moksliniais tyrimais, NVO sektorius turėtų:

1. Institucionalizuoti DI raštingumą

Integruoti DI grėsmių atpažinimą į organizacijos vidinius ir išorinius mokymus.

2. Taikyti turinio kilmės žymėjimą

Žymėti, kuris turinys kurtas DI, ir atvirai komunikuoti kūrimo procesą.

3. Kurti vidines etikos gaires

Įtraukti:

  • duomenų apsaugos procedūras,
  • žmogaus atsakomybės modelį,
  • DI naudojimo ribas.

4. Sistemingai bendradarbiauti su tyrėjais ir politikais

Siekdamos reguliavimo pokyčių, NVO turi veikti kaip tarpinė grandis tarp visuomenės ir politikos.

5. Įgalinti bendruomenes

Organizuoti mokymus, praktines dirbtuves, skaitmeninio atsparumo sesijas.

6. Stiprinti kibernetinį saugumą

Diegti:

  • dviejų faktorių autentifikaciją,
  • tapatybės patvirtinimo procedūras,
  • saugius dokumentų valdymo modelius.

Dirbtinis intelektas suteikė naujų galimybių švietimui, inovacijoms ir bendruomenių įgalinimui. Tačiau jis taip pat sukūrė precedento neturinčią informacinę riziką. Dezinformacija tapo tikslesnė, greitesnė ir sunkiau identifikuojama. Todėl CSO sektoriui būtina pereiti nuo pavienių iniciatyvų prie sisteminio atsparumo modelio.

Toks modelis reikalauja žinių, procesų, etikos standartų ir politinės partnerystės. C.L.E.A.R. projektas prisideda prie šių pokyčių, suteikdamas organizacijoms priemones, reikalingas atsakingai ir etiškai veikti naujoje informacinėje eroje.

Šį projektą finansuoja Europos piliečių veiksmų tarnyba (ECAS) pagal Europos Sąjungos bendrai finansuojamą projektą. Išreikštos nuomonės ir požiūriai yra tik autoriaus (-ių) ir nebūtinai atspindi Europos Sąjungos ar ECAS nuomonę ir požiūrį. Nei Europos Sąjunga, nei ECAS negali būti laikomos už tai atsakingomis.

Naudota literatūra

  1. MDPI (2025). Mapping the Impact of Generative AI on Disinformation.
    Prieiga: https://www.mdpi.com (ieškoti pagal straipsnio pavadinimą).

2. Harvard Misinformation Review (2025). The Origin of Public Concerns over AI Supercharging Misinformation.
Prieiga: https://misinforeview.hks.harvard.edu

3. SAGE Journals (2025). AI-Generated Misinformation: A Case Study on Emerging Threats.
Prieiga: https://journals.sagepub.com

4. Emerald Insight (2025). Exploring the Diffusion Mechanism of Generative AI.
Prieiga: https://www.emerald.com/insight

5. SpringerLink (2025). Generative AI and Misinformation: A Scoping Review.
Prieiga: https://link.springer.com

6. DIGIRES Baltijos skaitmeninio atsparumo tyrimas (2023).
Baltijos skaitmeninio atsparumo centras.
Prieiga: https://digires.lt

7. EDMO – European Digital Media Observatory (2024). Trends in AI-based Content Manipulation in Europe.
Prieiga: https://edmo.eu

8. Floridi, L. (2020). The Logic of Information: A Theory of Philosophy as Conceptual Design.
Oxford University Press.

9. UNESCO (2023). Guidelines for the Governance of Digital Platforms.
Prieiga: https://unesdoc.unesco.org

10. Europos Komisija (2024). AI Act Overview & Implications for Digital Safety.
Prieiga: https://eur-lex.europa.eu