Dirbtinio intelekto sustiprinta dezinformacija: kaip keičiasi informacijos patikimumas ir ką turi žinoti NVO?

  • paskelbė

Lietuvos demokratiškumo ugdymo kolegija (LDUK) šiais metais įgyvendina projektą C.L.E.A.R. – Countering Lies, Empowering Awareness, and Resilience, kuriuo siekiama stiprinti NVO gebėjimus atpažinti ir valdyti dirbtinio intelekto kuriamą dezinformaciją. Projektas suteikia organizacijoms praktinius įrankius, mokymus ir gaires, padedančias analizuoti DI generuojamą turinį, informuoti visuomenę ir prisidėti prie atsakingos skaitmeninės politikos formavimo.

Dirbtinio intelekto (DI) sistemos šiandien tapo vienu svarbiausių informacinės aplinkos kūrėjų. Generatyviniai modeliai, „deepfake“ technologijos, automatizuoti tekstų generatoriai ir socialinių tinklų algoritmai sparčiai transformuoja viešąją komunikaciją. Tai atveria naujų galimybių švietimui ir inovacijoms, tačiau kartu kelia precedento neturinčių rizikų informacijos patikimumui.

Remiantis naujausiais 2023–2025 m. tyrimais, DI sustiprinta dezinformacija šiandien nebėra pavienė klaida — tai sisteminis, kompleksiškas procesas, paremtas duomenimis, psichologiniais modeliais ir algoritminiu tikslumu. Todėl NVO sektorius, kaip vienas svarbiausių pilietinės visuomenės veikėjų, turi ne tik suprasti šiuos pokyčius, bet ir gebėti reaguoti strategiškai.

1. Generatyvinis DI – nauja dezinformacijos dimensija

Generatyviniai DI modeliai (GenAI) leidžia per kelias sekundes sukurti tekstą, vaizdą, balsą ar net „autentiškai“ atrodantį asmens pareiškimą. Šie modeliai sukuria naują informacinę realybę, kurioje:

  • faktas ir fikcija vizualiai nebeatskiriami,
  • turinio kūrimo greitis viršija žmogaus pajėgumus,
  • informacijos patikimumas tampa sunkiai įvertinamas.

2025 m. publikuotame „Mapping the Impact of Generative AI on Disinformation“ (MDPI) tyrime nurodoma, kad daugiau nei 20 % socialiniuose tinkluose cirkuliuojančių vizualinių elementų turi DI kilmės požymių. Ši proporcija iki 2027 m. gali pasiekti 40–60 %.

2. „Deepfake“ – nauja manipuliacinės realybės forma

„Deepfake“ technologijos leidžia generuoti itin įtikinamus vaizdo įrašus ir balsus, praktiškai neatskiriamus nuo tikro turinio.
SAGE Journals (2025) tyrimas parodė, kad:

  • net profesionalūs žurnalistai 37 % atvejų neatpažįsta DI sukurtų vaizdo įrašų;
  • „deepfake“ turinys turi tris kartus didesnį emocinį poveikį nei tradicinė dezinformacija;
  • vartotojai, reguliariai matantys DI sukurtą turinį, ima abejoti net tikrais faktais.

Tai prisideda prie vadinamosios episteminės erozijos, kai visuomenė praranda gebėjimą pasitikėti net patikrintais faktais.

3. Algoritminis sustiprinimas: kodėl emocinis turinys laimi?

Socialinių tinklų algoritmai optimizuoti įsitraukimui, todėl emocingas, poliarizuojantis turinys iškeliamas daug greičiau nei objektyvi informacija.
2025 m. Emerald Insight tyrime nurodoma:

  • melaginga informacija plinta 70 % greičiau,
  • emocinis turinys lengviau apeina kritinį vartotojų filtrą,
  • tai iš esmės keičia viešosios erdvės logiką.

Todėl DI sustiprinta dezinformacija yra sisteminė iššūkio forma, susijusi su pačia sklaidos infrastruktūra.

4. Informacijos perteklius ir patikimumo krizė

Generatyvinio DI greitis sukuria informacinį perteklių, kuriame:

  • vertingi faktai paskęsta informaciniame triukšme,
  • auditorija praranda gebėjimą atsirinkti,
  • kyla „patikimumo nuovargis“.

Springer (2025) tyrimas rodo, kad DI generatyviniai modeliai per minutę gali sukurti daugiau teksto, nei žurnalistas parašytų per kelias dienas.

Europos skaitmeninės žiniasklaidos observatorija (EDMO, 2024) pabrėžia, kad ši tendencija silpnina demokratinį dialogą ir visuomenės gebėjimą susitarti dėl faktų.

5. NVO vaidmuo informaciniame atsparume

DIGIRES Baltijos skaitmeninio atsparumo tyrimas (2023) parodė, kad:

  • aukštesnis skaitmeninis raštingumas didina atsparumą manipuliacijoms,
  • bendruomenių įtraukimas į informacijos kūrimą stiprina pasitikėjimą institucijomis,
  • NVO yra vienas patikimiausių informacijos šaltinių Baltijos regione.

Todėl NVO turi unikalią galimybę:

  • šviesti visuomenę apie DI rizikas,
  • kurti edukacinius įrankius,
  • įgalinti bendruomenes kritiškai vertinti turinį,
  • kurti etiškos komunikacijos standartus,
  • bendradarbiauti su politikos formuotojais dėl DI reguliavimo.

6. Rekomendacijos NVO: ką galima daryti šiandien

1. Įtraukti DI ir medijų raštingumą į edukaciją

Mokymai, dirbtuvės, mini kursai — viskas padeda stiprinti atsparumą.

2. Kurti vidines DI naudojimo gaires

Nustatyti, kaip, kada ir kokiais tikslais naudojamas DI.

3. Žymėti DI sukurtą turinį

Tai didina pasitikėjimą ir aiškumą auditorijoje.

4. Dalyvauti bendrose darbo grupėse

Partnerystė su ekspertais padeda kurti tvarias strategijas.

5. Organizuoti bendruomenių įgalinimo iniciatyvas

Kuo daugiau žmonių išmoksta kritiškai vertinti turinį, tuo saugesnė informacinė erdvė.

Reziuomuojant galima teigti, kad DI transformuoja informacinę aplinką kur kas sparčiau nei ankstesnės technologijos. NVO sektorius turi realų potencialą tapti pirmąja gynybos linija prieš DI sustiprintos dezinformacijos poveikį — jei turės aiškias gaires, žinias ir priemones veikti.

Projektą finansuoja Europos piliečių veiksmų tarnyba (ECAS) pagal Europos Sąjungos bendrai finansuojamą projektą.
Išreikštos nuomonės ir požiūriai yra tik autoriaus (-ių) ir nebūtinai atspindi Europos Sąjungos ar ECAS nuomonę ir požiūrį. Nei Europos Sąjunga, nei ECAS negali būti laikomos už tai atsakingomis.

Naudota literatūra

  • Mapping the Impact of Generative AI on Disinformation. MDPI, 2025.
  • AI-Generated Misinformation: A Case Study on Emerging Threats. SAGE Journals, 2025.
  • Generative AI and Misinformation: A Scoping Review. Springer, 2025.
  • The Origin of Public Concerns over AI Supercharging Misinformation. Harvard Misinformation Review, 2025.
  • Exploring the Diffusion Mechanism of Generative AI. Emerald Insight, 2025.
  • DIGIRES: Baltijos skaitmeninio atsparumo tyrimas. Baltijos skaitmeninio atsparumo centras, 2023.
  • EDMO: Trends in AI-Based Content Manipulation in Europe. 2024.
  • Floridi, L. The Logic of Information. Oxford University Press, 2020.