Straipsniai

Straipsniai

Straipsniai

„Shadow AI“, modelių nuodijimas ir duomenų apsauga: naujas kibernetinio saugumo frontas

Dec 22, 2025

Generatyvinis dirbtinis intelektas tapo neatsiejama kasdienio darbo dalimi. Darbuotojai naudoja AI tekstams, analizėms, kodui, klientų atsakymams, procesų optimizavimui. Tačiau kartu su produktyvumu atsirado ir nauja, iki šiol nepakankamai valdoma rizika - „Shadow AI“.

Tai situacija, kai AI naudojamas už organizacijos matymo ir kontrolės ribų: nepatvirtinti įrankiai, neaiškūs duomenų srautai, jokios atsekamumo ar saugumo kontrolės.

Ir tai jau nėra teorija.

„Shadow AI“ ne technologinė, o organizacinė problema

Tyrimai rodo, kad 71 % Jungtinės Karalystės darbuotojų jau yra naudoję nepatvirtintus AI įrankius darbo tikslais. Tai apima ne tik tekstų generavimą, bet ir:

  • vidinių dokumentų įkėlimą,

  • sutarčių ar el. laiškų analizę,

  • klientų ar tiekėjų duomenų apdorojimą.

Problema ta, kad šie veiksmai dažniausiai nėra piktybiški. Darbuotojai siekia dirbti greičiau ir efektyviau. Tačiau organizacijos požiūriu tai reiškia:

  • nekontroliuojamą jautrių duomenų nutekėjimą,

  • duomenų panaudojimą modelių mokymui be aiškaus teisinio pagrindo,

  • reputacinę, teisinę ir reguliacinę riziką.

Atakos jau taikosi ne tik į žmones, bet ir į AI sistemas

Kitas, dar pavojingesnis etapas - atakos prieš pačias AI sistemas. Kibernetinio saugumo bendruomenė vis dažniau kalba apie:

Duomenų ir modelių nuodijimą (data & model poisoning)

Kai tyčia į modelio mokymą ar kontekstą įvedami klaidinantys ar žalingi duomenys, siekiant pakeisti modelio elgesį, sprendimus ar rekomendacijas.

Prompt injection

Atakos forma, kai per specialiai suformuluotas užklausas modelis priverčiamas:

  • apeiti saugumo ribojimus,

  • atskleisti jautrią informaciją,

  • vykdyti nepageidaujamas instrukcijas.

Modelių nutekėjimą

AI modeliai ir jų logika tampa intelektine nuosavybe, o jų nutekėjimas - tiesiogine verslo grėsme.

Kaip pažymi Jane Frankland, AI sistemos tampa vis labiau autonominės, o įsilaužėliai pradeda naudoti tas pačias technologijas - automatizuotas atakas, duomenų užteršimą ir AI paremtą socialinę inžineriją. Tuo pat metu ransomware išlieka pagrindiniu finansiniu motyvu, tik tampa sudėtingesnis ir labiau tikslinis.

Kodėl tai jau NIS2 (TIS2) klausimas?

Pagal NIS2 direktyva (Lietuvoje - TIS2), organizacijos privalo:

  • valdyti rizikas, kylančias iš informacinių sistemų,

  • užtikrinti duomenų saugumą,

  • turėti incidentų valdymo, testavimo ir kontrolės mechanizmus,

  • įrodyti vadovybės atsakomybę ir priežiūrą.

AI naudojimas automatiškai patenka į šį kontekstą, nes:

  • AI apdoroja duomenis,

  • AI daro įtaką sprendimams,

  • AI tampa kritinių procesų dalimi.

„Shadow AI“ reiškia, kad organizacija nežino, kur yra rizika - o tai tiesiogiai prieštarauja NIS2 dvasiai.

Kaip organizacijos turėtų reaguoti?

Sprendimas nėra „uždrausti AI“. Tai neveikia. Veikia valdymas.

1. AI valdymo (AI Governance) sistema

Aiškios taisyklės:

  • kokie AI įrankiai leidžiami,

  • kokiems duomenims,

  • kokiais tikslais.

2. Eksperimentinių ir produkcinių modelių atskyrimas

Tai kritiškai svarbu:

  • eksperimentai ≠ realūs klientų ar veiklos duomenys,

  • jokio „testuojame su tikrais duomenimis“.

3. Testavimas ir „red-teaming“

Kaip testuojame sistemas nuo įsilaužimų, taip turime testuoti ir:

  • prompt injection scenarijus,

  • neteisėto elgesio atvejus,

  • modelio atsparumą manipuliacijoms.

4. Atsekamumas ir dokumentacija

Kas, kada, su kuo ir kodėl naudojo AI - tai tampa atitikties įrodymu, o ne biurokratija.

AI nėra problema. Problema - nematomas AI

AI atveria didžiules galimybes, bet kartu keičia rizikos pobūdį. Didžiausia grėsmė 2026 m. nebus pats dirbtinis intelektas. Ji bus nevaldoma autonomija, kai technologija vystosi greičiau nei organizacijos gebėjimas ją suprasti ir kontroliuoti.

Todėl šiandien svarbiausias klausimas nėra „ar naudoti AI“, o:

ar mes žinome, kur, kaip ir kokiomis sąlygomis jis naudojamas?

Jei ne - tai jau ne inovacija.
Tai - „Shadow AI“.