5 AI reguliavimo ir saugaus naudojimo tendencijos Lietuvoje (2026)
Jan 15, 2026
Dirbtinis intelektas (AI) sparčiai keičia verslo procesus, paslaugų vartojimo modelius ir organizacijų rizikų peizažą. Lietuvos ekonomikos ir inovacijų ministerijos duomenimis, AI technologijų naudojimas tarp Lietuvos įmonių 2024 m. išaugo nuo 4,9 % iki 8,8 %, o didelėse įmonėse net nuo 21,3 % iki 31,2 % - tai rodo aiškią tendenciją: AI nebetapo tik „eksperimentų etapu“ – tai realus verslo įrankis.
Lygiagrečiai formuojasi ir teisinis reguliavimas: 2025 m. Lietuva paskyrė Ryšių reguliavimo tarnybą (RRT) kaip kompetentingą instituciją, prižiūrėti ES AI akto (Artificial Intelligence Act) laikymąsi, o iki 2027 m. planuojama įsteigti AI kompetencijos centrą „AI Factory“, kuris skatins saugias inovacijas.
Šiame kontekste 2026 metai bus kritiški tiek organizacijoms, tiek sprendimų priėmėjams. Žemiau - 5 tendencijos, kurias verta žinoti ir į kurias verta aktyviai reaguoti.
1. Aukštos rizikos AI sistemų inventorizacija ir saugumo testavimas
Kas tai reiškia?
ES AI aktas išskiria aukštos rizikos AI sistemas – tai tokie sprendimai, kurie daro didelę įtaką žmonių saugumui, teisėms ar sprendimų priėmimui. Pavyzdžiai:
✔️ Kritinės infrastruktūros stebėjimo sistemos
✔️ Biometriniai sprendimai (pvz., veido atpažinimas)
✔️ Darbo atrankų ir kreditingumo vertinimo modeliai
Kodėl tai svarbu organizacijoms?
Įmonės, kurios naudoja arba kuria tokias sistemas, turės ne tik jas identifikuoti, bet ir:
atlikti privalomus saugumo bandymus,
dokumentuoti rizikas,
įrodyti atitiktį griežtiems reikalavimams.
Praktiniai žingsniai:
✔️ Sudaryti inventorizuotų AI sprendimų sąrašą
✔️ Klasifikuoti, kurie priskiriami “aukštos rizikos” kategorijai
✔️ Integruoti saugumo testavimo planus į produktų gyvavimo ciklą
2. AI „sandbox“ projektų paleidimas – saugi inovacijų erdvė
Kas tai?
AI „sandbox“ – tai kontroliuota eksperimentinė aplinka, kurioje organizacijos gali kurti ir testuoti AI sprendimus prieš juos diegiant realioje aplinkoje.
Kodėl tai naudinga?
leidžia išbandyti saugumo priemones
suteikia erdvę eksperimentuoti su reguliavimo laikymusi
mažina rizikas realiam diegimui
Praktiniai veiksmai:
✔️ Stebėti valstybinių „sandbox“ iniciatyvų startą 2026 m.
✔️ Registruotis ir dalyvauti eksperimente suaktyvinti AI produktai
✔️ dokumentuoti rezultatus ir naudoti juos kaip įrodymus reguliavimo atitikčiai
3. AI saugumo rizikos – nuo kodo iki manipuliacijų turiniu
AI taip pat kelia naujas grėsmes, kurios gali paveikti organizacijų saugumą:
🚩 AI gali generuoti kenkėjišką kodą ir padėti automatizuoti atakas
🚩 „Deepfake“ technologijos gali būti naudojamos sukčiavimui, socialinės inžinerijos kampanijoms ir reputacijos pažeidimui
🚩 modeliai gali būti klaidinami arba nukreipiami neteisingais signalais
Kas tai reiškia CISO ir IT vadovams?
reikalingos modelių valdymo (model governance) programos
būtina aiški atsakomybė už AI saugumo požiūrį
reikia testavimo, stebėjimo ir reagavimo mechanizmų
Veiksmai:
✔️ Kurti vidinius AI saugumo standartus
✔️ Įtraukti grėsmių modeliavimą į testavimo ciklus
✔️ Stebėti modelių veikimą produktinėje aplinkoje
4. Modelių valdymo ir atskaitomybės programų kūrimas
AI sprendimų efektyvumas ir saugumas priklauso ne tik nuo technologijos, bet ir nuo žmogaus sprendimų:
📌 kas prižiūri modelio įvedimo kriterijus?
📌 kas atsakingas už verslo konteksto atitikimą?
📌 kaip užtikrinti, kad modelis nešališkas ir veiktų saugiai?
Įmonių vadovų ir CISO laukia:
✔️ modelių auditas
✔️ testavimo procedūros
✔️ aiški atsakomybė už sprendimų priėmimą
5. Reguliavimo laikymasis kaip konkurencinis pranašumas
Nors daug organizacijų gali matyti AI reguliavimą kaip „raštingumo reikalavimą“, reali nauda yra platesnė:
👉 Patikimumas rinkoje
👉 Mažesnės IT ir reputacijos rizikos
👉 Aiškesnės taisyklės partneriams ir klientams
👉 Galimybė efektyviau inovuoti kontroliuotoje aplinkoje
Ką vadovai turėtų užduoti jau dabar?
🔹 Ar mes turime aiškią AI sistemų inventorizaciją?
🔹 Ar mūsų AI sprendimai turi testavimo planus?
🔹 Ar mes pasiruošę reguliavimo auditui?
🔹 Ar mūsų produktai saugūs ir tinkamai valdomi visame gyvavimo cikle?
Išvados - ką daryti 2026 m.
Veiklos sritis | Pirmieji veiksmai |
|---|---|
Inventorizacija | Suskaičiuoti visus AI sprendimus |
Rizikos vertinimas | Identifikuoti aukštos rizikos sistemas |
Testavimas | Sukurti saugumo testavimo procesus |
Reguliavimo supratimas | Įtraukti AI aktų reikalavimus į produktų valdymą |
Stebėsena | Diegti monitoringo ir reagavimo priemones |
Trumpai
AI nebetampa tik technologine galimybe - jis tampa reguliuojamu verslo komponentu. 2026 metai yra kritinis etapas: turėti ne tik AI sprendimus, bet ir saugias, atitinkančias taisykles priemones, kurios suteikia konkurencinį pranašumą bei mažina rizikas.
