Straipsniai

Straipsniai

Straipsniai

5 AI reguliavimo ir saugaus naudojimo tendencijos Lietuvoje (2026)

Jan 15, 2026

Dirbtinis intelektas (AI) sparčiai keičia verslo procesus, paslaugų vartojimo modelius ir organizacijų rizikų peizažą. Lietuvos ekonomikos ir inovacijų ministerijos duomenimis, AI technologijų naudojimas tarp Lietuvos įmonių 2024 m. išaugo nuo 4,9 % iki 8,8 %, o didelėse įmonėse net nuo 21,3 % iki 31,2 % - tai rodo aiškią tendenciją: AI nebetapo tik „eksperimentų etapu“ – tai realus verslo įrankis.

Lygiagrečiai formuojasi ir teisinis reguliavimas: 2025 m. Lietuva paskyrė Ryšių reguliavimo tarnybą (RRT) kaip kompetentingą instituciją, prižiūrėti ES AI akto (Artificial Intelligence Act) laikymąsi, o iki 2027 m. planuojama įsteigti AI kompetencijos centrą „AI Factory“, kuris skatins saugias inovacijas.

Šiame kontekste 2026 metai bus kritiški tiek organizacijoms, tiek sprendimų priėmėjams. Žemiau - 5 tendencijos, kurias verta žinoti ir į kurias verta aktyviai reaguoti.

1. Aukštos rizikos AI sistemų inventorizacija ir saugumo testavimas

Kas tai reiškia?
ES AI aktas išskiria aukštos rizikos AI sistemas – tai tokie sprendimai, kurie daro didelę įtaką žmonių saugumui, teisėms ar sprendimų priėmimui. Pavyzdžiai:
✔️ Kritinės infrastruktūros stebėjimo sistemos
✔️ Biometriniai sprendimai (pvz., veido atpažinimas)
✔️ Darbo atrankų ir kreditingumo vertinimo modeliai

Kodėl tai svarbu organizacijoms?
Įmonės, kurios naudoja arba kuria tokias sistemas, turės ne tik jas identifikuoti, bet ir:

  • atlikti privalomus saugumo bandymus,

  • dokumentuoti rizikas,

  • įrodyti atitiktį griežtiems reikalavimams.

Praktiniai žingsniai:
✔️ Sudaryti inventorizuotų AI sprendimų sąrašą
✔️ Klasifikuoti, kurie priskiriami “aukštos rizikos” kategorijai
✔️ Integruoti saugumo testavimo planus į produktų gyvavimo ciklą

2. AI „sandbox“ projektų paleidimas – saugi inovacijų erdvė

Kas tai?
AI „sandbox“ – tai kontroliuota eksperimentinė aplinka, kurioje organizacijos gali kurti ir testuoti AI sprendimus prieš juos diegiant realioje aplinkoje.

Kodėl tai naudinga?

  • leidžia išbandyti saugumo priemones

  • suteikia erdvę eksperimentuoti su reguliavimo laikymusi

  • mažina rizikas realiam diegimui

Praktiniai veiksmai:
✔️ Stebėti valstybinių „sandbox“ iniciatyvų startą 2026 m.
✔️ Registruotis ir dalyvauti eksperimente suaktyvinti AI produktai
✔️ dokumentuoti rezultatus ir naudoti juos kaip įrodymus reguliavimo atitikčiai

3. AI saugumo rizikos – nuo kodo iki manipuliacijų turiniu

AI taip pat kelia naujas grėsmes, kurios gali paveikti organizacijų saugumą:

🚩 AI gali generuoti kenkėjišką kodą ir padėti automatizuoti atakas
🚩 „Deepfake“ technologijos gali būti naudojamos sukčiavimui, socialinės inžinerijos kampanijoms ir reputacijos pažeidimui
🚩 modeliai gali būti klaidinami arba nukreipiami neteisingais signalais

Kas tai reiškia CISO ir IT vadovams?

  • reikalingos modelių valdymo (model governance) programos

  • būtina aiški atsakomybė už AI saugumo požiūrį

  • reikia testavimo, stebėjimo ir reagavimo mechanizmų

Veiksmai:
✔️ Kurti vidinius AI saugumo standartus
✔️ Įtraukti grėsmių modeliavimą į testavimo ciklus
✔️ Stebėti modelių veikimą produktinėje aplinkoje

4. Modelių valdymo ir atskaitomybės programų kūrimas

AI sprendimų efektyvumas ir saugumas priklauso ne tik nuo technologijos, bet ir nuo žmogaus sprendimų:

📌 kas prižiūri modelio įvedimo kriterijus?
📌 kas atsakingas už verslo konteksto atitikimą?
📌 kaip užtikrinti, kad modelis nešališkas ir veiktų saugiai?

Įmonių vadovų ir CISO laukia:
✔️ modelių auditas
✔️ testavimo procedūros
✔️ aiški atsakomybė už sprendimų priėmimą

5. Reguliavimo laikymasis kaip konkurencinis pranašumas

Nors daug organizacijų gali matyti AI reguliavimą kaip „raštingumo reikalavimą“, reali nauda yra platesnė:

👉 Patikimumas rinkoje
👉 Mažesnės IT ir reputacijos rizikos
👉 Aiškesnės taisyklės partneriams ir klientams
👉 Galimybė efektyviau inovuoti kontroliuotoje aplinkoje

Ką vadovai turėtų užduoti jau dabar?
🔹 Ar mes turime aiškią AI sistemų inventorizaciją?
🔹 Ar mūsų AI sprendimai turi testavimo planus?
🔹 Ar mes pasiruošę reguliavimo auditui?
🔹 Ar mūsų produktai saugūs ir tinkamai valdomi visame gyvavimo cikle?

Išvados - ką daryti 2026 m.

Veiklos sritis

Pirmieji veiksmai

Inventorizacija

Suskaičiuoti visus AI sprendimus

Rizikos vertinimas

Identifikuoti aukštos rizikos sistemas

Testavimas

Sukurti saugumo testavimo procesus

Reguliavimo supratimas

Įtraukti AI aktų reikalavimus į produktų valdymą

Stebėsena

Diegti monitoringo ir reagavimo priemones

Trumpai

AI nebetampa tik technologine galimybe - jis tampa reguliuojamu verslo komponentu. 2026 metai yra kritinis etapas: turėti ne tik AI sprendimus, bet ir saugias, atitinkančias taisykles priemones, kurios suteikia konkurencinį pranašumą bei mažina rizikas.