- Reguliavimas - 4 min skaitymui - Viešas straipsnis

Prisijungti ir išsaugoti

Dirbtinio intelekto aktas: Ką reikia žinoti?

Aiškus įvadas organizacijoms: kas yra ES Dirbtinio intelekto aktas, kam jis taikomas ir nuo ko verta pradėti pasirengimą.

Dirbtinio intelekto aktas daugeliui organizacijų skamba kaip teisinė tema, kurią bus galima išsispręsti vėliau. Praktikoje toks požiūris pavojingas todėl, kad AI įrankiai dažnai išplinta anksčiau negu atsiranda bendros taisyklės, atsakomybės ir supratimas, kur rizika iš tikrųjų didžiausia.

Svarbiausia pradėti ne nuo baimės, o nuo aiškumo. Šis aktas nėra skirtas tam, kad sustabdytų kiekvieną AI naudojimo atvejį. Jo logika paprasta: kuo didesnė galima žala žmonėms, saugumui ar pagrindinėms teisėms, tuo griežtesni reikalavimai taikomi.

Kas apskritai yra Dirbtinio intelekto aktas?

Tai Europos Sąjungos reglamentas, nustatantis vienodas taisykles AI sistemų pateikimui rinkai, diegimui ir naudojimui. Jis taikomas ne tik tiekėjams, kurie kuria AI sistemas ar modelius, bet ir organizacijoms, kurios tas sistemas naudoja savo veikloje.

Tai reiškia paprastą dalyką: net jei jūsų organizacija nekuria savo modelio, bet naudoja trečiųjų šalių AI įrankius, klausimas dėl atsakomybės vis tiek neišnyksta. Kai kuriais atvejais būsite ne technologijos kūrėjas, o jos diegėjas, bet pareigų dėl to gali atsirasti vis tiek.

Kodėl ši tema svarbi ne tik didelėms technologijų įmonėms?

Dažna klaida yra manyti, kad šis reguliavimas aktualus tik tiems, kurie kuria sudėtingus modelius. Realybėje organizacijoms svarbiau kitas klausimas: ar AI naudojamas ten, kur sprendimai gali paveikti žmonių galimybes, teises, pinigus, darbą ar prieigą prie paslaugų.

Jei AI naudojamas kūrybai, santraukoms ar vidiniam produktyvumui, vieni reikalavimai bus lengvesni. Jei jis naudojamas personalo atrankai, kreditingumo vertinimui, švietimui, kritinei infrastruktūrai ar kitoms jautrioms sritims, rizikos lygis ir pareigos tampa visai kitokie.

Keturi rizikos lygiai, kuriuos verta suprasti

Aktas remiasi rizikos logika. Būtent ji yra svarbiausias pradinis filtras organizacijai.

1. Minimali rizika

Tai dauguma kasdienių sistemų, kurioms papildomi specialūs reikalavimai dažniausiai netaikomi. Pavyzdžiui, kai kurie rekomendavimo, filtravimo ar kiti žemos įtakos scenarijai.

Tai nereiškia, kad tokius įrankius galima naudoti bet kaip. Tiesiog jiems paprastai netaikoma ta pati reguliacinė našta, kaip jautresniems AI naudojimo atvejams.

2. Ribota rizika

Čia svarbiausias principas yra skaidrumas. Jei žmogus bendrauja su AI sistema arba mato AI sugeneruotą turinį, tam tikrais atvejais turi būti aišku, kad tai ne žmogaus, o AI sukurtas ar pateiktas rezultatas.

Praktiškai tai dažnai reiškia gana paprastą discipliną: aiškiai pažymėti chatbotą, sugeneruotą turinį ar kitą AI sąveiką ten, kur tai aktualu.

3. Aukšta rizika

Čia prasideda rimčiausia organizacijų atsakomybės zona. Aukštos rizikos kategorijai gali patekti AI sistemos, naudojamos tokiose srityse kaip įdarbinimas, darbuotojų valdymas, švietimas, esminės viešosios ar privačios paslaugos, teisėsauga, migracija ar kritinė infrastruktūra.

Tokiais atvejais tema nebėra vien „ar įrankis naudingas“. Svarbu, ar jis dokumentuotas, prižiūrimas žmogaus, pakankamai skaidrus, patikimas ir atsekamas.

4. Nepriimtina rizika

Kai kurie AI naudojimo atvejai ES yra tiesiog draudžiami. Čia patenka tam tikros manipuliacinės praktikos, socialinis vertinimas ir kai kurie ypač jautrūs biometrinio identifikavimo ar emocijų atpažinimo scenarijai.

Daugumai organizacijų tai nebus kasdienė zona, tačiau būtent ji svarbi kaip raudona linija: yra naudojimo atvejų, kurių reguliatorius nelaiko taisytinais ar „reikalaujančiais daugiau dokumentacijos“, o tiesiog draudžiamais.

Kas jau galioja, o kas dar artėja?

Aktas įsigaliojo 2024 m. rugpjūčio 1 d., tačiau jo taikymas vyksta etapais. Dalis nuostatų pradėta taikyti nuo 2025 m. vasario 2 d., įskaitant AI raštingumo pareigą ir draudžiamų praktikų taisykles. Bendrosios paskirties AI modelių ir valdymo taisyklės pradėtos taikyti nuo 2025 m. rugpjūčio 2 d. Pilnas bendras taikymas numatytas nuo 2026 m. rugpjūčio 2 d., o tam tikroms aukštos rizikos sistemoms, integruotoms į reguliuojamus produktus, pereinamasis laikotarpis tęsiasi iki 2027 m. rugpjūčio 2 d.

Trumpai tariant, organizacijoms tai nėra „kažkada ateityje“ tema. Dalis reikalavimų jau veikia, o likusiems pasirengti reikia iš anksto.

Nuo ko pradėti organizacijai?

Pirmas geras žingsnis nėra sudėtinga teisinė programa. Daug naudingiau pradėti nuo praktinio žemėlapio.

1. Susirašykite, kur AI jau naudojamas

Ne tik oficialiai nupirktus įrankius. Reikia suprasti ir tai, ką komandos jau daro neformaliai: kokius modelius ar asistentus naudoja tekstams, klientų aptarnavimui, dokumentams, atrankai ar analizei.

2. Atskirai pažymėkite jautrius scenarijus

Ypač tuos, kurie gali paveikti:

  • kandidatus ir darbuotojus
  • klientų teises ar galimybes
  • finansinius sprendimus
  • prieigą prie paslaugų
  • viešąją ar vidinę atskaitomybę

3. Susitarkite dėl žmogaus vaidmens

Jei AI padeda priimti sprendimus, reikia aiškiai susitarti, kur baigiasi automatikos pagalba ir kur prasideda žmogaus peržiūra, patvirtinimas ar atsakomybė.

4. Neatidėkite AI raštingumo

Vienas lengviausiai nuvertinamų punktų yra darbuotojų supratimas. Jei organizacija naudoja AI sistemas, ji turi pasirūpinti, kad su jomis dirbantys žmonės suprastų bent bazinius principus, ribas ir rizikas.

5. Peržiūrėkite tiekėjus ir dokumentaciją

Jei naudojate išorinius AI tiekėjus, verta iš anksto žinoti, ką jie gali paaiškinti apie savo sprendimą, kokias garantijas teikia ir kokia atsakomybės dalis lieka jums.

Ko nereikia daryti?

Nereikia apsimesti, kad AI tema organizacijoje dar neegzistuoja. Taip pat nereikia šokti tiesiai į maksimaliai sudėtingą atitikties projektą, jei dar net nesuprantate, kokie naudojimo atvejai iš tikrųjų svarbūs.

Didžiausia klaida dažniausiai būna ne technologinė. Ji valdymo pobūdžio: AI pradeda plisti per komandų įpročius, o organizacija tuo metu dar neturi nei registro, nei taisyklių, nei aiškaus savininko.

Ką verta išsinešti?

Dirbtinio intelekto aktas nėra tik didelių korporacijų reikalas. Jis svarbus visoms organizacijoms, kurios AI naudoja ne kaip žaislą, o kaip realų darbo įrankį.

Jei reikėtų viską sutraukti į vieną sakinį, jis skambėtų taip: pradėkite ne nuo to, kaip „atitikti viską“, o nuo to, kaip tiksliai suprasti, kur jūsų organizacijoje AI naudojamas, kokią riziką tai kuria ir kur jau dabar reikia aiškesnių ribų.

EU AI Act AI diegimas Saugumas ir valdymas
Dalintis:

Reikia ne tik konteksto, bet ir veiksmų plano?

Jeigu tema turi virsti vidinėmis taisyklėmis, mokymais ar AI diegimo sprendimais, pereikite į konsultacijas arba susisiekite.