AITutoro
🇬🇧

EU AI Act: Jakich szkoleń potrzebuje Twoja firma?

Artykuł 4 wymaga kompetencji AI od wszystkich pracowników korzystających z AI. Obowiązuje od 2 lutego 2025. Oto dokładnie to, co musisz wiedzieć — i jak udowodnić zgodność.

Co musisz wiedzieć

EU AI Act (Rozporządzenie (UE) 2024/1689) to pierwszy na świecie kompleksowy akt prawny dotyczący sztucznej inteligencji. Wśród jego przepisów Artykuł 4 wymaga od wszystkich dostawców i podmiotów wdrażających systemy AI zapewnienia swoim pracownikom odpowiedniego poziomu kompetencji AI.
To nie jest opcjonalne i nie jest odłożone w czasie. Wymóg kompetencji AI jest egzekwowalny od 2 lutego 2025. Każda firma korzystająca z narzędzi AI w UE — od ChatGPT po Microsoft Copilot — musi zapewnić, że jej pracownicy rozumieją, z czym pracują.

Informacje podstawowe

Rozporządzenie
Rozporządzenie (UE) 2024/1689
Kluczowy artykuł
Artykuł 4 — Kompetencje w zakresie AI
Obowiązuje od
2 lutego 2025
Pełne egzekwowanie
2 sierpnia 2026

Artykuł 4: Kompetencje w zakresie AI — Pełny tekst

Dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w najlepszym możliwym zakresie, wystarczającego poziomu kompetencji w zakresie AI wśród swoich pracowników i innych osób zajmujących się obsługą i użytkowaniem systemów AI w ich imieniu, uwzględniając ich wiedzę techniczną, doświadczenie, kształcenie i szkolenie oraz kontekst, w jakim systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane.

Co to oznacza w praktyce

„Dostawcy i podmioty stosujące”

Dotyczy dwóch grup: firm tworzących systemy AI (dostawcy) i firm, które z nich korzystają (podmioty stosujące). Jeśli Twój zespół używa jakiegokolwiek narzędzia AI w pracy, jesteś podmiotem stosującym.

„wystarczający poziom kompetencji w zakresie AI”

Pracownicy muszą rozumieć, co AI potrafi, czego nie potrafi i jak korzystać z niej odpowiedzialnie. Wymagany poziom nie jest ekspercki — powinien być odpowiedni do roli i kontekstu.

„uwzględniając ich wiedzę techniczną, doświadczenie, kształcenie i szkolenie”

Szkolenie musi być dopasowane do roli. Programista potrzebuje innego szkolenia niż kierownik marketingu. Programy „jeden rozmiar dla wszystkich” nie spełniają tego wymogu.

„kontekst, w jakim systemy AI mają być wykorzystywane”

Szkolenie musi obejmować konkretne narzędzia AI używane w Twojej organizacji, nie ogólną teorię AI. Kontekst ma znaczenie.

Kluczowe definicje (Artykuł 3)

Kompetencje w zakresie AI
Umiejętności, wiedza i zrozumienie pozwalające dostawcom, podmiotom stosującym i osobom, których to dotyczy, na świadome wdrażanie systemów AI oraz uzyskanie świadomości możliwości i zagrożeń związanych z AI oraz potencjalnych szkód.
Podmiot stosujący
Osoba fizyczna lub prawna, organ publiczny, agencja lub inny podmiot korzystający z systemu AI podlegającego jego zwierzchnictwu, z wyjątkiem sytuacji, gdy system AI jest wykorzystywany w ramach osobistej działalności o charakterze niezawodowym.
Dostawca
Osoba fizyczna lub prawna, organ publiczny, agencja lub inny podmiot, który opracowuje system AI lub model AI ogólnego przeznaczenia i wprowadza go do obrotu lub oddaje do użytku pod własną nazwą lub znakiem towarowym.

Kto potrzebuje szkolenia?

Artykuł 4 dotyczy każdego, kto ma do czynienia z obsługą i użytkowaniem systemów AI. Zakres szkolenia powinien się różnić w zależności od roli:

RolaZakresKluczowe tematy
PracownicyPodstawy kompetencji AICzym jest AI, rozpoznawanie treści generowanych przez AI, polityki odpowiedzialnego korzystania, ograniczenia i ryzyka wyników AI
Operatorzy AIKompetencje narzędzioweSkuteczna inżynieria promptów, walidacja wyników, zrozumienie ograniczeń narzędzi, prywatność danych w interakcjach z AI
Dział IT / TechnicznyOcena ryzyka i wdrożenieKategorie ryzyka AI, wymogi dotyczące danych, integracja systemów, monitorowanie i ocena wyników AI, reagowanie na incydenty
Kadra zarządzającaZarządzanie i nadzór strategicznyRamy zarządzania AI, obowiązki zgodności, zarządzanie ryzykiem, polityki AI organizacji, ocena dostawców

Harmonogram egzekwowania (Artykuł 113)

EU AI Act wszedł w życie 1 sierpnia 2024. Poszczególne przepisy obowiązują od różnych dat:

2 lutego 2025Rozdziały I i II (w tym Artykuł 4)

Wymóg kompetencji AI, definicje i zakres. Już egzekwowalne.

2 sierpnia 2025Zakazane praktyki, obowiązki GPAI

Rozdział III Sekcja 4, Rozdziały V, VII, XII, Artykuł 78. Zakazane zastosowania AI i zasady dla modeli ogólnego przeznaczenia.

2 sierpnia 2026Pełna regulacja

Wszystkie pozostałe przepisy, w tym klasyfikacja systemów AI wysokiego ryzyka i oceny zgodności.

2 sierpnia 2027Istniejące systemy wysokiego ryzyka

Systemy AI wysokiego ryzyka już wprowadzone na rynek lub oddane do użytku muszą spełnić wszystkie obowiązki.

Artykuł 4 już obowiązuje. Czekanie na termin 2026 oznacza pominięcie wymogu kompetencji, który jest egzekwowalny już dziś.

Jak udowodnić zgodność

Nie istnieje centralny certyfikat UE potwierdzający kompetencje AI. Zgodność opiera się na procesie — udowadniasz ją dokumentacją, nie certyfikatem na ścianie.

Czego firmy potrzebują do audytu

1

Rejestry szkoleń

Zapisy pokazujące, kto przeszedł szkolenie, kiedy i jakie treści ukończył. Muszą obejmować wszystkich pracowników mających do czynienia z systemami AI.

2

Mapowanie programu

Dokumentacja potwierdzająca, że treść szkolenia obejmuje odpowiednie ryzyka, możliwości i konteksty związane z konkretnym wykorzystaniem AI w organizacji.

3

Ocena według ról

Udokumentowana ocena wiedzy technicznej i doświadczenia pracowników przed przypisaniem poziomu szkolenia — potwierdzenie, że uwzględniono indywidualne predyspozycje.

ISO/IEC 42001 (Systemy zarządzania AI) stanowi referencyjny standard dla budowania dokumentacji zgodności.

Kategorie ryzyka AI: Ogólny obraz

EU AI Act dzieli systemy AI na cztery poziomy ryzyka. Choć wymóg kompetencji z Artykułu 4 ma szerokie zastosowanie, zrozumienie całego systemu pomaga w kontekstualizacji obowiązków szkoleniowych.

Zakazane

Praktyki AI zakazane całkowicie — scoring społeczny, systemy manipulacyjne, identyfikacja biometryczna w czasie rzeczywistym (z wyjątkami).

Training: Pracownicy muszą umieć rozpoznać zakazane zastosowania, aby uniknąć ich wdrożenia.

Wysokie ryzyko

AI w kluczowych obszarach — rekrutacja, scoring kredytowy, edukacja, organy ścigania. Podlega ocenom zgodności.

Training: Operatorzy potrzebują głębokiego zrozumienia ryzyk, obowiązków monitorowania i wymogów nadzoru ludzkiego.

Ograniczone ryzyko

Systemy AI z obowiązkami transparentności — chatboty, deepfake, rozpoznawanie emocji muszą informować o udziale AI.

Training: Pracownicy muszą znać wymogi ujawniania informacji i prawidłowo je wdrażać.

Minimalne ryzyko

Większość zastosowań AI — filtry spamu, asystenci pisania, systemy rekomendacji. Bez szczególnych obowiązków poza Artykułem 4.

Training: Ogólne kompetencje AI zgodnie z wymogami Artykułu 4.

Szkolenia zaprojektowane pod zgodność z Artykułem 4

Adaptacyjny silnik uczenia AITutoro został zaprojektowany z myślą o wymogach regulacyjnych.

**Szkolenia dopasowane do roli** — System kalibracji ocenia wiedzę techniczną i doświadczenie każdego uczestnika, a następnie dostarcza treści dopasowane do jego poziomu. To bezpośrednio realizuje wymóg Artykułu 4 dotyczący uwzględnienia „wiedzy technicznej, doświadczenia, kształcenia i szkolenia”.

**Treści specyficzne dla kontekstu** — Szkolenia obejmują konkretne narzędzia AI używane w Twojej organizacji — ChatGPT, Claude, Copilot, Gemini i inne. Nie abstrakcyjna teoria, ale systemy, z którymi Twoi pracownicy pracują na co dzień.

**Śledzenie ukończenia** — Każda sesja, każdy moduł, każdy uczestnik. Rejestry szkoleń i potwierdzenia ukończenia zapewniają dokumentacyjne podstawy potrzebne do wykazania zgodności podczas audytu.

Najczęściej zadawane pytania

Artykuł 4 już obowiązuje

Obowiązek zapewnienia kompetencji AI w Twojej firmie jest aktywny już dziś. Zacznij budować zgodne zapisy szkoleniowe — zanim ktoś o nie zapyta.