2 lutego 2025 r. weszły w życie pierwsze regulacje wynikające z Rozporządzenia w sprawie sztucznej inteligencji (AI Act). Jest to przełomowy akt prawny ustanawiający jednolite zasady dotyczące rozwoju i stosowania systemów AI na terenie Unii Europejskiej. Wprowadza on szczegółowe obowiązki dla podmiotów zajmujących się wdrażaniem, sprzedażą oraz wykorzystywaniem systemów AI, w szczególności tych klasyfikowanych jako wysokiego ryzyka.
AI Act jest pierwszą kompleksową regulacją dotyczącą sztucznej inteligencji na świecie. Jej głównym celem jest zapewnienie bezpiecznego i zgodnego z prawem rozwoju oraz stosowania technologii AI. Rozporządzenie opiera się na podejściu proporcjonalnym do ryzyka, co oznacza, że im wyższy poziom zagrożenia generowany przez dany system, tym surowsze wymogi prawne zostają nałożone na jego dostawców i użytkowników.
Zgodnie z AI Act, systemy sztucznej inteligencji są klasyfikowane w czterech kategoriach ryzyka:
Z dniem 2 lutego 2025 r. weszły w życie pierwsze istotne obowiązki dla podmiotów stosujących systemy AI, dotyczące:
Podmioty zajmujące się tworzeniem i udostępnianiem ogólnych modeli AI są zobowiązane do spełnienia nowych regulacji, które w przyszłości będą rozszerzane o kolejne wymogi.
Regulacje wprowadzane od 2 lutego 2025 r. stanowią pierwszy etap wdrażania AI Act. Kolejne obowiązki będą stopniowo implementowane:
AI Act nakłada obowiązki zarówno na dostawców systemów AI, jak i firmy korzystające z tej technologii. Zakres regulacji jest jednak różny w zależności od roli danego podmiotu.
Obowiązki dostawców AI (producentów, dystrybutorów, importerów)
Największa odpowiedzialność spoczywa na podmiotach, które tworzą, sprzedają lub wprowadzają do obrotu systemy AI – zwłaszcza te klasyfikowane jako wysokiego ryzyka. Ich kluczowe obowiązki obejmują:
Obowiązki firm korzystających z AI (użytkowników końcowych)
Podmioty, które nie zajmują się tworzeniem AI, ale wykorzystują ją w swojej działalności, również mogą podlegać regulacjom. Dotyczy to w szczególności przedsiębiorstw, które:
Firmy te muszą:
✅ Zachować kontrolę nad działaniem AI i monitorować jej wpływ na użytkowników,
✅ informować o korzystaniu z AI, szczególnie w przypadku decyzji wpływających na ludzi,
✅ przestrzegać zasad przejrzystości i ochrony danych, w tym regulacji RODO,
✅ monitorować ryzyko związane z AI i podejmować działania zapobiegawcze w przypadku wykrycia potencjalnych zagrożeń.
może podlegać AI Act i będzie zobowiązana do zapewnienia zgodności z nowymi regulacjami. Dostosowanie się do przepisów nie tylko minimalizuje ryzyko sankcji, ale również zwiększa bezpieczeństwo i zaufanie użytkowników do technologii AI.
AI Act to unijne rozporządzenie regulujące rozwój, sprzedaż, wdrażanie i wykorzystywanie systemów sztucznej inteligencji. Opiera się na podejściu zależnym od poziomu ryzyka, co oznacza, że im większe zagrożenie generuje dany system AI, tym surowsze obowiązki dotyczą jego dostawców i użytkowników.
AI Act dzieli systemy sztucznej inteligencji na cztery kategorie ryzyka: niedopuszczalne, wysokiego ryzyka, ograniczonego ryzyka oraz minimalnego ryzyka. Najsurowsze ograniczenia dotyczą systemów zakazanych oraz systemów wysokiego ryzyka, stosowanych m.in. w rekrutacji, finansach, ochronie zdrowia i infrastrukturze krytycznej.
Od 2 lutego 2025 roku obowiązują pierwsze regulacje dotyczące zakazanych praktyk AI. Obejmują one m.in. systemy social scoringu, manipulacyjne techniki wpływania na decyzje użytkowników, biometryczną kategoryzację według cech wrażliwych oraz wybrane formy masowego rozpoznawania twarzy w przestrzeni publicznej.
Dostawcy systemów AI muszą zapewnić zgodność systemów z wymogami regulacyjnymi, przejrzystość działania, zarządzanie ryzykiem oraz mechanizmy nadzoru. W przypadku systemów wysokiego ryzyka konieczna będzie także ich rejestracja w unijnym rejestrze AI oraz ujawnianie informacji dotyczących szkolenia modeli.
Tak. Firmy wykorzystujące systemy AI w swojej działalności również mogą podlegać obowiązkom wynikającym z AI Act, zwłaszcza gdy stosują AI w rekrutacji, finansach, edukacji, ochronie zdrowia, transporcie lub procesach decyzyjnych wpływających na prawa jednostek.