AI literacy i praktyki zakazane
W mocy są obowiązki kompetencyjne oraz zakazy z art. 5.
Praktyczny schemat decyzji dla organizacji korzystających z AI. Odpowiedz na pytania, odbierz rekomendację i gotowy plan działań na 0-30-90 dni.
Najważniejsze daty wynikające z AI Act (UE 2024/1689), które warto uwzględnić w harmonogramie wdrożenia.
W mocy są obowiązki kompetencyjne oraz zakazy z art. 5.
Zaczynają działać wymogi dla modeli ogólnego przeznaczenia.
Pełne stosowanie większości przepisów, w tym transparentności.
Dochodzi kolejny etap dla części systemów wysokiego ryzyka.
Schemat kroków niezbędnych do osiągnięcia i utrzymania zgodności. Elementy oznaczone jako cykliczne wymagają regularnego raportowania.
Zidentyfikuj i udokumentuj wszystkie systemy AI wykorzystywane w organizacji — od chatbotów po silniki rekomendacji. Rejestr musi być aktualizowany co rok.
Art. 6 AI ActSprawdź, czy którykolwiek z Twoich systemów AI nie realizuje praktyk zakazanych: social scoring, manipulacja podprogowa, masowe rozpoznawanie biometryczne.
Art. 5 AI ActPrzeprowadź ocenę ryzyka każdego systemu AI. Dla systemów wysokiego ryzyka i przetwarzających dane osobowe — obowiązkowa DPIA (Art. 35 RODO).
Art. 9 AI Act + Art. 35 RODOWdroż oznaczenia treści generowanych przez AI, informuj użytkowników o interakcji z AI, ujawniaj deepfake'i. Aktualizuj przy każdej zmianie systemu.
Art. 50 AI ActZapewnij udokumentowane szkolenia dla personelu pracującego z AI: ograniczenia modeli, ryzyka, zasady nadzoru człowieka. Powtarzaj co najmniej raz w roku.
Art. 4 AI ActZapewnij legalną podstawę przetwarzania danych przez AI, realizuj obowiązek informacyjny, obsługuj prawa podmiotów danych i utrzymuj politykę retencji.
Art. 6, 13, 14, 15–22 RODOWdroż mechanizmy human review dla decyzji podejmowanych przez AI, logowanie decyzji, procedury incydentowe i możliwość interwencji człowieka.
Art. 14 AI ActUtrzymuj interfejsy AI zgodne z WCAG 2.1 AA: kontrast, nawigacja klawiaturą, ARIA, czytelne formularze. Audytuj regularnie.
EN 301 549 / EAAUtrzymuj aktualną dokumentację techniczną systemów AI: architektura, dane treningowe, metryki, procedury testowania. Aktualizuj przy każdej istotnej zmianie.
Art. 11, 12 AI ActPrzeprowadź kompleksowy audyt wewnętrzny obejmujący wszystkie wymogi AI Act, RODO i WCAG. Raportuj wyniki i wdrażaj rekomendacje.
Art. 9, 61 AI ActPrzedstaw wyniki audytu i oceny ryzyka zarządowi. Uzyskaj formalne zatwierdzenie strategii AI i budżetu compliance.
Art. 26 AI ActOdpowiedz na 11 pytań dotyczących Twojej organizacji, a otrzymasz spersonalizowany raport z oceną ryzyka, poziomem gotowości i planem działań na 0-30-90 dni.
Rozpocznij kreator gotowościWypełnij schemat krokowy i uruchom skany GDPR oraz WCAG, aby szybciej zamknąć ryzyka i bezpiecznie skalować wdrożenia AI.
Poniżej znajdziesz akty prawne, na których opiera się ten formularz, oraz odpowiedzi na najczęstsze pytania praktyczne.
Oficjalne akty prawne UE i PL, które warto mieć w dokumentacji wdrożenia.
Najczęstsze pytania operacyjne i prawne przy wdrażaniu AI w firmie.
Nie. AI Act i RODO działają równolegle. Jeżeli proces AI obejmuje dane osobowe, musisz spełniać również wymagania RODO (m.in. podstawa prawna, informowanie osób, prawa podmiotów danych, bezpieczeństwo).
Gdy przetwarzanie może powodować wysokie ryzyko dla praw i wolności osób, zwłaszcza przy profilowaniu, monitoringu na dużą skalę albo automatyzacji decyzji. W takich przypadkach DPIA powinna być wykonana przed wdrożeniem.
Co do zasady tak — gdy użytkownik wchodzi w interakcję z AI lub konsumuje treść wygenerowaną/syntetyczną, należy zapewnić jasną informację i odpowiednie oznaczenia zgodnie z art. 50 AI Act.
Nie każde, ale jest kluczowy, gdy decyzja jest wyłącznie zautomatyzowana i wywołuje skutki prawne lub podobnie istotne. Wtedy potrzebne są dodatkowe gwarancje, możliwość interwencji człowieka i ścieżka odwołania.
Tak. Jeśli treści lub interfejsy są dostępne dla użytkowników końcowych, ich dostępność musi spełniać wymagania WCAG 2.1 AA oraz właściwe przepisy sektorowe (EAA/PAD/sektor publiczny).
Tak, choć zwykle innego typu. Nadal obowiązują m.in. governance, AI literacy, analiza ryzyka i dokumentacja. Wątek dostępności konsumenckiej może być mniejszy, ale nie znika kwestia RODO, jeśli występują dane osobowe.
Nie. Zarówno AI Act, jak i RODO wymagają podejścia ciągłego: aktualizacji rejestrów, przeglądów ryzyka, monitoringu incydentów i odświeżania polityk wraz ze zmianami modeli i procesów.
W sektorze publicznym jest to standardowy obowiązek. W usługach objętych EAA/PAD należy zapewnić spełnienie wymagań dostępności i transparentne informacje o poziomie zgodności oraz planie usuwania barier.
Nie. Odpowiedzialność organizacji korzystającej z AI pozostaje po jej stronie. Umowy z dostawcami (DPA/SCC, zakres ról i odpowiedzialności) są ważne, ale nie zastępują własnego programu compliance.
Nie. To narzędzie screeningowe do szybkiego mapowania ryzyk i priorytetów. Finalna ocena zgodności powinna być potwierdzona przez zespół prawny/compliance i techniczny na danych konkretnej organizacji.