AI Act (Akt w sprawie sztucznej inteligencji)
Definicja
AI Act to unijne rozporządzenie regulujące sztuczną inteligencję. Wprowadza podejście oparte na poziomie ryzyka i określa obowiązki dla wybranych systemów AI oraz modeli ogólnego przeznaczenia.
Co to w zasadzie jest?
To zestaw reguł mówiących, kiedy i jak można wdrażać AI w organizacji. Nie każdy system AI podlega tym samym obowiązkom. Im większe ryzyko dla ludzi, praw i bezpieczeństwa, tym więcej wymagań.
Dla organizacji oznacza to potrzebę sprawdzenia:
- czy dane rozwiązanie w ogóle podpada pod AI Act,
- jaki ma poziom ryzyka,
- jakie obowiązki trzeba spełnić przed wdrożeniem i w trakcie używania.
Praktyczne zastosowania (konkretne scenariusze)
Scenariusz 1: Weryfikacja systemu do oceny wniosków
- Cel: sprawdzić, czy system używany w urzędzie albo firmie podlega szczególnym obowiązkom.
- Wejście: opis systemu, jego funkcje, dane wejściowe i proces decyzyjny.
- Kroki: analiza zastosowania -> ocena poziomu ryzyka -> decyzja o wymaganiach.
- Rezultat: wiadomo, czy potrzebna jest dokumentacja, nadzór i dodatkowe kontrole.
- Zabezpieczenie: przegląd prawny i udział właściciela procesu.
Scenariusz 2: Zakup gotowego narzędzia AI od dostawcy
- Cel: ocenić, czy kupowane rozwiązanie spełnia wymagania regulacyjne.
- Wejście: oferta dostawcy, opis produktu, warunki korzystania i deklaracje zgodności.
- Kroki: przegląd umowy -> ocena obowiązków -> sprawdzenie dokumentacji dostawcy.
- Rezultat: mniejsze ryzyko zakupu narzędzia, którego nie da się bezpiecznie wdrożyć.
- Zabezpieczenie: checklista zakupowa i zapis o odpowiedzialności dostawcy.
Scenariusz 3: Wdrożenie modelu do wsparcia rekrutacji
- Cel: ocenić, czy użycie AI w procesie kadrowym wymaga dodatkowych zabezpieczeń.
- Wejście: opis funkcji modelu, zakres decyzji i dane kandydatów.
- Kroki: analiza procesu -> ocena wpływu na osoby -> decyzja o dopuszczalności użycia.
- Rezultat: wiadomo, czy rozwiązanie można wdrożyć i w jakiej formie.
- Zabezpieczenie: human-in-the-loop i dokumentacja decyzji.
Typowe błędy i pułapki
- Założenie, że każde narzędzie AI działa poza regulacją.
- Traktowanie AI Act jako problemu wyłącznie działu prawnego.
- Brak klasyfikacji systemu przed wdrożeniem.
- Kupowanie narzędzia bez sprawdzenia obowiązków po stronie organizacji.
Ryzyka i jak je ograniczać
Ryzyko 1: Błędna klasyfikacja systemu
- Ryzyko: błędna klasyfikacja systemu.
- Jak ograniczać: prowadź ocenę ryzyka przed wdrożeniem.
Ryzyko 2: Brak zgodności formalnej
- Ryzyko: brak zgodności formalnej.
- Jak ograniczać: twórz dokumentację i przypisz właściciela procesu.
Ryzyko 3: Użycie niedozwolonego zastosowania
- Ryzyko: użycie niedozwolonego zastosowania.
- Jak ograniczać: weryfikuj przypadki użycia przed zakupem lub uruchomieniem.
Ryzyko 4: Kary i konieczność wycofania systemu
- Ryzyko: kary i konieczność wycofania systemu.
- Jak ograniczać: łącz przegląd prawny z przeglądem operacyjnym.
Checklista „zanim użyjesz”
- Czy wiadomo, do czego dokładnie służy system?
- Czy oceniono poziom ryzyka?
- Czy wiadomo, kto odpowiada za zgodność?
- Czy dostawca przekazał potrzebną dokumentację?
- Czy użytkownicy znają ograniczenia systemu?
Diagram
flowchart LR
A[Pomysł na użycie AI]
B[Ocena zastosowania]
C[Klasyfikacja ryzyka]
D[Obowiązki i zabezpieczenia]
E[Wdrożenie albo stop]
A --> B --> C --> D --> E
Diagram pokazuje, że przed wdrożeniem AI trzeba najpierw ocenić zastosowanie, poziom ryzyka i wymagane obowiązki.
Dalsza lektura
Mapa powiązań
-
AI Act (Akt w sprawie sztucznej inteligencji) → wspiera: AI Governance (Ład korporacyjny AI)
-
AI Act (Akt w sprawie sztucznej inteligencji) → wymaga: RODO / DPIA
-
AI Act (Akt w sprawie sztucznej inteligencji) → zwiększa wagę: Transparentność