Przejdź do treści

AI Act (Akt w sprawie sztucznej inteligencji)

Definicja

AI Act to unijne rozporządzenie regulujące sztuczną inteligencję. Wprowadza podejście oparte na poziomie ryzyka i określa obowiązki dla wybranych systemów AI oraz modeli ogólnego przeznaczenia.

Co to w zasadzie jest?

To zestaw reguł mówiących, kiedy i jak można wdrażać AI w organizacji. Nie każdy system AI podlega tym samym obowiązkom. Im większe ryzyko dla ludzi, praw i bezpieczeństwa, tym więcej wymagań.

Dla organizacji oznacza to potrzebę sprawdzenia:

  • czy dane rozwiązanie w ogóle podpada pod AI Act,
  • jaki ma poziom ryzyka,
  • jakie obowiązki trzeba spełnić przed wdrożeniem i w trakcie używania.

Praktyczne zastosowania (konkretne scenariusze)

Scenariusz 1: Weryfikacja systemu do oceny wniosków

  • Cel: sprawdzić, czy system używany w urzędzie albo firmie podlega szczególnym obowiązkom.
  • Wejście: opis systemu, jego funkcje, dane wejściowe i proces decyzyjny.
  • Kroki: analiza zastosowania -> ocena poziomu ryzyka -> decyzja o wymaganiach.
  • Rezultat: wiadomo, czy potrzebna jest dokumentacja, nadzór i dodatkowe kontrole.
  • Zabezpieczenie: przegląd prawny i udział właściciela procesu.

Scenariusz 2: Zakup gotowego narzędzia AI od dostawcy

  • Cel: ocenić, czy kupowane rozwiązanie spełnia wymagania regulacyjne.
  • Wejście: oferta dostawcy, opis produktu, warunki korzystania i deklaracje zgodności.
  • Kroki: przegląd umowy -> ocena obowiązków -> sprawdzenie dokumentacji dostawcy.
  • Rezultat: mniejsze ryzyko zakupu narzędzia, którego nie da się bezpiecznie wdrożyć.
  • Zabezpieczenie: checklista zakupowa i zapis o odpowiedzialności dostawcy.

Scenariusz 3: Wdrożenie modelu do wsparcia rekrutacji

  • Cel: ocenić, czy użycie AI w procesie kadrowym wymaga dodatkowych zabezpieczeń.
  • Wejście: opis funkcji modelu, zakres decyzji i dane kandydatów.
  • Kroki: analiza procesu -> ocena wpływu na osoby -> decyzja o dopuszczalności użycia.
  • Rezultat: wiadomo, czy rozwiązanie można wdrożyć i w jakiej formie.
  • Zabezpieczenie: human-in-the-loop i dokumentacja decyzji.

Typowe błędy i pułapki

  • Założenie, że każde narzędzie AI działa poza regulacją.
  • Traktowanie AI Act jako problemu wyłącznie działu prawnego.
  • Brak klasyfikacji systemu przed wdrożeniem.
  • Kupowanie narzędzia bez sprawdzenia obowiązków po stronie organizacji.

Ryzyka i jak je ograniczać

Ryzyko 1: Błędna klasyfikacja systemu

  • Ryzyko: błędna klasyfikacja systemu.
  • Jak ograniczać: prowadź ocenę ryzyka przed wdrożeniem.

Ryzyko 2: Brak zgodności formalnej

  • Ryzyko: brak zgodności formalnej.
  • Jak ograniczać: twórz dokumentację i przypisz właściciela procesu.

Ryzyko 3: Użycie niedozwolonego zastosowania

  • Ryzyko: użycie niedozwolonego zastosowania.
  • Jak ograniczać: weryfikuj przypadki użycia przed zakupem lub uruchomieniem.

Ryzyko 4: Kary i konieczność wycofania systemu

  • Ryzyko: kary i konieczność wycofania systemu.
  • Jak ograniczać: łącz przegląd prawny z przeglądem operacyjnym.

Checklista „zanim użyjesz”

  • Czy wiadomo, do czego dokładnie służy system?
  • Czy oceniono poziom ryzyka?
  • Czy wiadomo, kto odpowiada za zgodność?
  • Czy dostawca przekazał potrzebną dokumentację?
  • Czy użytkownicy znają ograniczenia systemu?

Diagram

flowchart LR
    A[Pomysł na użycie AI]
    B[Ocena zastosowania]
    C[Klasyfikacja ryzyka]
    D[Obowiązki i zabezpieczenia]
    E[Wdrożenie albo stop]
    A --> B --> C --> D --> E

Diagram pokazuje, że przed wdrożeniem AI trzeba najpierw ocenić zastosowanie, poziom ryzyka i wymagane obowiązki.

Dalsza lektura

Mapa powiązań

Powiązane hasła