Przejdź do treści

Sandboxing (piaskownica bezpieczeństwa)

Definicja

Sandboxing to uruchamianie narzędzi lub kodu w odizolowanym środowisku, które ma ograniczony dostęp do systemu, plików i sieci.

Co to w zasadzie jest?

Jeśli AI ma wykonywać działania (np. uruchomić skrypt), to lepiej, żeby robiła to w „bezpiecznym pudełku”, z którego nie może wyjść i narobić szkód. Piaskownica ogranicza:

  • jakie pliki można czytać/pisać,
  • czy jest dostęp do internetu,
  • jakie komendy są dozwolone,
  • ile CPU/czasu można zużyć.

Praktyczne zastosowania (konkretne scenariusze)

Scenariusz 1: Uruchamianie generatora raportu w kontenerze bez dostępu do prywatnych plików

  • Cel: uruchamianie generatora raportu w kontenerze bez dostępu do prywatnych plików.
  • Wejście: kod, narzędzie albo akcja AI.
  • Kroki: uruchom w izolacji -> ogranicz uprawnienia -> sprawdź wynik.
  • Rezultat: bezpieczniejsze wykonanie.
  • Zabezpieczenie: brak dostępu do produkcji i limit zasobów.

Scenariusz 2: Testowanie skryptu na kopii danych, nie na produkcji

  • Cel: testowanie skryptu na kopii danych, nie na produkcji.
  • Wejście: kod, narzędzie albo akcja AI.
  • Kroki: uruchom w izolacji -> ogranicz uprawnienia -> sprawdź wynik.
  • Rezultat: bezpieczniejsze wykonanie.
  • Zabezpieczenie: brak dostępu do produkcji i limit zasobów.

Scenariusz 3: Ograniczenie narzędzi AI do „read-only” w repo

  • Cel: ograniczenie narzędzi AI do „read-only” w repo.
  • Wejście: kod, narzędzie albo akcja AI.
  • Kroki: uruchom w izolacji -> ogranicz uprawnienia -> sprawdź wynik.
  • Rezultat: bezpieczniejsze wykonanie.
  • Zabezpieczenie: brak dostępu do produkcji i limit zasobów.

Ryzyka i jak je ograniczać

Ryzyko 1: Piaskownica źle skonfigurowana (za dużo uprawnień)

  • Ryzyko: piaskownica źle skonfigurowana (za dużo uprawnień).
  • Jak ograniczać: zasada najmniejszych uprawnień + audyt konfiguracji.

Ryzyko 2: Fałszywe poczucie bezpieczeństwa

  • Ryzyko: fałszywe poczucie bezpieczeństwa.
  • Jak ograniczać: monitoring + logi + testy bezpieczeństwa.

Ryzyko 3: Utrudnienie pracy (za mocne ograniczenia)

  • Ryzyko: utrudnienie pracy (za mocne ograniczenia).
  • Jak ograniczać: stopniowe rozszerzanie uprawnień, ale tylko gdy konieczne.

Mapa powiązań

  • Tool calling → narzędzia uruchamiaj w sandboxie, gdy to możliwe.
  • SSO/IAM → kontrola kto ma prawo uruchamiać co.
  • Audit trail → loguj działania w sandboxie.
  • DLP → ogranicz wyciek danych z piaskownicy.
  • Mini-przepływ: Model → narzędzie → sandbox → wynik → model

Diagram

flowchart LR
    A[Model]
    B[Narzędzie]
    C[Sandbox]
    D[Wynik]
    E[Log]
    A --> B --> C --> D --> E

Diagram pokazuje, że narzędzie wykonywane przez AI powinno działać w odizolowanym środowisku.