Mapa powiązań
Mapa pokazuje, jak pojęcia łączą się w praktycznych wdrożeniach AI. Strzałki opisują relację, np. „używa”, „wspiera”, „zwiększa ryzyko” albo „wymaga”.
graph LR
LLM[LLM] -->|używa| TOK[Token]
LLM -->|ogranicza| OKNO[Okno kontekstowe]
NLP[NLP] -->|obejmuje| LLM
PROMPT[Prompt] -->|steruje| LLM
PSYS[Prompt systemowy] -->|ogranicza| LLM
PINJ[Prompt injection] -->|atakuje| PROMPT
JAIL[Jailbreaking] -->|obchodzi| PSYS
RAG[RAG] -->|używa| EMB[Embedding]
RAG -->|używa| VDB[Baza wektorowa]
RAG -->|wymaga| CH[Chunking]
RAG -->|wspiera| GR[Grounding]
GR -->|ogranicza| HAL[Halucynacje]
FC[Fact-checking] -->|redukuje| HAL
CYT[Cytowanie źródeł] -->|wspiera| FC
EVAL[Ewaluacja] -->|mierzy| RAG
BEN[Benchmark] -->|uzupełnia| EVAL
FT[Fine-tuning] -->|uzupełnia| RAG
RLHF[Instruction tuning / RLHF] -->|wspiera| GUARD[Guardrails]
GUARD -->|ogranicza| JAIL
DPOI[Data poisoning] -->|zatruwa| VDB
DPOI -->|zwiększa| HAL
PII[Dane osobowe PII] -->|wymaga| ANON[Anonimizacja / pseudonimizacja]
PII -->|chroni| DLP[DLP]
AUD[Audit trail] -->|wspiera| POL[Polityka AI]
HIL[Human-in-the-loop] -->|wymaga| POL
HIL -->|ogranicza| HAL
API[API] -->|łączy| ORK[Orkiestracja]
ORK -->|korzysta z| CONN[Konektory danych]
CONN -->|zasilają| RAG
SSO[SSO / IAM] -->|kontroluje| API
BIAS[Stronniczość] -->|obniża| EXPL[Wyjaśnialność]
EXPL -->|wspiera| TR[Transparentność]
TR -->|wymaga| AUD
TEMP[Temperatura / sampling] -->|wpływa na| HAL
GEN[GenAI] -->|obejmuje| LLM
GPAI[GPAI] -->|zawiera| GEN
MUL[Model multimodalny] -->|rozszerza| GEN
AG[Agent AI] -->|wykonuje| ORK
ASY[Asystent AI] -->|używa| AG
DEEP[Deepfake] -->|nadużycie| GEN
TEN[Tenant] -->|izoluje| CONN
STACK[Stack] -->|zawiera| API
STACK -->|zawiera| RAG
STACK -->|zawiera| SSO
Powiązania lokalne z haseł
Poniższy indeks rozszerza mapę główną o relacje zapisane bezpośrednio w hasłach. Obejmuje wszystkie hasła pojęciownika i pokazuje, do których pojęć odwołuje się każde z nich.
- AB testy → Benchmark (powiązane); Ewaluacja (evaluation) (powiązane); Monitoring jakości (powiązane)
- Agent AI → Orkiestracja (wykorzystuje); Human-in-the-loop (wymaga); Audit trail (zwiększa wagę)
- AI Act (Akt w sprawie sztucznej inteligencji) → AI Governance (Ład korporacyjny AI) (wspiera); RODO / DPIA (wymaga); Transparentność (zwiększa wagę)
- AI Governance (Ład korporacyjny AI) → Polityka użycia AI w organizacji (wspiera); Ślad audytowy (wymaga); RODO / DPIA (zwiększa wagę)
- AI Literacy (Kompetencje AI) → Polityka użycia AI w organizacji (wspiera); Nadmierne zaufanie (Overreliance) (ogranicza ryzyko); Shadow AI (Szara strefa AI) (ogranicza ryzyko)
- Anonimizacja / pseudonimizacja → PII (chroni); Polityka użycia AI (wspiera); DLP (powiązana z)
- API → Temperatura (używa); Orkiestracja (wspiera); SSO/IAM (wymaga)
- Asystent AI → LLM (oparty o); RAG (wspiera); Instrukcja systemowa (wymaga)
- Baza wektorowa (Vector database) → Embedding (przechowuje); RAG (umożliwia); Data poisoning (narażona na)
- Benchmark → Ewaluacja (część); A/B testy (wspiera); Monitoring jakości (kontroluje)
- Biblioteka promptów (szablony) → Prompt (porządkuje); Ewaluacja (wspiera); Polityka użycia AI w organizacji (powinna być opisana w)
- Caching (pamięć podręczna) → Tenant (cache musi być odseparowany); Token (cache pomaga ograniczać koszty tokenów); RAG (cache embeddingów i wyników); Embedding (cache embeddingów i wyników); DLP (dane w cache też podlegają ochronie)
- Chain-of-thought (rozumowanie krok po kroku) → Ewaluacja (wspiera); Fact-checking (wymaga kontroli przez); Halucynacje (może ograniczać ryzyko)
- Content Credentials → Transparentność (wspiera); Data provenance (pochodzenie danych) (wspiera); Watermarking (znakowanie treści) (powiązane z)
- Cytowanie źródeł → Fact-checking (wspiera); Grounding (wspiera); Polityka użycia AI (wymagane w)
- Dane osobowe (PII) → Anonimizacja (wymaga); DLP (chroni); RODO / DPIA (powiązane z)
- Dane syntetyczne → Anonimizacja (alternatywa lub uzupełnienie); PII (kontekst prywatności); RODO/DPIA (kontekst prywatności); Bias (syntetyki mogą wzmacniać uprzedzenia); Ewaluacja (sprawdzanie jakości danych)
- Data poisoning (zatrucie danych) → RAG (atakuje); Baza wektorowa (atakuje); Red teaming (ogranicza)
- Data provenance (pochodzenie danych) → Cytowanie źródeł (provenance ułatwia cytowanie); Transparentność (pokazuje skąd treść); Audit trail (ślad działań i zmian); Fact-checking (łatwiej weryfikować)
- Deepfake → GenAI (zwiększa ryzyko); Transparentność (wymaga); Fact-checking (powiązany z)
- Destylacja modelu (Model distillation) → Small Language Model (SLM) (wspiera); Zarządzanie kosztami AI (wspiera); Ewaluacja (wymaga)
- Determinism (deterministyczność) → Temperatura sampling (bezpośrednio wpływa na losowość); Prompt format (struktura zwiększa powtarzalność); Structured output (wymusza stabilny format); Benchmark (mierzenie stabilności); Ewaluacja (mierzenie stabilności)
- DLP → PII (chroni); Polityka użycia AI (wspiera); SSO / IAM (współgra z)
- Dostępność cyfrowa w treściach AI → Transparentność (powiązane); Fact-checking (powiązane); Polityka użycia AI w organizacji (powiązane)
- Dryft danych i zachowania modelu → Monitoring jakości (drift wykrywa się przez obserwację metryk); Ewaluacja (porównanie „kiedyś vs dziś”); Benchmark (porównanie „kiedyś vs dziś”); Red teaming (drift bezpieczeństwa); RAG (drift może wynikać ze zmian w źródłach)
- Dynamiczny kontekst → Okno kontekstowe (ograniczenie, które dynamiczny kontekst rozwiązuje); Retrieval (dobór najlepszych fragmentów); Reranking (dobór najlepszych fragmentów); Cytowanie źródeł (przejrzystość); Context poisoning (ryzyko w źródłach)
- Dzielenie na fragmenty → RAG (wspiera); Baza wektorowa (poprawia); Halucynacje (wpływa na)
- Ewaluacja → Halucynacje (kontroluje); LLMOps (wspiera); Benchmark (wymaga)
- Fact-checking (weryfikacja faktów) → Halucynacje (ogranicza); Cytowanie źródeł (wymaga); Transparentność (wspiera)
- Few-shot (z przykładami) → Zero-shot (rozszerza); Okno kontekstowe (zużywa); Ewaluacja (wymaga kontroli przez)
- Fine-tuning (dostrajanie) → RAG (alternatywa dla / uzupełnia); Ewaluacja (wymaga); RODO / DPIA (zwiększa wagę)
- Function calling (wywoływanie funkcji) → API (funkcje zwykle mapują się na endpointy API); Agent AI (agent używa function calling, by wykonywać działania); Orkiestracja (orkiestrator decyduje, kiedy wywołać funkcję i co zrobić z wynikiem); Prompt injection (treść może próbować „wymusić” niebezpieczne wywołania); DLP (ochrona danych przekazywanych do funkcji); PII (ochrona danych przekazywanych do funkcji)
- GenAI → LLM (obejmuje); Deepfake (zwiększa ryzyko); Fact-checking (wymaga)
- GPAI → LLM (obejmuje); Polityka AI (wymaga); Ewaluacja (zwiększa wagę)
- Ground truth (prawda referencyjna) → Ewaluacja (bez ground truth nie ma dobrej ewaluacji); Benchmark (benchmarky opierają się na danych referencyjnych); Fact-checking (ground truth jako baza do weryfikacji); Drift (porównanie „w czasie” do prawdy referencyjnej)
- Grounding (ugruntowanie odpowiedzi) → Halucynacje (ogranicza); RAG (współpracuje z); Cytowanie źródeł (wymaga)
- Guardrails (barierki bezpieczeństwa) → Jailbreaking (ogranicza); Prompt injection (ogranicza); Polityka użycia AI (wymaga)
- Halucynacje → Grounding (ogranicza); RAG (ogranicza); Fact-checking (kontroluje)
- Human-in-the-loop (człowiek w pętli) → Halucynacje (ogranicza); Polityka AI (wymagany w); Fact-checking (wspiera)
- Hybrid search (wyszukiwanie hybrydowe) → Embedding (filar semantyki); Vector database (filar semantyki); Chunking (poprawia trafność); Reranking (drugi filtr jakości); RAG (hybryda często jest częścią RAG)
- Idempotencja → API (idempotencja jest częsta w dobrych API); Tool calling (narzędzia powinny być bezpieczne na powtórzenia); Audit trail (ślad wykonań); Agentic workflow (pętle i ponowienia)
- Inferencja (inference) → Token (zużywa); API (działa przez); LLMOps (wymaga kontroli w produkcji przez)
- Instruction tuning / RLHF → Guardrails (wspiera); Jailbreaking (ogranicza); Ewaluacja (nie zastępuje)
- Jailbreaking → Prompt systemowy (atak na); Guardrails (ograniczany przez); Red teaming (wymaga)
- Knowledge cutoff (granica wiedzy modelu) → Fact-checking (zwiększa wagę); RAG (wymaga aktualnych danych przez); Grounding (łączy się z)
- Konektory danych → RAG (zasilają); Data poisoning (narażone na); SSO/IAM (kontroluje)
- Kwantyzacja (Quantization) → Model lokalny (wspiera); Zarządzanie kosztami AI (wspiera); Ewaluacja (wymaga)
- Latency (opóźnienie odpowiedzi) → Token (dłuższe wejście = często wolniej); Okno kontekstowe (dłuższe wejście = często wolniej); RAG (etapy zwiększają latency); Retrieval (etapy zwiększają latency); Reranking (etapy zwiększają latency); Caching (zmniejsza latency); Monitoring jakości (obserwacja czasu odpowiedzi)
- LLM → Token (używa); Okno kontekstowe (ograniczany przez); RAG (wspierany przez)
- LLM Firewall → Guardrails (barierki bezpieczeństwa) (wspiera); DLP (wspiera); Prompt injection (ogranicza ryzyko)
- LLMOps → Ewaluacja (evaluation) (powiązane); Monitoring jakości (powiązane); Audit trail (powiązane)
- Lokalizacja danych (Data Residency) → RODO / DPIA (wymaga); Tenant (powiązane z); Vendor lock-in (zwiększa wagę)
- LRM → LLM (jest wariantem); Ewaluacja (wspiera); Prompt (wymaga)
- Minimalizacja danych → PII (kontekst prywatności); RODO/DPIA (kontekst prywatności); DLP (wykrywanie i blokowanie wycieków); Caching (minimalizacja dotyczy też cache); Audit trail (loguj mądrze, bez nadmiaru treści)
- Model collapse (zapaść modelu) → Data poisoning („śmieciowe” dane też psują modele); Fact-checking (utrzymanie odpowiedzi w faktach); Grounding (utrzymanie odpowiedzi w faktach); Transparentność (oznaczanie treści i źródeł)
- Model Context Protocol (MCP) → Konektory danych (wspiera); Tool calling (wywoływanie narzędzi) (wspiera); Security review (przegląd bezpieczeństwa) (wymaga)
- Model lokalny → Tenant (alternatywa dla); Polityka AI (wymaga); DLP (wpływa na)
- Model multimodalny → GenAI (rozszerza); Deepfake (zwiększa ryzyko); Fact-checking (wymaga)
- Model zapasowy (Fallback model) → Prompt routing (kierowanie zapytań) (wspiera); Timeout (limit czasu) (wspiera); Monitoring jakości (wymaga)
- Monitoring jakości → Ewaluacja (evaluation) (powiązane); Benchmark (powiązane); AB testy (powiązane)
- Nadmierne zaufanie (Overreliance) → Human-in-the-loop (człowiek w pętli) (wymaga); Fact-checking (weryfikacja faktów) (zwiększa wagę); Halucynacje (powiązane z)
- Niepewność odpowiedzi (Uncertainty) → Halucynacje (ogranicza ryzyko); Fact-checking (weryfikacja faktów) (wspiera); Human-in-the-loop (człowiek w pętli) (wymaga)
- NLP → LLM (obejmuje); RAG (wspiera); Token (korzysta z)
- Observability (obserwowalność) → LLMOps (observability to fundament operacji); Audit trail (kto/co/kiedy); Monitoring jakości (metryki jakości); DLP (bezpieczeństwo logów); PII (bezpieczeństwo logów)
- Okno kontekstowe → Token (zależy od); RAG (ogranicza); Prompt (wpływa na)
- Orkiestracja (workflow) → API (łączy); Human-in-the-loop (zawiera); Audit trail (wymaga)
- Polityka treści → Guardrails (techniczne wdrożenie polityki); Instrukcja systemowa (miejsce na zasady zapisane dla modelu); Red teaming (testowanie, czy zasady działają); DLP (prywatność w polityce treści); PII (prywatność w polityce treści)
- Polityka użycia AI w organizacji → Human-in-the-loop (wymaga); DLP (wspiera); Audit trail (wspiera)
- Ponowienia z przerwą → API (retry/backoff to praktyka przy API); Timeout (retry nie ma sensu bez timeoutów); Idempotencja (bezpieczne ponawianie); Observability (widoczność błędów i ponowień)
- Prompt → LLM (steruje); RAG (wspiera); Prompt injection (narażony na)
- Prompt chaining (łańcuchowanie promptów) → Prompt (chaining to sposób używania promptów); Prompt systemowy (może trzymać stałe zasady w tle); Okno kontekstowe (ogranicza, ile „zmieści się” w procesie); Ewaluacja (łatwiej ocenić jakość krok po kroku)
- Prompt format (format promptu) → Prompt (prompt format to praktyka pisania promptów); Prompt systemowy (stałe zasady w tle); Okno kontekstowe (limit długości); Prompt leakage (ryzyko ujawniania instrukcji)
- Prompt guard (osłona promptu) → Guardrails (prompt guard to część guardrails); Prompt injection (główny powód wdrożenia); Prompt leakage (ochrona zasad systemu); Tool calling (szczególnie istotne przy narzędziach)
- Prompt injection → RAG (atak na); Guardrails (wymaga); Data poisoning (zwiększa ryzyko)
- Prompt leakage (wyciek instrukcji) → Prompt injection (powiązane z); Guardrails (ogranicza); Red teaming (testuje)
- Prompt library (biblioteka promptów) → Prompt (biblioteka to praktyka pracy z promptami); Prompt format (standaryzacja); Prompt systemowy (zasady globalne); Model versioning (prompty też wersjonujesz)
- Prompt routing (kierowanie zapytań) → RAG (routing wybiera kiedy używać); Retrieval (routing wybiera kiedy używać); Agentic workflow (routing uruchamia agenta); Guardrails (routing może włączać ostrzejsze zasady); LLMOps (utrzymanie i testowanie routingu)
- Prompt systemowy → Guardrails (ustawia); Jailbreaking (chroni przed); Polityka AI (wspiera)
- Przepływ agentowy → Agent AI (agent to „wykonawca” przepływu); Orkiestracja (projektuje kroki i kolejność); Tool calling (agent używa narzędzi); Human-in-the-loop (bezpiecznik i akceptacja); Monitoring jakości (kontrola efektów); Ewaluacja (kontrola efektów)
- RAG → Embedding (używa); Grounding (wspiera); Baza wektorowa (wymaga)
- Rate limiting (limitowanie zapytań) → API (rate limiting jest częścią API); SSO/IAM (limity często zależą od roli/użytkownika); LLMOps (obserwacja stabilności); Monitoring jakości (obserwacja stabilności); Agentic workflow (limity chronią przed pętlami)
- Red teaming → Guardrails (barierki bezpieczeństwa) (powiązane); Jailbreaking (powiązane); Prompt leakage (wyciek instrukcji) (powiązane)
- Redakcja danych wrażliwych (AI redaction) → Dane osobowe (PII) (wspiera); DLP (wspiera); Anonimizacja / pseudonimizacja (wymaga)
- Rejestr systemów AI (AI inventory) → AI Governance (Ład korporacyjny AI) (wspiera); AI Act (Akt w sprawie sztucznej inteligencji) (wspiera); Ślad audytowy (wymaga)
- Reranking (ponowne sortowanie wyników) → Retrieval (reranking poprawia wyniki retrieval); RAG (kluczowy element jakości RAG); Embedding (jak mierzyć, czy jest lepiej); Benchmark (jak mierzyć, czy jest lepiej); Ewaluacja (jak mierzyć, czy jest lepiej); Monitoring jakości (wykrywanie pogorszeń)
- Retrieval (wyszukiwanie informacji) → RAG (retrieval to pierwszy krok RAG); Chunking (dzielenie treści poprawia wyszukiwanie); Embedding (techniczne zaplecze retrieval); Vector database (techniczne zaplecze retrieval); Fact-checking (retrieval dostarcza materiał do sprawdzenia)
- RODO / DPIA → Dane osobowe (PII) (powiązane); Anonimizacja / pseudonimizacja (powiązane); Polityka użycia AI w organizacji (powiązane)
- Rozliczanie kosztów AI (AI chargeback) → Zarządzanie kosztami AI (wspiera); Prompt routing (kierowanie zapytań) (wspiera); Observability (obserwowalność) (wymaga)
- Sandboxing (piaskownica bezpieczeństwa) → Tool calling (narzędzia uruchamiaj w sandboxie, gdy to możliwe); SSO/IAM (kontrola kto ma prawo uruchamiać co); Audit trail (loguj działania w sandboxie); DLP (ogranicz wyciek danych z piaskownicy)
- Secrets management (zarządzanie sekretami) → API (chroni dostęp do); SSO / IAM (wspiera); Audit trail (powinien być monitorowany przez)
- Security review (przegląd bezpieczeństwa) → Red teaming (testy ofensywne w ramach review); DLP (ochrona danych); PII (ochrona danych); Prompt injection (ochrona promptów); Prompt guard (ochrona promptów); Audit trail (widoczność i odpowiedzialność); Observability (widoczność i odpowiedzialność)
- Shadow AI (Szara strefa AI) → Polityka użycia AI w organizacji (wymaga); DLP (zwiększa wagę); Ślad audytowy (wspiera potrzebę)
- Small Language Model (SLM) → Model lokalny (wspiera); Kwantyzacja (Quantization) (wspiera); Ewaluacja (wymaga)
- SSO / IAM (zarządzanie tożsamością i dostępem) → Konektory danych (kontroluje); Audit trail (wspiera); PII (ogranicza ryzyko)
- Stack → RAG (obejmuje); SSO / IAM (wymaga); Audit trail (wspiera)
- Stronniczość → Ewaluacja (kontroluje); Transparentność (wymaga); Polityka AI (wpływa na)
- Structured output (ustrukturyzowany wynik) → Function calling (wymaga ustrukturyzowanych parametrów); API (integracje lubią JSON); DLP (bezpieczeństwo danych w strukturze); PII (bezpieczeństwo danych w strukturze); Ewaluacja (łatwiej mierzyć poprawność)
- System wieloagentowy (Multi-agent system) → Przepływ agentowy (wspiera); Orkiestracja (workflow) (wymaga); Human-in-the-loop (człowiek w pętli) (zwiększa wagę)
- Temperatura / sampling → Halucynacje (wpływa na); API (ustawiana w); Ewaluacja (testowana przez)
- Tenant → RAG (wspiera); SSO / IAM (wymaga); Audit trail (zwiększa wagę)
- Threat modeling (modelowanie zagrożeń) → Security review (wspiera); Red teaming (korzysta z); Prompt injection (ogranicza ryzyka wokół)
- Throughput (przepustowość) → Latency (powiązane); Rate limiting (kontrola obciążenia); Caching (zwiększa throughput); LLMOps (operacyjne zarządzanie skalą)
- Timeout (limit czasu) → Rate limiting (oba chronią system); Latency (timeout wpływa na czas odpowiedzi); Agentic workflow (limity kroków i czasu); LLMOps (stabilność operacyjna)
- Token → Okno kontekstowe (ogranicza); RAG (wpływa na); LLM (używany przez)
- Tool calling (wywoływanie narzędzi) → Function calling (rozszerza); SSO / IAM (wymaga kontroli przez); Audit trail (zwiększa wagę)
- Transparentność → Fact-checking (wspiera); Audit trail (wspiera); Deepfake (ważna przy)
- Trening a inferencja → Fine-tuning (porządkuje relację między); Prompt (porządkuje relację między); RAG (pomaga wybrać); LLMOps (wymaga zarządzania przez)
- Vendor lock-in → API (powiązane); RAG (powiązane); Fine-tuning (dostrajanie) (powiązane)
- Versioning modeli (wersjonowanie) → LLMOps (operacyjne utrzymanie wersji); Benchmark (porównywanie wersji); Ewaluacja (porównywanie wersji); A/B testy (testowanie zmian); Drift (analiza jakości w czasie)
- Walidacja wyniku (Output validation) → Structured output (ustrukturyzowany wynik) (wspiera); Function calling (wywoływanie funkcji) (wspiera); Monitoring jakości (wymaga)
- Watermarking (znakowanie treści) → Deepfake (watermarking pomaga w oznaczaniu/rozpoznawaniu); Transparentność (część przejrzystej komunikacji); Fact-checking (watermarking nie zastępuje weryfikacji); Data provenance („skąd to jest” w praktyce)
- Wektoryzacja → Baza wektorowa (używa); RAG (wspiera); Chunking (wymaga)
- Wyjaśnialność (explainability) → Audit trail (wspiera); Cytowanie źródeł (wspiera); Grounding (wymaga)
- Zarządzanie kosztami AI → Token (podstawowa jednostka kosztu w wielu modelach); Caching (redukcja kosztów); Rate limiting (kontrola zużycia); Observability (widoczność kosztów); Agentic workflow (agenci mogą kosztować najwięcej)
- Zatrucie kontekstu → Prompt injection (zbliżone zjawisko; atak często działa przez kontekst); RAG (zatrucie dokumentów i źródeł); Data poisoning (zatrucie dokumentów i źródeł); Guardrails (zasady ochronne); Audit trail (ślad „skąd wzięło się to w kontekście”)
- Zero-shot (bez przykładów) → Few-shot (jest prostszą wersją niż); Prompt (bazuje na); Ewaluacja (wymaga kontroli przez)
- Zgoda i prawa do danych oraz treści → Cytowanie źródeł (wiarygodność i prawa do treści); RODO/DPIA (prawa i obowiązki dot. danych); PII (prawa i obowiązki dot. danych); Transparentność (mówimy, skąd treści); Data provenance (dokumentowanie pochodzenia)
- Ślad audytowy → SSO/IAM (wymaga); Polityka AI (wspiera); Incydenty (pomaga w)