Przejdź do treści

Halucynacje

Definicja

Halucynacje to sytuacja, gdy model podaje fałszywe informacje, ale robi to w sposób przekonujący.

Co to w zasadzie jest?

  • Model nie „wie”, tylko przewiduje kolejne słowa.
  • Może tworzyć odpowiedzi, które brzmią sensownie, ale są nieprawdziwe.
  • Ryzyko rośnie przy braku źródeł i przy zbyt ogólnych poleceniach.

Praktyczne zastosowania (konkretne scenariusze)

Scenariusz 1: Odpowiedź klientowi

  • Cel: odpowiedź klientowi.
  • Wejście: zadanie, dane wejściowe i źródła.
  • Kroki: wykonaj zadanie -> sprawdź ryzyko: błędna podstawa prawna -> zastosuj zabezpieczenie.
  • Rezultat: odpowiedź mniej podatna na zmyślenia.
  • Zabezpieczenie: grounding + cytaty + akceptacja.

Scenariusz 2: Opis projektu/inwestycji

  • Cel: opis projektu/inwestycji.
  • Wejście: zadanie, dane wejściowe i źródła.
  • Kroki: wykonaj zadanie -> sprawdź ryzyko: „dopowiedzenie” liczb -> zastosuj zabezpieczenie.
  • Rezultat: odpowiedź mniej podatna na zmyślenia.
  • Zabezpieczenie: dane wejściowe z tabeli + weryfikacja.

Scenariusz 3: Streszczenie regulaminu

  • Cel: streszczenie regulaminu.
  • Wejście: zadanie, dane wejściowe i źródła.
  • Kroki: wykonaj zadanie -> sprawdź ryzyko: zmiana sensu -> zastosuj zabezpieczenie.
  • Rezultat: odpowiedź mniej podatna na zmyślenia.
  • Zabezpieczenie: porównanie punkt po punkcie.

Typowe błędy i pułapki

  • Proszenie o „przepisy” bez podania źródła.
  • Brak prośby o cytaty i linki.
  • Publikowanie bez weryfikacji.

Ryzyka i jak je ograniczać

Ryzyko 1: Dezinformacja

  • Ryzyko: Dezinformacja.
  • Jak ograniczać: fact-checking + źródła.

Ryzyko 2: Błąd formalny

  • Ryzyko: Błąd formalny.
  • Jak ograniczać: checklista prawna.

Ryzyko 3: Utrata zaufania

  • Ryzyko: Utrata zaufania.
  • Jak ograniczać: transparentność, że to szkic.

Checklista “zanim użyjesz”

  • Czy odpowiedź ma źródła/cytaty?
  • Czy liczby i daty są weryfikowalne?
  • Czy treść przeszła review?
  • Czy użyto zatwierdzonych dokumentów?
  • Czy logujesz wersję i autora?

Diagram

flowchart LR
    A[Brak dobrego kontekstu]
    B[Model zgaduje]
    C[Brzmiąca wiarygodnie odpowiedź]
    D[Weryfikacja]
    E[Poprawka lub odmowa]
    A --> B --> C --> D --> E

Diagram pokazuje, że halucynacja pojawia się wtedy, gdy model uzupełnia brak wiedzy zgadywaniem.

Dalsza lektura

Miejsce w mapie

Powiązane hasła