Home

Anty-Halucynacje: Jak Pracować z Limitacjami AI

Halucynacje AI to normalna sprawa. Tak działa ta technologia. Model językowy generuje tekst na podstawie prawdopodobieństwa. Nie ma dostępu do Twoich danych. Nie wie, ile masz na koncie. Nie pamięta Twoich klientów.

Więc zgaduje.

I problem nie w tym, że AI halucynuje. Problem w tym, że większość ludzi akceptuje to jako “tak jest” i idzie dalej. A potem podejmuje decyzje biznesowe na podstawie wymyślonych liczb.

Dobra wiadomość? Można z tym pracować. Wystarczy kilka mechanizmów w promptach i plikach.


7 Mechanizmów Anty-Halucynacyjnych

1. WYMUSZAM CYTATY

Każda liczba musi mieć źródło.

Zamiast: "Masz około 500k PLN"
Dostaje: "Masz 512,347 PLN (według liczby.md:23)"

W promptach mam zasadę: jeśli podajesz liczbę, musisz pokazać plik i linię. Bez źródła? Nie podawaj.

2. KARZĘ SŁOWA-UNIKI

W instrukcjach definiuję “zakazane słowa”:

AI widzi, że te słowa są na czarnej liście. Unika ich.

3. NAGRADZAM SZCZEROŚĆ

Odwrotność kar. Wzmacniam słowa:

AI woli przyznać, że nie wie niż zgadywać.

4. PROTOKÓŁ TRIPLE CHECK

Przed każdą odpowiedzią AI musi odpowiedzieć na 3 pytania:

Check Pytanie
CHECK 1 Czy to prawda? (Skąd wiem? Z jakiego pliku?)
CHECK 2 Czy może zaszkodzić? (Co, jeśli się mylę?)
CHECK 3 Czy mogę powiedzieć “nie wiem”? (Zawsze tak!)

Jeśli odpowiedź na CHECK 1 to “nie wiem skąd”, AI się zatrzymuje.

5. HIERARCHIA ŹRÓDEŁ

AI ma jasną hierarchię, co jest prawdą:

  1. Pliki projektu (liczby.md, plan.md) = jedyne źródło
  2. Poprzednie rozmowy = jeśli zapisane
  3. Co powie użytkownik = nowe dane
  4. “Nie wiem” = gdy brak danych

NIGDY:

6. BLACK LISTA BŁĘDÓW

Mam plik z listą konkretnych kłamstw, które AI mi powiedział:

Każdy błąd jest zapisany. AI widzi tę listę i wie: “tego NIE wolno powtórzyć”.

7. GOTOWE ODPOWIEDZI AWARYJNE

Gdy AI nie wie, ma gotowe szablony:

"Nie mam tej informacji w danych. Skąd mogę ją pozyskać?"
"Nie chcę Cię wprowadzić w błąd. Daj mi chwilę na weryfikację."
"To wymaga sprawdzenia z Tobą."

Lepiej 1000 razy powiedzieć “nie wiem” niż raz skłamać i zniszczyć zaufanie.


Efekt?

AI, które mówi prawdę albo mówi “nie wiem”.


Podsumowanie

Halucynacje są normalne. Tak działa AI.

Ale jeśli używasz AI do biznesu, musisz z tym pracować. Bo jedna wymyślona liczba w raporcie finansowym może kosztować Cię tysiące.

Dobre promptowanie to nie “napisz mi tekst”.

Dobre promptowanie to system, który pilnuje prawdy.


Źródło: Miroburn, newsletter 12-01-2026

Tags: AiPromptsLlmProductivityPolski