Halucynacje LLM

bakunet
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Wrocław
  • Postów: 1677
tBane
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Poznań
  • Postów: 526
1

Sporo halucynuje

screenshot-20250620132714.png

PaulGilbert
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1026
0

Masz z ciekawości jakieś dane sprzed roku dla porównania jak to się zmieniało?

bakunet
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Wrocław
  • Postów: 1677
1
PaulGilbert napisał(a):

Masz z ciekawości jakieś dane sprzed roku dla porównania jak to się zmieniało?

Poprzedni jaki znalazłem: Last updated on July 25th, 2024
https://github.com/vectara/hallucination-leaderboard/tree/hhem-1.0-final?tab=readme-ov-file#hallucination-leaderboard

I obecny: Last updated on April 29th, 2025
https://huggingface.co/spaces/vectara/Hallucination-evaluation-leaderboard

GL
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 6
0

Wykrycie halucynacji LLM, gdy dane wyglądają rozsądnie i spójnie, jest trudne, ponieważ modele generują teksty na podstawie statystycznych wzorców, a nie rzeczywistej wiedzy. Najskuteczniejszą metodą jest stosowanie generowania rozszerzonego przez wyszukiwanie (Retrieval-Augmented Generation, RAG), czyli weryfikowanie odpowiedzi poprzez odwołanie do zewnętrznych, aktualnych źródeł informacji. Dzięki temu model opiera się na faktach dostępnych w dokumentach, a nie tylko na wewnętrznej pamięci, co znacząco zmniejsza ryzyko halucynacji.

Dodatkowo warto stosować techniki takie jak łańcuch myślowy (chain-of-thought, CoT), które rozbijają pytania na mniejsze kroki i zachęcają model do refleksji nad każdym etapem odpowiedzi, co pomaga wychwycić niespójności i błędy. Również iteracyjne przekazywanie informacji zwrotnej (pętle zwrotne) pozwala poprawić i zweryfikować wygenerowany tekst. W praktyce, gdy masz podejrzenie halucynacji, warto samodzielnie sprawdzić podane fakty w wiarygodnych źródłach lub użyć narzędzi do automatycznego fact-checkingu, które zaczynają się pojawiać na rynku

bakunet
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Wrocław
  • Postów: 1677
0

@gloswolajacy: Dzięki za ciekawe uwagi. Nie wczytywałem się w metodologię powyższych pomiarów, nie jestem też pewien czy udostępnili o niej informacje

lion137
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 5023
0

Halucynacje to feature modeli statystycznych, jak już zadałeś pytanie. Model uczy się pewnego rozkładu, a w przypadku wejścia spoza niego odpowiada, powiedzmy mocno nie na temat. A najgorsze są w tym sieci neuronowe - za mocno się dopasowują do danych.

RA
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 373
3

I ja za to płacę
screenshot-20250926141033.png

Zarejestruj się i dołącz do największej społeczności programistów w Polsce.

Otrzymaj wsparcie, dziel się wiedzą i rozwijaj swoje umiejętności z najlepszymi.