Poniżej wrzucam rzekome statystyki za kwiecień 2025: https://huggingface.co/spaces/vectara/Hallucination-evaluation-leaderboard

Czym są halucynacje LLM? https://www.unite.ai/pl/what-are-llm-hallucinations-causes-ethical-concern-prevention/
Poniżej wrzucam rzekome statystyki za kwiecień 2025: https://huggingface.co/spaces/vectara/Hallucination-evaluation-leaderboard

Czym są halucynacje LLM? https://www.unite.ai/pl/what-are-llm-hallucinations-causes-ethical-concern-prevention/
Masz z ciekawości jakieś dane sprzed roku dla porównania jak to się zmieniało?
PaulGilbert napisał(a):
Masz z ciekawości jakieś dane sprzed roku dla porównania jak to się zmieniało?
Poprzedni jaki znalazłem: Last updated on July 25th, 2024
https://github.com/vectara/hallucination-leaderboard/tree/hhem-1.0-final?tab=readme-ov-file#hallucination-leaderboard
I obecny: Last updated on April 29th, 2025
https://huggingface.co/spaces/vectara/Hallucination-evaluation-leaderboard
Wykrycie halucynacji LLM, gdy dane wyglądają rozsądnie i spójnie, jest trudne, ponieważ modele generują teksty na podstawie statystycznych wzorców, a nie rzeczywistej wiedzy. Najskuteczniejszą metodą jest stosowanie generowania rozszerzonego przez wyszukiwanie (Retrieval-Augmented Generation, RAG), czyli weryfikowanie odpowiedzi poprzez odwołanie do zewnętrznych, aktualnych źródeł informacji. Dzięki temu model opiera się na faktach dostępnych w dokumentach, a nie tylko na wewnętrznej pamięci, co znacząco zmniejsza ryzyko halucynacji.
Dodatkowo warto stosować techniki takie jak łańcuch myślowy (chain-of-thought, CoT), które rozbijają pytania na mniejsze kroki i zachęcają model do refleksji nad każdym etapem odpowiedzi, co pomaga wychwycić niespójności i błędy. Również iteracyjne przekazywanie informacji zwrotnej (pętle zwrotne) pozwala poprawić i zweryfikować wygenerowany tekst. W praktyce, gdy masz podejrzenie halucynacji, warto samodzielnie sprawdzić podane fakty w wiarygodnych źródłach lub użyć narzędzi do automatycznego fact-checkingu, które zaczynają się pojawiać na rynku
@gloswolajacy: Dzięki za ciekawe uwagi. Nie wczytywałem się w metodologię powyższych pomiarów, nie jestem też pewien czy udostępnili o niej informacje
Halucynacje to feature modeli statystycznych, jak już zadałeś pytanie. Model uczy się pewnego rozkładu, a w przypadku wejścia spoza niego odpowiada, powiedzmy mocno nie na temat. A najgorsze są w tym sieci neuronowe - za mocno się dopasowują do danych.