Gdy poproszę ChatGPT aby podzielił 114100 przez 350 to czasem otrzymuję 325.4286 a czasem 326? Czy to zależy od wersji?
Dlaczego ChatGPT podaje nieprawidłowy wynik dzielenia?
- Rejestracja: dni
- Ostatnio: dni
- Lokalizacja: Poznań
po prostu to za trudne zadanie dla AI. Deal with it
- Rejestracja: dni
- Ostatnio: dni
- Postów: 358
Powiedzmy masz bardzo dużą książkę i tam występują zdania typu lubię jeść kebab/pizzę i jak robisz dzielenie wszystkie zdania lubię jeść / lubię jeść wszystko, to wychodzi, że np. nie istnieje takie prawdopodobieństwo, żeby jeść kamień czy ziemię. AI nie da rady takiego trudnego wnioskowania zrobić możesz jej wytłumaczyć jak krok po kroku robić dodawanie w tabelce jak robi to człowiek.
Można też dać narzędzia jak kalkulator, którym może się wspomagać żeby poprawnie wykonać dane działanie.
My ludzie robimy proste obliczenia w dziesiętnym systemie w tabelce i tak się robi dla big integerów implementacje, bo prosto to zapisać w ascii, też mogą być optymalniejsze zapisy, bo wiele bitów się marnuje w takim zapisie, można też użyć max 4 bitów per liczbę.
- Rejestracja: dni
- Ostatnio: dni
- Postów: 5027
LLama 3 jest przynajmniej konsekwentna:

Ale, ogólnie LLm - y nie są za dobre w arytmetykę, spróbuj pluginu wolframalpha.
- Rejestracja: dni
- Ostatnio: dni
- Postów: 168
Możliwe,
Jakiej wersji używasz? Może ci wersja modelu przeskakuje.
GPT-4o mi użył pythona i podał wynik 326. Ale jak sie mini odpalił to podawał czasem 326 a czasem około 326.
- Rejestracja: dni
- Ostatnio: dni
- Postów: 5027
Jak uzył Pythona, to tak jakby pluginmu, a chodzi chyba o odpowiedź modelu
- Rejestracja: dni
- Ostatnio: dni
- Postów: 168
@lion137
Autor posta pisał o czacie nie samym modelu; więc czy on używa "pluginu" czy nie jest kwestią drugorzędną, natomiast może być to odpowiedź na zadane pytanie - dlaczego.
Mnie troszeczkę dziwi że odpowiedź czata jest bliska prawdy (spodziewałem się bzdur)
W moim przypadku miałem przy odpowiedzi "przycisk" view analysis i tam mam:
114100 divided by 350 equals 326.0.
result = 114100 / 350
result
Result
326.0
Możliwe, że jakby odpalić/użyć llama3 z inną temperaturą czy seed'em to pewnie przestanie być konsekwentny.
- Rejestracja: dni
- Ostatnio: dni
- Postów: 10230
Dlatego że LLM nie są dostosowane do odpowiedzi konkretnych czy rzetelnych, ani nawet do tego żeby prezentować poprawne fakty czy informacje. One są głównie optymalizowane pod to żeby brzmieć i pisać jak człowiek.
Jeśli chcesz poprawny wynik matematyczny, skorzystaj np. z Wolfram Alpha.
- Rejestracja: dni
- Ostatnio: dni
- Postów: 5027
Tak, są pod to "podrasowane", a ich istotą jest prawdopodobieństwo; dla zainteresowanych przystępne omówienie tutaj:
https://web.stanford.edu/~jurafsky/slp3/ed3book.pdf