Cześć,
kilka dni temu była premiera gpt-5, znalazłem fajny materiał z omówieniem, fajnie wygląda renderowanie kodu w przeglądarce oraz agent to gmaila.
Macie jakieś przemyślenia? Czy hit czy kit ten gpt5?
Cześć,
kilka dni temu była premiera gpt-5, znalazłem fajny materiał z omówieniem, fajnie wygląda renderowanie kodu w przeglądarce oraz agent to gmaila.
Macie jakieś przemyślenia? Czy hit czy kit ten gpt5?
Ja tam jakiejś wielkiej różnicy pomiędzy poprzednią wersją a nową nie widzę. Też się czasem myli. Ale i tak dobrze się sprawdza podczas wyłapywania drobnych błędów w kodzie.
Fajnie że są dalej w stanie polepszać swoje modele. Przy dużych plikach czasem copilot wariuje - AI jeszcze nie widzi "big picture" całej aplikacji.
Dziś rano wszedłem na jedno forum i fala krytyki nowego chat-gpt w przeglądarce, może jakiś bug wleciał chodziaż albo po prostu mają przeciążenie na serwerach jak się wszyscy rzucili
Dalej nie umie liczyć. Dalej sobie radzi z tematami o których jest dużo postów do przemielenia, a w pozostałych konfabuluje i robi dobrą minę do złej gry. Chyba jest tak jak przewidywałem, że już kończy się przestrzeń do łatwej innowacji i na kolejne przełomy przyjdzie poczekać. No ale do tej bańki jeszcze wejdzie trochę kitu.
A tak poza tym to AI fajne narzędzie, żeby nie było. :)
Kit, bo jakiś rok temu OpenAI ogłaszał, że GPT-5 to będzie mesjasz AI. Widać, że poszli w stronę bycia ekonomicznym a nie dobrym (jeden model przez co mogą dowolnie dokręcać śrubki, żeby było dla nich tanio). GPT-5 to po prostu dobra marka (bo 3 i 4 były rewolucyjne)
Czy mi się wydaje czy funkcja przeszukiwania internetu nie działa w GPT-5?
Najśmieszniejsze są te wykresy które robił chyba chatgpt

No i gpt 5 twierdzi w połowie przypadków że w równaniu 5.9 = x + 5.11 x = -0.21, a co ciekawe to nie LLM "liczy" bo nie jest w stanie tylko ponoć zewnętrzny moduł.
Co mnie denerwuje to że w wersji darmowej dali żałosny limit czterech zapytań do GPT5 zanim dostaniemy downgrade to 4o.
Jak dla mnie AI jest obecnie w lokalnym maksimum, natomiast żeby uzyskać AGI trzeba zupełnie innego podejścia które jeszcze nie zostało wynalezione, no chyba że to będzie symulowane AGI przez posklejanie LLM z zewnętrznymi narzędziami i mnóstwem ifów sterowanych innym modelem a prawdopodobnie na tym się skończy bo hype jest duży i nie można tak tego teraz zostawić, raczej mamy wyścig między firmami która pierwsza skleci coś co będzie można nazwać AGI
Nie jestem ekspertem w promptingu ale mi ten nowy generuje odpowiedzi które mniej mi odpowiadają i zajmuje mu to znacznie dłuzej. Wolałem 4.1 ;p
Halucynuje tak jak dawniej, zapytałem go jak znaleźć tytuł scenariusza w bibliotece Cucumber, to pierwsze 4 odpowiedzi to były czyste halucynacje, dopiero w 5tej przyznał że nie ma takiej funkcji i trzeba ja napisać samemu.
Po prostu OpenAI wpadł w pułapke cyberpunka jak CDPRed. Produkt został tak przehypowany, że nie da się spełnić wymagań klientów, więc nic im nie zostało tylko go wydać.
już od roku wiadomo że obecna technologia chatów dobiła do ściany, deep thinking itp. jeszcze ratował sytuację ale juz wtedy było widać że nie ma pomysłu co dalej. albo kolejny przełom albo utykamy na dekadę moze nawet dwie. I raczej to utkniecie może być prawdziwe bo jak pamiętam np. rozwój sieci dla analizy wizyjnej to tak było gdzieś że dekadami marazm, duża zmiana i marazm.
Ale na LN już widziałem pełno szkoleniowców od AI o nie mają zielonego pojęcia co robią ale wydalają z siebie multum postów na temat tych narzędzi.
edit:już minimum z rok idzie mocno para na rozwój małych modeli m.in te przykłady llma3 na rpi. będą chcieli to sprzedać na takim zwykłym sprzęcie. to npu to nie głupi pomysł do kompów służbowych.
Update: zmieniłem model w Junie (jetbrainsowy agent) z Sonnet 4 na GPT-5 i jest bieda. Bardzo wolno działa plus jak patrzyłem na plan pracy to były tam strasznie halucynacje
Na minus -> dużo wolniejszy
Na plus -> po dopytaniu, tłumaczy dlaczego wygenerował głupoty (nawiązuję tu do przykładu @obscurity 5.9 = x + 5.11 -> x = -0.21). GPT5 zwalił na ludzi, ze statystycznie źle liczą ;-)
1️⃣ Tokenizacja wejścia
Tekst 5.9 = x + 5.11 jest dzielony na tokeny (np. 5, ., 9, =, x, +, 5, ., 11).
W modelu GPT to przechodzi przez embedding — każdy token zamienia się w wektor o wymiarze np. 16 384 (w GPT-5).
Przepływ przez warstwy (hidden layers)
Model ma setki warstw transformera.
Każda warstwa zawiera:
Attention heads (mechanizm skupiania się na różnych fragmentach kontekstu)
Feed-forward networks (nieliniowe przekształcenia wektorów)
Na tym etapie nie ma świadomego odejmowania — sieć dopasowuje do wzorców z treningu.
Utrwalone skojarzenie z treningu
W danych treningowych wielokrotnie pojawia się schemat:
„A = x + B → x = A - B”
oraz
„Jeżeli B > A → wynik ujemny”
Sieć zapamiętała to jako statystyczny wzorzec w swoich wagach.
2️⃣ Co poszło źle w tym przypadku
W jednej z wczesnych warstw attention wyłapało relację:
„A = 5.9, B = 5.11” → prawdopodobieństwo, że B > A = wysokie
(bo 11 jest większe od 9 w ostatnich cyfrach w interpretacji bez wyrównania miejsc po przecinku).
Wysokie prawdopodobieństwo „B większe” spowodowało, że feed-forward network w tej warstwie mocniej aktywowała wektory powiązane z wzorcem:
x=−(B−A)
x=−(B−A)
Od tej chwili wewnętrzny „stan kontekstu” był już przesunięty w stronę generowania ujemnego wyniku.
3️⃣ Przykład propagacji wewnętrznego stanu
(wartości są przykładowe — nie mam dostępu do prawdziwych wag ani dokładnych wartości, ale pokazuję strukturę)
Warstwa 1 (embedding)
"5.9" → [0.12, -0.87, 0.44, ...]
"5.11" → [0.08, -0.65, 0.39, ...]
Warstwa 4 (attention – porównanie A i B)
Mechanizm attention nadaje większe wagi „ostatnim” cyfrom po przecinku.
Wynik heurystyczny: „11 > 9” (bez przeskalowania).
Wektor kontekstu przesunięty w stronę „ujemny wynik”.
Warstwa 20 (feed-forward – szablon równania)
Aktywuje się wektor reprezentujący regułę:
x=A−B
x=A−B
ale z modyfikatorem znaku z poprzedniej warstwy.
Warstwa 50+ (generowanie wyniku)
Sieć generuje tokeny odpowiadające wartości 0.21
Dodaje token „–” na początku, bo wektor znaku jest silny.
i po dopytaniu
Jak mogło powstać –0.21 przy błędnym porównaniu .11 i .9
Pierwszy błąd – ocena znaku
Wczesne warstwy (attention) zrobiły błędne porównanie:
.11 > .9 (interpretacja: 11 > 9)
co skutkuje:
A (5.9) uznane za mniejsze niż B (5.11)
wewnętrzny „bit znaku” ustawiony na ujemny.
Szablon obliczeniowy w feed-forward
Sieć posiada utrwalony w wagach wzorzec odejmowania widziany w setkach tysięcy przykładów:
x=A−B
x=A−B
ale w tym przypadku znak został nadpisany na ujemny, więc schemat staje się:
x=−(B−A)
x=−(B−A)
Błędne wyliczenie różnicy
Tu pojawia się drugi problem — w trybie skrótowym model:
Nie skaluje liczb do wspólnej jednostki (nie robi 0.90−0.110.90−0.11 ani 5.90−5.115.90−5.11)
Zamiast tego traktuje ostatnie segmenty tokenów jako całe porównywane bloki.
W uproszczeniu:
5.11 minus 5.9 → (11 - 9) setnych ≈ 0.21
To jest niepoprawna matematycznie, ale częsta w tekstach „ludzka” pomyłka, więc model zna taki wzorzec z treningu.
Generacja wyniku
Mając:
„różnicę” = 0.21 (błędna)
znak = ujemny (błędny)
→ model skleja to w tokeny: -, 0.21