Konsekwencje używania AI

Konsekwencje używania AI
Golang
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1424
5

Pojawiło się badanie pokazujące niższą aktywność mózgową wśród użytkowników LLM. Badanie objęło około 50 studentów, którzy zostali poproszeni o napisanie eseju i podzieleni na 3 grupy z instrukcjami w jaki sposób mają zrealizować swoje zadanie

  1. bez udziału narzędzi zewnętrznych
  2. z pomocą wyszukiwarki
  3. z pomocą LLM

Wnioski:

  1. Studenci korzystający z AI wykazywali niższą aktywność mózgową w obszarach związanych z planowaniem, koncentracją i przetwarzaniem treści.
  2. 83% z nich nie było w stanie przypomnieć sobie żadnego fragmentu swojego eseju tuż po jego ukończeniu. W grupie piszącej samodzielnie ten problem dotyczył tylko 11%.
  3. Krótkoterminowo korzystanie z LLM wydaje się to wygodne – ale długofalowo może osłabiać naszą zdolność do samodzielnego myślenia.

link do badania https://arxiv.org/abs/2506.08872

Obawiam się podobnych rezultatów przy korzystaniu z LLM do programowania, programiści zaczną się cofać w rozwoju i przestaną myśleć samodzielnie. Używanie AI do programowania daje największy ROI i ciężko sobie wyobrazić, że nasza firma ma konkurować z innymi jeżeli zrezygnuje lub ograniczy korzystanie z LLM. To co robią obecnie dostępne narzędzia to po prostu mind blow i obecnie nie wyobrażam sobie, że mógłbym z tego zrezygnować. Oczywiście ktoś mógłby powiedzieć, że widocznie jestem mało produktywny i zapewniać, że on tworzy software (planowanie, kodowanie, testowanie, dokumentacja) z prędkością tych narzędzi. Spoko, być może tak jest, ale większość osób nie pracuje z taką prędkością, ja często trafiam na problemy, które są albo nowe, albo dawno czegoś nie używałem i muszę coś doczytać czy obejrzeć tutorial, dodatkowo spotkania wybijają mnie z rytmu, ciężko mi skupić jeżeli muszę się przełączać między kontekstami.

Jakie macie obserwacje, czy zauważyliście u siebie, że mniej myślicie przy korzystaniu z LLM?

tBane
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Poznań
  • Postów: 539
5

U mnie zarówno produktywność jak i wchłanianie wiedzy jest nieporównywalnie większe niż bez LLM. Często siedziałem dość długo nad prostymi problemami gdyż nie było informacji w internecie lub gdy wyszukiwarka nie dawała satysfakcjonujących wyników. Więc nie zgadzam się z powyższym. LLM jest dobry do prostych, krótkich ale złożonych lub "specjalistycznych kodów" (takich co wymagają b. dobrej znajomości komend) i rzeczywiście pomaga. Ale nadal programuję dość zaawansowane programy i nie zauważylem oznak zmniejszenie wydajności a wręcz przeciwnie - piszę coraz lepiej :-)

Golang
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1424
4
tBane napisał(a):

U mnie zarówno produktywność jak i wchłanianie wiedzy jest nieporównywalnie większe niż bez LLM. Często siedziałem dość długo nad prostymi problemami gdyż nie było informacji w internecie lub gdy wyszukiwarka nie dawała satysfakcjonujących wyników.

Obawiam się, że jeżeli czegoś nie ma w sieci, to LLM nie pomoże. Przykładowo ja ostatnio siadłem do Lynxa, nowy framework od twórców Tik-Toka. Okazało się, że nawet sami twórcy nie wiedzą jak uruchomić Lynxa z Tailwindem i dokumentacja okazała się nieaktualna, dopiergo gdzieś na githubie w którymś ticketcie ktoś sie podzielił rozwiązaniem. Z kolei LLM to nawet nie był w stanie odróżnić Lynxa od Reacta i był całkowicie nieprzydatny zarówno przy rozwiązywaniu jakiś problemów, jak i nawet do tworzenia fragmentów kodu.

SL
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1021
2

U mnie zarówno produktywność jak i wchłanianie wiedzy jest nieporównywalnie większe niż bez LLM.

Ja najczęściej używam LLMa do deep researchu. Gdybym chciał to robić sam to musiałbym przeczytać:

  • cały kod źródłowy
  • dokumentację
  • github issues
  • stackoverflow
  • reddita
  • jakieś blogi
  • inne miejsca

A tak LLM robi to wszystko za mnie.

Miang
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1788
2

wszystkie badania na studentach mają w założeniu wielki potężny bias , którego powołujący się na te badania starają się z całych sił nie zauważyć

ZM
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 149
6

To jest dokładnie to o czym często mówię rozmawiając z rodziną czy znajomymi, którzy zachłysnęli się AI w różnych branżach.

Im częściej korzystasz z chata gpt tym mniej zaczynasz używać mózgu.

Korzysta się z chata do już najbardziej trywialnych zadań.

Przestajemy rozkminiać, analizować, samodzielnie wyszukiwać informacje. Po co się męczyć skoro chat za nas to zrobi w kilka sekund?

Będziemy z roku na rok coraz głupsi, coraz bardziej leniwi umysłowo. Za 5 lat będziemy sobie zadawać pytanie "jakim cudem tak długo dawaliśmy radę żyć bez AI?"

Coraz więcej prostych zadań będziemy delegować do AI. Z czasem coraz trudniejsze.

Za kilkadziesiąt lat będziemy totalnymi kretynami jako ludzie, bez żadnej zdolności do analitycznego myślenia.

Ostatnim punktem układanki będzie wszczepienie chipów z AI do mózgu, bo po co się wysilać i myśleć samodzielnie skoro AI może to za nas robić?

Przeraża mnie już coraz bardziej to co się dzieje i jak szybko to postępuje.

I piszę to jako osoba, która sama implementuje narzędzia AI do projektu.

LI
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 23
1

W trywialnych sprawach to on sie sprawdza calkiem nieźle i tam faktycznie lśni. Szybki skrypt w pythonie do symulowania ruchu sieciowego? Super. Przepisanie kilku zdań na Reader.md? Świetnie. Zadania na pograniczy 2-3 serwisów? no tu już średnio. Najgorzej korzystać z AI by dawało szybkie rozwiązania bez zrozumienia bo się narażasz nie nawet na halucynacje, ale na popelnienie bledu przez wlasne niezrozumienie tematu.

LukeJL
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 8487
3

Myślę, że to jeszcze przed erą AI było.

Technologia od dekad sprawia, że coraz mniej ludzie myślą (np. nie muszą liczyć w pamięci, tylko na kalkulatorze).

Myślę, że ci, co będą chcieli myśleć, to znajdą sobie rozrywkę intelektualną (programowanie, nauka języków, fizyka kwantowa, szachy itp.), a cała reszta tak jak teraz - będzie musiała rozkminiać bieżące życiowe sprawy. Zwróćcie uwagę, że AI generuje nowe problemy do rozwiązania:

  • co chcemy zrobić tak naprawdę
  • które AI wybrać. Już teraz się pojawiają różne rodzaje AI. Mogę sobie wyobrazić, że za chwilę przed użyciem AI będzie człowiek główkować, który model użyć z którymi wtyczkami i jak parametry ztweakować
  • jak napisać prompt i jak poprowadzić AI do tego, żeby rozwiązał nasz problem
  • jak poprawić błędy po AI

itp.

MI
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 156
2

Oczywiście, że aktywność mózgowa spada, to jest niestety efekt uboczny rozwoju techniki. Przykłady z mojego życia:

  1. Kiedy chodziłem do szkoły, internetu nie było (tzn. coś takiego już "wynaleziono", ale pod strzechy nie trafił). Żeby znaleźć jakąkolwiek informację trzeba było się sporo naszukać- kogoś spytać, przewertować encyklopedię, jakąś książkę itp. Potem pojawił się internet, wyszukiwarki i po latach stwierdziłem, że ciężko mi się szuka informacji poza siecią, niecierpliwię się jeśli w nie mam czegoś podanego na tacy i muszę wertować książkę, dokumenty itp.
  2. Przez to, że większość rzeczy czytam na ekranie i używam Ctrl+F, znacznie u mnie zmniejszyła się zdolność "skanowania" tekstu w poszukiwaniu potrzebnych informacji
  3. Z naszego programistycznego podwórka- kiedy zaczynałem przygodę z programowaniem, miałem do dyspozycji- swoją wiedzę (niewielką), wiedzę kolegów (większą), istniejący kod w projekcie i jakiegoś helpa w IDE. Trochę trzeba było się napracować, żeby wiedzieć jak coś zrobić, znaleźć odpowiednią funkcję itd. itp. Potem w erze Google'a wszystko stało się proste- wpisuję czego szukam i już coś wiem. W erze AI mam już nawet jakiś kod. Ciekaw jestem jak bym dziś pracował, gdybym miał komputer bez internetu, dokumentację nowego języka w PDF i tyle...

Osobiście uważam, że nie ma co uciekać od LLM, AI i wszelkich tego typu wynalazków, ale trzeba ich używać rozsądnie i przede wszystkim ćwiczyć mózg- ja np. czytam sporo książek, szukam w nich ciekawych informacji, wertuję je. To mimo wszystko zmusza mój mózg do wysiłku.

Golang
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1424
0

Tak, pojawienie się Internetu zmieniło sposób w jaki szukaliśmy informacji. Natomiast nadal to było szukanie.

Natomiast jak odpalisz Cursora to jedynie opisujesz oczekiwany rezultat, a AI robi już wszystko. Da się nawet coś zakodować bez zaglądania w kod (vibe coding). Oczywiście taki kod jest często niebezpieczny czy zabugowany, ale nadal uzyskujesz duży efekt zerowym wysiłkiem.

KB
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Śląsk / Remote
  • Postów: 110
2

Za nieuchronne upośledzone ludzkości przez AI winne będzie nie tylko AI. Swoją rolę odegrały portale które pozornie udzielały odpowiedzi na pytania ale ukrywały je za informacjami reklamowymi.

  • Podręcznikowym przykładem jest pytanie czy dzisiaj jest niedziela handlowa.
  • Od siebie jeszcze dodam sytuację gdy siedzisz w kinie na napisach końcowych i chcesz wiedzieć czy będzie scena po napisach. Wyszukiwarki podawały milion stron z odpowiedzią. W praktyce szybciej było po prostu siedzieć i czekać.
  • Google i inni także zawalili, że pozwolili na takie praktyki. g**no-portale zawsze były pierwsze na liście.

I teraz, gdy będę chciał wiedzieć ile czasu gotować jajka to mam do wyboru czytanie o zaletach termomiksa lub chatgpt.

MO
  • Rejestracja: dni
  • Ostatnio: dni
0

a w średniowieczu to mieli dopiero genialne mózgi.
Wtedy to nawet książek nie mieli.
Znaczy mieli, ale i tak w większości nie umieli ich czytać, albo w większości nie mieli na nie środków.

SL
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1021
1
KaBeS napisał(a):

Swoją rolę odegrały portale które pozornie udzielały odpowiedzi na pytania ale ukrywały je za informacjami reklamowymi.

IMO tutaj problem bardziej zależy od wyszukiwarek (czyli Googla), który ma to w d***e. Do tego jest coraz więcej reklam w samym wynikach wyszukania, więc szukając A możemy dostać konkurencję B, która dała więcej na reklamy

Prawdą jest, że przy lepszy wyszukiwarkach AI nie byłoby tak przydatne

JA
  • Rejestracja: dni
  • Ostatnio: dni
4
Golang napisał(a):

Pojawiło się badanie pokazujące niższą aktywność mózgową wśród użytkowników LLM. Badanie objęło około 50 studentów, którzy zostali poproszeni o napisanie eseju i podzieleni na 3 grupy z instrukcjami w jaki sposób mają zrealizować swoje zadanie

  1. bez udziału narzędzi zewnętrznych
  2. z pomocą wyszukiwarki
  3. z pomocą LLM

Wnioski:

  1. Studenci korzystający z AI wykazywali niższą aktywność mózgową w obszarach związanych z planowaniem, koncentracją i przetwarzaniem treści.
  2. 83% z nich nie było w stanie przypomnieć sobie żadnego fragmentu swojego eseju tuż po jego ukończeniu. W grupie piszącej samodzielnie ten problem dotyczył tylko 11%.
  3. Krótkoterminowo korzystanie z LLM wydaje się to wygodne – ale długofalowo może osłabiać naszą zdolność do samodzielnego myślenia.

link do badania https://arxiv.org/abs/2506.08872

Obawiam się podobnych rezultatów przy korzystaniu z LLM do programowania, programiści zaczną się cofać w rozwoju i przestaną myśleć samodzielnie. Używanie AI do programowania daje największy ROI i ciężko sobie wyobrazić, że nasza firma ma konkurować z innymi jeżeli zrezygnuje lub ograniczy korzystanie z LLM. To co robią obecnie dostępne narzędzia to po prostu mind blow i obecnie nie wyobrażam sobie, że mógłbym z tego zrezygnować. Oczywiście ktoś mógłby powiedzieć, że widocznie jestem mało produktywny i zapewniać, że on tworzy software (planowanie, kodowanie, testowanie, dokumentacja) z prędkością tych narzędzi. Spoko, być może tak jest, ale większość osób nie pracuje z taką prędkością, ja często trafiam na problemy, które są albo nowe, albo dawno czegoś nie używałem i muszę coś doczytać czy obejrzeć tutorial, dodatkowo spotkania wybijają mnie z rytmu, ciężko mi skupić jeżeli muszę się przełączać między kontekstami.

Jakie macie obserwacje, czy zauważyliście u siebie, że mniej myślicie przy korzystaniu z LLM?

Dla mnie wielką porażką jest moment w historii, że do tego potrzeba robić jakichkolwiek badań.
Skoro rezygnujemy z korzystania swojego mózgu, dezerterujemy i wolimy oddawać jego w funkcje API jakieś firmy, to chyba oczywiste jest, że te API będzie za nas bardziej pracować niż nasz mózg.
My możemy nawet się nie połapać, co tam z niego wyszło, bo nie po to korzystamy z tzw. "AI", żeby potem kaleczyć nas mózg myśleniem.

Jest to jeden z wielu powodów, dla których jestem bardzo sceptyczny do tego typu rozwiązań. Szanując swoje funkcje poznawcze, niezbyt chętnie oddaje ich funkcje rozwiązaniom firm i trudno przychodzi mi wiara, że ktoś zrobić coś i nie będę musiał tego sprawdzać. A jeśli będę musiał sprawdzać - po co mi tracić czas na to? Nie lepiej to po prostu w przemyślany sposób zrobić?

Szokuje mnie to, ale rozumiem jednocześnie. Takie już życie ;) jest McDonald's, jest samochodów do siłowni (1 km), żeby pojscie sie przejsc po biezni, to jest i to.
Tylko samo wykonywanie badan, ktore sprawdza czy ludzie korzystajacy z "AI" uzywaja mniej mozgu czy wiecej - jest juz grubym absurdem, w ktorym sie znalezlismy.

Golang
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1424
0
jackweb napisał(a):

Jest to jeden z wielu powodów, dla których jestem bardzo sceptyczny do tego typu rozwiązań. Szanując swoje funkcje poznawcze, niezbyt chętnie oddaje ich funkcje rozwiązaniom firm i trudno przychodzi mi wiara, że ktoś zrobić coś i nie będę musiał tego sprawdzać. A jeśli będę musiał sprawdzać - po co mi tracić czas na to? Nie lepiej to po prostu w przemyślany sposób zrobić?

Szokuje mnie to, ale rozumiem jednocześnie. Takie już życie ;) jest McDonald's, jest samochodów do siłowni (1 km), żeby pojscie sie przejsc po biezni, to jest i to.

Czy jak masz do policzenia swoje wydatki w budżecie domowym albo np. planujesz większą inwestycję budujesz dom, to liczysz w pamięci, na kartce czy korzystasz jednak z kalkulatora albo nawet arkusza kalkulacyjnego?

AI służy temu aby przyspieszyć naszą pracę. Wydaje mi się, że firmy/ludzie którzy nie będą korzystać z AI prędzej czy później (raczej prędzej) przestaną być konkurencyjni i wylecą z branży. W końcu celem samym w sobie nie jest programowanie, tylko dowożenie wartości firmie/klientowi.

JA
  • Rejestracja: dni
  • Ostatnio: dni
1

Kiedy mam cos do policzenia, sam zastanawiam sie, jak to policzyć, bo metodologia zalezy od tego, do czego daze. Obliczenia zostawie maszynie. Ale nie dam jej wiecej niz musze

Smile Mniame
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Londyn
  • Postów: 2
0

Mieszkam w UK ,młody popyla do koledża, teraz na drugim roku,srajfonów nie wolno, muszą zostawiac to gdzieś?! wszystko na laptopach uczelni działają, pobloikowane AI i pliki zewnętrzne, monit klawiatury, już jest blokowany rozwój przez tych którzy mają edukować, bo technologia zaczyna wyprzedzać czas w jakim jesteśmy obecnie, tu już nie ma co robić! na wUJ komu pedagog? Widać wyraźnie że została tylko optymalizacja obsługi narzędzia...

KB
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: Śląsk / Remote
  • Postów: 110
0

Ja tam czekam aż każdą dyskusję będziemy kończyć stwierdzeniem "zapytajmy chat kto ma rację". Zobaczcie co się dzieje na X, gównoburza -> wołają groka -> ten pisze jakiś g**no wywód nie na temat -> nawet tego nie przeczytają ze zrozumieniem -> cieszą, że mają rację.
Do dzisiaj by zawsze mieć rację, trzeba było być nieskończenie inteligentnym lub po prostu idiotą. Do tej grupy dołączą ludzie bezgranicznie ufający AI albo nie potrafiący skontrolować wyników AI.

Spine
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 6966
1
Golang napisał(a):
  1. Krótkoterminowo korzystanie z LLM wydaje się to wygodne – ale długofalowo może osłabiać naszą zdolność do samodzielnego myślenia.

Każdy postęp rozpieszczający ludzi sprawia, że są mniej samodzielni, mniej sprawni itd.

GPS - już nie musisz orientować się w terenie, czytać map...

Technologia spełniająca wszystkie zachcianki też negatywnie wpływa na motywację najmłodszych do działania.

E3
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 2
2
Golang napisał(a):

To co robią obecnie dostępne narzędzia to po prostu mind blow i obecnie nie wyobrażam sobie, że mógłbym z tego zrezygnować. Oczywiście ktoś mógłby powiedzieć, że widocznie jestem mało produktywny i zapewniać, że on tworzy software (planowanie, kodowanie, testowanie, dokumentacja) z prędkością tych narzędzi. Spoko, być może tak jest, ale większość osób nie pracuje z taką prędkością, ja często trafiam na problemy, które są albo nowe, albo dawno czegoś nie używałem i muszę coś doczytać czy obejrzeć tutorial, dodatkowo spotkania wybijają mnie z rytmu, ciężko mi skupić jeżeli muszę się przełączać między kontekstami.

Jakie macie obserwacje, czy zauważyliście u siebie, że mniej myślicie przy korzystaniu z LLM?

Bez urazy Haskell, ale jakbyś mniej siedział i czytał g**no-polityczne wysrywy i mniej ich serwował potem tutaj na forum, a więcej się skupił na pracy to na pewno byłbyś bardziej produktywny. Czy z LLM czy bez LLM

WeiXiao
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 5226
0

To co robią obecnie dostępne narzędzia to po prostu mind blow i obecnie nie wyobrażam sobie, że mógłbym z tego zrezygnować

Nie wiem czy są mind blowing, to nawet nie potrafi oszacować wzorku funkcji F(X) -> Y dla statycznej tabelki

X, Y
1: 0
2: 100
3: 200
4: 400
...
84: 7196400
...

Wibowit
  • Rejestracja: dni
  • Ostatnio: dni
  • Lokalizacja: XML Hills
0
WeiXiao napisał(a):

To co robią obecnie dostępne narzędzia to po prostu mind blow i obecnie nie wyobrażam sobie, że mógłbym z tego zrezygnować

Nie wiem czy są mind blowing, to nawet nie potrafi oszacować wzorku funkcji F(X) -> Y dla statycznej tabelki

X, Y
1: 0
2: 100
3: 200
4: 400
...
84: 7196400
...

jaka jest odpowiedź? :) tzn. podaj taką funkcję.

Pyxis
  • Rejestracja: dni
  • Ostatnio: dni
1
WeiXiao napisał(a):

Nie wiem czy są mind blowing, to nawet nie potrafi oszacować wzorku funkcji F(X) -> Y dla statycznej tabelki

X, Y
1: 0
2: 100
3: 200
4: 400
...
84: 7196400
...

Bo źle do tego podszedłeś. Oczywistym jest, że LLM nie będzie widział zależności w takich danych. Dokładnie tak jak człowiek. LLM może Ci z palca dać tabliczkę mnożenia do 100, bo takie "mnożenia" były w danych uczących. On się nie musi zastanawiać, ile to jest 5x6, tak jak Ty nie musisz się zastanawiać, że to jest 30. Ale takiego przypadku jak Twoja tabelka, to nie widział.

To co możesz zrobić, to tak sformułować zapytanie, by LLM zwrócił Ci kod, który dopasowuje wielomiany różnego rzędu i liczy dla takich dopasowań błędy. Na tej podstawie możesz poprosić LLM-a, by wybrał Ci najbardziej zbliżoną postać analityczną. To jest dokładnie tak samo, jakbyś próbował komuś wytłumaczyć, jak to zadanie należy rozwiązać. Przy czym odchodzi Ci potrzeba tłumaczenia w jakim języku to napisać, jakie funkcje dociągnąć itp. LLM da Ci to na tacy w 10 sekund.

Wiem, że to będzie truizm, ale zauważyłem, że użytkownicy tego forum dzielą się na dwie grupy, jeśli chodzi o AI. Jedni są bardzo sceptyczni lub wręcz krytykują te narzędzia, podając jakieś jednostkowe przypadki, gdy LLM zwrócił głupotę (w większości przypadków bierze się to stąd, że mają wygórowane oczekiwania, by LLM domyślił się po jednym zdaniu, co oni chcą). Drudzy z kolei uważają, że to jest superinteligentne, nie wiedząc, jak to działa pod spodem, jaki jest mechanizm uczenia, co to jest token itd. Podsumowując, LLM-y przyspieszają prace, o ile rozumie się, jak działają, jak weryfikować to, co zwracają. A przede wszystkim jak należy je instruować za pomocą zapytań.

Golang
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 1424
1

Obecnie jak w ChatGPT zadasz pytanie z matematyki to narzędzie zazwyczaj napisze skrypt w Pythonie i go uruchomi z podanymi danymi. Możesz i powinieneś z resztą zbudować sobie agenta do którego dajesz właściwy prompt i podpinasz właściwe narzędzie takie jak kalkulator, arkusz kalkulacyjny, wolfram, przeglądarka, cokolwiek i w taki sposób oczekiwać odpowiedzi. W ten sposób zmniejszysz ryzyko halucynacji oraz uzyskasz odpowiedź w spodziewanym formacie.

Kiedyś było głośno o nowym zawodzie prompt engineer, ale nie wiem czemu temat umarł i ludzie po poznaniu młotka próbują nim nie tylko wbijać gwoździe, ale również odkręcać śruby, a nawet wyrywać zęby itd. później przychodzą na forum i prezentują swoją ignorancję "nie umieć korzystać z LLM, więc jest do pupy".

ZI
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 89
0

Ogólnie na rynku został tylko jeden gracz, czyli Anthropic że swoimi modelami. Ktokolwiek używa czegokolwiek innego prosi się o masę błędów i halucynacje, bo chociażby OpenAI i Google uwielbiają znacznie obniżać możliwości modeli po paru tygodniach od ich wypuszczenia.
Claude Code do programowania i nic innego.

ZI
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 89
0

@dbCooper Claude też miał takie sytuacje, ale przy korzystaniu z agenta możesz to znacznie ograniczyć. Model jest najlepszy i Anthropic dostarcza najlepszy tooling. Google i OpenAI ze swoimi agentami mogą się schować, to są jakieś skrajne padaczki. Po drugie pamiętaj, że sporo ludzi dalej wierzy w vibecoding. Może i da radę przy małych projektach do domu czy coś, ale nic poważniejszego w ten sposób nie ogarniesz. Ja teraz korzystam z Claude Code na pro planie i Sonnet (jakoś nie widzi mi się bulić $100+ za Opusa) i na moje potrzeby w zupełności wystarcza.
Koniec końców muszę odgórnie wiedzieć co i w jaki sposób ma zostać wyprodukowane, więc wiem czy to co zostało wyplute z LLMa to badziew, a w większości przypadków jest to trafne rozwiązanie. Gemini w wersji 2.5 obecnie potrafi dać przekombinowane wyniki, które na dodatek nie działają.

Dla przykładu, przy dobrze wysterowanych promptach i plikach claude.md w ciągu może 1h postawił mi działający serwis, który miał kilka elementów, np.:

  • dotnet Aspire do stawiania, orkiestracji, metryk i logów całej apki (tutaj było to zbędne, ale chciałem sprawdzić co tam Microsoft nakombinował),
  • RAG na postgresie i pgvector
  • Semantic Kernel gadający z MS Phi4-mini
  • standardowe restowe endpointy i jakieś inne crudy
elwis
  • Rejestracja: dni
  • Ostatnio: dni
0

Dużo zależy od kilku czynników. Jeśli masz jasny kierunek i chcesz się rozwijać, to AI raczej jest motorem napędowym, bo pozwala oszczędzić czas. Wysiłek, którego nie stracisz na poszukiwania przeznaczysz na coś innego. Jeśli masz do zrobienia nudne zadanie na studia to po prostu poświęcisz na nie mniej czasu i wysiłku. Jeśli dopiero uczysz się czegoś (np. programować) to rzeczywiście AI stanowi pewne zagrożenie, bo LLMy robią dużo błędów, które nie stanowią problemu dla doświadczonej osoby, ale nowa osoba może mieć problem i nabrać sporo błędnych nawyków. Uczyć się lepiej z innych źródeł, ale jak się wie do czego używać i jak, też jak rozpoznawać i poprawiać konfabulacje to jest to świetne narzędzie, które pozwala wejść na wyższy poziom. Ile to już godzin bardzo trudnych poszukiwań mi oszczędziły LLMy. :)

SG
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 24
0
Golang napisał(a):

Pojawiło się badanie pokazujące niższą aktywność mózgową wśród użytkowników LLM. Badanie objęło około 50 studentów, którzy zostali poproszeni o napisanie eseju i podzieleni na 3 grupy z instrukcjami w jaki sposób mają zrealizować swoje zadanie

Z tego co mi wiadomo osoby eksperckie też efektywniej i optymalnie energetycznie używają mózgu niż osoby które dopiero się uczą, bo wtedy mniej efektywniej korzystają ze ścieżek neuralnych, które ciągle się zmieniają.

Mixutre of experts modele także jak zostały użyte to pozwoliły na budowę mega efektywnych modeli, gdyż nie trzeba było całego modelu uruchamiać tylko część sieci specjalizującą się w tym.

W fizyce siłę i prędkość można zmieniać, w mózgu też tak jest, jak się uczysz to zapamiętujesz dużo, aktywność wzrasta, jak już coś umiesz to możesz wydedukować z doświadczenia.
Ścieżki neuronalne się wzmacniają i optymalizują, poziom optymalizacji jest hardwareowy, a softwarowo to tylko planujesz, co będziesz się uczył i trenował, a także jakie będziesz mieć do tego nastawienie.
Człowiek zawsze ma wybór, może wykonać wszystko sam i często musi trochę zapamiętać, czy zoptymalizować jakoś np. zauważyć jakie kluczowe elementy, które warto zapamiętać.
W każdej dziedzinie jest to co innego więc nie ma prostego transferu wiedzy, tu znasz się doskonale na czymś gdzieś indziej jesteś gorzej jak upośledzony, jak nie miałeś styczności z tym nawet teoretycznej, bo najlepiej jak już coś probowałeś i czytałeś o tym, wtedy i w wyobraźni to widzisz.
W sumie, główny czynnik od tego jak szybko będziesz się uczył to jest w sumie Ojciec dziecka, bo to on transferuje wiedzę i sposób w jaki ją zinterpretować czy na co zwrócić uwagę, uwaga u człowieka ma największą siłę, ale jak nie wiesz na czym się skupić to w sumie tego nie używasz, a nauczenie tego samemu jest najtrudniejsze, bo człowiek ciągle uczy się od innych złych przykładów i potem podświadomie się nimi kieruje i potem zdziwienie, że można tak było zrobić.

SG
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 24
0
WeiXiao napisał(a):

To co robią obecnie dostępne narzędzia to po prostu mind blow i obecnie nie wyobrażam sobie, że mógłbym z tego zrezygnować

Nie wiem czy są mind blowing, to nawet nie potrafi oszacować wzorku funkcji F(X) -> Y dla statycznej tabelki

X, Y
1: 0
2: 100
3: 200
4: 400
...
84: 7196400
...

Jak miałby określi polynomial function, to musiałbyś to w prompcie podać, oblicz mi np. lagrange polynomial, im wyższy stopień wielomianu tym wyższa proxymacja funkcji.
Same napisanie oszacowania wydaje się czymś takim jakbyś powiedział powiedział innemu człowiekowi ile wydaje ci się, że tu jest metrów, a on by się pomylił, a potem byś mu powiedział, mogłeś miary użyć.

LukeJL
  • Rejestracja: dni
  • Ostatnio: dni
  • Postów: 8487
0

Sprawdziłem teraz i ChatGPT po prompcie

Kopiuj
 oszacować wzorku funkcji F(X) -> Y dla statycznej tabelki

X, Y
1: 0
2: 100
3: 200
4: 400
5: 124
6: 480
7: 199
8: 118

wyliczył mi funkcję wielomianową i ogólnie ma inne pomysły na interpolację.

Jednak po sprawdzeniu tego wielomianu nie jestem zadowolony z wyników, zbyt duże rozbieżności.

Więc albo źle wyliczył, albo źle to przepisałem, albo po prostu interpolacja wielomianami ma swoje ograniczenia,.

Zarejestruj się i dołącz do największej społeczności programistów w Polsce.

Otrzymaj wsparcie, dziel się wiedzą i rozwijaj swoje umiejętności z najlepszymi.