Jest to póki co prawda. Ale jak długo? Przy obecnym rozwoju AI myślę że całkiem racjonalne jest założenie że jeszcze 3-4 lata i da radę coś samemu wymyśleć.
Ok, to teraz wykorzystaj tę wiedzę, by być milionerem, bo wydaje się być dla Ciebie oczywiste, że tak będzie. Znasz przyszłość, więc masz przewagę. Inwestuj pieniądze swoje, a najlepiej jeszcze rodziny i znajomych. Będziecie mieli niesamowitą stopę zwrotu. Albo pomyśl trzeźwo, masz to co jest. I tylko bazuj na tym, co będzie, tego nikt nie wie.
Przy obecnym rozwoju AI myślę że całkiem racjonalne (...)
Z mojego punktu widzenia ten rozwój wyhamowuje i postaram się to pokazać. Trenowanie modeli jest nieopłacalne i kosztowne. Uczenie LLM-ów trwa na tyle długo (tygodnie/miesiące), że w chwili wytrenowania model posiada przestarzałą wiedzę o świecie. Wprowadzono więc agentów AI, którzy mają pobierać dane ze świata zewnętrznego. I ta koncepcja jest naprawdę sprytna, ale ma bardzo niebezpieczne efekty uboczne, o których zaraz. Samo wprowadzenie agentów, o ile na pierwszy rzut oka wygląda jak zbawienie i super feature, o tyle ja to postrzegam jako maskowanie problemu, że nie ma postępu przy skalowaniu sieci (dalej mamy blocker, więc dajemy coś w zamian i robimy wokół tego marketing). Doszliśmy do jakiegoś limitu jeśli chodzi o architekturę, nie mamy mechanizmów by:
- modele same obserwowały świat (i tu nie chodzi o definiowaniem im funkcji) i wyciągały wnioski
- testowały swoje wnioskowanie (robiły eksperymenty, dokładnie tak, jak to się robi w nauce)
- aktualizowały wagi na podstawie obserwacji (uczyły się w czasie rzeczywistym)
Bez tych trzech koncepcji możemy na razie pożegnać się z AGI.
Wracając do agentów. Problem z nimi jest taki, że:
- Nie są deterministyczne (tak wiem, nie ma prawdziwej losowości w komputerze) i budują swoją odpowiedź w oparciu o każdy przetworzony (wczytany i wypowiedziany przez siebie) token. Z człowiekiem jest tak samo, różne osoby odpowiedzą inaczej na to samo pytanie, ale możemy oczekiwać, że odpowiedzi będą zbieżne (o ile pytamy o prosty temat). Problem może się pojawić przy systemach multiagentowych, które będą polegać na swoich wynikach. Mam obawy, że może nastąpić kumulowanie błędów, a ponieważ agenci będą się wymieniać tylko podsumowanymi wynikami (by uprościć kontekst), to może nie zadziałać aha moment, w którym kolejny agent sam się zorientuje, że coś jest nie tak. Nawet na to nie wpadnie, bo dostanie szczątkowy, kompaktowy wynik od innego agenta. Podsumowując, jest ryzyko wystąpienia efektu kuli śnieżnej, co wynika z niedeterministycznej natury LLM-ów. Czegoś takiego nie ma w programowaniu klasycznym.
- Tylko największych graczy stać na trenowanie modelu. Jak zrobią alignment pod siebie albo product placement, to bardzo łatwo agenci narzucą pewną narrację. Jest to bardzo niebezpieczne zjawisko, które chyba w ogóle w tej chwili nie jest brane pod uwagę przez firmy, które bezrefleksyjne korzystają z AI.
- Agent przetwarza tokeny. Co więc jest na wejściu, agent traktuje jako instrukcję. Można więc wpływać na niego. Oczywiście to powoduje, że projektując agentów, trzeba jeszcze bardziej przewidywać, co można im udostępnić, a co nie. Jak zadbać o bezpieczeństwo. I jak się bardzo mocno zacznie o tym myśleć, to można dostrzec, że agent musi być tak obwarowany zabezpieczeniami, że korzyść z tego, iż przetwarza język naturalny na jakąś decyzję jest znikomy. Zatem prościej wiele funkcjonalności jest zaprogramować klasycznie, bo to bardziej zabezpiecza system.
Oczywiście ktoś powie, że: OK, ale Ty mówisz o projektowaniu agentów, ja mam takiego Claude Code'a co mi robi kod. No tak, tylko te wymagania tego kodu, czy zdradzanie zapotrzebowania na dane produkty są zbierane przez firmy zewnętrzne (dzielisz się know-how). I z początku ufałem, że to raczej niemożliwe, bo przecież inferencja jest kosztowana sama w sobie, gdzie mieliby trzymać te wszystkie dane? Ale taki openAI wprowadził darmowe tokeny dla API pod warunkiem, że dane mogą być wykorzystywane do trenowania, czyli muszą je zapisywać do swoich baz: https://www.denishartl.com/how-to-get-free-tokens-for-the-openai-api/
LLM-y pokazały siłę sieci neuronowych, to jest bardzo ważne wydarzenie. Nie chodzi, by wyrzucić to do kosza. Trzeba z tego czerpać mądrze i tylko to, co jest niezbędne. Ale to temat na inny post.