Jeszcze kilka miesięcy temu, testując GPT-3, w sporze pod tytułem "czy AI zastąpi programistów" byłem raczej po stronie twierdzącej "nie sądzę". Ale z biegiem czasu zaczynam mieć coraz więcej wątpliwości. Do napisania tego posta zainspirował mnie filmik pewnego dotnetowego youtubera, który użył go do napisania webowego API. O ile wcześniej trzeba było faktycznie "popychać" model w odpowiednim kierunku, sugerować mu rozwiązania, wytykać błędy, to tu właściwie mamy przykład utworzenia małego serwisu tak po prostu bez większych problemów. Był na filmie problem z hasłami w connection stringu, ale zauważcie że ze strony użytkownika nie trzeba było podpowiadać żadnych konkretów. Nick wpisał po prostu "zrób żeby było bezpieczniej" a GPT tak zrobiło. Problem ze skalowaniem? Wpisał "zrób żeby się skalowało". I tyle. Coś co zajęło mi długie lata nauki, testowania, prób i błędów, tutaj dostajemy w parę sekund. Ze skutkiem może i nawet lepszym.
Ktoś mógłby powiedzieć: no dobra, ale tu jest tylko pokazane proste API. Ale czy mamy właściwie przesłanki żeby twierdzić, że z większym projektem nie będzie to działać podobnie? Ogranicza nas teraz liczba tokenów, które model jest w stanie przyjąć. Ale czy to faktycznie jest nie do przeskoczenia w ciągu najbliższych paru lat (a może miesięcy)?
Czyżbyśmy właśnie byli świadkami momentu w którym nauka składni języków i algorytmów przestaje mieć sens? Czyżby stereotypowy, aspołeczny programista studiujący ficzery różnich języków właśnie przestał być potrzebny, a jedyne co zostanie na rynku to osoba definiująca wymagania biznesowe?