@obscurity odpiszę tutaj, bo to ważne spostrzeżenie, dobrze, żeby nie uciekło:
ciekawe że jeszcze parę lat temu AI nazywano algorytm chowania się przeciwników w grze za ścianą, a gdy powstał bot który potrafi rozwiązywać realne problemy to nagle jest wysyp opinii że AI nie istnieje.
Też mnie to zastanawia. Przypisywanie magii słówku AI. Co prawda od dawna tak było, że futurodzy się zastanawiali, kiedy powstanie "prawdziwe" AI (zazwyczaj wtedy, kiedy tak się stanie, zajdzie "singularity", czyli taki Matrix - maszyny staną się samowystarczalne i będą same ewoluować).
Ale jednak słówko AI w kontekście programowania mogło oznaczać nawet prostą logikę w grze na ifach. A jak już było na choćby czymś bardziej zaawansowanym np. na prostych maszynach stanowych czy używając algorytmu znajdowania drogi, to już było AI jak się patrzy.
A tymczasem mamy rok 2023 i to, o czym futuryści mówili, że nastąpi w przyszłości, już powoli następuje i wchodzi do żargonu informatyków. I teraz nawet programiści używają AI bardziej w kontekście narzędzi samouczących, korzystających z sieci neuronowych i wielkich zbiorów danych, a nie do określenia czegoś bardziej przyziemnego.
Tylko widzę w tym pewien problem - to, co ludzie nazywają teraz "AI" jest oparte zwykle o machine learning i uczenie się na wielkich zbiorach danych. Więc ludzie zaczęli stawiać równością między celem (AI), a sposobem osiągnięcia tego celu (machine learning). Niestety to powoduje zbyt wielką i naiwną wiarę, że machine learning to magiczna rzecz, która wszystko rozwiąże z automatu. Tym sposobem wyrzucamy do kosza masę przydatnych podejść tylko dlatego, że nie są oparte o machine learning, a na bardziej prostych i przewidywalnych algorytmach.