Trochę kojarzę svm, kmeans, jakieś proste sieci neuronowe, ale ML generalnie było i nadal jest mi obce.
Ogólnie nie widzę siebie w tym, i nie stawiam sobie poprzeczki, aby tym bardziej w tym wymiatać, szukać pracy itp Raczej chciałbym móc z tym coś fajnego porobić, z nastawieniem na możliwe porażki, ale również poczuciem, że mam jakieś rozsądne opcje wpłynięcia na projekt.
Domyślam się, że niekreatywna część pracy w obszarze ML polega na:
- pozyskaniu treści,
- dobieraniu odpowiedniej metody do uczenia modeli (biorąc pod uwagę charakter treści)
- i odpowiednim znormalizowaniu treści pod metodę uczenia modelu
Ale trochę obawiam się, że ML może być trochę jak nodejs :D czyli easy to learn, but hart to master.
Tutaj wiem, że przeplataniem myślenia z metodą prób i błędów pozwoli mi trochę wdrapać się, może to pozwoli uzyskać jakiś ciekawy efekt, ale nie jestem pewien co dzieje się potem i jak bardzo konieczne jest poleganie na matematyce w sytuacji, gdy opracowany model ma skuteczność 70-80% i gdy okazuje się, że to jednak za mało.
Czy wtedy klepie się jakieś nowatorskie algorytmy do uczenia, czy raczej podkręca ilość materiałów, stosuje jakieś dzielenie modelu na podmodele z mniejszą liczbą cech, ciągła analiza wyników i stopniowe zawężanie do tego co generuje najbardziej optymalne rozpoznawanie? Na czym właściwie polega tutaj najcięższa część pracy?
Przy okazji poboczne pytania:
czy gdyby była potrzeba rozpoznawanie zegarka na ręce to, żeby uzyskać powiedzmy 90% wykrywalność to jak wielki musiałby być zbiór danych do uczenia, i przeważnie ile czasu taka nauka modelu musiałaby trwać? Czy takie rozpoznawanie trzeba wcześniej poprzedzić rozpoznawaniem człowieka, później rozpoznawaniem ręki, a potem dopiero gdzieś rozpoznawaniem zegarka?
Do jakich rozsądnych granic w uczeniu wystarczyłby jeden komputer z jakąś mocniejszą karta graficzna mieszczącą się w top 10. Do jak bardzo złożonych zadań konieczne jest korzystanie z chmur?