trenowanie sieci neuronowych

0

poszukuję opisów algorytmów (takich które pozwoliłyby zaimplementowac te algorytmy samemu):
bądź też jakichś innych algortymów trenowania z nauczycielem prócz klasycznej propagacji błędów z najszybszym spadkiem i momentum.

Biorę pod uwagę takie algorytmy:

1)gradientów sprzężonych - najlepiej w formie algortymu back propagation

  1. Levenberga- Marquardta

Najlepsze byłyby jakies ćwiczenia laboratoryjne z przykładem wyliczeń (bądź implementacja z opisem) lub opis krok po kroku [green] - bo znalazłem mnóstwo różnych opisów na "WZORACH" w których wszystkie symbole nie są wyjasnione itp i jak przychodzi mi to programować to pojawia się zbyt wiele niewiadomych. NP dla evenberga Marquardta nie wiem jak dokładnie wyliczyć jakobian sieci wielowarstwowej jednokierunkowej z kilkoma wyjściami i wejsciami.
Dla gradientów sprzęzonych tez zabardzo sie nie orienuję co i jak i po których wagach ;/. Back propagation zaimplementowałem bez problemu...

0

Po pierwsze jak udało Ci się zaimplementować algorytm backpropagation to po co Ci coś innego?
Po drugie jak zrozumiałeś algorytm BP to czego nie rozumiesz w pozostałych algorytmach? Może daj linka do jakiegoś źródła, gdzie jest opisany algorytm np. LM i napisz czego konkretnie nie rozumiesz?
Jeśli chodzi o Jakobian to jest to macierz pierwszych pochodnych - więc w czym problem?
ehh...

Zarejestruj się i dołącz do największej społeczności programistów w Polsce.

Otrzymaj wsparcie, dziel się wiedzą i rozwijaj swoje umiejętności z najlepszymi.