https://www.tensorflow.org/guide/using_gpu#allowing_gpu_memory_growth
Witam,
znalazłam na tensorflow taki kawałek kodu. Zastosowałam i mój batch size zwiększył się dwukrotnie. Mam tylko 4GB pamięci, więc... Czy ktoś kiedyś tego używał?
Czy dobrze to zinterpretowałam, że to magicznie usprawnia alokację pamięci w GPU? Jestem zaskoczona, bo errorów przy uczeniu, że przekroczono dostępną pamięć... A wcześniej bez tych 3 linijek tak. Czy czasem nie robię czegoś złe, że ten kawałek kodu dodałam?
Zwiększenie batch size używając config.gpu_options.allow_growth = True ?
- Rejestracja: dni
- Ostatnio: dni
- Postów: 19
0
- Rejestracja: dni
- Ostatnio: dni
- Lokalizacja: Kraków
- Postów: 2002
1
Nie znam Tensorflow, ale jeśli użyłaś flagi allow_growth - zgodnie z opisem powodującej, że zamiast alokować całą pamięć naraz i jej używać, TF alokuje ją ze wzrostem zapotrzebowania i nigdy nie zwalnia - to widocznie powoduje to wyczerpanie pamięci ;)
Zresztą chyba jest to dość dobry trop, sądząc po tym issue na GH z 2016r, który zamknięto z powodu braku aktywności :D