Potrzebuje zbudowac domowy serwer do AI. Obecnie developuje duzo aplikacji na Gemini, którego cena rosnie i rosnie.
Chce miec szybki dostep do wlasnej konfiguracji, wlasnych modeli i wlasnego inference.
Obecnie pracuje na PC z RTX3090, ale wkurza mnie ze musze miec wlaczony PC zeby aplikacjie na moim obecnym domowym serwerze działały.
Runpody i scaleways tez nie wchodza w gre.
Także mam budżet 8000zł.
Potrzebuje kupic
Drugiego RTX3090 uzywke
RTX4070 zeby wlozyc do PC i wyciagnac obecna RTX3090
płyty głównej z dwoma (albo wiecej) slotami PCI
procka ktory obsluzy dwie karty (albo wiecej)
ram
obudowy
Czy ktos moze coś polecic albo spotkał sie z budowaniem takiego sprzetu? Potrzebuje na wszystko Fvat (oprocz RTXa bo uzuwany).
Każda rada mile widziana :)
Pod samo AI/inference wystarczy Ci zestaw z AMD Ryzen 9 5900X, płytą ASUS Pro WS X570-ACE, szybkim dyskiem NVMe (do ładowania modeli), 16 GB RAM (choć 32 GB byłoby bezpieczniejsze) oraz mocnym zasilaczem. Koniecznie zadbaj o solidne chłodzenie i dobrą wentylację, bo przy dwóch RTX 3090 temperatury szybko rosną.
Na takim sprzęcie powinieneś postawić goły system — Linuxa albo Windowsa — bez warstwy wirtualizacji (Proxmox, ESXi), ponieważ NVIDIA blokuje serwerowe wykorzystanie konsumenckich kart (vGPU). Teoretycznie da się to obejść za pomocą passthrough i spoofowania ID karty, ale to potrafi być niestabilne i problematyczne.
W praktyce oznacza to, że raczej nie pozbędziesz się obecnego domowego serwera, jeśli chcesz korzystać z innych usług obok AI.
Żeby uruchomić coś porównywalnego do Gemini 2.5 potrzebowałbyś co najmniej 2x NVIDIA A100 80GB, na dwóch RTX3090 to co najwyżej sobie uruchomisz jakiś model 40B parametrów lub wyższy z większą kwantyzacją a przydatność takich modeli do pisania kodu jest bardzo wątpliwa. Myślę że najlepiej wyjdziesz jednak płacąc za gemini, chyba że robisz to czysto hobbistycznie
Pod samo AI/inference wystarczy Ci zestaw z AMD Ryzen 9 5900X, płytą ASUS Pro WS X570-ACE, szybkim dyskiem NVMe (do ładowania modeli), 16 GB RAM (choć 32 GB byłoby bezpieczniejsze) oraz mocnym zasilaczem. Koniecznie zadbaj o solidne chłodzenie i dobrą wentylację, bo przy dwóch RTX 3090 temperatury szybko rosną.
No i fajnie, dzieki! To już coś. Nigdy nie miałem dwóch kart, wiec wlasnie dobór procka i płyty to już nie takie chop siup. Jedyne co widze że to na AM4. No i nawet lepiej bo taniej.
Ale wiem że AM5 oferuje potencjalnie szybszy RAM, co ludzie wykorzystują do offloadowania modeli do ramu. Jak np. w tym boxie
.
Pewnie pójde w AM4, bo taniej, i nie wykluczne że nawet w to co podales zeby nie szukac.
Na takim sprzęcie powinieneś postawić goły system — Linuxa albo Windowsa — bez warstwy wirtualizacji (Proxmox, ESXi), ponieważ NVIDIA blokuje serwerowe wykorzystanie konsumenckich kart (vGPU). Teoretycznie da się to obejść za pomocą passthrough i spoofowania ID karty, ale to potrafi być niestabilne i problematyczne.
W praktyce oznacza to, że raczej nie pozbędziesz się obecnego domowego serwera, jeśli chcesz korzystać z innych usług obok AI.
No i to też dobre info. Nawet to chyba lepiej. Zamierzam zrobić automatyzacje w home assistant, żeby wyłaczać serwer po 23 i uruchamiać go o 8 rano. Zaoszczędze prądu.
Albo w ogóle postaram się o szybki boot-up serwera i będe go uruchamiał on-demand
Żeby uruchomić coś porównywalnego do Gemini 2.5 potrzebowałbyś co najmniej 2x NVIDIA A100 80GB, na dwóch RTX3090 to co najwyżej sobie uruchomisz jakiś model 40B parametrów lub wyższy z większą kwantyzacją a przydatność takich modeli do pisania kodu jest bardzo wątpliwa. Myślę że najlepiej wyjdziesz jednak płacąc za gemini, chyba że robisz to czysto hobbistycznie
Developuje na gemini ale obecna ich podwyżka output z 0.6$ na 2.5$ w ciągu jednej nocy, troche zabiła sens budowania aplikacji. Przyszłość jest w małych modelach tj. Bielik 11B, Gemma 27B czy Qwen 30B. Ale zależy mi na uruchamianiu w pełnym kwancie. Żeby nie zastanawiać się z tyłu głowy czy aby może coś nie działa przez kwantyzacje.
Ma 128gb w APU, ale mało strasznie jest review na jego temat.
No i niby QWEN3 32B osiąga 10 tokenów. Niby nie az tak dużo, ale nie wiadomo czy w pełnym kwancie czy to nie czasem Q4 :(
Na forum 4programmers.net korzystamy z plików cookies. Część z nich jest niezbędna do funkcjonowania
naszego forum, natomiast wykorzystanie pozostałych zależy od Twojej dobrowolnej zgody, którą możesz
wyrazić poniżej. Klikając „Zaakceptuj Wszystkie” zgadzasz się na wykorzystywanie przez nas plików cookies
analitycznych oraz reklamowych, jeżeli nie chcesz udzielić nam swojej zgody kliknij „Tylko niezbędne”.
Możesz także wyrazić swoją zgodę odrębnie dla plików cookies analitycznych lub reklamowych. W tym celu
ustaw odpowiednio pola wyboru i kliknij „Zaakceptuj Zaznaczone”. Więcej informacji o technologii cookie
znajduje się w naszej polityce prywatności.