Jak to jest z wydajnością typów int i short int? Piszę program w którym optymalizacje są kluczową sprawą i chciałbym się zapytać czy warto używać short int zamiast int wszędzie gdzie to możliwe. Moim celem jest jak najmniejsze obciążenie procesora podczas działania programu, ilość zajmowanej pamięci ram mnie nie obchodzi.
wydajnosci szukaj przede wszystkim w swoich algorytmach, klasach petalch....
jesli nie piszesz aplikacji dla pentagonu to roznice wydajnosci int vs short nie maja znaczenia.
po prostu: nie ma różnicy.
Mniemam, że mówisz o x86? Wtedy jak najbardziej różnica jest - każda instrukcja działająca na shortach (które są na x86 szesnastobitowe) musi mieć dostawiony prefiks, a jego zdekodowanie trochę czasu zabiera. Tyle czasu, że jeśli wymienisz wszystkie shorty na inty to zarobisz może kilkanaście nanosekund (zakładając, że program sporo liczy na shortach). Zresztą, manual o optymalizacji Agnera Foga mówi:
The compiler will always select the most efficient integer size if you declare an int, without specifying the size. Integers of smaller sizes (char, short int) are only slightly less efficient.
Ale, jak już zostało powiedziane, różnicy i tak nie zauważysz (!= jej nie ma).
OK, dzięki
Zarejestruj się i dołącz do największej społeczności programistów w Polsce.
Otrzymaj wsparcie, dziel się wiedzą i rozwijaj swoje umiejętności z najlepszymi.