Hej, mam pewien problem. Swój program musze zatrzymac na czas 2 sekund i nastepnie dalej go wykonywac. Problem pojawia sie, gdy kompiluje go raz na Win, a potem na Ubuntu. Mam coś takiego:
#if defined(__LINUX__) || defined(__linux__)
sleep(2);
#endif
#if defined(__WIN32__) || defined(__win32__) || defined(__WIN64__) || defined(__win64__)
_sleep(2000);
Przeczytałem gdzieś, że _sleep jako arg bierze milisekundy, natomiast sleep sekundy. Skoro to, to przecież 1s = 1000 milisekund i wszystko powinno być ok.
Ale jakoś to dziwnie działa, nie wiem, czy ten czas jest taki sam :/ Powiedzcie, czy rzeczywiście _sleep() jako arg bierze milisekundy, natomiast sleep() sekundy?