Niech Alg będzie algorytmem, którego złożoność wyraża się pewną funkcją f(n), gdzie n jest rozmiarem danych wejściowych. Czas wykonania algorytmu Alg dla danych rozmiaru x na komputerze K wynosi t sekund.
(*) Ile czasu zajmie wykonanie algorytmu Alg dla danych p krotnie mniejszego na komputerze K?
(**) Jaki jest maksymalny rozmiar danych, jakie algorytm Alg może przetworzyć na komputerze K w ciągu t' sekund?
gdzie:
a) f(n) = lg(n), x=128, t=7, p=2, t'=20, p'=8, x'=512
b) f(n) = n^2, x=4, t=10, p=4, t'=250, p'=5, x'=50
Proszę o wskazówkę czy cokolwiek.