Znacie jakiś program pozwalający na zrobienie kopii strony offline, ale takiej prawdziwej na podstawie zapytań przy przeglądaniu i najlepiej też odwzorowującej strukturę katalogów
Inaczej - programów do robienia kopii offline jest multum ale z tych co widziałem wszystkie pytają o URL i "głębokość" na jaką mają odwiedzić stronę, potem robią pliki w stylu:
www.strona.pl-index.html
www.strona.pl-index.html_pliki\[tu_wszystkie_grafiki_skrypty_i_inne]
niefajnie - mi chodzi bardziej o coś co będzie podglądało mnie w jakiejś przeglądarce i ściągnęło wszystko do czego przeglądarka się odwoływała - tak żeby ściągnąć też wszystkie pliki .flv o które pyta .swf, nawet te które wymagały kliknięcia w jakiś element animacji
orgazmicznie by było gdyby ta kopia była interaktywna - czyli na przykład nie tworzyła statycznych plików .html tylko proste pliki .php - na przykład zakładając że strona używa AJAXu do pobrania jakiejś treści to żeby ten program utworzył plik .php z prostym switchem, który będzie próbował odpowiadać tak samo jak prawdziwy skrypt, wykorzystując zarejestrowane odpowiedzi do danych parametrów GET / POST
chodzi o to żeby tę stronę offline naprawdę dało się przeglądać i w przypadku średnio skomplikowanych stron wszystko było nadal równie interaktywne co na serwerze (zakładając że będziemy mieli taki sam scenariusz chodzenia po stronie i nie będziemy próbować odwiedzać stron na których nie byliśmy tworząc kopię)
Pozdro - z góry dzięki za propozycje