Ja osobiście Flasha nawet nie instaluję :P. Wiem, że należę do całkowitej skrajności, ale trudno. Powód - większość rzeczy we flashu to reklamy, których i tak nie widzę. Raz na jakiś czas zdarzy się coś innego, to jak mi bardzo zależy to przesiadam się do bardziej "interaktywnego" kompa i sobie mogę obejrzeć.
W3C - Nawet nie ma o czym mówić. Standardów W3C trzeba się trzymać, osobiście staram się wszystkie strony tworzyć zgodne z XHTML 1.1 oraz XML+XSLT transformujące do XHTML 1.1, do tego oczywiście CSS. Niestety - cały problem polega na tym, że nie wszyscy się tego trzymają. Powiem inaczej - wciąż większość stron internetowych ma ogrom błędów.
Tutaj oczywiście moje trzymanie się XHTML 1.1 i tym podobnych może być uznane za fanatyzm, ale nie narzekam na stronę, jeśli jest zgodna z HTML 4.01 Transitional albo coś takiego. Ale niech w nagłówku będzie informacja co to za standard, bo jak po wciśnięciu świętej trójcy Ctrl+Shift+H (validacja on-line) widzę czerwony pasek z komunikatem This Page is NOT valid _____ (wstawić odpowiedni standard) to normalnie można się wkurzyć. Jeszcze jakieś pojedyncze niedociągnięcia, to da się przeżyć, ale jak ilość błędów skacze do paru tysięcy, to przecież tylko siedzieć i płakać nad takimi stronami. Ostatnio też widziałem piękną rzecz: atrybut xml:lang w dokumencie podającym się za HTML 4.01 Transitional. No jedno wielkie nieporozumienie.
Kolejną rzeczą, która powoduje taki ogrom stron niezgodnych ze standardami jest dostępność olbrzymiej ilości oprogramowania tzw. "webmasterskiego", to znaczy ustaw sobie co chcesz jak w Wordzie i dzięki temu a temu programowi stań się "Webmasterem" dzięki możliwości zapisu w formacie "html". Tego typu programy oczywiście tworzą tak tragiczny kod (w większości), że szkoda słów w ogóle. Dla mnie prawdziwy webmaster korzysta z narzędzi w stylu NotatnikSP, EditPlus i tym podobnych. Nie wymagam od ludzi używania notepad'a czy tym podobnych, bo są rzeczy, które ułatwiają pracę, ale wszystko ma swoje granice - edytory WYSIWYG to jest zmora internetu.
Javascript - w niewielkiej ilości poprawny kod JavScript jest jak najbardziej dopuszczalny. Pozwala na osiągnięcie efektów, których nie uzyska się za pomocą statycznych stron. Ale w momencie, gdy Javascript jest używany do obejścia niezgodności ze standardami (choćby już szeroko omawiane omijanie wycofania target z linków) jest zdecydowanie nie na swoim miejscu. Również strona, w której występują błędy składniowe JavaScript to jest poważna pomyłka. Jak widzę czerwony wykrzyknik po prawej stronie paska WebDeveloper przeglądarki, to od razu moja opinia o stronie spada.
Przeglądarki: Chyba najbardziej "zgodne" ze wszystkimi standardami są przeglądarki oparte o silnik Gecko (Mozilla Suite, SeaMonkey, Firefox, K-meleon itp.). Opera nie radzi sobie absolutnie z XML+XSLT, zaś IE nie potrafi poradzić sobie z prawidłowo zaserwowanym XHTML'em. Oczywiście IE bardzo hamuje postęp technologiczny, dlatego z niecierpliwością czekam na IE 7, które w/g obietnic ma być dużo lepsze pot tym względem. Nie żebym zamierzał samemu używać, ale spora grupa internautów przesiądzie się z IE 6 na IE 7, więc staroć jakim jest IE 6 straci swoją dominującą pozycję na rynku. A dzięki temu będzie można stopniowo coraz mniej przykładać wagi do tak beznadziejnych przeglądarek.
A i jeszcze jedno: Jaki jest SENS standardów? Bo robienie wszystkiego dla walidacji samej w sobie jest bez sensu. A no SENS jest taki, by iść z duchem czasu i pisać strony tak, by wszystkie porządne przeglądarki wyświetlały to tak jak sobie tego życzymy, a jednocześnie by umożliwić osobom nie mającym możliwości takich jak przeciętny internauta korzystanie z zasobów naszej strony. Tutaj oczywiście nasuwa się temat Googli - największego ślepego internetu, ale to już temat na zupełnie inną dyskusję...