Mamy pojęcie widoczność w prognozach pogody,
co może być ważne np. dla kierowców.
Np. we podczas mgły albo opadów śniegu, ta widoczność może być bardzo słaba,
200 m, albo i nawet mniej.
Ale mam z tym mały problem: co to w ogóle oznacza że widoczność wynosi 100m,
bo niby jak to ocenić - zmierzyć?
Gdy postawię potężną latarnię 120m dalej, w tej ograniczonej widoczności do 100m,
wtedy na pewno będę ją jeszcze widział, chociaż na pewno słabo,
zdecydowani słabiej niż przy widoczności 1000m.
Zatem pytanie moje jest następujące:
w jaki sposób wyznacza się ten limit widoczności - jakie są tu kryteria.
Na pewno nie chodzi tu o zero widoczności;
przecież taki twardy limit widoczności w ogóle nie ma miejsca w praktyce!
Nawet w bardzo gęstej mgle, czy śnieżycy, widać nadal dowolnie odległe obiekty,
tyle że my nie potrafimy ich rozpoznać - zidentyfikować... z powodu zbyt małej widoczności.
Konkretniej: ile procent obrazu, czy też jakiejkolwiek informacji,
musimy mieć, aby cokolwiek rozpoznać?
No i dlaczego akurat tyle a nie inaczej, to znaczy:
powiedzmy, że tym limitem jest tu 4% informacji, zatem dlaczego nie 2%, czy 1%?