Czuję potrzebe zadania kulku pytań po zobaczeniu kilku ofert takich jak ta.
http://allegro.pl/precle-pressel-1000-artykulow-unikalnych-1000zn-i1678413436.html
http://allegro.pl/nie-presell-page-10-artykulow-do-10-stron-www-i1672362349.html
To sprawia mi wrażenie, że sprzedawcy zapominają, że wyszukiwarka Google TO TYLKO MASZYNA. Skomplikowana, bo wychwyci chwyty typu czarny tekst na czarnym tle, są pageranki, zlicza wejścia, wyjścia, liczbę linków. Skomplikowana, ale w dalszym ciągu to tylko maszyna.
Ja rozumiem, że im więcej razy pojawi sie link do strony w połączeniu z okresłonymi słowami, to ta strona będzie wyżej po wpisanu tych słów.
Weźmy taki przykład:
http://gitlink.pl/jak-wyleczyc-sie-od-alkoholizmu.html
Człowiek bez najmniejszego problemu stwierdzi o czym jest ten tekst i czy jest on ciekawy, przy kilku tekstach na ten sam temat ułoży od najlepszego do najgorszego. A maszyna? Nie słyszałem, żeby zbudowano maszynę, która myśli jak człowiek i zrozumie tekst "po ludzku".
Jeżeli celem pozycjonowanie http://biofiz.com.pl/terapia-biorezonansem-.html pod hasło "leczenie alkoholizmu" i celem napisania tego tekstu było umieszczenie linka do tej strony w połączeniu ze słowami "leczenie alkoholizmu", przy okazji link kojarzony jest z innymi słowami związanymi z alkoholizmem, np. "alkohol", "nieprzytomność", "uzależnienie"
Skoro tekst jest do przetwarzania maszynowego, to czy nie prościej puścić generator losowy, który wygeneruje tekst składający się z 1000 znaków, czy 100 słów, czy jak tam potrzeba i słowa byłyby dobierane losowo, tylko zestaw słów i ich prawdopodobieństwo bądź liczba byłyby sterowane. Innymi słowy, generator generowałby tekst o założonych statystykach. Oczywiście przy pozycjonowaniu pod frazę wielowyrazową nie dopuszczamy do rozdzielania wyrazów, w kazdej wersji fraza pozostaje w oryginalym brzmieniu, innymi słowy, jak wciśnie się "ctrl+F" i wpisze frazę w całości, to tekst będzie znaleziony.
Słyszałem, że Google nie lubi kopiowania (identyczny tekst na wielu stroach gorzej pozycjonuje niż jak na każdej jest inny tekst). Losowanie pozwoli wygenerować dziesiątki tekstów o podobnych statystykach, ale każdy będzie inny (przy pewnych założeniach można rzec, że zupełnie inny), więc nie będzie plagiatu, ale każdy tekst będzie kojarzyć okreslony link z określonymi słowami.
W takim razie ponawiam pytanie: Czy Google zbudował maszynę rozumiejącą tekst tak jak człowiek, że pisanie tekstów zrozumiałych dla człowieka i ciekawych dla człowieka?
Jeżeli nie, to jaka to różnica, czy jest to ciekawy tekst, czy zlepek słów bez ładu i składu, który ma tylko cechy tekstu?
Czy może te artykuły to jedna wielka ściema, robienie ludzi w konia i robienie na tym kasy?