daro web site
 
Bramka SMS
 

Rodzina
Serwisy 
Pozycjonowanie stron 
Pomysły
Albert Einstein
lodowce Alaski
zabezpieczenie ATX
bramka SMS
UFO filmy
sennik
działo orgonowe
odkrywca orgonu
raport o smogu i deszczach
akumulator orgonowy
wiadro z orgonem...
biony orgonowe
magnesy neodymowe
magnetyzer
biegunowość
tips & tricks dla windows
software
Kontakt 
elektrownie wiatrowe
lotto
 

Pozycjonowanie (z jęz. ang. "Web positioning")

Pozycjonowanie stron jest najlepszą i najskuteczniejszą metodą promocji strony w internecie polegającą na świadomych działaniach zmierzających do zwiększenia jej odwiedzalności. Przecież dla efektywności (a nie efektowności) witryny nie tyle ważne jest jak będzie ona piękna, ani nawet jak bardzo wyrafinowane narzędzia będzie zawierała, lecz jak wielu internautów do niej dotrze.

Pozycjonowanie staje się branżą wymagającą coraz większego zorientowania w sytuacji na rynku. Zadanie to przestało być wykonalne dla ludzi tworzących strony, gdyż wymaga sporej wiedzy i absorbuje zbyt dużo czasu. Generowanie ruchu na stronach stało się wyspecjalizowaną dziedziną, dlatego też warto zlecić to zadanie specjalistom.

Pozycjonowanie - jak to zrobić ?
Kiedy zoptymalizujemy już nasze strony - czyli w sensie "technicznym" zbudujemy tak, aby w najlepszy sposób indeksowała się w wyszukiwarkach internetowych mamy tutaj na myśli :

  • optymalizaja zbędnego kodu HTML
  • optymalizacja HTML do standardów http://www.w3.org
  • optymalizacja styli CSS w/g standardów http://www.w3.org
  • modyfikacja strony "pod przeglądarkę/wyszukiwarkę"
  • wybór najważniejszych słów opisujących stronę - modyfikacja textów w znacznikach <BODY></BODY>
  • modyfikacja ustawień serwera
  • dorobór odpowiednich narzędzi wspomagających - keywords i instalacja na stronie.
Po owych zabiegach możemy dodać stron(ę)(y) do wyszukiwarek, pamiętając przy tym aby podawać pełny link do strony razem z nazwą strony. Pozycje w wyszukiwarkach uzyskane dla poszczególnych słów i fraz kluczowych należy stale monitorować. Trzeba pamiętać, że wysoka pozycja na liście wyników wyszukiwania nie jest przypisana do konkretnej strony www raz na zawsze. Oprogramowanie, w oparciu o które działają wyszukiwarki, jest stale doskonalone co istotnie wpływa na zmianę wyników wyszukiwania, a więc także na pozycje poszczególnych serwisów w indeksach.

Ponadto lista wyników jest ciągle poszerzana o nowo pojawiające się strony. Każdy dzień nieobecności na pierwszej stronie wyników jest sporą stratą. Na to wszystko nakładają się wciąż istotne różnice pomiędzy funkcjonowaniem wyszukiwarek polskich i głównych wyszukiwarek światowych nowej generacji.

Gdyby umiejętne pozycjonowanie sprowadzało się wyłącznie do wykupienia linku sponsorowanego nie obserwowalibyśmy dynamicznie narastającej popularności tego typu usług. Powinniśmy wziąć pod uwagę, że linki sponsorowane w top-wyszukiwarkach wcale nie są tanie. Rachunek ekonomiczny znacząco ogranicza więc swobodę działań w tym zakresie, jaką dysponuje menedżer odpowiedzialny za budżet promocji w małej, a nawet w średniej wielkości firmie. Ponadto w przeważającej większości przypadków wyszukiwarki internetowe umieszczają na stronie będącej wynikiem wyszukiwania maksymalnie dwa linki sponsorowane. Jeżeli firma nie jest monopolistą na rynku, a działa w warunkach ostrej konkurencji, nierzadko zdarza się iż rywalizujące podmioty mogą ją ubiec wykupując link sponsorowany.
Naszą skuteczność podnosi fakt, że w swojej działalności zawsze dostrajamy się do potrzeb naszego zleceniodawcy, poczynając od tak banalnej (jak niekiedy wydaje się nieprofesjonalistom) czynności jak dobór odpowiedniego zestawu konkretnych słów kluczowych i zachęcające opisy. Naszym nadrzędnym celem jest zapewnić najwyższą skuteczność. Jak dotąd udaje się to realizować z pełnym sukcesem.

Onet (www.onet.pl)
Google (www.google.pl)
Wirtualna Polska (www.wp.pl)
Netsprint (www.netsprint.pl)
Szukacz (www.szukacz.pl)

Poniższa tabela przedstawia procentowy odstek internautów trafiających na witryne:

wizyta pochodzi procent
wyszukiwarki 46%
przypadkowe surfowanie 20%
znajomi 20%
reklama w magazynach 4.4%
spoty TV 1.4%
targetowany email 1.2%
reklama banerowa 1%

Pozycjonowanie stron jest dzialaniem długofalowym, zaś jego efekty nie są odczuwalne natychmiast. Niemniej jeśli przeprowadzić je skutecznie staje się działaniem niezwykle opłacalnym.
Od skutecznej promocji stron internetowych (pozycjonowania) nie sposób oddzielić wyszukiwarek, które w czasach swojej świetności generowały nawet do 90 proc. ruchu na stronie mierzonego dobową (przeważnie) liczbą osób odwiedzających serwis www (przy czym liczą się wyświetlenia strony - tzw. hity). I choć dziś i w Polsce tracą one swe znaczenie (statystyki z USA wskazujące, że są źródłem już tylko ok. 10 proc. ruchu na stronie, póki co wydają się nie znajdować odzwierciedlenia w naszym kraju) na rzecz bezpośredniego marketingu i crosslinkingu (technika promocji polegająca na wzajemnym promowaniu się stron www. poprzez wymianę bannerów lub zwykłych linków tekstowych; skuteczniejszą formą jest wymiana artykułów pomiędzy serwisami, zawierających informacje o danym autorze z linkiem do odpowiedniej strony www), to jednak wciąż pozostają istotnym elementem sukcesu online.

Nasz zespół to nie tylko "wirtualni" fachowcy. Są wśród nas i ludzie jeszcze przed kilkoma laty pracujący na samodzielnych stanowiskach w biurach marketingu największych polskich firm. A zgromadzone wówczas doświadczenie marketingowe okazuje się niezbędne i dziś. Dlatego z całą stanowczością stwierdzamy, że w sytuacji gdy nowo powstałe serwisy nie mają szans na zyskanie popularności za pomocą crosslinkingu, a często nie stać je na marketing bezpośredni czy też organizację masowych kampanii w Internecie, wyszukiwarki pozostają najlepszym i pewnym sposobem na wygenerowanie nawet i 50 proc. ruchu na stronie. Zwłaszcza, że pozycjonowanie cechuje jeden z najlepszych wśród narzędzi promocyjnych wskaźnik cena/zysk. Jeżeli nie chcemy wkładać w promocję naprawdę dużych pieniędzy to pozostaje nadrobienie tego czasem - poprzez rejestracje w wyszukiwarkach, a poźniejsze pozycjonowanie stron.

Uważa się, że jeszcze przed dodaniem stronę należy napisać "pod wyszukiwarkę". To nic innego jak takie umiejętne przygotowanie strony, aby zawierała ona jak najwięcej słów kluczowych. Te keywords (po ang. "słowa kluczowe") są niczym innym jak słowami bądź też całymi frazami, co do których jesteśmy przekonani że potencjalni klienci właśnie je wpisują w wyszukiwarkach, chcąc znaleźć produkt lub usługę identyczną z tym, co oferuje firma której stronę pozycjonujemy.

Niestety w Polsce wciąż jeszcze zbyt często pokutuje mylne przeświadczenie, iż to zamawiający pozycjonowanie (zleceniodawca) najlepiej określi co najpełniej opisuje jego produkt. Tym bardziej to dziwne iż brak u nas publicznie dostępnych danych nt. popularności konkretnych zapytań w wyszukiwarkach. Na Zachodzie takie narzędzie jest dostępne na stronie www.overture.com (Advertiser Center - Tools - Term Suggestion Tool) czy też na specjalizującej się w tej funkcji www.wordtracker.com. Jest tylko małe "ale" - otóż dane te nie odnoszą się bezpośrednio do Polski.

Pozycjonowanie nie ogranicza się do znajomości technik polepszających pozycje w rankingu. Znacznie ważniejsza jest znajomość samych wyszukiwarek - mechanizmów ich działania, pozwalających zrozumieć co ma dla nich znaczenie, a czego należy unikać.

Prosty przykład: Google.com (ciesząca się popularnością wśród 2/3 Polaków) nie czyta już dziś znaczników META, podczas gdy jeszcze kilka lat temu korzystanie z nich było skuteczne. Ponadto chociaż podstawowe zadania wyszukiwarek nie ulegają zmianie to już same wyszukiwarki ciągle modyfikują się do tego stopnia, że techniki skuteczne dzisiaj, za tydzień mogą być zabójcze. Stosowanie zaś tych z pogranicza oszukiwania wyszukiwarek wymaga stałego kontrolowania pozycji. Te specjalne techniki wyszukiwarki traktują już czasami jak spam, karząc za ich stosowanie. Zdobycie dobrych pozycji w bardzo zawężonej grupie w zakresie konkurencyjnych tematów jest bardzo trudne... ale nie niemożliwe. Wymaga pieniędzy i czasu. Dla dobrego i długotrwałego rezultatu trzeba jednak poświęcić co najmniej od 1 do 3 miesięcy.

Gdzie pozycjonować?
W ub. r., a więc w okresie kiedy na świecie nawet największe wyszukiwarki miały straty lub zarabiały niewiele, dochodziło do wielu mariaży i przejęć, w Polsce pojawiło się kilkadziesiąt nowych wyszukiwarek. Niewiele to zmieniło, wciąż bowiem mamy trzech hegemonów - Onet.pl, Google.com i WP.pl. Na te trzy serwisy przypada łącznie ok. 80-90 proc. ruchu w polskim Internecie pochodzącego z wyszukiwarek.
Praktycznie żadna licząca się wyszukiwarka nie korzysta wyłącznie ze swojej bazy stron www. Wiele jak np. WP.pl, nie posiada nawet własnej bazy i wykorzystuje zasoby wykupione wraz z licencją. Onet.pl ma własną bazę danych, ale silnik (oprogramowanie wyszukiwarki) kupiony od firmy Inktomi, która przejęła Infoseek.
Każdy silnik działa na tej samej zasadzie, ale każdy ma swoje, w pełni konfigurowalne algorytmy wpływające na strukturę rankingu. Mimo faktu, że administrator wyszukiwarki ma pewien zakres swobody w przypisywaniu wagi poszczególnym elementom strony www - czyniąc każdą kopię silnika unikalną - to jednak pewne cechy pozostają wspólne. Ten fakt bardzo pomaga wpływać właścicielom stron www na ranking w większym stopniu niż administratorzy by sobie tego życzyli.
Administratorzy odpowiedzialni za polskie wyszukiwarki starają się, aby za dużo informacji nie przedostało się na zewnątrz. Większość specjalistycznej wiedzy to wynik testów i doświadczenia w pozycjonowaniu.
Fakt, że polskie wyszukiwarki wykorzystują oprogramowanie zachodnich producentów bardzo pomaga. Dzięki temu wiedzę z polskiego rynku możemy uzupełniać o doświadczenia zachodnich kolegów z branży.

Liczące się wyszukiwarki nie różnią się między sobą zasadą działania. Ponadto większość z nich wykorzystuje zbliżone algorytmy dla ustalenia pozycji strony www w rankingu wyszukiwania.

Na wyszukiwarkę składają się cztery podstawowe elementy:

  • pajączek (Spider, Crawler),
  • baza danych,
  • indeks,
  • program wyszukujący,
przy czym bardzo często nazwa "indeks" rozszerzana jest i na bazę danych, a oba elementy traktuje się za jedność. To jednak spore uproszczenie.

Pajączek czyta zlecone mu strony tak, jak to robi przeglądarka. Czyta kod strony i go interpretuje. W przeciwieństwie jednak do przeglądarki, pajączek czyści interpretowany kod z niepotrzebnych znaczników HTML i zapamiętuje tylko interesujący go tekst. Oczywiście tekst ten ma własne znaczniki informujące w dalszym procesie program wyszukujący, gdzie dany tekst się znajdował w kodzie strony, czy był to tytuł, nagłówek H1, zwykły tekst itd.
Pajączek po przeczytaniu strony podąża po linkach do podstron w tej samej domenie (Deep Crawling), czytając je również. Różne wyszukiwarki mają zdefiniowaną różną głębokość, do której dociera pajączek. Zakłada się, że najważniejsze strony powinny być najdalej 2 kliknięcia od strony głównej.

Po "przerobieniu" danego serwisu pajączek, poprzez linki kierujące na zewnątrz, trafia na inne, nieznane mu dotąd strony.
Celem większości wyszukiwarek jest - oprócz prawidłowego dostarczania rankingu - objęcie jak największej liczby stron. I tak Google zindeksowała 3,083,324,652 strony. Proces indeksowania internetu opiera się na dwóch założeniach:

I. Do prawie każdej strony ktoś się kiedyś odwołał i można do niej dojść po linkach na stronach wchodzących w skład tzw. bazy wyjściowej i stron znalezionych poprzez tą bazę. Baza wyjściowa to pewna liczba stron www, głównie portali i katalogów, które administratorzy nowej wyszukiwarki ustalają ręcznie, aby ich pajączek miał wyjście na możliwie najwięcej serwisów.

II. Reszta stron to sprawa właścicieli, którzy wypełniając formularze wyszukiwarek proponują pajączkowi, aby odwiedził ich strony. Potocznie mówi się o "dodawaniu strony do wyszukiwarki" jednak nie jest to równoznaczne ze zindeksowaniem strony przez wyszukiwarkę, toteż proponowanie należy ponawiać do skutku czyli do pojawienia się pożądanej strony w wynikach.

Zebrane informacje przekazywane są do bazy danych wyszukiwarki. Pajączki wracają na zindeksowane strony po pewnym określonym czasie lub przy ponownym zaproponowaniu strony do indeksacji. Sprawdzają wówczas czy strony się nie zmieniły pobierając ewentualnie nowe dane.

Najprawdopodobniej po dodaniu nowego wpisu, poprzez indeksowanie bazy danych dochodzi do utworzenia indeksu, który pełni rolę porównywalną z tym, który można spotkać w książkach. W wyszukiwarce jest to spis wszystkich unikalnych słów wraz z odnośnikami do miejsc występowania ich w bazie danych.

To, czy strona pojawi się przy wyszukiwaniu, zależy od tego, czy została uwzględniona w indeksie, a nie w bazie danych, chociaż zazwyczaj jest to równoważne. Gdy użytkownik wpisze jakieś hasło w formularzu wyszukiwarki, program wyszukujący przeszukuje indeks w poszukiwaniu tego słowa. Jeśli słowo zostanie znalezione, program wyszukujący czyta wszystkie strony z bazy danych, oznaczone w indeksie jako zawierające dane zapytanie. Następnie posługując się swoimi algorytmami ocenia wartości każdej strony. Za ocenę stron mogą odpowiadać algorytmy w samym programie wyszukującym, dodatkowy program (w Google jest nim nie demokratyczny PageRank, oceniający wartość strony na podstawie liczby stron, zawierających link do danej strony) i np. fakt pojawienia się strony w katalogu. Na podstawie ocen jest tworzony ranking.

W bazie danych znajduje się pełny, zapamiętany tekst. Wyszukiwarki jednak generalnie stosują tzw. Stop Words. Są to słowa bez konkretnego znaczenie, jak spójniki czy rodzajniki, których nie uwzględnia się w wyszukiwaniu.

Jeśli zadamy wyszukiwarce Google pytanie: the president to program wyszukujący przeszuka indeks tylko według słowa "president", "the" zostanie pominięte dla szybszego rezultatu. Jednakże w opisach stron "the" będzie się znajdowało.
Jeśli chcesz sprawdzić pozycje w google to wejdź na strone http://www.google.com/ie?num=100

Więcej informacji znajdziesz na mojej stronie http://www.pozycjonowanie.info

Jakby co to pisz support@pozycjonowanie.info

 
  przydatne linki
Adwords google: Najczęściej wpisywane słowa kluczowe w google.
Webjectives: Stronka licząca słowa kluczowe na stronie http://www.webjectives.com/keyword.htm
Keywordcounter : Narzędzie do porównywania dwóch stron pod względem powtarzalności słów kluczy.
Keywords suggestion: Overture - narzędzie do liczenia popularności słów kluczowych.
Linkpopularity: Narzędzie do sprawdzania popularności strony w wyszukiwarkach (w googlu można to sprawdzić poprzez wpisanie w okno wyszukiwarki np. link:http://www.google.pl/)
Sprawdź pozycje w wyszukiwarce: Darmowe narzędzie do sprawdzania pozycji zadanej strony w popularnych wyszukiwarkach.
Generatory - Web Tools: Assessment Tools
Keyword Thesaurus
Link Popularity
META Tag Generator
META Tag Scanner
Robots.txt Generator
Submit Engine
Top Keywords
Generatory - polska strona:
Adres url
Chmod
Dodaj do ulubionych
E-mail adres
Hex/Rbg konwerter
Kalkulator IP
Kolory RBG
Kursor
Kursor images
Linki
Marquee animacja
Meta znaczniki
Nagłówek Head
Okno
Pop-up
Pozioma linia
Prosty formularz
Przejście strony
Przycisk
Rollover button
Status Gadu-Gadu
Status Icq
Status Tlen
Status Wp kontakt
Strona startowa
Struktura strony
Suwaki
Znacznik Body
Znacznik Img
Znaczniki tekstu
Robots.txt: Narzędzie do sprawdzania poprawności pliku robots.txt
http://validator.netpr.pl/ Validator stron HTML.
http://validator.w3.org/ Validator w3.org dziecko HTML-a ;)
http://www.szewo.com/meta/ Strona Andrzeja Szewczyka z najlepszymi narzędziami przy tworzeniu stron pod wyszukiwarki
 
   Aktualności
Nie można połaczyć się z serwerem