Optymalizacja lub optymalizacja pod kątem wyszukiwarek internetowych (z? Z ?, czy też? Zee ?, jeśli twoja zza? Stawu?) Techniki stale się rozwijają. Ta ewolucja jest odpowiedzią na ewolucję wyszukiwarek takich jak Google, Yahoo i MSN. Zwłaszcza Google okazało się być najbardziej zaawansowaną i zaawansowaną wyszukiwarką, ponieważ jest uzbrojona w szereg technologii antyspamowych.
Coraz częstsze korzystanie z funkcji antyspamowych przez Google sprawiło, że optymalizacja stron internetowych dla Google stała się znacznie trudniejsza, a teraz nie chodzi tylko o otwieranie plików źródłowych witryn w notatniku, dodawanie słów kluczowych do różnych tagów HTML, przesyłanie plików i oczekiwanie wyniki. W rzeczywistości, moim zdaniem i jestem pewien, że inni się ze mną zgodzą, ten rodzaj optymalizacji, zwykle nazywany optymalizacją strony, będzie zawsze 20% skuteczny w osiągnięciu rankingów dla dowolnych słów kluczowych, które są nawet łagodnie konkurencyjne. Ci z nas, którzy są w matematyce w szkole, będą wiedzieć, że pozostało nam 80% nierozliczonych.
SEO dla początkujących: wspiąć się na ranking Google (samouczek 2018)
To 80% odpowiada optymalizacji offpage. Optymalizacja Offpage ma związek z ilością linków prowadzących do Twojej witryny i jej stron, faktycznym tekstem linku (anchor text) tych linków oraz jakością stron, na których znajdują się linki. Optymalizacja offsetu jest teraz zdecydowanie dominującym czynnikiem, który decyduje o miejscu w rankingu witryny w Google. To właśnie mam na myśli, mówiąc o zasadzie 80/20, nie mówię o regule pareto, co oznacza, że w czymkolwiek, co kilka (20 procent) ma kluczowe znaczenie, a wiele (80 procent) jest trywialnych, nie jestem pewien, że dotyczy SEO.
Jaka jest wtedy logika, dlaczego Google daje tak dużo? (80%) w celu zignorowania wysiłków optymalizacyjnych i tak niewielkiej (20%) optymalizacji strony. Po prostu chodzi o jakość ich wyników. Podczas gdy optymalizacja strony internetowej jest całkowicie kontrolowana przez webmastera, a zatem może być nadużywana przez osobę pozbawioną skrupułów, optymalizacja offpage jest czymś, co nie jest kontrolowane przez nikogo jako takie przez raczej innych webmasterów, strony internetowe i ogólnie Internet. Oznacza to, że o wiele trudniej jest przeprowadzić podstępne lub spamujące metody optymalizacji w celu uzyskania nieuczciwej przewagi strony internetowej w wyszukiwarce Google (strony wyników wyszukiwania), co nie oznacza, że jest to niemożliwe.
Wyjaśnijmy paragrafy lub dwa, po prostu dlaczego elementy stronniczych, takie jak linki przychodzące, są uznawane przez Google za tak dobry wskaźnik trafności, co sprawia, że optymalizacja offpage jest najskuteczniejszą metodą optymalizacji. Weź tekst zakotwiczenia linków przychodzących na przykład, jeśli Google widzi link od SITE A do SITE B z faktycznym tekstem łączącym będącym wyrazem? L recovery danych? London ?, a SITE B właśnie stała się bardziej relavent, a tym samym bardziej prawdopodobne, że pojawi się wyższa w rankingach, gdy ktoś szuka? odzyskiwania danych w Londynie ?. SITE B nie ma kontroli nad SITE A (w większości przypadków?) I Google o tym wie. Google może wtedy spojrzeć na tekst linku i powiedzieć sobie, dlaczego miałby SITE link do SITE B z określonymi słowami? Recovery data london? czy WITRYNA B nie była? ? odzyskiwanie danych Londyn ?, nie ma odpowiedzi, więc Google musi uznać SITE B za? o? - odzyskiwanie danych Londyn?.
Powiedziałem? W większości przypadków? powyżej, ponieważ często webmasterzy mają wiele witryn i przekierowują je za pomocą tekstu zakotwiczonego za pomocą słów kluczowych, ale jest tylko tyle witryn i linków, które może zarządzać każdy webmaster, znowu Google to wie, i tak, jak rośnie liczba linków zwrotnych i wystąpień słowa kluczowego bogatego w kotwicę (a wraz z tym rośnie niewiarygodność czegoś nienaturalnego, jak w przypadku sieciowania), tak aby trafność witryny była wskazywana przez wszystkie linki zwrotne. Wyobraź sobie setki lub tysiące witryn łączących się z witryną X z odmianami? Odzyskiwania danych w Londynie? fraza tekstowa jako tekst linku, a następnie Google może być całkiem pewien, że strona X to? ? Odzyskiwanie danych Londyn? i czujesz się pewny, że zwrócisz go w pierwszych 10 wynikach. Dlatego tak dużą wagę (80%) przykładają do czynników rankingowych, takich jak linki; to po prostu najbardziej niezawodny sposób sprawdzenia, o co chodzi w danej witrynie, a także o tym, jak dobrze obejmuje to, o co w niej chodzi. To poleganie na trudnych do oszukania czynnikach niedotkniętych jest tym, co daje wysokiej jakości wyniki wyszukiwania, które wszyscy znamy, kochamy i używamy codziennie.
Morał z punktu widzenia SEO polega na tym, aby spędzać mniej czasu na tych drobnych poprawkach w witrynie, które według ciebie mogą mieć duże znaczenie (ale nie będą) i ciężko pracować nad tym, co naprawdę się liczy, co tak naprawdę się liczy. sieć? widzi? Twoja strona internetowa, im wyższa jakość (słowo kluczowe bogate) linków przychodzących na Twojej stronie, tym lepszy jest widok stron internetowych? będzie, a tym samym tym lepszy będzie pogląd Google na twoją stronę. Co Google myśli o Twojej witrynie jest bardzo ważne, ponieważ oni się nią opiekują? strony internetowe, które im się podobają. Google Seo How To In The Beginning Link był odpowiednikiem głosowania kciukami!
Pierwotnym założeniem Internetu było połączenie powiązanych zasobów (stron internetowych) łączących się ze sobą w naturalny wzór postępu. W ten sposób ktoś na stronie internetowej, skupiając się na przykład na gorylach, naturalnie przeniesie się z tej witryny do tej, która wymienia safari na goryl. W związku z tym linki stały się (i nadal są) standardem służącym do pomiaru trafności witryny.
Za tym kryje się myśl, że im popularniejsza jest strona internetowa, tym większe prawdopodobieństwo, że ludzie się z nią łączą; a ponieważ ludzie mieliby tendencję do linkowania tylko do stron oferujących użyteczne informacje, to naturalnie podążał za dużą liczbą linków oznaczonych jakością, przynajmniej taki był pomysł.
Narodziny spamu linkowego!
Wkrótce wystarczająco sprytni webmasterzy zdali sobie sprawę, że mogą manipulować koncepcją łączącą na własną korzyść i osiągać przystojny zysk, gdy będą w tym uczestniczyć. Zamiast czekania na link do swoich nowych stron (proces, który może trwać wiecznie), może nie tworzyć katalogów linków, w których jedna za pewną opłatą mogłaby zgromadzić dużą liczbę linków w krótkim czasie.!
Dynamicznie rozwijający się rynek linków
Uzyskanie nowej strony internetowej zindeksowanej przez Google było zadaniem o wymiarze heroicznym. Dość często nowe strony internetowe pozostawałyby w zapomnieniu przez wieki, ale ci w wiedzy zdawali sobie sprawę, że proces ten można przyspieszyć. Łącząc nową witrynę z ustaloną stroną internetową lub stroną o wysokim rankingu stron (zazwyczaj o randze strony (PR) 7 i wyższej), ta nowa witryna może zostać zaindeksowana przez Google w ciągu kilku dni lub kilku godzin w zależności od wartości PR strony internetowej na którym znajdował się link. Jednak uzyskanie linku ze strony o wysokim PR nie było tanie, a webmasterzy widzieli ponad 800 USD za miesięczny link na stronie PR8.!
Debiut The Link Farm
Branża powiązań na rynku kwitła przez jakiś czas, kpiąc z systemu Google oceniającego znaczenie danej witryny lub strony internetowej. Jednak wielu webmasterów spieszyło się, by zobaczyć, jak ich witryny przeszukują indeksy wyszukiwarek, nie może sobie pozwolić na sporej ceny dowodzonej przez link z wysokiej strony internetowej PR, a tym samym powiązać farmy..
Połączone farmy były rozwiązaniem dla biednych ludzi, którzy mieli wysokie i wysokiej jakości linki typowe dla stron o wysokim PR. Założenie farmy linków było następujące: zamiast płacić skandaliczną sumę pieniędzy za jeden link z witryny o wysokim rankingu stron, dlaczego nie płacić niewielkiej opłaty za tysiące linków PR o niskiej wartości? Zasadniczo farmy linków postępowały zgodnie z zasadą sumy większej niż jej poszczególne części!
Obsesja z zespołem PR!
Google przemyślany jak zawsze, umożliwił każdemu szybkie sprawdzenie względnego znaczenia strony internetowej. Zrobili to przez wprowadzenie prążka PR, niewielkiej linii na szczycie przeglądarki odpowiednio opatrzonej słowem :PageRank:. Wstęgę PageRank skalowano od niskiego zera (PR0) do wysokiego poziomu dziesięciu (PR10). Im większa wartość, jaką Google przypisywał danej stronie, tym wyższa jej pozycja na stronie. W mało czasu na to małe zielone cięcie (zespół PR) stał się bardzo skutecznym nieoficjalnym publicystą dla kwitnącego handlu na rynku powiązań.
Webmasterzy mają obsesję na punkcie zespołu PR, chociaż w rzeczywistości wartość strony na stronie odgrywa niewielką lub żadną rolę w określaniu pozycji jaką strona może uzyskać na SERPach (stronach wyników indeksu wyszukiwarki). Jednak doświadczeni marketingowcy wykorzystali obsesję PR z dnia na wielką korzyść, wykorzystując ją jako narzędzie do ustalenia wiarygodności i ostatecznie sprzedają swoje towary mniej doświadczonym.
Jednak nieco na pograniczu nadużywania systemu łączącego, koncepcja rangi stron wkrótce stała się równie nieistotna. W krótkim czasie indeks Google został zalany stronami ze spamem, które znalazły się na pierwszej stronie! Coś musiało dać; i tak się stało!
Szybkie przesyłanie do dzisiaj ... Nowe parametry oceny linku!
Och, jak się zmieniły czasy!
Algorytmy wyszukiwarek zyskały tyle sprytności, że nawet blackhat SEO (shady search optimization optimization) w dzisiejszych czasach jest większym problemem niż jego wartość. W związku z ciągłym nadużywaniem i manipulowaniem systemem, Google wściekle zajęło się kwestią utrzymania znaczenia strony i jej jakości w indeksie w świecie coraz bardziej niechcianym..
Od czasu objęcia go przez społeczeństwo, Internet widział w nim spory udział w manipulowaniu pozycją SEO z technik blackhat, takich jak oprogramowanie do tworzenia wielu blogów po debiucie blogów (podstawową zasadą tego systemu było to, że można stworzyć tysiące natychmiastowych jednokierunkowych linków zwrotnych poprzez natychmiastowe generowanie tysięcy blogów) do technik białych, takich jak powszechne rozpowszechnianie artykułów za pomocą oprogramowania lub usług dystrybucji artykułów.
Niektóre z tych technik mają dziś wartość, podczas gdy inne zostały skutecznie unieważnione, takie jak masowe generowanie linków wstecznych poprzez tworzenie natychmiastowych blogów.
Jak Google obecnie ocenia linki.
Kiedyś było to, że jeśli grupa PR twojej witryny / strony internetowej była szara, to oznaczało to, że wspomniana strona internetowa została zbanowana. Tak już nie jest. Wszystkie nowe strony / strony internetowe zaczynają się od szarego pasma PR. Ta grupa pozostanie w tym kolorze w zależności od wielu czynników, zanim zmieni kolor na biały (wskazując, że okres próbny się skończył) i ostatecznie przekształca się na zielony z ustaleniem pozycji strony powyżej zera.
Okres próbkowania filtra / okresu próbkowania łącza
Aby przeciwdziałać powszechnemu nawykowi uzyskiwania linków przez krótki okres czasu, powiedzmy miesiąc, aby szybko zindeksować stronę lub uzyskać pozycję strony, Google teraz poddaje każdy link okresowi próbnemu, w którym to czasie link jest identyfikowany przez Google ale nie przyznano żadnej wartości. Mimo że taki link jest uznawany przez Google, zazwyczaj nie zostanie zarejestrowany jako link powiązany z witryną, do której prowadzi link na subiektywny okres; aby tak się stało, link musi dojrzeć, a tempo dojrzewania łącza zależy od wielu czynników.
Czynniki, które przyspieszają dojrzałość łącza lub skracają okres próbny łącza
1. Słowa kluczowe: słowo kluczowe włączone do danego linku ustala, jak długi będzie ten link w okresie próbnym. Im bardziej konkurencyjne słowo kluczowe, tym dłuższy będzie okres próbny łącza. W rzeczywistości ten linkowy system próbny zastąpił Google Sandbox, który był / jest techniką Google polegającą na zapewnieniu, że superoptymalizowane nowe witryny nie zbliżają się w sposób niekontrolowany do SERP-ów, szybko przyćmiewając długo działające witryny internetowe. Jeśli chodzi o koncepcję Google Sandbox, jeśli nowa witryna była / jest kierowana na bardzo konkurencyjny rynek, na którym już jest wiele milionów witryn, to nowa witryna spędziłaby dłuższy okres, schładzając swoje piętki w Google Sandbox.
2. Natężenie ruchu w łączu: im większa liczba trafikowanych linków, tym szybciej uzyska pełne rozpoznanie wartości SEO przez Google. Jest to stosunkowo nowy system w grze i zasadniczo oznacza to, że silnie traffickowany link o niskim PR przyniesie o wiele więcej wpływów SEO na stronę, na którą wskazuje, niż mały link o wysokiej stronie z linkiem traffickowanym. W istocie Google niemal zniweczyło system, dzięki któremu webmasterzy mogli kupować linki z witryn o wysokim PR w nadziei na poprawę statusu SEO własnej witryny. Zastosowanie tego systemu wyjaśnia, dlaczego niektóre nowsze strony internetowe osiągają PR przed starszymi bardziej stabilnymi stronami internetowymi na tej samej stronie.
3. Łącza z witryn pokrewnych: Łącza, które pochodzą ze strony internetowej lub strony internetowej, która ma wszechstronny aktualny stosunek do strony docelowej, będą miały większą wartość niż link, który nie zawiera. Załóżmy na przykład, że twoja strona internetowa dotyczy marketingu internetowego, a uzyskanie linku z innej strony internetowej, która koncentruje się na oprogramowaniu do marketingu internetowego, zdecydowanie należy do kategorii stron o podobnym charakterze.
4. Wykorzystanie różnych słów kluczowych w linkach: posiadanie tego samego słowa kluczowego, które znajduje się we wszystkich odsyłaczach prowadzących do Twojej witryny, będzie powodowało generowanie alertów z czerwoną flagą, co oznacza, że te linki nie uzyskają pełnego rozpoznawalności SEO przez Google na dłużej. Trwanie. Inna strategia linków, którą powinieneś zastosować, polega na tym, aby linki prowadziły do niektórych wewnętrznych stron, a nie do wszystkich linków wskazujących stronę główną. Posiadanie linków rozproszonych po wielu rejestrach stron internetowych jako bardziej naturalnej strategii linkowania do algorytmu Google i założeniem tego ulepszenia algorytmu było unieważnienie systemu, w którym webmasterzy kupowaliby linki z katalogów linków.
Pamiętaj, że wszystko, co wydaje się podejrzane Googlebotowi, ostatecznie zmniejszy skuteczność Twojej kampanii SEO. Istnieje o wiele więcej czynników, które odgrywają rolę w określaniu, jak wysoko i jak szybko Twoja witryna będzie zawierała SERP (Google oczywiście nie rozlewa wszystkich ziaren), ale jeśli przeprowadzasz kampanię linków z myślą o tych kilku wskazówkach nie pójdziesz daleko w błędzie.