Wyszukiwarki to jedne z najlepszych narzędzi w Internecie do promowania swojej witryny, bloga, artykułów itp. Jednak wielu autorów i właścicieli witryn nie wie, jak poprawnie zaprojektować materiał do wyszukiwania. W tym artykule omówimy, jak utworzyć doskonałe przekazywanie wyszukiwarek (zwane :optymalizacji pod kątem wyszukiwarek: lub SEO).
Najważniejszym elementem SEO jest właściwe użycie słów kluczowych. Gdy wyszukiwarki przetwarzają zapytanie, przetwarzają poszczególne słowa. Na przykład, jeśli spojrzałeś na :pola golfowe w Kalifornii:, zobaczysz listę witryn zawierających słowa kluczowe :Kalifornia:, :golf: i :materiały eksploatacyjne:. Jeśli więc chcesz zoptymalizować swoje materiały, znajdź popularne słowa kluczowe i umieść je w swoich artykułach, na blogach lub w opisie witryny. Ponadto, jeśli umieścisz słowa kluczowe w tytule swojej witryny lub w nagłówkach postów na blogu, twoje materiały będą znacznie częściej pojawiać się na górze listy wyników wyszukiwania.
Wyszukiwarki tak szybko, jak to możliwe
Opis byłby drugim najważniejszym elementem w SEO. Coś, co powinieneś zrobić w kodzie HTML dla swojej strony, upewnij się, że zawiera ona krótkie podsumowanie, około 70 słów opisu Twojej strony. Te informacje będą bezpośrednio pod nazwą Twojej witryny w wynikach wyszukiwania. Dobrze napisany opis zazwyczaj będzie krótki i coś, co przyciągnie wzrok osób. Przede wszystkim upewnij się, że jest krótka i prosta.
Na koniec musisz pamiętać, że ważne jest, aby znać różnicę między SEO a :czarnym kapeluszem: SEO. White Hat SEO stosuje wymienione powyżej techniki. Jest to rodzaj optymalizacji, który większość wyszukiwarek zachęca do tego, aby witryny pozostały na listach wyszukiwania przez długi czas.
W przeciwieństwie do tego, czarny kapelusz SEO to pozbawiona skrupułów technika optymalizacji, oszukująca czytelników poprzez włączenie tekstu, który miesza się z tłem, znajduje się poza granicą strony lub składa się z nonsensownego lub obciążonego słowem kluczowym tekstu. Na przykład operator bloga o golfie może ukryć tekst na temat zespołu uczelnianego lub popularnego filmu, próbując odwołać się do tych docelowych odbiorców.
Jeśli skorzystasz z sugestii i zapoznasz się z tymi wskazówkami, może to zagwarantować tylko pojawienie się Twojej witryny na pierwszej stronie odpowiednich wyników wyszukiwania. Upewnij się, że poświęcasz wystarczająco dużo czasu i wysiłku na optymalizację pod kątem wyszukiwarek, ponieważ jest to niezwykle skuteczna technika promocyjna. Wyszukiwarki Jak według badań przeprowadzonych przez Krishna Bharat i Andrei Brodner jest kilka powodów, dla których dane są replikowane lub dlaczego tworzone są witryny lustrzane - Równoważenie obciążenia, Wysoka dostępność, Replikacja wielojęzyczna, Franczyzy lub Wersje lokalne, Udostępnianie bazy danych, Wirtualny Hosting i utrzymywanie Pseudo tożsamości.
W równoważeniu obciążenia replikacja danych jest wykonywana w celu zmniejszenia obciążeń serwerów. Zamiast jednego serwera obsługującego cały ruch od internautów zainteresowanych danymi lub treścią, witryna jest lustrzana lub dane są replikowane, aby ruch został podzielony między dwa lub więcej serwerów.
Dane są również replikowane, aby były bardziej dostępne. Przykładem tego jest dublowanie danych w ramach tej samej organizacji dla celów geograficznych, aby były łatwo dostępne.
Wielojęzyczna replikacja danych jest również bardzo powszechna. Dane przetłumaczone na różne języki są bardzo przydatne dla dotarcia do szerszej grupy odbiorców, którzy wszyscy potrzebują dostępu do tych samych danych. Dobrymi przykładami replikacji wielojęzycznych jest wiele kanadyjskich witryn, które są takie same we wszystkim, z wyjątkiem języka treści, w których używany jest angielski lub francuski.
Dane są również replikowane w przypadku franszyzy lub lokalnych wersji danych. Dzieje się tak, gdy dane lub treści są franchisingowane do innej firmy, która następnie oferuje te same dane lub produkty, ale pod innym brandingiem.
Czasami dane są niezamierzone replikowane. Dzieje się tak, gdy dwie niezależne strony internetowe mają wspólną bazę danych lub system plików. Udostępnianie bazy danych czasami skutkuje odzwierciedleniem nawet bez intencji stron internetowych.
Wirtualny hosting czasami powoduje również dublowanie. Dzieje się tak z usługami o różnych stronach internetowych i nazwach hostów, ale używa tego samego adresu IP i serwera. Co się dzieje, ścieżka do jednej witryny jest ważna, podczas gdy ścieżka do innej witryny po prostu daje identyczną stronę internetową.
Ostatni powód, w przeciwieństwie do pierwszych sześciu powodów, często nie jest uzasadnionym powodem dublowania witryny. Dzieje się tak dlatego, że tworzenie kopii lustrzanych w celu zachowania pseudo tożsamości często odbywa się w celu spamowania wyszukiwarek za pomocą różnych witryn o tej samej treści, co oznacza uzyskanie wyższej pozycji w rankingu. Ten powód jest uważany za niedopuszczalny i jest jednym z powodów, dla których wyszukiwarki mają tendencję do odrzucania identycznych treści lub replikowanych danych.
Wskazówki Google dla webmasterów dotyczące powielania treści
Wyszukiwarki są rażąco przeciwne do replikowanych danych, więc Google ma ostrzeżenie przed nimi w swoich Wskazówkach dla webmasterów. Wskazówki Google dla webmasterów to lista nakazów i zakazów, których powinny przestrzegać strony internetowe, aby pomóc wyszukiwarce w znajdowaniu, indeksowaniu i klasyfikowaniu witryn. Podążanie za Do spowoduje oczywiście zwiększenie szansy, że Google wyświetli konkretną stronę internetową i będzie ją obsługiwać również pozytywnie. Jednak wykonanie któregokolwiek z zakazów oczywiście zmniejszy rangę witryny.
W wytycznych dotyczących jakości strony internetowej wyraźnie stwierdzono, że strony internetowe nie powinny tworzyć wielu stron, poddomen lub domen o zduplikowanej treści. Termin zduplikowana treść jest jednak wątpliwym określeniem, ponieważ nie jest jasne, ile zduplikowanych słów potrzeba, aby wyszukiwarki, takie jak Google, penalizowały stronę. Może zająć dziesięć słów lub całe zdanie, akapit lub nawet cały dokument lub stronę, aby treść mogła zostać uznana za duplikat. Kluczową rzeczą do zapamiętania jest to, że wytyczna mówi, aby nie tworzyć stron z zasadniczo zduplikowaną treścią. Tak więc, aby być po bezpiecznej stronie, lepiej zawsze mieć nową oryginalną treść. Nie jest to jednak możliwe czasami, zwłaszcza w przypadku cytowania artykułów, tak aby było Twoim wezwaniem do ustalenia, czy zduplikowana treść może spowodować penalizację Twojej witryny. Jeśli twoje sumienie jest jasne, że duplikaty są dostępne dla dobra użytkownika, a nie dla podniesienia rankingu strony, roboty mogą mieć nadzieję, że zinterpretują je jako takie same i nie będą karać Twojej witryny.
Zirytowany Surfers i Speedy Crawlers
Wyszukiwarki istnieją, aby wskazać internautom strony internetowe zawierające informacje związane z ich ciągiem wyszukiwania. Jednak nie istnieją one, aby wskazywać surferom różne strony internetowe zawierające dokładnie takie same lub prawie takie same informacje. Kiedy internauci klikają na różne linki, oczekują, że będą uzyskiwać różne strony internetowe, być może z takim samym lub innym podejściem do tego samego tematu, ale z zdecydowanie inną treścią. Istnieje jednak wiele witryn z częściową powieloną treścią, a nawet dokładną treść po prostu replikuje. Kliknięcie na witryny lustrzane irytuje internautów, ponieważ jest to tylko strata czasu, który czeka na to samo, aby załadować dwa razy lub nawet więcej razy. Jest to szczególnie irytujące, jeśli strona jest miejscem spamu, którego treść nie jest dobrej jakości. Z tego powodu roboty sieciowe nie indeksują dokładnie duplikatów i prawie duplikatów stron internetowych lub witryn, które ustalili na podstawie wcześniejszego indeksowania. Oznacza to, że witryny lustrzane, które nie zostały przeszukane, nie trafią nawet na listę wyników wyszukiwania, ponieważ tylko jeden z duplikatów jest indeksowany przez przeszukiwacz sieci. Ze względu na to, że wyszukiwarki nie będą zawierać więcej niż jednego z serwerów lustrzanych, nie będą drażniły internautów.
Zadowoleni surferzy nie są jedynym rezultatem zastosowania nowych robotów. Wyszukiwarki również zyskują, ponieważ niepotrzebne indeksowanie stron zmniejsza obciążenie robotów, a tym samym przyspiesza indeksowanie. Zmniejsza się także przepustowość, co powoduje szybszą i bardziej wydajną operację indeksowania, w której robot indeksujący może obejmować i indeksować ważniejsze witryny.
Prawidłowe lustrzane strony
Jednak w przypadku ważnych serwerów lustrzanych, takich jak wspomniane powyżej (wielojęzyczne, franczyzowe itp.), Nie powinno się martwić, ponieważ wyszukiwarki mają takie przepisy i biorą pod uwagę motywy, które za nimi stoją. Możesz pomóc swojej stronie kopii dystrybucyjnej, upewniając się, że postępujesz zgodnie ze wszystkimi pozostałymi wskazówkami, aby zostać zauważonym i uszeregowanym przez Google. Postępowanie zgodnie z wytycznymi z pewnością pomoże Ci nie tylko w rankingu w Google, ale także w innych wyszukiwarkach.