Spamerzy mają talent do rozwijania :przesłonięć: nawet najbardziej zabezpieczonego aspektu systemu, w tym tych, które nie są łatwo rozpoznawane jako potencjalne cele. Plik .htaccess może służyć do przechowywania zbiorów e-mail. Jest to uważane za bardzo skuteczne, ponieważ wszystkie te żniwiarze mogą się identyfikować w jakiś sposób przy użyciu plików agenta użytkownika, co daje .htaccess możliwość ich blokowania.
Spamy przeciwdziałające .htaccess
Złe roboty to pająki, które są uważane za bardziej szkodliwe niż dobre dla witryny takiej jak kombajn do obsługi poczty e-mail. Rapidy witryn to programy przeglądania w trybie offline, które internauta może wyzwolić na stronie w celu przeszukiwania i pobrania każdej ze swoich stron w celu przeglądania w trybie offline. Oba przypadki spowodowałyby przeciążenie przepustowości strony i zużycia zasobów nawet do momentu awarii serwera witryny. Ponieważ złe boty zazwyczaj ignorują życzenia :pliku robots.txt:, mogą być zbanowane za pomocą .htaccess w zasadzie poprzez identyfikację złych botów.
Co to jest .htaccess i jak używać mod_rewrite Module PHP Urdu / Hindi
Istnieje przydatny blok kodu, który można wstawić do pliku .htaccess w celu zablokowania wielu znanych złych botów i ripperów istniejących obecnie. Zainfekowane boty otrzymają zabroniony błąd 403 przy próbie wyświetlenia chronionej witryny. Zwykle powoduje to znaczną oszczędność przepustowości i zmniejszenie zużycia zasobów serwera.
Kradzież pasma lub to, co powszechnie określa się mianem :hot linkingu: w społeczności internetowej, odnosi się do bezpośredniego łączenia z obiektami innymi niż HTML, które nie znajdują się na własnym serwerze, takimi jak obrazy i pliki CSS. Serwer ofiary jest pozbawiony przepustowości i pieniędzy, ponieważ sprawca korzysta z pokazywania treści bez konieczności płacenia za jej dostarczenie.
Gorące połączenie z własnym serwerem może być zabronione przy użyciu .htaccess. Ci, którzy spróbują połączyć obraz lub plik CSS w chronionej witrynie, zostaną zablokowani lub wyświetlona inna treść. Blokowanie zazwyczaj oznacza nieudane żądanie w postaci uszkodzonego obrazu, a przykładem innej treści może być obraz gniewnego mężczyzny, prawdopodobnie w celu wysłania wyraźnej wiadomości do osób naruszających prawo. Aby ten aspekt .htaccess działał, konieczne jest, aby modyfikacja była włączona na serwerze.
Wyłączenie szybkiego łączenia niektórych typów plików na stronie wymagałoby kodu do pliku .htaccess, który zostanie przesłany do katalogu głównego lub konkretnego podkatalogu, aby zlokalizować efekt tylko w jednej sekcji witryny. Serwer jest zazwyczaj ustawiony tak, aby uniemożliwić wyświetlanie katalogu. Jeśli tak nie jest, wymagany link powinien zostać zapisany w plikach .htaccess katalogu obrazów, aby nic w tym katalogu nie mogło być umieszczone na liście.
Plik .htaccess jest również w stanie niezawodnie chronić katalogi na stronach internetowych. Można użyć innych opcji, ale tylko .htaccess oferuje całkowite bezpieczeństwo. Każdy, kto chce wejść do katalogu, musi znać hasło i nie zapewnia :tylnych drzwi:. Ochrona hasłem z użyciem .htaccess wymaga dodania przybliżonych linków do pliku .htaccess w katalogu, który ma być chroniony.
Hasło chroniące katalog jest jedną z funkcji .htaccess, która wymaga trochę więcej pracy niż inne. Dzieje się tak dlatego, że należy utworzyć plik zawierający nazwy użytkowników i hasła, które mogą uzyskać dostęp do witryny. Jest umieszczony w dowolnym miejscu na stronie internetowej, chociaż zaleca się, aby przechowywać go poza głównym katalogiem internetowym, aby nie można było uzyskać do niego dostępu z sieci.
Zalecane metody usuwania spamu
Unikanie publikacji odsyłaczy jest jednym ze sposobów zniechęcenia spamerów. Nie ma sensu wysyłać fałszywych próśb do blogów, gdy ta informacja nie jest znana. Niestety, większość blogerów uważa, że możliwość kliknięcia linku, takiego jak :strony odnoszące się do mnie: itp., Jest fajną funkcją i nie oceniła jej szkodliwego wpływu na całą blogosferę..
Jeśli publikowanie stron odsyłających jest koniecznością, powinna istnieć wbudowana obsługa czarnej listy spamu odsyłającego i zawierać stronę w pliku robots.txt. W szczególności Googlebot i jego krewni nie mają obowiązku indeksowania strony odsyłającej. W ten sposób spamerzy nie są w stanie uzyskać pożądanej pozycji strony. Będzie to jednak działać tylko wtedy, gdy odsyłające są publikowane oddzielnie od reszty zawartości witryny.
Użycie rel = :no follow: również zaprzecza spamerom ich pożądanej pozycji na poziomie łącza, a nie tylko poziomie strony za pomocą pliku robots.txt. Wszystkie odsyłacze do stron odsyłających do witryn zewnętrznych powinny zawierać ten atrybut. Odbywa się to bez wyjątku, aby zapewnić maksymalną ochronę.
Statystyki odsyłające zebrane z obrazów nawigacyjnych ładowanych za pomocą dokumentu JavaScript, zawierają instrukcje zapisu, które są bardziej wiarygodne niż te, które będą zawierać dzienniki serwera surowego. Istnieje możliwość całkowitego zignorowania sekcji stron odsyłających w dziennikach serwera witryny. Czytelniejszą listę osób odsyłających można uzyskać, korzystając ze skryptów JavaScript i obrazów nawigacyjnych ze statystyk strony odsyłającej.
Aktualny plik czarnej listy mistrzów może być skuteczną bronią przeciwko spamowi. Program do analizy plików dziennika, który filtruje osoby odsyłające do tej listy, może pomóc w usunięciu spamu. Czarna lista jest prostym plikiem tekstowym, który można pobrać ze strony internetowej lub po prostu odzwierciedlić. Nie jest to doskonałe, ponieważ sprawdza plik przed polecającymi, którzy przeszli przez programy pokazujące, że kilka lub żadna z nich nie jest wyświetlana.
Pomysł zwalczania spamu z komentarzami poprzez wykorzystanie opartych na DNS list czarnych dziur może być również wykorzystany do znalezienia innych form spamu, takich jak spam polecający. Propozycja jest naprawdę prosta i sugeruje, aby przesłać zapytanie o adres IP na czarnej liście dla żądania ze stroną odsyłającą. Jeśli adres IP jest na czarnej liście lub ma wysoki wynik wśród wielu czarnych list, należy odnieść się do odsyłającego adresu URL w dowolnej sekcji statystyk strony internetowej. Po określeniu danej witryny jako nazwy hosta spamu odsyłającego, ponowne zapytanie do czarnej listy o adresy IP o tej samej nazwie hosta w żądaniu HTTP nie powinno być wykonywane w celu zwiększenia wydajności.
Istnieją różne formy spamu, które wzrosły wykładniczo wraz ze wzrostem popularności blogów. Wynika to prawdopodobnie z bardzo niewielkich ograniczeń nałożonych na te, które mogą zamieszczać komentarze. Jest to łatwo wykorzystywane przez spamerów, którzy chcą zdobyć swoje towary przed ludzkim poglądem. Spamerzy mają zautomatyzowane narzędzia do ciągłego wyszukiwania blogów, które łatwo mogą być spamowane. Spamowanie we wszystkich formach, niosą poważne konsekwencje dla tych, którzy próbują korzystać z Internetu i światowej sieci w produktywny sposób.