Wpis z mikrobloga

Mirasy, sprzątam po infekcji dość spektakularnej, całe środowisko powstaje od nowa. Mam dylemat w kwestii Google Search Console - jest tam nadal zindeksowanych 26 tys. stron a właściwie pozostałość po nich (syfne generowane podstrony z reklamami różnych leków, absurdalna ilość).

Stworzyłem pustą mapę strony i wgrałem (jest tylko lekki statyczny landing póki co) i jest aktualnie 0 błędów, brak niby aktualnie powstających problemów ale mam dylemat czy wnioskować jakoś o kasowanie tego czy po chyba 6 miesiącach wypadną z indeksu te wszystkie martwe/nieistniejące strony? Czy można zawnioskować o taką masową operację a nie każdy z tych 26 tys. z osobna? :D

#seo | #pozycjonowanie | #sem | #webdev | #google | #googlesearchconsole
Pobierz Saeglopur - Mirasy, sprzątam po infekcji dość spektakularnej, całe środowisko powstaj...
źródło: comment_1590496012GkyIURoy8ZAsDcdtJ3Yqzv.jpg
  • 7
@Saeglopur: @Saeglopur: masz kilka możliwości:
1. Zablokować te urle w robots i czekać
2. Dać na nich 404 i czekać
3. 301 na główną i czekać
4. Lub bawić się w te usuwanie stron w GSC i w sumie też czekać.

Co szkoła to co innego Tobie poleci. Osobiście jak to puste podstrony bez linków to bym walił 301 w główną i tyle.
2. Dać na nich 404 i czekać

3. 301 na główną i czekać


@gustav: Te dwa scenariusze wybieram, najlepsze wyjście widzę. Do 404 dodam przekierowanie po sekundzie na główną. Ciekawe po jakim czasie się oczyści to wszystko. Dzięki Miras! :)
@Saeglopur: 410 w htaccesie na wszystkie zainfekowane urle z lekami, potem stwórz z tych linków mapę strony i wgraj ją do GSC. Google przecrawluje jeszcze raz te adresy, zobaczy 410 i powinien szybciej je wyindeksować. Nie blokuj ich w robots.txt bo będą jeszcze dłużej siedzieć, bo robot nie będzie mógł do nich dotrzeć. Ale teraz to i tak kwestia czekania raczej. Zadbaj tylko o odpowiednie zabezpieczenia i wyczyść dobrze stronę.
@OnRise: Wielkie dzięki Miras! :) Zrobię tak zwłaszcza gdy jeszcze nie ma nowej instalacji (hosting jest nowy, wszystko kompletnie czyste, tylko lekki landing) i mogę wykluczyć wszystko oprócz tego jednego .html

https://stackoverflow.com/questions/35524113/how-to-return-a-410-error-with-htaccess-for-all-html-queries

To będzie dobre myślę?

RewriteEngine on


#--exclude "/google12345.html--#

RewriteCond %{REQUEST_URI} !^/google12345abc\.html$ [NC]

#--redirect all .html requests to 410 Gone--#

RewriteRule \.html$ - [R=410,L]


Ogólnie już strony wypadają z Google Search Console, aktualne tempo 1 tys. na dzień byłoby nawet
@OnRise: @kurasso: Choć teraz stwierdzam że to nie może być tylko dla .html bo przecież są też .php ale przede wszystkim adresy wynikające z tej infekcji były adresami przechwytywanymi i kierującymi dalej a nie konkretnymi .html czy .php.

Spróbuję znaleźć patent na 410 dla absolutnie wszystkiego z ewentualnie pominięciem tego aktualnego jedynego .html'a.

BTW czy 'RewriteEngine on' powinienem dodawać w .htaccess przed każdą taką operacją? Bo wcześniej mam dla https