Mam problem z #googlesearchconsole - pomimo wgrania mapy strony niektóre podstrony nie chcą się zaindeksować. Chciałem zrobić to z ręki, wrzucam adres i proszę o zindeksowanie, otrzymuję komunikat "URL został dodany do priorytetowej kolejki indeksowania.". Jednak po 24 godzinach cache dla tego linku się resetuje i od nowa mam opcję "poproś o zindeksowanie".

Nie dostaję żadnego błędu, żadnej cofki. Mam włączoną indeksację, wszystkie inne podstrony księguje poza zbiorem aktualności i
Floydian - Mam problem z #googlesearchconsole - pomimo wgrania mapy strony niektóre p...

źródło: comment_1637071529a8U6yCUiXzAM9gAsHJVCgU.jpg

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Mirasy, chciałbym aby KAŻDA dotychczasowa podstrona i adres uzyskała status 410 gone, ewentualnie z wyjątkiem index.html który został jako lekki statyczny landing. Czy robię to dobrze w .htaccess?

Przy okazji pytanie czy powielać "RewriteEngine On"? Pierwszy 'akapit' dotyczy https, chodzi o drugi rzecz jasna :)

Jak @OnRise zasugerował 410 jest lepszym rozwiązaniem dla indeksowania i Google Search Console niż sypanie 404 które już widzę Google wykazuje jako błędy. Cel to usunięcie 26,2
Saeglopur - Mirasy, chciałbym aby KAŻDA dotychczasowa podstrona i adres uzyskała stat...

źródło: comment_1590673462GKW5TELq67lPjJ9lYTHM09.jpg

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Mirasy, sprzątam po infekcji dość spektakularnej, całe środowisko powstaje od nowa. Mam dylemat w kwestii Google Search Console - jest tam nadal zindeksowanych 26 tys. stron a właściwie pozostałość po nich (syfne generowane podstrony z reklamami różnych leków, absurdalna ilość).

Stworzyłem pustą mapę strony i wgrałem (jest tylko lekki statyczny landing póki co) i jest aktualnie 0 błędów, brak niby aktualnie powstających problemów ale mam dylemat czy wnioskować jakoś o kasowanie tego
Saeglopur - Mirasy, sprzątam po infekcji dość spektakularnej, całe środowisko powstaj...

źródło: comment_1590496012GkyIURoy8ZAsDcdtJ3Yqzv.jpg

Pobierz
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Saeglopur: @Saeglopur: masz kilka możliwości:
1. Zablokować te urle w robots i czekać
2. Dać na nich 404 i czekać
3. 301 na główną i czekać
4. Lub bawić się w te usuwanie stron w GSC i w sumie też czekać.

Co szkoła to co innego Tobie poleci. Osobiście jak to puste podstrony bez linków to bym walił 301 w główną i tyle.
  • Odpowiedz
@Saeglopur: 410 w htaccesie na wszystkie zainfekowane urle z lekami, potem stwórz z tych linków mapę strony i wgraj ją do GSC. Google przecrawluje jeszcze raz te adresy, zobaczy 410 i powinien szybciej je wyindeksować. Nie blokuj ich w robots.txt bo będą jeszcze dłużej siedzieć, bo robot nie będzie mógł do nich dotrzeć. Ale teraz to i tak kwestia czekania raczej. Zadbaj tylko o odpowiednie zabezpieczenia i wyczyść dobrze stronę.
  • Odpowiedz
via Wykop Mobilny (Android)
  • 0
@LubieKiedy: to na pewno było to, często się wywalało krótkie sesje są w konsoli web api, jak by coś było nie tak to daj domenę na priv to mogę sprawdzić
  • Odpowiedz