Jeśli widzisz „Odkryte – obecnie nie indeksowane” w Google Search Console, oznacza to, że Google jest świadomy adresu URL, ale jeszcze go nie indeksował i nie jest indeksowany.
Nie musi to oznaczać, że strona nigdy nie zostanie przetworzona. Jak mówi ich dokumentacja, mogą wrócić do niej później bez żadnego dodatkowego wysiłku z Twojej strony.
Ale inne czynniki mogą uniemożliwić Google indeksowanie strony, w tym:
- Problemy z serwerem i problemy techniczne onsite ograniczające lub uniemożliwiające możliwości indeksowania przez Google.
- Kwestie związane z samą stroną, takie jak jakość.
Możesz także użyć Google Search Console Inspection API, aby masowo ustawić adresy URL w kolejce pod kątem ich statusu coverageState (a także innych przydatnych danych).
Żądaj indeksowania za pośrednictwem Google Search Con
sole
Jest to oczywiste rozwiązanie i w większości przypadków rozwiąże problem.
Czasami Google po prostu wolno indeksuje nowe adresy URL – to się zdarza. Ale innym razem winowajcą są podstawowe problemy.
Kiedy zażądasz indeksowania, może się zdarzyć jedna z dwóch rzeczy:
- URL staje się „Crawled – currently not indexed”
- Tymczasowe indeksowanie
Obie te rzeczy są objawami podstawowych problemów.
Druga sytuacja ma miejsce, ponieważ żądanie indeksowania czasami daje adresowi URL tymczasowy „zastrzyk świeżości”, który może spowodować przekroczenie wymaganego progu jakości, co z kolei może prowadzić do tymczasowego indeksowania.
Pobierz codzienny biuletyn, na którym polegają marketerzy wyszukiwania.
<![CDATA[ function getCookie(cname) { let name = cname + „=”; let decodedCookie = decodeURIComponent(document.cookie); let ca = decodedCookie.split(’;’); for(let i = 0; i <h2>Problemy z jakością strony</h2> <p>Tutaj słownictwo może się pogmatwać. Zostałem zapytany: „Jak Google może określić jakość strony, jeśli nie została ona jeszcze zaindeksowana?”</p> <p>To dobre pytanie, a odpowiedź jest taka, że nie może. </p> <p>Google przyjmuje założenie o jakości strony na podstawie innych stron w domenie. Ich klasyfikacje są podobnie oparte na wzorcach adresów URL i architekturze witryny.</p> <p>W rezultacie przeniesienie tych stron z „świadomości” do kolejki indeksowania może zostać pozbawione priorytetu w oparciu o brak jakości, którą znaleźli na podobnych stronach. </p> <p>Możliwe jest, że strony na podobnych wzorcach URL lub te znajdujące się w podobnych obszarach architektury witryny mają mało wartościową propozycję w porównaniu z innymi fragmentami treści skierowanymi na te same intencje użytkownika i słowa kluczowe.</p> <p>Prawdopodobne przyczyny obejmują:</p> <ul> <li>Głębokość głównej treści.</li> <li>Prezentacja. </li> <li>Poziom treści wspierających.</li> <li>Unikalność treści i oferowanych perspektyw.</li> <li>Albo jeszcze bardziej manipulacyjne kwestie (tj, treść jest niskiej jakości i automatycznie generowana, spun, lub bezpośrednio duplikuje już ustaloną treść).</li> </ul> <p>Praca nad poprawą jakości treści w ramach klastra witryny i konkretnych stron może mieć pozytywny wpływ na ponowne zainteresowanie Google indeksowaniem twoich treści z większym celem.</p> <p>Możesz również noindeksować inne strony w witrynie, które uznajesz za nie najwyższej jakości, aby poprawić stosunek stron dobrej jakości do stron złej jakości w witrynie.</p> <h2>Budżet na indeksowanie i efektywność</h2>
Crawl budget to często niezrozumiały mechanizm w SEO
.
Większość stron internetowych nie musi się o to martwić. W rzeczywistości, Gary Illyes z Google poszedł na rekord twierdząc, że prawdopodobnie 90% stron internetowych nie musi myśleć o crawl budget. Często uważa się, że jest to problem dla stron korporacyjnych.
Z drugiej strony, efektywność indeksowania może dotyczyć stron internetowych każdej wielkości. Przeoczona, może prowadzić do problemów w jaki sposób Google indeksuje i przetwarza stronę.
Dla zobrazowania, jeśli Twoja strona:
- Duplikuje adresy URL z parametrami.
- Rozwiązuje z i bez trailing slashes.
- Jest dostępna na HTTP i HTTPS.
- Obsługuje treści z wielu subdomen (np. https://website.com i https://www.website.com).
…to możesz mieć problemy z duplikacją, które wpływają na założenia Google dotyczące priorytetu indeksowania w oparciu o założenia dotyczące szerszej witryny.
Możesz zapping Google’s crawl budget z niepotrzebnych adresów URL i żądań. Biorąc pod uwagę, że Googlebot indeksuje strony w porcjach, może to prowadzić do tego, że zasoby Google nie rozciągają się wystarczająco daleko, aby odkryć wszystkie nowo opublikowane adresy URL tak szybko, jak byś chciał.
Chcesz crawlować swoją stronę regularnie, i zapewnić, że:
- Strony rozwiązują się do pojedynczej subdomeny (zgodnie z życzeniem).
- Strony rozwiązują się do pojedynczego protokołu HTTP.
- Adresy URL z parametrami są kanonizowane do korzenia (zgodnie z życzeniem).
- Linki wewnętrzne nie używają niepotrzebnie przekierowań.
Jeśli Twoja witryna wykorzystuje parametry, takie jak filtry produktów w handlu elektronicznym, możesz ograniczyć indeksowanie tych ścieżek URI poprzez wyłączenie ich w pliku robots.txt.
Twój serwer może być również ważny w tym, jak Google przydziela budżet na indeksowanie Twojej strony.
Jeśli Twój serwer jest przeciążony i reaguje zbyt wolno, mogą pojawić się problemy z indeksowaniem. W takim przypadku Googlebot nie będzie w stanie dostać się na stronę, co spowoduje, że część treści nie zostanie zbadana.
W konsekwencji Google będzie próbował wrócić później, aby zaindeksować stronę, ale bez wątpienia spowoduje to opóźnienie całego procesu.
Linkowanie
wewnętrzne Gdy masz stronę internetową, ważne jest, aby mieć wewnętrzne linki z jednej strony do drugiej.
Google zazwyczaj zwraca mniejszą uwagę na adresy URL, które nie mają żadnych lub wystarczających linków wewnętrznych – i może nawet wykluczyć je ze swojego indeksu.
Możesz sprawdzić liczbę linków wewnętrznych do stron za pomocą indeksów takich jak Screaming Frog i Sitebulb.
Posiadanie zorganizowanej i logicznej struktury strony internetowej z linkami wewnętrznymi jest najlepszym sposobem, aby przejść, jeśli chodzi o optymalizację witryny.
Jeśli jednak masz z tym problem, jednym ze sposobów na upewnienie się, że wszystkie Twoje wewnętrzne strony są połączone jest „włamanie się” do głębokości indeksowania za pomocą sitemap HTML.
Są one zaprojektowane dla użytkowników, a nie maszyn. Chociaż mogą być postrzegane jako relikty teraz, mogą być nadal przydatne.
Dodatkowo, jeśli Twoja strona ma wiele adresów URL, mądrze jest podzielić je między wiele stron. Nie chcesz, aby wszystkie były linkowane z jednej strony.
Linki wewnętrzne również muszą używać tagu dla linków wewnętrznych zamiast polegać na funkcjach JavaScript takich jak onClick().
Jeśli używasz Jamstack lub frameworka JavaScript, sprawdź jak on lub jakiekolwiek powiązane biblioteki obsługują wewnętrzne linki. Muszą one być prezentowane jako znaczniki
.
Opinie wyrażone w tym artykule są opiniami guest author and not necessarily Search Engine Land. Autorzy personelu są wymienieni tutaj.