Page 1 of 1

如何透過網站審核查找並解決 SEO 問題

Posted: Thu Dec 12, 2024 5:15 am
by mimakter55
隨著您網站的發展,內容中大大小小的問題的數量會像滾雪球一樣增加。當我們面臨挑戰時,無論是 CMS 限制、落後於新的 SEO 趨勢,還是只是人為因素,這是不可避免的。無論出於何種原因發生,所有內容問題都應及時解決,以盡量減少它們對網站搜尋引擎優化造成的損害。

然而,技術 SEO 審核可能需要很長時間,除非您使用可以在幾分鐘內掃描整個網站並製作全面的自動報告的工具。為此,我們使用 SE 排名的網站審查來查看我們可以發現和修復哪些與內容相關的 SEO 問題。

SE Ranking 的網站審核有何期待
如果您在 SE Ranking 中擁有帳戶,其網站審核 只需單 馬來西亞 電話號碼庫
擊即可檢測您網站的技術 SEO 問題。啟動後,審核將在背景運行,並以每分鐘 500 頁的速度根據 100 個參數檢查您的網站。您可以以概述儀表板、問題報告以及多個已爬網頁面、連結和資源清單的形式獲得結果。

SE 排名網站審核儀表板。
要查看您的網站是否存在任何與內容相關的 SEO 問題,您應該仔細閱讀問題報告的幾個部分,您可以在其中訪問受每個問題影響的頁面的完整列表。現在讓我們檢查一下您可以檢測並解決哪些問題。

濫用爬行和索引限制
您的網站將包含您希望在搜尋結果中看到的頁面(例如部落格文章或產品頁面),以及您不希望在搜尋結果中看到的頁面(例如登入頁面或網站搜尋結果)。若要禁止搜尋引擎機器人處理某些頁面,請將頁面級限制指令新增至:

機器人元標記。在 HTML 檔案的頭部加入<meta name=”robots” content=”noindex” />。該指令阻止所有機器人索引該頁面。
X-機器人標籤。在給定 URL 的 HTTP 標頭回應中,加入X-Robots-Tag: noindex 或X-Robots-Tag: none。這些指令分別阻止機器人進行索引或索引和連結爬行。
robots.txt 檔案。 在網站的根目錄中加入disallow: [path]。該指令向搜尋機器人顯示不抓取哪些頁面。
抓取和索引限制可能會被錯誤地應用到錯誤的頁面,並阻止搜尋引擎搜尋您的 SEO 內容。相反,一些應該被封鎖的頁面可能會被忽略並意外地進入索引。

閱讀:搜尋引擎如何排名


Image


為了確保您的索引限制按預期工作,您應該定期查看搜尋機器人封鎖的頁面清單。如果對您的程式碼進行任何網站範圍的更改,則索引限制值得仔細檢查。每次執行網站審核時,您都會在問題報告 的「爬網」部分中發現所有頁面都被機器人封鎖。

SE 排名網站審核被機器人封鎖的頁面清單。
在報告的「抓取」部分中,您將看到有多少頁面已被 robots.txt 檔案阻止抓取,以及其中有多少頁面已被阻止在 robots 元標記或 X-Robots-tag 中建立索引。按一下「頁面」列中的數字 可查看此類頁面的完整清單。您可以在「已爬網頁面」部分中單獨檢查和過濾它 。

定期進行 SEO 審核是防止小問題變成大問題的最佳方法。 #SEO #技術SEO
點擊發推文
如果您發現某些列出的頁面不應存在或某些頁面遺失,請前往您的網站並修復這些頁面的限制性指令。在解決這些問題之前,請記住 robots.txt、機器人元標記和 X-Robots-tag 中的指令如何關聯。有兩件事要記住:

您應該在 robots.txt 檔案中使用 disallow 指令來限制爬蟲程式存取網站的流量,但您不應期望它會阻止您的頁面編制索引。如果其他網站連結到某個不允許的頁面,搜尋引擎可以找到該頁面並將其編入索引。
如果您使用 robots 元標記或 X-Robots-tag 對某些頁面進行 noindex,則不應在 robots.txt 檔案中禁止這些頁面。如果您禁止機器人造訪這些頁面,它們將無法讀取您的 noindex 指令,因此,如果其他網站連結到這些頁面,這些頁面可能會被編入索引。
修復所有偵測到的問題後,您可以重新啟動審核以查看舊問題是否已解決或是否出現新問題。您可以隨時手動重新啟動審核。但是,如果您將其配置為按計劃運行(每週一次或每月一次),您將永遠不會錯過任何關鍵問題。

多個頁面上的類似內容
為了面對重複內容的問題,您不一定要採取任何欺騙性做法,例如抓取或複製他人的內容。由於某些技術原因,您可能會無意中獲得在您的網站上創建的內容相同或重疊的頁面,包括:

使用 UTM 參數 追蹤您的內容分發或行銷活動。您在社群媒體上分享的參數化 URL(例如 example.com/page?utm_source=facebook)將具有與原始乾淨 URL 100% 相同的內容。
在您的網站中新增網站搜尋、過濾和排序功能 ,並讓它們在參數化 URL 上顯示結果 (https://onlinestore.com/clothing/shirts.html?Size=S)。過濾器或搜尋參數的不同組合可能會傳回幾乎相似的結果,並在不同的 URL 上建立數千個幾乎相同的頁面。
維護您網站的多個版本。如果您沒有將網站的 www 版本重新導向至非 www,或將 HTTP 版本重新導向至 HTTPS,則每個頁面至少會有一個重複項。如果您的 URL 帶有或不帶有尾部斜杠或 index.html 段或類似問題,您還會有重複的頁面。
無論如何,您應該擺脫重複的頁面,因為它們會浪費您網站的抓取預算,在SERP 上相互競爭相同的目標關鍵字,並且如果同一頁面的不同變體獲得反向鏈接,則會稀釋鏈接資產。

SE Ranking 的網站審核將幫助您找到網站上相同內容的所有來源,並取得受影響頁面的清單。您可以在問題報告的重複內容部分找到它們。

SE排名網站重複內容審核清單。
當處理網站的 www 版本和非 www 版本共存或類似的技術錯誤時,設定 301 重定向是首選解決方案。設定重定向後,訪客和搜尋引擎將只能看到重複頁面的一個版本。

當您處理參數化 URL 時,最好的解決方案是透過在 <head> 部分中添加 <link rel=”canonical” href=”https://example.com/original-page” /> 標籤來規範原始 URL每個重複的頁面。您可以透過這種方式告訴搜尋引擎某個給定頁面是指定 URL 的副本,並且應該與其合併。

但是,在使用規範時,請確保不要在頁面上新增多個 rel=”canonical」。 SE 排名將標記具有兩個或多個指向不同 URL 的規範的頁面。這被視為一個問題,因為當頁面將不同的 URL 指定為規範時,搜尋引擎會忽略這些指令,並不會合併頁面。