|
您的位置: 首頁 > 網站資訊 > 網站誤封Robots該如何處理 |
網站誤封Robots該如何處理發布日期:2017/4/28
摘要: robots文件是搜索生態中很主要的一個環節,同時也是一個很細節的環節。許多站長同窗在網站運營過程中,很容易忽視robots文件的存在,進行錯誤覆蓋或者悉數封禁robots,造成不需要損
robots文件是搜索生態中很主要的一個環節,同時也是一個很細節的環節。許多站長同窗在網站運營過程中,很容易忽視robots文件的存在,進行錯誤覆蓋或者悉數封禁robots,造成不需要損失! 那么假如誤操作封禁了robots怎么辦?今天我們請到了廈門258網站運營負責人——鄭軍偉,為我們分享網站robots誤封禁后該如何操作? 【案例背景】 網站開發2.0版本,技術選擇了在線開發,為了避免搜索引擎抓取開發版本,要求技術人員設置了Robots封禁處理。2.0版本開發周期1個月,1個月后網站版本迭代,直接覆蓋了1.0版本,包括Robots封禁文件,2天后發現流量大幅下降,檢查收錄發現800萬收錄降至0條自動化生產線,關鍵詞大量掉線。
【處理體例】 1.修改Robots封禁為許可,然后到百度站長后臺檢測并更新Robots。 2.在百度站長后臺抓取檢測app應用,此時顯示抓取失敗,沒關系,多點擊抓取幾次河北做網站中心,觸發蜘蛛抓取站點。 3.在百度站長后臺抓取頻次,申請抓取頻次上調。 4.百度反饋中間,反饋是因為誤操作導致了這種情況的發生。 5.百度站長后臺鏈接提交處,設置數據自動推送(實時)。 6.更新sitemap網站地圖,重新提交百度,天天手工提交一次。 以上處理完,接下來就是等待了,萬幸,2天的時間數據開始慢慢回升,到第3天基本回升到正常狀況!
【案例總結】 本次事故是運營生涯的一次敗筆,總結反思一下,希望大家避免類似問題。 1.產品開發一定要避免在線開發,不能為了省事不搭建開發環境。 2.產品迭代要有流程記錄,開發時做了那些設置處理,那些是不需要放出來的,那些是必須放出來的,要特別很是清楚。 3.要經常關注百度站長后臺,關注相關數據轉變,從數據轉變中及時發現問題 |
其他相關文章 |
|
|
|
|||||||||
Copyright 2012-2025 上海蒙狼網絡科技有限公司 m.aqdzp.cn All Rights Reserved |