中山php|最優網絡 :中山做網站 中山php建站
最優良人
Posts Tagged With: seo
網站被百度k了怎么辦?被懲罰后如何恢復排名
2012/09/13 at 11:45 » Comments (475)
網站被百度懲罰,兩個多月了,排名還沒有恢復,蜘蛛爬行正常,收錄和快照也正常,應該就是域名被降權處理了。 這么久時間過去了,排名還是沒有,說明被百度降權的域名想恢復是多么不容易,很多站長網站被降權后,做了很多補救工作,希望可以恢復,其實,我想百度數據庫肯定有無數的降權域名,想單單把你的域名拿出來恢復權重幾乎是不可能的,其實有一種有效的補救措施,不過代價比較大,就是被降權的域名直接不要了,換新的域名。 前天我做了一個嘗試,注冊了新域名 zui88.com ,把原來的域名zui88.com進行301重定向,到了第二天新域名zui88.com被收錄,并且大部分關鍵詞排名恢復,然后服務器被關閉,因為新域名沒有備案,今天正式把網站遷移到香港服務器,以后就使用新域名,老域名就做轉向用了。有待測試!! more »新站如何能快速被百度收錄
2012/08/21 at 16:55 » Comments (437)
剛剛做好的一個網站,如何能快速被百度收錄,并且可以查詢的到呢,個人以為有以下幾點: 1,網站上線時必須至少有一點原創內容支撐,可以先發一些新聞產品,公告通知,技術知識的文章,保障網站不會太空洞,避免完全復制網絡的內容。 2,必須存放在一個相對干凈的主機空間,所謂干凈的主機空間就是該主機ip沒有被搜索引擎降權,該ip下的其他網站沒有不良內容或垃圾站,有可能的話盡量用一個獨立ip的空間,并且查一些該ip以前的使用情況。 3,必須有高質量的外部導入鏈接,比如收錄良好的資訊類網站,發布一條公司介紹的信息,帶上公司的網址鏈接,如果該信息被收錄的話,那么網站很可能也已經被順帶收錄了,應該提供給了搜索引擎蜘蛛一個入口爬行到我們網站來 第三點尤為重要,我曾經試過幫客戶發了一條信息,信息秒收,客戶站也被秒收。 more »robots.txt文件的規則以及限制目錄帶不帶斜杠的區別
2011/09/03 at 10:11 » Comments (349)
一個網站的robots文件對于做seo是至關重要的,它可以限制搜索引擎蜘蛛抓取不該收錄的目錄或者頁面,避免資源的浪費,它的規則主要有以下幾點: 1) User-Agent鍵 后面的內容對應的是各個具體的搜索引擎爬行器的名稱。如百度是Baiduspider,谷歌是Googlebot。 一般我們這樣寫: User-Agent: * 表示允許所有搜索引擎蜘蛛來爬行抓取。如果只想讓某一個搜索引擎蜘蛛來爬行,在后面列出名字即可。如果是多個,則重復寫。 注意:User-Agent:后面要有一個空格。 在robots.txt中,鍵后面加:號,后面必有一個空格,和值相區分開。 2)Disallow鍵 該鍵用來說明不允許搜索引擎蜘蛛抓取的URL路徑。 例如:Disallow: /index.php 禁止網站index.php文件 Allow鍵 該鍵說明允許搜索引擎蜘蛛爬行的URL路徑 例如:Allow: /index.php 允許網站的index.php 通配符* 代表任意多個字符 例如:Disallow: /*.jpg 網站所有的jpg文件被禁止了。 結束符$ 表示以前面字符結束的url。 例如:Disallow: /?$ 網站所有以?結尾的文件被禁止。 應該注意的是: 1,在"/robots.txt"文件中,至少要有一條Disallow記錄,允許收錄優先級要高于禁止收錄,如 User-agent: * Allow: /a/b.htm Disallow: /a/ 則a目錄下b.htm可以訪問,其他禁止 2,注意路徑后面加斜杠和不加斜杠的區別 如果目錄后邊帶斜杠,那么訪問不帶斜杠的地址時還是可以訪問目錄首頁,如果想屏蔽掉整個目錄,建議不帶斜杠 Allow或Disallow的值 URL 匹配結果 /tmp /tmp yes /tmp /tmp.html yes /tmp /tmp/a.html yes /tmp/ /tmp no /tmp/ /tmphoho no /tmp/ /tmp/a.html yes /Hello* /Hello.html yes /He*lo /Hello,lolo yes /Heap*lo /Hello,lolo no html$ /tmpa.html yes /a.html$ /a.html yes htm$ /a.html no 3,robots文件只有放在根目錄才有效,放在子目錄沒效。 4,robots.txt文件用法舉例 例1. 禁止所有搜索引擎訪問網站的任何部分 User-agent: * Disallow: / 例2. 允許所有的robot訪問 (或者也可以建一個空文件 “/robots.txt”) User-agent: * Disallow: 或者 User-agent: * Allow: / 例3. 僅禁止Baiduspider訪問您的網站 User-agent: Baiduspider Disallow: / 例4. 僅允許Baiduspider訪問您的網站 User-agent: Baiduspider Disallow: User-agent: * Disallow: / 例5. ...more »記錄一下網站百度谷歌的收錄情況,對比兩大搜索引擎的差別
2011/08/24 at 22:09 » Comments (294)
網站上線19天,今天百度終于收錄了首頁,總算度過了這個漫長的考核期,雖然網上一般說法是百度對新站會有一個月左右的考核期,現在這個時候收錄應該算正常吧,接下來會不會像某些新站一樣很長一段時間只收錄首頁就要繼續觀察了。 網站上線第二天,谷歌百度的蜘蛛就造訪了,谷歌很快就收錄并放出了抓到的頁面,百度就先抓取不顯示,剛開始兩條蜘蛛都非常勤快,百度蜘蛛最多一天爬300多次,谷歌蜘蛛3000多次,現在每天一般是前者100次,后者2000次這樣的頻率。 谷歌收錄頁面數量一直都是穩定地增長,到昨天達到將近6000個頁面,并且谷歌給這個博客的權重還算比較高的,關鍵詞都能獲得比較好的排名,每天都會有不少ip是通過谷歌搜索技術問題過來的,并且谷歌對新文章的反應速度極快,基本上發一篇新博文在兩三分鐘內會被收錄并且放出來。 百度雖然也會比較快抓取新文章,但是就是不放出,在8月10號也就是10天前放出了通過ip抓取的首頁,然后就一直沒更新快照,前天我把ip都301到域名下來,那個應該不會再更新了。 這期間沒有去做什么外鏈,只是在博客里面對百度做了一點小小的優化,不知道對今天的收錄有沒有一點影響。 說實話我還是比較看重網站在百度的表現,谷歌退出大陸之后,在市場份額方面已經很難跟百度抗衡了,百度現在擁有中國大陸絕大部分的搜索流量,對網站的收錄情況直接影響到網站的訪問量。 more »wordpress防止百度收錄動態鏈接,針對百度做SEO優化
2011/08/19 at 23:37 » Comments (504)
通過網站的服務器日志分析,百度經常會先訪問博客文章的動態頁,再被301重定向到固定鏈接,可能由于wordpress是國外的產物,沒有專門針對百度做seo,甚至連robots文件都沒有,今天主要做了以下優化工作,過幾天看效果如何: 一,安裝wp的百度地圖插件:Baidu Sitemap Generator,生成網站地圖 插件使用方法: 1.在 http://www.tianchuangseo.com/wp-content/uploads/2010/09/baidu-sitemap-generator.zip 下載插件,安裝并激活。 2.點擊設置里面的 Baidu-Sitemap 選項,即可看到設置界面,第一次使用你需要先激活配置。 3.然后點擊"更新 XML 文件"按鈕即可生成上述的 XML 文件和 Html 靜態頁面。 4.在你網站的合適位置加入這兩個鏈接即可。 二,添加robots.txt文件,文件內容為: User-agent: * Disallow: /wp- Allow: /wp-content/uploads/ Disallow: /? Disallow: /feed Disallow: /*/*/feed Disallow: /trackback Disallow: /*/*/trackback Disallow: /index.php? Disallow: /index.php/ Disallow: /*.php$ Disallow: /*.css$ Disallow: /date/ Sitemap: http://bb6060.com/blog/sitemap_baidu.xml Sitemap: http://bb6060.com/blog/sitemap.html 三,在百度博客提交頁面提交了博客feed地址 http://ping.baidu.com/ping.html 四,設置wordrpess的自動ping服務。登陸博客后臺,選擇"設置"->"撰寫"功能模塊,在更新服務ping service那一欄填寫各個Ping中心地址保存即可。 百度博客的ping中心地址是:http://ping.baidu.com/ping/RPC2 我這邊添加的ping地址是: http://rpc.pingomatic.com/ http://ping.baidu.com/ping/RPC2 http://blogsearch.google.com/ping/RPC2 http://api.my.yahoo.com/RPC2 http://api.my.yahoo.com/rss/ping http://ping.feedburner.com http://www.zhuaxia.com/rpc/server.php http://www.xianguo.com/xmlrpc/ping.php http://www.feedsky.com/api/RPC2 http://blog.iask.com/RPC2 http://ping.blog.qikoo.com/rpc2.php http://rpc.technorati.com/rpc/ping http://www.blogsdominicanos.com/ping/ more »把網站頁面自動提交到搜索引擎
2011/08/18 at 14:26 » Comments (437)
很多搜索引擎都提供了博客地址的提交入口,可以把我們博客的網址或者文章地址提交到他們的數據庫以供索引,其中有些在提交過程中需要輸入驗證碼,如百度,有道;有些則不需要,如谷歌,騰訊搜搜;不需要輸入驗證碼的入口我們可以通過寫程序把文章自動提交到搜索引擎。 下面是一些搜索引擎提供的博客搜索服務: http://blogsearch.google.com/ 谷歌博客搜索 http://blogsearch.baidu.com/ 百度博客搜索 http://blog.soso.com/ 騰訊搜搜博客搜索:可以搜QQ空間 http://blog.youdao.com/ 網易有道博客搜索:有一些有趣的數據整理方式 下面則是這些搜索引擎相應提供的提交博客入口: http://blogsearch.google.com/ping?hl=zh-CN google博客提交入口 http://utility.baidu.com/blogsearch/submit.php 百度博客提交入口,有驗證碼 http://tellbot.youdao.com/report?type=BLOG 有道博客提交入口,有驗證碼 http://blog.soso.com/join.html 騰訊搜搜博客搜索提交入口 博客ping服務地址: ping是基于XML_RPC標準協議的更新通告服務,是用于blog在內容更新時通知博客搜索引擎及時進行抓取、更新的方式。博客搜索引擎在成功接受到ping以后,會立刻進行抓取并更新。使用ping服務,可以讓博客搜索引擎在第一時間抓取到您博客上的新內容。 http://blogsearch.google.com/ping/rpc2 谷歌博客搜索ping服務 http://ping.baidu.com/cgi-bin/blog 百度博客搜索ping服務 http://blog.youdao.com/ping/RPC2 網易有道博客搜索ping服務 下面的代碼是天涯博客實現博客的博文自動提交,其他網站頁面的提交道理也是相同的,都是利用博客的自動ping服務: <form id=frm_google_ping name=frm_google_ping action=http://blogsearch.google.com/ping method=get target="iframe__google_ping"> <input type="hidden" name="name" value="tianyablog" ...more »