-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
每個(gè)網(wǎng)站都有一個(gè)“爬蟲協(xié)議”,至少大型網(wǎng)站都會(huì)有。
根據(jù)百度百科:
Robots協(xié)議(也稱為爬蟲協(xié)議、機(jī)器人協(xié)議等)的全稱是“網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)”(Robots Exclusion Protocol),網(wǎng)站通過Robots協(xié)議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。
越是大型網(wǎng)站,Robots協(xié)議越規(guī)范,他們?yōu)榱颂岣咦约涸谒阉鹘Y(jié)果的位置,會(huì)針對百度、谷歌等搜素引擎寫爬蟲協(xié)議,而百度等搜索引擎不需要特別針對這些大網(wǎng)站寫協(xié)議
換個(gè)角度想,大的搜索引擎就那幾個(gè),而所謂“大網(wǎng)站”數(shù)不勝數(shù),怎么可能寫的過來?
如果你沒能理解這部分內(nèi)容,說明你還處在“菜鳥”級(jí)別。一般的爬蟲算法是:先查找新地址,用隊(duì)列或者堆棧來存儲(chǔ)新增加的url;然后用爬蟲程序從隊(duì)列或者堆棧中取地址,繼續(xù)爬蟲。因?yàn)檫@兩方面程序執(zhí)行的速度是不一樣的,不是說找到一個(gè)url就能立即爬完,或者有時(shí)候還沒找到新url就已經(jīng)爬完了,所以分了兩個(gè)結(jié)構(gòu)。
一般的程序中都會(huì)用多個(gè)函數(shù)來執(zhí)行一個(gè)過程,但這在新手的學(xué)習(xí)中是不常見到、也是不易搞懂的。
鑒于你提出的問題,我覺得你不到能搞通爬蟲程序的階段,建議你還是從簡單的程序開始??纯催@個(gè)編程語言入門經(jīng)典100例【Python版】,希望對你有幫助
地址:
http://www.cnblogs.com/CheeseZH/archive/2012/11/05/2755107.html
百度搜索關(guān)鍵詞爬蟲(爬取百度關(guān)鍵詞內(nèi)容)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于百度搜索關(guān)鍵詞爬蟲的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、如何用python寫爬蟲來獲取網(wǎng)頁中所有的文章以及關(guān)鍵詞
所謂網(wǎng)頁抓取,就是把URL地址中指定的網(wǎng)絡(luò)資源從網(wǎng)絡(luò)流中讀取出來,保存到本地。
類似于使用程序模擬IE瀏覽器的功能,把URL作為HTTP請求的內(nèi)容發(fā)送到服務(wù)器端, 然后讀取服務(wù)器端的響應(yīng)資源。
在Python中,我們使用urllib2這個(gè)組件來抓取網(wǎng)頁。
urllib2是Python的一個(gè)獲取URLs(Uniform Resource Locators)的組件。
它以urlopen函數(shù)的形式提供了一個(gè)非常簡單的接口。
最簡單的urllib2的應(yīng)用代碼只需要四行。
我們新建一個(gè)文件urllib2_test01.py來感受一下urllib2的作用:
import urllib2
response = urllib2.urlopen('http://www.baidu.com/')
html = response.read()
print html
按下F5可以看到運(yùn)行的結(jié)果:
我們可以打開百度主頁,右擊,選擇查看源代碼(火狐OR谷歌瀏覽器均可),會(huì)發(fā)現(xiàn)也是完全一樣的內(nèi)容。
也就是說,上面這四行代碼將我們訪問百度時(shí)瀏覽器收到的代碼們?nèi)看蛴×顺鰜怼?/p>
這就是一個(gè)最簡單的urllib2的例子。
除了"http:",URL同樣可以使用"ftp:","file:"等等來替代。
HTTP是基于請求和應(yīng)答機(jī)制的:
客戶端提出請求,服務(wù)端提供應(yīng)答。
urllib2用一個(gè)Request對象來映射你提出的HTTP請求。
在它最簡單的使用形式中你將用你要請求的地址創(chuàng)建一個(gè)Request對象,
通過調(diào)用urlopen并傳入Request對象,將返回一個(gè)相關(guān)請求response對象,
這個(gè)應(yīng)答對象如同一個(gè)文件對象,所以你可以在Response中調(diào)用.read()。
我們新建一個(gè)文件urllib2_test02.py來感受一下:
import urllib2
req = urllib2.Request('http://www.baidu.com')
response = urllib2.urlopen(req)
the_page = response.read()
print the_page
可以看到輸出的內(nèi)容和test01是一樣的。
urllib2使用相同的接口處理所有的URL頭。例如你可以像下面那樣創(chuàng)建一個(gè)ftp請求。
req = urllib2.Request('ftp://example.com/')
在HTTP請求時(shí),允許你做額外的兩件事。
1.發(fā)送data表單數(shù)據(jù)
這個(gè)內(nèi)容相信做過Web端的都不會(huì)陌生,
有時(shí)候你希望發(fā)送一些數(shù)據(jù)到URL(通常URL與CGI[通用網(wǎng)關(guān)接口]腳本,或其他WEB應(yīng)用程序掛接)。
在HTTP中,這個(gè)經(jīng)常使用熟知的POST請求發(fā)送。
這個(gè)通常在你提交一個(gè)HTML表單時(shí)由你的瀏覽器來做。
并不是所有的POSTs都來源于表單,你能夠使用POST提交任意的數(shù)據(jù)到你自己的程序。
一般的HTML表單,data需要編碼成標(biāo)準(zhǔn)形式。然后做為data參數(shù)傳到Request對象。
編碼工作使用urllib的函數(shù)而非urllib2。
我們新建一個(gè)文件urllib2_test03.py來感受一下:
import urllib
import urllib2
url = 'http://www.someserver.com/register.cgi'
values = {'name' : 'WHY',
'location' : 'SDU',
'language' : 'Python' }
data = urllib.urlencode(values) # 編碼工作
req = urllib2.Request(url, data) # 發(fā)送請求同時(shí)傳data表單
response = urllib2.urlopen(req) #接受反饋的信息
the_page = response.read() #讀取反饋的內(nèi)容
如果沒有傳送data參數(shù),urllib2使用GET方式的請求。
GET和POST請求的不同之處是POST請求通常有"副作用",
它們會(huì)由于某種途徑改變系統(tǒng)狀態(tài)(例如提交成堆垃圾到你的門口)。
Data同樣可以通過在Get請求的URL本身上面編碼來傳送。
import urllib2
import urllib
data = {}
data['name'] = 'WHY'
data['location'] = 'SDU'
data['language'] = 'Python'
url_values = urllib.urlencode(data)
print url_values
name=Somebody+Here&language=Python&location=Northampton
url = 'http://www.example.com/example.cgi'
full_url = url + '?' + url_values
data = urllib2.open(full_url)
這樣就實(shí)現(xiàn)了Data數(shù)據(jù)的Get傳送。
2.設(shè)置Headers到http請求
有一些站點(diǎn)不喜歡被程序(非人為訪問)訪問,或者發(fā)送不同版本的內(nèi)容到不同的瀏覽器。
默認(rèn)的urllib2把自己作為“Python-urllib/x.y”(x和y是Python主版本和次版本號(hào),例如Python-urllib/2.7),
這個(gè)身份可能會(huì)讓站點(diǎn)迷惑,或者干脆不工作。
瀏覽器確認(rèn)自己身份是通過User-Agent頭,當(dāng)你創(chuàng)建了一個(gè)請求對象,你可以給他一個(gè)包含頭數(shù)據(jù)的字典。
下面的例子發(fā)送跟上面一樣的內(nèi)容,但把自身模擬成Internet Explorer。
(多謝大家的提醒,現(xiàn)在這個(gè)Demo已經(jīng)不可用了,不過原理還是那樣的)。
import urllib
import urllib2
url = 'http://www.someserver.com/cgi-bin/register.cgi'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values = {'name' : 'WHY',
'location' : 'SDU',
'language' : 'Python' }
headers = { 'User-Agent' : user_agent }
data = urllib.urlencode(values)
req = urllib2.Request(url, data, headers)
response = urllib2.urlopen(req)
the_page = response.read()
以上就是python利用urllib2通過指定的URL抓取網(wǎng)頁內(nèi)容的全部內(nèi)容,非常簡單吧,希望對大家能有所幫助。
二、百度爬蟲病毒是什么?怎樣才能清除?
百度爬蟲是一個(gè)自動(dòng)提取網(wǎng)頁的程序,它為搜索引擎從萬維網(wǎng)上下載網(wǎng)頁,是搜索引擎的重要組成。傳統(tǒng)爬蟲從一個(gè)或若干初始網(wǎng)頁的URL開始,獲得初始網(wǎng)頁上的URL,在抓取網(wǎng)頁的過程中,不斷從當(dāng)前頁面上抽取新的URL放入隊(duì)列,直到滿足系統(tǒng)的一定停止條件,聚焦爬蟲的工作流程較為復(fù)雜,需要根據(jù)一定的網(wǎng)頁分析算法過濾與主題無關(guān)的鏈接,保留有用的鏈接并將其放入等待抓取的URL隊(duì)列。然后,它將根據(jù)一定的搜索策略從隊(duì)列中選擇下一步要抓取的網(wǎng)頁URL,并重復(fù)上述過程,直到達(dá)到系統(tǒng)的某一條件時(shí)停止,另外,所有被爬蟲抓取的網(wǎng)頁將會(huì)被系統(tǒng)存貯,進(jìn)行一定的分析、過濾,并建立索引,以便之后的查詢和檢索;對于聚焦爬蟲來說,這一過程所得到的分析結(jié)果還可能對以后的抓取過程給出反饋和指導(dǎo)。 如果你的網(wǎng)站要被百度搜索引擎收集,必須要讓百度爬蟲來搜索。
三、如何區(qū)分搜索引擎爬蟲和惡意爬蟲
網(wǎng)站經(jīng)常會(huì)被各種爬蟲光顧,有的是搜索引擎爬蟲,有的不是,通常情況下這些爬蟲都有UserAgent,而我們知道UserAgent是可以偽裝的,UserAgent的本質(zhì)是Http請求頭中的一個(gè)選項(xiàng)設(shè)置,通過編程的方式可以給請求設(shè)置任意的UserAgent。
四、有人了解百度或者谷歌的爬蟲嗎
以上就是關(guān)于百度搜索關(guān)鍵詞爬蟲相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
在百度注冊一個(gè)官網(wǎng)網(wǎng)址要多少錢(在百度注冊一個(gè)官網(wǎng)網(wǎng)址要多少錢呀)
小紅書的搜索發(fā)現(xiàn)為什么刪除不掉(小紅書搜索發(fā)現(xiàn)怎么會(huì)一直存在)