麻豆小视频在线观看_中文黄色一级片_久久久成人精品_成片免费观看视频大全_午夜精品久久久久久久99热浪潮_成人一区二区三区四区

首頁 > 編程 > Python > 正文

Python實現抓取百度搜索結果頁的網站標題信息

2020-02-23 06:21:22
字體:
來源:轉載
供稿:網友

比如,你想采集標題中包含“58同城”的SERP結果,并過濾包含有“北京”或“廈門”等結果數據。

該Python腳本主要是實現以上功能。

其中,使用BeautifulSoup來解析HTML,可以參考我的另外一篇文章:Windows8下安裝BeautifulSoup

代碼如下:

代碼如下:
__author__ = '曾是土木人'
# -*- coding: utf-8 -*-
#采集SERP搜索結果標題
import urllib2
from bs4 import BeautifulSoup
import time
#寫文件
def WriteFile(fileName,content):
    try:
        fp = file(fileName,"a+")
        fp.write(content + "/r")
        fp.close()
    except:
        pass

#獲取Html源碼
def GetHtml(url):
    try:
        req = urllib2.Request(url)
        response= urllib2.urlopen(req,None,3)#設置超時時間
        data    = response.read().decode('utf-8','ignore')
    except:pass
    return data

#提取搜索結果SERP的標題
def FetchTitle(html):
    try:
        soup = BeautifulSoup(''.join(html))
        for i in soup.findAll("h3"):
            title = i.text.encode("utf-8")      
       if any(str_ in title for str_ in ("北京","廈門")):
          continue
            else:
                print title
            WriteFile("Result.txt",title)
    except:
        pass

keyword = "58同城"
if __name__ == "__main__":
    global keyword
    start = time.time()
    for i in range(0,8):
        url = "http://www.baidu.com/s?wd=intitle:"+keyword+"&rn=100&pn="+str(i*100)
        html = GetHtml(url)
        FetchTitle(html)
        time.sleep(1)
    c = time.time() - start
    print('程序運行耗時:%0.2f 秒'%(c))

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 久久精品男人 | 免费国产自久久久久三四区久久 | 亚洲成人入口 | 欧美日韩一 | 国产精品色在线网站 | 成年人视频在线免费播放 | 毛片免费观看日本中文 | 黄色特级大片 | 中文字幕精品在线播放 | 成人短视频在线播放 | 成人免费精品视频 | 免费观看视频91 | www.17c亚洲蜜桃 | 91看片片| 欧美激情天堂 | 国产精品一区二区x88av | 精品一区二区亚洲 | 欧美精品网址 | 18pao国产成人免费视频 | 欧美日韩中文字幕在线 | 最新中文字幕第一页视频 | 久久国产精品一区 | 日韩毛片毛片久久精品 | 国产乱淫a∨片免费观看 | 午夜久久久精品一区二区三区 | 姑娘第四集免费看视频 | 国产chinesehd精品91 | 成人国产免费观看 | 国产成人精品二区 | 亚洲日本韩国在线观看 | 久草视频在线资源 | aa国产视频一区二区 | 最新91在线视频 | 黄色二区三区 | 亚洲91网| 国产1区在线观看 | 草久免费| 国产99页| 中文字幕一区在线观看视频 | 成人精品 | 男男羞羞视频网站国产 |