目录
一、本文使用的第三方包和工具二、selenium的介绍和浏览器驱动的安装1.selenium的介绍2.浏览器驱动的安装三、代码思路分析1.解析数据的函数2.保存数据的函数3.主函数设计四、完整代码总结一、本文使用的第三方包和工具
python 3.8
谷歌浏览器
selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同
浏览器驱动(和你的浏览器版本对应)
二、selenium的介绍和浏览器驱动的安装
1.selenium的介绍
selenium是一款web自动化测试工具,可以很方便地模拟真实用户对浏览器进行操作,它支持各种主流浏览器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web测试或者爬虫,自动抢票、自动下单也可以用selenium来做。
2.浏览器驱动的安装
网上方法很多,友友们自行搜索,在这里提一点注意事项:本文用的是谷歌浏览器,浏览器驱动要对应谷歌的哦,注意浏览器驱动与你的浏览器版本相对应,这里给出谷歌浏览器驱动的下载地址,友友们按照自己浏览器的版本对应现在即可
http://chromedriver.storage.googleapis.com/index.html
下载完成后注意配置环境变量哦,不配置也行,不配置就要在代码中写上你的Chromedriver.exe文件的路径或者不写路径将你的Chromedriver.exe和py文件放到同一目录下也可以哦
三、代码思路分析
进入斗鱼官网,点到直播,下面的在线直播信息就是我们需要爬取的
可以看到有标题,类型,姓名,以及热度,我们爬取这四个字段就行
然后滑到底部,这里的下一页是我们控制爬取页数的
注意:当我们进入页面时,虽然有滚动条,但所有直播信息已经加载好,并不是通过滑动然后Ajax加载的,所以在代码中并不需要写滑动,直接提取就可以拿到整个页面的数据。
1.解析数据的函数
#解析数据的函数 def parse(self): #强制等待两秒,等待页面数据加载完毕 sleep(2) li_list = self.bro.find_elements_by_xpath("//*[@id="listAll"]/section[2]/div[2]/ul/li") #print(len(li_list)) data_list = [] for li in li_list: dic_data = {} dic_data["title"] = li.find_element_by_xpath("./div/a/div[2]/div[1]/h3").text dic_data["name"] = li.find_element_by_xpath("./div/a/div[2]/div[2]/h2/div").text dic_data["art_type"] = li.find_element_by_xpath("./div/a/div[2]/div[1]/span").text dic_data["hot"] = li.find_element_by_xpath("./div/a/div[2]/div[2]/span").text data_list.append(dic_data) return data_list
2.保存数据的函数
#解析数据的函数 def parse(self): #强制等待两秒,等待页面数据加载完毕 sleep(2) li_list = self.bro.find_elements_by_xpath("//*[@id="listAll"]/section[2]/div[2]/ul/li") #print(len(li_list)) data_list = [] for li in li_list: dic_data = {} dic_data["title"] = li.find_element_by_xpath("./div/a/div[2]/div[1]/h3").text dic_data["name"] = li.find_element_by_xpath("./div/a/div[2]/div[2]/h2/div").text dic_data["art_type"] = li.find_element_by_xpath("./div/a/div[2]/div[1]/span").text dic_data["hot"] = li.find_element_by_xpath("./div/a/div[2]/div[2]/span").text data_list.append(dic_data) return data_list
(1)保存为txt文本
#保存数据的函数 def save_data(self,data_list,i): #在当前目录下将数据存为txt文件 with open("./douyu.txt","w",encoding="utf-8") as fp: for data in data_list: data = str(data) fp.write(data+"\n") print("第%d页保存完成!" % i)
(2)保存为json文件
#保存数据的函数 def save_data(self,data_list,i): with open("./douyu.json","w",encoding="utf-8") as fp: #里面有中文,所以注意ensure_ascii=False data = json.dumps(data_list,ensure_ascii=False) fp.write(data) print("第%d页保存完成!" % i)
3.主函数设计
#主函数 def run(self): #输入要爬取的页数,如果输入负整数,转化成她的绝对值 page_num = abs(int(input("请输入你要爬取的页数:"))) #初始化页数为1 i = 1 #判断输入的数是否为整数 if isinstance(page_num,int): #实例化浏览器对象 self.bro = webdriver.Chrome(executable_path="../../可执行文件/chromedriver.exe") # chromedriver.exe如果已添加到环境变量,可省略executable_path="../../可执行文件/chromedriver.exe" self.bro.get(self.url) while i <= page_num: #调用解析函数 data_list = self.parse() #调用保存函数 self.save_data(data_list,i) try: #定位包含“下一页”字段的按钮并点击 button = self.bro.find_element_by_xpath("//span[contains(text(),"下一页")]") button.click() i += 1 except: break self.bro.quit() else: print("输入格式错误!")
四、完整代码
from selenium import webdriver from time import sleep import json #创建一个类 class Douyu(): def __init__(self): self.url = "https://www.douyu.com/directory/all" #解析数据的函数 def parse(self): #强制等待两秒,等待页面数据加载完毕 sleep(2) li_list = self.bro.find_elements_by_xpath("//*[@id="listAll"]/section[2]/div[2]/ul/li") #print(len(li_list)) data_list = [] for li in li_list: dic_data = {} dic_data["title"] = li.find_element_by_xpath("./div/a/div[2]/div[1]/h3").text dic_data["name"] = li.find_element_by_xpath("./div/a/div[2]/div[2]/h2/div").text dic_data["art_type"] = li.find_element_by_xpath("./div/a/div[2]/div[1]/span").text dic_data["hot"] = li.find_element_by_xpath("./div/a/div[2]/div[2]/span").text data_list.append(dic_data) return data_list #保存数据的函数 def save_data(self,data_list,i): #在当前目录下将数据存为txt文件 with open("./douyu.txt","w",encoding="utf-8") as fp: for data in data_list: data = str(data) fp.write(data+"\n") print("第%d页保存完成!" % i) # json文件的存法 # with open("./douyu.json","w",encoding="utf-8") as fp: # 里面有中文,所以注意ensure_ascii=False # data = json.dumps(data_list,ensure_ascii=False) # fp.write(data) # print("第%d页保存完成!" % i) #主函数 def run(self): #输入要爬取的页数,如果输入负整数,转化成她的绝对值 page_num = abs(int(input("请输入你要爬取的页数:"))) #初始化页数为1 i = 1 #判断输入的数是否为整数 if isinstance(page_num,int): #实例化浏览器对象 self.bro = webdriver.Chrome(executable_path="../../可执行文件/chromedriver.exe") # chromedriver.exe如果已添加到环境变量,可省略executable_path="../../可执行文件/chromedriver.exe" self.bro.get(self.url) while i <= page_num: #调用解析函数 data_list = self.parse() #调用保存函数 self.save_data(data_list,i) try: #定位包含“下一页”字段的按钮并点击 button = self.bro.find_element_by_xpath("//span[contains(text(),"下一页")]") button.click() i += 1 except: break self.bro.quit() else: print("输入格式错误!") if __name__ == "__main__": douyu = Douyu() douyu.run()
总结
本文是为了练习selenium而写的,由于一个页面有120条数据,所以采集效率较低,感兴趣的小伙伴们可以试一试requests库写,爬取速度更快哦!希望大家以后多多支持脚本之家!
X 关闭
X 关闭
- 15G资费不大降!三大运营商谁提供的5G网速最快?中国信通院给出答案
- 2联想拯救者Y70发布最新预告:售价2970元起 迄今最便宜的骁龙8+旗舰
- 3亚马逊开始大规模推广掌纹支付技术 顾客可使用“挥手付”结账
- 4现代和起亚上半年出口20万辆新能源汽车同比增长30.6%
- 5如何让居民5分钟使用到各种设施?沙特“线性城市”来了
- 6AMD实现连续8个季度的增长 季度营收首次突破60亿美元利润更是翻倍
- 7转转集团发布2022年二季度手机行情报告:二手市场“飘香”
- 8充电宝100Wh等于多少毫安?铁路旅客禁止、限制携带和托运物品目录
- 9好消息!京东与腾讯续签三年战略合作协议 加强技术创新与供应链服务
- 10名创优品拟通过香港IPO全球发售4100万股 全球发售所得款项有什么用处?