电脑知识|欧美黑人一区二区三区|软件|欧美黑人一级爽快片淫片高清|系统|欧美黑人狂野猛交老妇|数据库|服务器|编程开发|网络运营|知识问答|技术教程文章 - 好吧啦网

您的位置:首頁技術文章
文章詳情頁

Python爬蟲爬取、解析數據操作示例

瀏覽:3日期:2022-07-31 18:47:09

本文實例講述了Python爬蟲爬取、解析數據操作。分享給大家供大家參考,具體如下:

爬蟲 當當網 http://search.dangdang.com/?key=python&act=input&page_index=1

獲取書籍相關信息 面向對象思想 利用不同解析方式和存儲方式

引用相關庫

import requestsimport reimport csvimport pymysqlfrom bs4 import BeautifulSoupfrom lxml import etreeimport lxmlfrom lxml import html

類代碼實現部分

class DDSpider(object): #對象屬性 參數 關鍵字 頁數 def __init__(self,key=’python’,page=1): self.url = ’http://search.dangdang.com/?key=’+key+’&act=input&page_index={}’ self.page = page self.headers = {’User-Agent’:’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36’} #私有對象方法 def __my_url(self): my_url = [] if self.page < 1: my_page = 2 else: my_page = self.page+1 #循環遍歷每一頁 for i in range(1,my_page): my_url.append(self.url.format(i)) return my_url #私有對象方法 請求數據 def __my_request(self,url,parser_type): #循環遍歷每一頁 response = requests.get(url=url,headers=self.headers) if response.status_code == 200: return self.__my_parser(response.text,parser_type) else: return None #私有對象方法 解析數據 1 利用正則 2 bs4 3 xpath def __my_parser(self,html,my_type=1): if my_type == 1: pattern = re.compile(’<p.*?class=[’']name[’'].*?name=[’']title[’'].*?<a.*?title=[’'](.*?)[’'].*?href=[’'](.*?)[’'].*?name=[’']itemlist-title[’'].*?<p class=[’']detail[’'].*?>(.*?)</p>.*?<span.*?class=[’']search_now_price[’'].*?>(.*?)</span>.*?<p.*?class=[’']search_book_author[’'].*?><span>.*?<a.*?name=[’']itemlist-author[’'].*?title=[’'](.*?)[’'].*?</span>’,re.S) result = re.findall(pattern,html) elif my_type == 2: soup = BeautifulSoup(html,’lxml’) result = [] title_url = soup.find_all(’a’,attrs={’name’:’itemlist-title’}) for i in range(0,len(title_url)):title = soup.find_all(’a’,attrs={’name’:’itemlist-title’})[i].attrs[’title’]url = soup.find_all(’a’,attrs={’name’:’itemlist-title’})[i].attrs[’href’]price = soup.find_all(’span’,attrs={’class’:’search_now_price’})[i].get_text()author = soup.find_all(’a’,attrs={’name’:’itemlist-author’})[i].attrs[’title’]desc = soup.find_all(’p’,attrs={’class’:’detail’})[i].get_text()my_tuple = (title,url,desc,price,author)result.append(my_tuple) else: html = etree.HTML(html) li_all = html.xpath(’//div[@id='search_nature_rg']/ul/li’) result = [] for i in range(len(li_all)):title = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='name']/a/@title’.format(i+1))url = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='name']/a/@href’.format(i+1))price = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]//span[@class='search_now_price']/text()’.format(i+1))author_num = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='search_book_author']/span[1]/a’.format(i+1))if len(author_num) != 0: #有作者 a標簽 author = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='search_book_author']/span[1]/a[1]/@title’.format(i+1))else: #沒有作者 a標簽 author = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='search_book_author']/span[1]/text()’.format(i+1))desc = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='detail']/text()’.format(i+1))my_tuple = (' '.join(title),' '.join(url),' '.join(desc),' '.join(price),' '.join(author))result.append(my_tuple) return result #私有對象方法 存儲數據 1 txt 2 csv 3 mysql def __my_save(self,data,save_type=1): #循環遍歷 for value in data: if save_type == 1:with open(’ddw.txt’,’a+’,encoding='utf-8') as f: f.write(’【名稱】:{}【作者】:{}【價格】:{}【簡介】:{}【鏈接】:{}’.format(value[0],value[4],value[3],value[2],value[1])) elif save_type == 2:with open(’ddw.csv’,’a+’,newline=’’,encoding=’utf-8-sig’) as f: writer = csv.writer(f) #轉化為列表 存儲 writer.writerow(list(value)) else:conn = pymysql.connect(host=’127.0.0.1’,user=’root’,passwd=’’,db=’’,port=3306,charset=’utf8’)cursor = conn.cursor()sql = ’’cursor.execute(sql)conn.commit()cursor.close()conn.close() #公有對象方法 執行所有爬蟲操作 def my_run(self,parser_type=1,save_type=1): my_url = self.__my_url() for value in my_url: result = self.__my_request(value,parser_type) self.__my_save(result,save_type)

調用爬蟲類實現數據獲取

if __name__ == ’__main__’: #實例化創建對象 dd = DDSpider(’python’,0) #參數 解析方式 my_run(parser_type,save_type) # parser_type 1 利用正則 2 bs4 3 xpath #存儲方式 save_type 1 txt 2 csv 3 mysql dd.my_run(2,1)

==總結一下: ==

1. 總體感覺正則表達式更簡便一些 , 代碼也會更簡便 , 但是正則部分相對復雜和困難2. bs4和xpath 需要對html代碼有一定了解 , 取每條數據多個值時相對較繁瑣

更多關于Python相關內容可查看本站專題:《Python Socket編程技巧總結》、《Python正則表達式用法總結》、《Python數據結構與算法教程》、《Python函數使用技巧總結》、《Python字符串操作技巧匯總》、《Python入門與進階經典教程》及《Python文件與目錄操作技巧匯總》

希望本文所述對大家Python程序設計有所幫助。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 金属回收_废铜废铁回收_边角料回收_废不锈钢回收_废旧电缆线回收-广东益夫金属回收公司 | 集装袋吨袋生产厂家-噸袋廠傢-塑料编织袋-纸塑复合袋-二手吨袋-太空袋-曹县建烨包装 | 动库网动库商城-体育用品专卖店:羽毛球,乒乓球拍,网球,户外装备,运动鞋,运动包,运动服饰专卖店-正品运动品网上商城动库商城网 - 动库商城 | 风淋室生产厂家报价_传递窗|送风口|臭氧机|FFU-山东盛之源净化设备 | 热熔胶网膜|pes热熔网膜价格|eva热熔胶膜|热熔胶膜|tpu热熔胶膜厂家-苏州惠洋胶粘制品有限公司 | 齿轮减速机_齿轮减速电机-VEMT蜗轮蜗杆减速机马达生产厂家瓦玛特传动瑞环机电 | 海水晶,海水素,海水晶价格-潍坊滨海经济开发区强隆海水晶厂 | 十字轴_十字轴万向节_十字轴总成-南京万传机械有限公司 | 汽车整车综合环境舱_军标砂尘_盐雾试验室试验箱-无锡苏南试验设备有限公司 | 洛阳永磁工业大吊扇研发生产-工厂通风降温解决方案提供商-中实洛阳环境科技有限公司 | 磷酸肌酸二钠盐,肌酐磷酰氯-沾化欣瑞康生物科技 | 集装箱箱号识别_自重载重图像识别_铁路车号自动识别_OCR图像识别 | 南京交通事故律师-专打交通事故的南京律师 | 企小优-企业数字化转型服务商_网络推广_网络推广公司 | 安徽控制器-合肥船用空调控制器-合肥家电控制器-合肥迅驰电子厂 安徽净化板_合肥岩棉板厂家_玻镁板厂家_安徽科艺美洁净科技有限公司 | 微型气泵-真空-蠕动-水泵-厂家-深圳市品亚科技有限公司 | 喷砂机厂家_自动除锈抛丸机价格-成都泰盛吉自动化喷砂设备 | 蒸压釜_蒸养釜_蒸压釜厂家-山东鑫泰鑫智能装备有限公司 | 青州开防盗门锁-配汽车芯片钥匙-保险箱钥匙-吉祥修锁店 | 写方案网_方案策划方案模板下载 事迹材料_个人事迹名人励志故事 | RV减速机-蜗轮蜗杆减速机-洗车机减速机-减速机厂家-艾思捷 | 撕碎机,撕破机,双轴破碎机-大件垃圾破碎机厂家 | 电子厂招聘_工厂招聘_普工招聘_小时工招聘信息平台-众立方招工网 | 广东恩亿梯电源有限公司【官网】_UPS不间断电源|EPS应急电源|模块化机房|电动汽车充电桩_UPS电源厂家(恩亿梯UPS电源,UPS不间断电源,不间断电源UPS) | 金蝶帐无忧|云代账软件|智能财税软件|会计代账公司专用软件 | 全自动固相萃取仪_高通量真空平行浓缩仪-勤业永为 | 闭端端子|弹簧螺式接线头|防水接线头|插线式接线头|端子台|电源线扣+护线套|印刷电路板型端子台|金笔电子代理商-上海拓胜电气有限公司 | 欧景装饰设计工程有限公司-无锡欧景装饰官网 | 沉降天平_沉降粒度仪_液体比重仪-上海方瑞仪器有限公司 | 湖南长沙商标注册专利申请,长沙公司注册代理记账首选美创! | 船用泵,船用离心泵,船用喷射泵,泰州隆华船舶设备有限公司 | 施工电梯_齿条货梯_烟囱电梯_物料提升机-河南大诚机械制造有限公司 | 低温柔性试验仪-土工布淤堵-沥青车辙试验仪-莱博特(天津)试验机有限公司 | ERP企业管理系统永久免费版_在线ERP系统_OA办公_云版软件官网 | 挖掘机挖斗和铲斗生产厂家选择徐州崛起机械制造有限公司 | 合金ICP光谱仪(磁性材料,工业废水)-百科 | 山东聚盛新型材料有限公司-纳米防腐隔热彩铝板和纳米防腐隔热板以及钛锡板、PVDF氟膜板供应商 | 无硅导热垫片-碳纤维导热垫片-导热相变材料厂家-东莞市盛元新材料科技有限公司 | 南京展台搭建-南京展会设计-南京展览设计公司-南京展厅展示设计-南京汇雅展览工程有限公司 | 搅拌磨|搅拌球磨机|循环磨|循环球磨机-无锡市少宏粉体科技有限公司 | 农业四情_农业气象站_田间小型气象站_智慧农业气象站-山东风途物联网 |