您的位置:首页 > 健康 > 美食 > 海口财务_网站设计公司排名知乎_全网营销网络推广_今日头条号官网

海口财务_网站设计公司排名知乎_全网营销网络推广_今日头条号官网

2025/1/7 9:28:54 来源:https://blog.csdn.net/qq_42759120/article/details/144589705  浏览:    关键词:海口财务_网站设计公司排名知乎_全网营销网络推广_今日头条号官网
海口财务_网站设计公司排名知乎_全网营销网络推广_今日头条号官网

随着网络的迅速发展,如何有效地提取并利用信息已经成为一个巨大的挑战。为了更高效地获取指定信息,需定向抓取并分析网页资源,从而促进了网络爬虫的发展。本章将介绍使用Python编写网络爬虫的方法。

学习目标:
理解网络爬虫的基本操作流程

掌握通过requests库进行数据抓取的方法

掌握通过正则表达式进行数据解析的方法

掌握运用beautifulsoup4库解析和处理数据的方法

1   概述

网络爬虫(Web Spider)又称网络蜘蛛或网络机器人,是一段用来实现自动采集网站数据的程序。 网络爬虫不仅能够为搜索引擎采集网络信息,而且还可以作为定向信息采集器,定向采集某些网站中的特定信息。 对于定向信息的爬取,网络爬虫主要采取数据抓取、数据解析、数据入库的操作流程。

(1)数据抓取:发送构造的HTTP请求,获得包含所需数据的HTTP响应;

(2)数据解析:对HTTP响应的原始数据进行分析、清洗,以提取出所需要的数据;

(3)数据入库:将数据进一步保存到数据库(或文本文件)中,用于构建知识库。

Python提供了许多与网络爬虫相关的库。其中,在数据抓取方面requests;在数据解析方面包括re(正则表达式),beautifulsoup4。         

2   数据抓取

2.1  requests库概述

requests库提供了很多功能特性,几乎涵盖了所有Web服务的需求,包括URL获取、HTTP长连接和连接缓存、HTTP会话、浏览器式的SSL验证、身份认证、Cookie会话、文件分块上传、流下载、HTTP(S)代理功能、连接超时处理等。 由于requests库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install requests

 通常需要使用国内代理:

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ requests

 安装完requests库后,在Python交互模式下输入导入requests库的语句:

import requests

 如果没有提示错误,则说明安装成功。

2.2  使用requests库

网络爬虫工作流程的第一步是数据的抓取,也就是使用requests库实现发送HTTP请求和获取HTTP响应的内容。

2.2.1发送HTTP请求

requests库提供了几乎所有的HTTP请求方法:

调用get()函数是获取网页最常用的方式,在调用requests.get()函数后,返回的网页内容会保存为一个Response对象。

import requests #导入requests库
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
print(type(r))					#查看返回值r的类型
#<class 'requests.models.Response'>

 有时我们需要在URL中传递参数。

例如:在采集百度搜索结果时,需要传递wd参数(搜索词)。requests允许使用params关键字参数,以一个字符串字典来提供这些参数。

import requests				#导入requests库
payload = {'wd': 'Python'}			#定义字典
r = requests.get("http://www.baidu.com/s", params=payload)	#传入URL参数
print(r.url)							#输出URL的值
#'http://www.baidu.com/s?wd=Python'

 用浏览器打开被编码的URL得到百度搜索关键字“Python”的结果。

 2.2.2获取HTTP响应的内容

和浏览器的交互过程一样,requests.get()代表发送HTTP请求的过程,它返回的Response对象代表HTTP响应。我们可以通过Response对象的不同属性来获取不同内容,其语法格式如下:

对象名.属性名

 Response对象的常用属性:

 除了属性,Response对象还提供了两个常用的方法:

(1)json()方法:如果HTTP响应内容包含JSON格式数据,则该方法解析JSON数据。

提示:JSON的全称是“JavaScript Object Notation”,即JavaScript对象表示法,是一种基于文本又独立于语言的轻量级数据交换格式,易于阅读和理解。

例如:这段代码报错了,因为ip的问题,ip好像过期了

import requests			#导入requests库
r = requests.get('http://ip.taobao.com/service/getIpInfo.php?ip=140.205.220.96')
print(r.json())				#调用json()方法
#{'code': 0, 'data': {'ip': '122.88.60.28', 'country': '中国', 'area': '', 'region': '江苏', 'city': '南京', 'county': 'XX', 'isp': '铁通', 'country_id': 'CN', 'area_id': '', 'region_id': '320000', 'city_id': '320100', 'county_id': 'xx', 'isp_id': '100020'}}

 (2)raise_for_status()方法:该方法能在非成功响应后产生异常,即只要返回的请求状态status_code不是200,该方法就会产生一个异常,可用try-except异常处理结果进行处理。

提示:一般情况下,需要在发送HTTP请求之后,调用raise_for_status()方法判断有无发生异常,如果没有发生异常,则进行数据的处理,否则不进行数据处理。

2.2.3  简单应用

例:爬取“http://www.bjjqe.com”网站的内容,并将爬取到的内容输出。

import requests				#导入requests库
#异常处理
try:r = requests.get('http://www.bjjqe.com')#使用get函数打开指定的urlr.raise_for_status()			#如果状态不是200,则引发异常r.encoding = 'utf-8'			#更改编码方式print(r.text)				#用字符串的形式显示页面内容
except:print("网站连接失败!")		#发生异常则输出“网站连接失败!”

 运行效果:

3   数据解析

3.1  正则表达式

3.1.1正则表达式基础

正则表达式是用于处理字符串的强大工具,它使用预定义的特定模式去匹配一类具有共同特征的字符串,主要用于快速、准确地完成复杂字符串的查找、替换等。

具体应用时,可以单独使用某种类型的元字符,但处理复杂字符串时,经常需要将多个正则表达式元字符进行组合。下面给出了几个示例。 (1)'[a-zA-Z0-9]'可以匹配一个任意大小写字母或数字。 (2)'^(\w){6,15}$'匹配长度为6~15的字符串,可以包含数字、字母和下划线。 (3)'^\w+@(\w+\.)+\w+$'检查给定字符串是否为合法电子邮件地址。 (4)'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}$'检查给定字符串是否为合法IP地址。

3.1.2re模块

在Python中,主要使用re模块来实现正则表达式的操作,该模块的常用方法下表所示。

 (1) 直接使用re模块方法

import re			#导入re模块
#引入 Python 的正则表达式模块 re,它提供了处理正则表达式的功能。
text = 'Python.C.Java...PHP'	#定义text字符串
print(re.split('[\.]+',text))		#调用split()函数对text进行分割
#'[\.]+' 匹配连续的一个或多个点号作为分隔符。
#['Python', 'C', 'Java', 'PHP']
print(re.findall('[a-zA-Z]+',text))	#调用findall()函数查找由大小写字母组成的字符串
#['Python', 'C', 'Java', 'PHP']
#'[a-zA-Z]+' 匹配连续的一个或多个字母,形成单词。

(2)使用正则表达式对象

编译后的正则表达式对象不仅可以提高字符串的处理速度,还提供了更加强大的字符串处理功能。此处,我们首先使用re模块的compile()方法将正则表达式编译成正则表达式对象,然后使用正则表达式对象提供的方法进行字符串处理。

import re				#导入re模块
p = re.compile(r'\d+')		#将正则表达式编译成正则表达式对象
print(p.findall('one1two2three3four4'))#调用findall()方法查找数字
#['1','2','3','4']
#'\d+' 匹配连续的一个或多个数字。

 例子:爬取“http://www.bjjqe.com”网站的内容,解析数据,将该网站上的“.jpg“图片下载到本地。

 代码:(目标网站已更换为https://www.wenjingketang.com/bookHome/)

import requests                         #导入requests库
import re                                   #导入re模块
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):#异常处理try:r = requests.get(url)                   #使用get函数打开指定的urlr.raise_for_status()                    #如果状态不是200,则引发异常r.encoding = 'utf-8'                    #更改编码方式return r.text                       #返回页面内容except:return ""                           #发生异常返回空字符
#定义一个getImg()函数,根据填写的html参数获取图片并存储
def getImg(html):reg=r'src="(.+?\.jpg)"'                 #定义正则表达式#非贪婪模式匹配任意数量的任意字符(除了换行符),直到遇到第一个 .jpg。imglist=re.findall(reg,html)                #查找页面中所有符合条件的字符串#在这个例子中,它会找到所有符合 src="...jpg" 格式的图片链接,并将它们作为列表返回。print(imglist)                          #输出列表结果#打印出找到的所有图片链接,便于调试和验证。i = 0                                   #定义i用于给下载的图片命名for url in imglist:                     #遍历with open(str(i)+".jpg","wb") as fd:    #以写入方式打开二进制文件#以二进制写入模式打开一个新文件,文件名为当前计数值 i 加上扩展名 .jpg。#路径前加上“http://www.bjjqe.com”response=requests.get("https://www.wenjingketang.com/bookHome/"+url)  #获取内容#尝试获取图片的实际内容。注意这里直接在图片 URL 前添加了固定的域名 "https://www.wenjingketang.com/bookHome/"fd.write(response.content)      #写入文件print('图片',i,"保存成功\n")      #输出提示信息i+=1                            #i加1
html = getHtml("https://www.wenjingketang.com/bookHome/")     #调用获取页面内容函数
getImg(html)                                #调用获取图片并存储函数

 程序运行效果:

图片会保存在代码的同目录下 

3.2  beautifulsoup4库

beautifulsoup4也称为Beautiful Soupbs4,用于解析和处理HTMLXML文件,其最大优点是能够根据HTMLXML语法建立解析树,进而提高解析效率。

例如:有以下HTML文件:

<html><head></head><body><a>first</a><a>second</a></body>
</html>

 由于beautifulsoup4库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install beautifulsoup4

beautifulsoup4库中最重要的类是BeautifulSoup,它的实例化对象相当于一个页面。

采用from-import语句导入库中的BeautifulSoup类,然后使用BeautifulSoup()创建一个BeautifulSoup对象。

例如:

import requests			#导入requests库
from bs4 import BeautifulSoup		#从bs4库中导入BeautifulSoup类
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
r.encoding = 'utf-8'			#更改编码方式
soup = BeautifulSoup(r.text)		#创建BeautifulSoup对象
print(type(soup))				#查看soup类型
#<class 'bs4.BeautifulSoup'>

 创建的BeautifulSoup对象是一个树形结构,它包含HTML页面中的标签元素,如<head><body>也就是说,HTML中的主要结构都变成了BeautifulSoup对象的一个属性,可通过“对象名.属性名”形式获取属性值。

 

 

head

HTML页面的<head>内容

title

HTML页面标题,在<head>中,由<title>标记

body

HTML页面的<body>内容

p

HTML页面中第一个<p>内容

a

HTML页面中第一个<a>内容

strings

HTML页面所有呈现在Web上的字符串,即标签的内容

stripped_strings

HTML页面所有呈现在Web上的非空格字符串

 每一个标签在beautifulsoup4库中又是一个对象,称为Tag对象。

例如:

print(type(soup.p))#查看“soup.p”类型
#<class 'bs4.element.Tag'>

 Tag对象有4个常用属性:

 

 

name

字符串,标签的名字,如headtitle

attrs

字典,包含了页面标签的所有属性(尖括号内的其他项),如href

contents

列表,这个标签下所有子标签的内容

string

字符串,标签所包围的文字,网页中真实的文字(尖括号之间的内容)

 当需要列出对应标签的所有内容或找到非第一个标签时,可以使用BeautifulSoup对象的find_all()方法。该方法会遍历整个HTML文件,按照条件返回标签内容(列表类型)。其语法格式如下:

对象名.find_all(name, attrs,recursive, string, limit)

name表示标签名;
attrs表示按照标签属性值检索(需列出属性名和值);
recursive表示查找层次(Beautiful Soup默认检索当前标签的所有子孙节点,如果只搜索标签的直接子节点,可以使用参数recursive = False);
string表示按照关键字检索string属性内容(采用string = 开始);
limit表示返回结果的个数,默认返回全部结果。

例:爬取“https://www.wenjingketang.com/bookHome”网站的内容,解析数据,输出该网站中的图书信息。

import requests						#导入requests库
import re								#导入re模块
from bs4 import BeautifulSoup			#导入BeautifulSoup
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):#异常处理try:r = requests.get(url)				#使用get函数打开指定的urlr.raise_for_status()				#如果状态不是200,则引发异常r.encoding = 'utf-8'				#更改编码方式return r.text					#返回页面内容except:return ""						#发生异常返回空字符
#定义数据解析函数,用于找到符合条件的数据并输出
def getcon(html):bsObj = BeautifulSoup(html)			#将html对象转化为BeautifulSoup对象#找到所有class为bk_show_info的div来只获取图书的信息divList = bsObj.find_all('div',{'class':'bk_show_info'}) allbook = []						#存储全部数据,二维列表for divs in divList:book_info = []					#存储单本图书信息,一维列表book_name = divs.h4['data-name']	#获取图书名称book_info.append(book_name)	#将图书名称存储到book_infop_list = divs.find_all('p')			#查找单本图书的其他信息(在标签p中)for p_content in p_list:book_info.append(p_content.string)	#将p标签中的信息存入book_infoallbook.append(book_info)		#将单本图书的信息存入allbook#输出获取到的图书信息for book in allbook:print(book)
html = getHtml("https://www.wenjingketang.com/bookHome/")	#调用获取页面内容函数
getcon(html)							#调用解析数据函数

因为网站内容有变化,代码跑不通先学到这里了。。。。。。 

4   典型案例
 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com