您的位置:首页 > 汽车 > 新车 > 网页设计css_创建网站的向导和模板 信息技术教资面试_免费建站的网站有哪些_抖音关键词搜索排名

网页设计css_创建网站的向导和模板 信息技术教资面试_免费建站的网站有哪些_抖音关键词搜索排名

2025/3/9 9:29:12 来源:https://blog.csdn.net/qq_43580271/article/details/145939104  浏览:    关键词:网页设计css_创建网站的向导和模板 信息技术教资面试_免费建站的网站有哪些_抖音关键词搜索排名
网页设计css_创建网站的向导和模板 信息技术教资面试_免费建站的网站有哪些_抖音关键词搜索排名

在现代网络爬虫和自动化任务中,动态生成的参数(如 Referer 和 Sign)常常是绕过反爬虫机制的关键。本文将详细介绍如何使用 Python 的 Selenium 和 Requests 库,从目标网页中提取动态 Referer 和 Sign,并完成后续的请求和解密操作。


1. 背景介绍

1.1 什么是动态 Referer 和 Sign

  • Referer:HTTP 请求头的一部分,用于指示请求是从哪个页面发起的。某些网站会检查 Referer 是否合法,以防止跨站请求伪造(CSRF)或未经授权的访问。

  • Sign:一种动态生成的参数,通常用于验证请求的合法性。Sign 可能是通过 JavaScript 动态生成的,或者基于某种规则(如时间戳、随机数等)生成。

1.2 为什么需要动态获取这些参数?

  • 反爬虫机制:许多网站会使用动态参数来防止自动化脚本的访问。

  • 请求合法性:某些 API 或接口要求提供正确的 Referer 和 Sign,否则会返回错误。


2. 实现思路

我们的目标是:

  1. 使用 Selenium 打开目标网页,提取动态 Referer

  2. 从页面中提取动态 Sign

  3. 使用 Requests 发送请求,获取加密的 URL。

  4. 使用 Selenium 执行 JavaScript 解密逻辑,获取最终的 URL。


3. 实现步骤

3.1 安装依赖

首先,确保安装了以下 Python 库:

pip install requests selenium beautifulsoup4

3.2 提取动态 Referer

我们使用 Selenium 打开目标网页,并通过 BeautifulSoup 解析页面内容,提取 iframe 的 src 属性作为 Referer

from selenium import webdriver
from bs4 import BeautifulSoup
import requestsdef get_dynamic_referer():# 初始化浏览器driver = webdriver.Edge()  # 使用 Edge 浏览器driver.get("https://wwou.lanzoue.com/ib7ll2dcgiqd")  # 打开目标页面# 等待页面加载time.sleep(5)# 使用 BeautifulSoup 解析页面url = "https://wwou.lanzoue.com/ib7ll2dcgiqd"response = requests.get(url)soup = BeautifulSoup(response.text, "html.parser")# 查找 iframe 标签iframe = soup.find("iframe", class_="ifr2")if iframe and iframe.has_attr("src"):src = iframe["src"]referer = "https://wwou.lanzoue.com" + srcprint("提取到的 Referer:", referer)else:# 如果未找到 iframe,使用 Selenium 动态加载iframe = driver.find_element(By.CSS_SELECTOR, "iframe.ifr2")src = iframe.get_attribute("src")referer = "https://wwou.lanzoue.com" + srcprint("提取到的 Referer:", referer)driver.quit()  # 关闭浏览器return referer

3.3 提取动态 Sign

从页面中提取 Sign,通常需要分析 JavaScript 代码或页面元素。我们可以使用正则表达式从 script 标签中提取 Sign

import redef extract_sign(referer):response = requests.get(referer)soup = BeautifulSoup(response.text, "html.parser")# 查找所有 script 标签scripts = soup.find_all("script", type="text/javascript")# 遍历 script 标签,查找 signsign = Nonefor script in scripts:if script.string and "'sign':" in script.string:match = re.search(r"'sign':'([^']+)'", script.string)if match:sign = match.group(1)breakif sign:print("提取到的 Sign:", sign)else:print("未找到 Sign")return sign

3.4 发送请求并获取加密 URL

使用提取到的 Referer 和 Sign,构造请求并发送。

def send_request(referer, sign):api_url = "https://wwou.lanzoue.com/ajaxm.php?file=205542423"payload = {"action": "downprocess","signs": "?ctdf","sign": sign,  # 使用动态 Sign"websign": "","websignkey": "VoaW","ves": 1,"kd": 1}headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36","Referer": referer,  # 使用动态 Referer"Content-Type": "application/x-www-form-urlencoded"}response = requests.post(api_url, data=payload, headers=headers)return response

3.5 解密 URL

如果返回的 URL 是加密的,可以使用 Selenium 执行 JavaScript 解密逻辑。

def decrypt_url(encrypted_url):driver = webdriver.Edge()  # 使用 Edge 浏览器driver.get("about:blank")  # 打开空白页# 注入解密逻辑(替换为实际逻辑)driver.execute_script("""window.decryptFunction = function(encryptedUrl) {// 示例解密逻辑(替换为实际逻辑)return encryptedUrl.replace("encrypted_", "decrypted_");};""")# 调用解密函数decrypted_url = driver.execute_script(f"""return decryptFunction("{encrypted_url}");""")driver.quit()  # 关闭浏览器return decrypted_url

3.6 主逻辑

将以上步骤整合到主逻辑中。

try:# 获取动态 Refererreferer = get_dynamic_referer()print("Dynamic Referer:", referer)if not referer:raise ValueError("Failed to get dynamic Referer.")# 提取动态 Signsign = extract_sign(referer)if not sign:raise ValueError("Failed to extract Sign.")# 发送请求response = send_request(referer, sign)print("Status Code:", response.status_code)print("Response Content:", response.text)# 解析响应try:data = response.json()if data.get("zt") == 1 and data.get("url"):  # 检查状态和 URLencrypted_url = data["url"]print("Encrypted URL:", encrypted_url)# 解密 URLdecrypted_url = decrypt_url("https://developer-oss.lanrar.com/file/" + encrypted_url)print("Decrypted URL:", decrypted_url)else:print("Failed to get a valid URL. Error:", data.get("inf"))except requests.exceptions.JSONDecodeError:print("Failed to decode JSON. Response content:")print(response.text)
except Exception as e:print("An error occurred:", str(e))

4. 总结

通过本文的代码示例,你可以:

  1. 使用 Selenium 和 BeautifulSoup 提取动态 Referer 和 Sign

  2. 使用 Requests 发送请求并获取加密 URL。

  3. 使用 Selenium 执行 JavaScript 解密逻辑。

这种方法适用于需要处理动态参数的自动化任务,如爬虫、数据抓取等。如果你有更多问题或需要进一步的帮助,请随时联系我!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com