devtools 元素页面可以选择元素,copy xpath用于查找
python编程:1、浏览器登录https://58.xxx/
账号:xxx
密码:FN123456
2、选择“技能训练”
3、选择“云网智能运维员培训相关资料”
4、选择“L1-Linux操作系统与运维题库”
5、依次选择1-50题目,选择“提交”,把题目内容和解析复制到一个文本文件。
Python脚本示例,你可以使用这个脚本来自动化登录网站、选择页面元素和提交表单。你可以使用Selenium库来实现这些功能。
首先,确保你已经安装了Selenium库。如果没有安装,可以通过以下命令安装:
pip install selenium
然后,你需要下载对应浏览器的WebDriver。例如,如果你使用的是Chrome浏览器,你需要下载ChromeDriver。
以下是一个示例脚本:
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.service import Service
import time
from selenium.webdriver.chrome.options import Optionsoptions = Options()
options.add_argument('--ignore-certificate-errors') # 忽略证书错误
options.add_argument('--ignore-ssl-errors') # 忽略SSL错误# 设置WebDriver路径
driver_path = 'C:\\windows\\chromedriver.exe' # 替换为你的chromedriver路径
# service = Service(executable_path='C:\\Tools\\chromedriver\\chromedriver.exe')
url = 'https://xxx/'# 指定ChromeDriver的路径
service = Service(executable_path=driver_path)# 创建WebDriver对象
driver = webdriver.Chrome(service=service, options=options)# 创建WebDriver对象
# driver = webdriver.Chrome(executable_path=driver_path)try:# 打开网页driver.get(url)time.sleep(3) # 等待页面加载# 输入账号和密码# driver.find_element(By.NAME, 'username').send_keys('xxx')# 查找所有具有该类的输入框inputs = driver.find_elements(By.CLASS_NAME, "el-input__inner")# 假设用户名/手机号/邮箱输入框是第一个username_input = inputs[0]inputs[0].send_keys('xxx')# 密码输入框是第二个inputs[1].send_keys('FN123456')# driver.find_element(By.CLASS_NAME, "el-input__inner").send_keys('xxx')# driver.find_element(By.CLASS_NAME, "el-id-6606-5").send_keys('FN123456')# driver.find_element(By.NAME, 'password').send_keys('FN123456')time.sleep(1)# 提交表单driver.find_element(By.CSS_SELECTOR, ".el-button.el-button--primary.el-button--large").click()# driver.find_element(By.XPATH, '//input[@type="submit"]').click()# driver.find_element(By.CLASS_NAME, "el-button el-button--primary el-button--large").click()time.sleep(3)# 选择“技能训练”driver.find_element(By.CSS_SELECTOR, ".el-button.el-button--large").click()time.sleep(3)# 选择“技能训练”# driver.find_element(By.LINK_TEXT, '技能训练').click()# driver.find_element(By.XPATH, "//li[@class='el-menu-item' and text()='技能训练']").click()driver.find_element(By.XPATH, '//*[@id="app"]/div/div[1]/section/header/div/ul/li[2]').click()time.sleep(3)# 选择“云网智能运维员培训相关资料”# driver.find_element(By.LINK_TEXT, '云网智能运维员培训相关资料').click()driver.find_element(By.XPATH, '//*[@id="app"]/div/div[1]/section/main/div/div/div[2]/div[1]/div/div/div/div/h4/span').click()time.sleep(3)# 选择“L1-Linux操作系统与运维题库”# driver.find_element(By.LINK_TEXT, 'L1-Linux操作系统与运维题库').click()# driver.find_element(By.XPATH, '//*[@id="app"]/div/div[1]/section/main/div/div/div[2]/div[1]/div/div/div[2]/div/div/div[2]/h5').click()driver.find_element(By.XPATH, '//*[@id="app"]/div/div[1]/section/main/div/div/div[2]/div[1]/div/div/div[6]/div/div/div[2]/h5').click()time.sleep(3)# 选择1-50题目并提交for i in range(1, 51):# driver.find_element(By.XPATH, f'//input[@value="{i}"]').click()driver.find_element(By.XPATH, f'//*[@id="app"]/div/div[1]/div/div[2]/div[1]/div[2]/div/div[{i}]/div').click()time.sleep(0.5) # 适当调整时间以确保操作成功try:print("try")driver.find_element(By.XPATH, '//*[@id="app"]/div/div[1]/div/div[2]/div[2]/div[2]/div[2]/div[3]/button/span').click()except Exception as e:print("元素未找到") finally:print("finally")time.sleep(0.5) # 适当调整时间以确保操作成功print(driver.find_element(By.XPATH, '//*[@id="app"]/div/div[1]/div/div[2]/div[2]/div[2]/div[2]').text, file=open('output.txt', 'a'))# //*[@id="app"]/div/div[1]/div/div[2]/div[1]/div[2]/div/div[2]/div# //*[@id="app"]/div/div[1]/div/div[2]/div[1]/div[2]/div/div[3]/divtime.sleep(0.5) # 适当调整时间以确保操作成功# 提交# driver.find_element(By.XPATH, '//input[@type="submit"]').click()# time.sleep(3)# 复制题目内容和解析# 注意:这里需要根据实际页面元素进行调整# questions = driver.find_elements(By.XPATH, '//div[@class="question"]')# for question in questions:# print(question.text) # 打印或处理题目内容
except Exception as e:print(f"任务执行出错: {e}") # 打印错误信息,但继续执行下一个任务
finally:# 关闭浏览器driver.quit()
注意:
- 你需要根据实际的HTML元素调整XPath或CSS选择器。
- 确保在运行脚本前,网站的结构没有变化。
- 此脚本仅供学习和研究使用,确保遵守网站的使用条款。
你可以将这个脚本保存为一个Python文件,然后运行它来自动化你的需求。如果网站有反爬虫机制,可能需要额外的处理。