【笔记】Selenium学习笔记

前言

Python通过Selenium实现爬虫,本案例基于GoogleChrome实现

下载驱动

下载依赖

1
pip3 install selenium

引入依赖

1
from selenium import webdriver

创建驱动对象

  • 创建驱动对象后会自动打开一个新的浏览器窗口,无论当前是否已经存在一个浏览器窗口
1
driver = webdriver.Chrome()

等待浏览器完全打开

1
2
3
4
import time

driver = webdriver.Chrome()
time.sleep(5)

使用完后自动销毁

1
2
with webdriver.Chrome() as driver:
...

销毁驱动对象

  • 销毁驱动对象后会关闭浏览器窗口
1
driver.quit()

访问URL

<url>:浏览器访问的URL链接

1
driver.get("<url>")

查找元素

引入依赖

1
from selenium.webdriver.common.by import By

ById

<id>:HTML标签的id

1
res = driver.find_element(by=By.NAME, value="<id>")

获取文本数据

  • 获取的是HTML标签的innerText不包含子标签
1
res.text

获取属性值

  • 获取HTML标签的属性值

<key>:属性名

1
value = res.get_attribute("<key>")

模拟点击

1
res.click()

ByCSSSelector

.father .son:CSS选择器选择的内容

1
res_list = driver.find_element(by=By.CSS_SELECTOR, value=".father .son")

获取数据

  • 需要遍历列表才能操作对象
1
2
for res in res_list:
res.text

执行JS

<javascript>:JS代码

1
driver.execute_script("<javascript>")

完成

参考文献

Selenium官方中文文档
简书——InsaneLoafer