admin管理员组文章数量:1643281
点击上方“Python爬虫与数据挖掘”,进行关注
回复“书籍”即可获赠Python从入门到进阶共10本电子书
今
日
鸡
汤
忽逢青鸟使,邀入赤松家。
大家好,我是皮皮。
一、前言
前几天在Python钻石交流群【髙鵬】问了一个Python
网络爬虫的问题,提问截图如下:
原始代码如下:
import time
from selenium import webdriver
from selenium.webdrivermon.by import By
driver = webdriver.Chrome()
driver.get("https://bookmaker.xyz/")
time.sleep(5)
# print(driver.page_source) # 网页原码
click1 = driver.find_element(By.XPATH, '//*[@id="games-navbar"]/div/div/div/div[1]/div/div/a[2]/div/span')
time.sleep(3)
click1.click()
# click2 = driver.find_element(By.XPATH, '//span[@class="Text_label-medium__uChzZ Text_c-white___3mSz" & '
# '@data-testid="opponents-title"]')
text = driver.find_element(By.LINK_TEXT, '//*Aston Villa - West Ham United')
time.sleep(5)
text.click()
# driver.close()
这里【D I Y】给了一个思路,如下图所示。
二、实现过程
这里【瑜亮老师】给出了具体的思路,看上去方法还是很多的,如下所示。
最后给了一份代码如下所示:
import time
from selenium import webdriver
from selenium.webdrivermon.by import By
driver = webdriver.Chrome()
driver.get("https://bookmaker.xyz/")
time.sleep(3)
text = driver.find_element(By.XPATH, '//a[@class="GameOpponents_names__bSbc_"]')
text.click()
顺利地解决了粉丝的问题。
三、总结
大家好,我是皮皮。这篇文章主要盘点了一个Python
网络爬虫的问题,文中针对该问题给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。
最后感谢粉丝【髙鵬】提问,感谢【瑜亮老师】、【D I Y】、【甯同学】、【此类生物】给出的思路和代码解析,感谢【dcpeng】、【冫马讠成】等人参与学习交流。
大家在学习过程中如果有遇到问题,欢迎随时联系我解决(我的微信:pdcfighting),应粉丝要求,我创建了一些高质量的Python
付费学习交流群,欢迎大家加入我的Python
学习交流群!
小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。
------------------- End -------------------
往期精彩文章推荐:
盘点一个网络爬虫POST请求参数构造的问题
盘点一个Python基础中循环判断遇到一个小问题
重装pycharm和Python环境以后,以前的文件selenium获取不到元素了?
不使用内置函数的情况下,如何使用Python实现求平均值、最大值和最小值?
欢迎大家点赞,留言,转发,转载,感谢大家的相伴与支持
想加入Python学习群请在后台回复【入群】
万水千山总是情,点个【在看】行不行
/今日留言主题/
随便说一两句吧~~
版权声明:本文标题:盘点Python网络爬虫过程中xpath的联合查询定位一个案例 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://m.elefans.com/dongtai/1729357295a1198388.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论