当前位置: 首页 > news >正文

个人blog网站开发东莞网络推广及优化

个人blog网站开发,东莞网络推广及优化,电子简历手机版免费,辽宁城乡建设部网站今天来点不一样的!哥们 提示: 这里只是用于自己学习的 ,请勿用违法地方 效果图 会进行点击下一页 进行抓取 需要其他操作也可以自己写 文章目录 今天来点不一样的!哥们前言一、上代码?总结 前言 爬虫是指通过编程自动…

今天来点不一样的!哥们

提示: 这里只是用于自己学习的 ,请勿用违法地方
效果图
在这里插入图片描述
会进行点击下一页 进行抓取
需要其他操作也可以自己写


文章目录

  • 今天来点不一样的!哥们
  • 前言
  • 一、上代码?
  • 总结


前言

爬虫是指通过编程自动化地获取互联网上的信息的过程。在Python中,有许多强大的库和框架可用于实现爬虫,其中最常用的是Beautiful Soup和Requests库。

在开始编写爬虫之前,有一些重要的考虑事项:

合法性和道德性: 确保你的爬虫活动是合法的,并遵守网站的使用规定。爬虫不应该违反任何法律或侵犯隐私权。

robots.txt 文件: 在爬取网站之前,检查网站的robots.txt文件,这是网站所有者用来指导爬虫的文件。尊重这些规则以避免潜在的法律问题。

频率和速率: 控制爬虫的访问速率,以防止对服务器造成过大的负担。设置适当的延迟和间隔,以模拟真实用户的行为。

HTML基础: 了解基本的HTML结构和标签,因为大多数爬虫任务都涉及到解析HTML文档。


提示:以下是本篇文章正文内容,下面案例可供参考

一、上代码?

import timefrom bs4 import BeautifulSoup
from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException
from selenium.webdriver.common.by import Byurl = "https://ref.cnki.net/REF/AdvSearch/Index?colName=%E8%A2%AB%E5%BC%95%E4%B8%BB%E9%A2%98&colValue=%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A7%91%E5%AD%A6&isJump=true#toolbarDiv"# 使用Selenium进行动态加载
driver = webdriver.Chrome()
driver.get(url)def scrape_page():# 等待一些时间,确保页面加载完成time.sleep(5)# 获取当前页面高度page_height = driver.execute_script("return Math.max(document.body.scrollHeight, document.body.offsetHeight, document.documentElement.clientHeight, document.documentElement.scrollHeight, document.documentElement.offsetHeight);")# 设置滚动步长scroll_step = 500# 模拟滚动for i in range(0, page_height, scroll_step):driver.execute_script("window.scrollTo(0, {});".format(i))time.sleep(1)  # 等待一些时间,确保内容加载# 获取滚动后的页面源代码html = driver.page_source# 使用BeautifulSoup解析页面内容soup = BeautifulSoup(html, 'html.parser')# 查找id为listContWrapper的div元素list_cont_wrapper = soup.find('div', {'id': 'listContWrapper'})# 如果找到了listContWrapper元素if list_cont_wrapper:# 在listContWrapper内部查找listCont和tablelist_cont = list_cont_wrapper.find('div', {'class': 'listCont'})table_elements = list_cont_wrapper.find_all('table')# 处理listCont的内容,根据实际情况进行调整选择器if list_cont:list_cont_data = list_cont.get_text(strip=True)print("listCont数据:", list_cont_data)# 遍历每个表格元素for table_element in table_elements:# 提取表格中的数据,可以根据实际情况进一步调整选择器rows = table_element.find_all('tr')for row in rows:# 提取每行中的单元格数据cells = row.find_all(['td', 'th'])row_data = [cell.get_text(strip=True) for cell in cells]print("表格行数据:", row_data)else:print("未找到id为listContWrapper的div元素")# 初始抓取
scrape_page()# 循环点击下一页按钮,直到没有下一页为止
while True:try:# 找到下一页按钮并点击next_page_button = driver.find_element(By.XPATH, '//a[@class="next"]')next_page_button.click()# 继续抓取下一页scrape_page()except NoSuchElementException:print("没有找到下一页按钮,退出循环。")break
# 关闭驱动
driver.quit()

总结

我这个是抓取然后进行点击然后又进行抓取,还挺好玩,
要弄其他的都是这种格式模板
啊哈~~~

http://www.ds6.com.cn/news/66804.html

相关文章:

  • 抖音小姐姐做我女朋友网站免费建立个人网站
  • 淘宝网站用什么语言做的网站服务器查询工具
  • 淘宝店铺可以做网站优化么市场推广计划方案
  • 怎么制作软件?杭州seo
  • 搜索的网站后大拇指分享数量不见了网络推广公司有哪些
  • 可以下载的建站网站西安百度seo排名
  • 现在怎么建设一个网站惠州seo代理
  • 两学一做网站专栏住房和城乡建设部
  • 申请摇号广州网站购买链接平台
  • 网站流量降低steam交易链接可以随便给别人吗
  • 网站二级目录建站seo品牌优化百度资源网站推广关键词排名
  • 做网站的公司销售话术搜索引擎营销的英文简称
  • 做网站有的浏览器百度收录提交网站后多久收录
  • 创新的常州网站建设软文街
  • 网站群建设的必要性网络推广学校
  • wordpress 随机语句免费seo排名软件
  • 湛江cms建站上海网站推广服务公司
  • 网站制作洋网络百度高级搜索网址
  • 网站建设 专家全网关键词云查询
  • 泉州比较好的网站开发建设公司广告联盟赚钱app
  • 聊城哪里网站做的好公众号seo排名
  • 家具网站建设规划书seo优化工具哪个好
  • 网站设计与网页制作招聘沈阳沈河seo网站排名优化
  • 淘宝客做网站好还是建群号站长网站推广
  • 西安驾校网站建设微博营销的特点
  • 电子商务网站建设技术山东工艺美术学院网站建设公司
  • centos做网站服务器吗百度搜索链接入口
  • 网站流量通道全国31省市疫情最新消息今天
  • 网站规划与开发技术专业网络运营推广合作
  • 合肥专业的房产网站建设搜索引擎营销案例