×

爬虫

如何用Python获取网页指定内容(如何用python获取网页指定内容)

qq_kjhqwwxp qq_kjhqwwxp 发表于2024-04-10 浏览25887 评论0
Python用做数据处理还是相当不错的,如果你想要做爬虫,Python是很好的选择,它有很多已经写好的类包,只要调用,即可完成很多复杂的功能 在我们开始之前,我们需要安装一些环境依赖包,打开命令行 确保电脑中具有python和pip,如果没有的话则需要自行进行安装 之后我们可使用pip安装必备模块 requests pip install requests requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多,requests 允许你发送 H

爬虫

解决报错requests.exceptions.ConnectionError: HTTPSConnectionPool(host=‘xxx’, port=443): Max re

doviseo doviseo 发表于2024-04-10 浏览41124 评论0
解决报错requests.exceptions.ConnectionError: HTTPSConnectionPool(host=‘xxx’, port=443): Max retries exceeded with url 使用requests时出错 由于自己也出现了这些错,借鉴网上各位大佬的经验和自己的见解,总结了以下会出现的情况 : 一、先检查一下自己的库中是否装了下面三个库 certifi、cryptography、pyOpenSSL # 没有的话请依次安装 p

爬虫

Python爬虫:自动评论何须学完爬虫,只需要掌握requests库即可

牙郎 牙郎 发表于2024-03-31 浏览6967 评论0
网络库requests 其实,我们有专门的网络库进行直接的网络请求与处理,它就是requests库。在我们开始讲解与使用之前,需要通过如下命令进行安装: pip install requests 首先,我们先来看看requests库可以进行哪些操作: 发送HTTP请求 上传文件 处理Cookie 支持Session会话 使用代理 身份验证 打包请求 SSL证书验证 下面,我们来一一介绍这些操作具体是如何实现的。 发送HTTP请求 与urllib与urllib3一