您现在的位置是:首页 > 学习之路 > (笔记持续更新)Python网络爬虫实战 博客日记

(笔记持续更新)Python网络爬虫实战

19-11-14学习之路围观38

简介 课程地址:http://abcxueyuan.cloud.baidu.com/#/course_detail?id=15089&courseId=15089源码地址:https://githu

课程地址:http://abcxueyuan.cloud.baidu.com/#/course_detail?id=15089&courseId=15089

源码地址:https://github.com/zhangziliang04/requests-html/tree/master/example/Exam3.8

---------------------------------------------------------------------------------------------------

DAY1

学习笔记,发贴不支持截图复制粘贴,我这边就简单说下个人理解的,先把课程给的源码fork下

再git到本地电脑上:git clone https://github.com/zhangziliang04/requests-html.git

下载前,记的本地搭建好python的相关环境!建议大家下载 Anaconda3Visual Studio Code

环境变量设置好,二种安装网络爬虫依赖包模式,

一个是在Visual Studio Code里搜索request-html模块安装

一个是在python的命令提示符模式下安装(如下)

运行-----cmd-----pip install requests-html (安装爬虫相关集成依赖包)

cmd------pip list(查看本地python安装包情况)

--------------------------------------------------------------------------------------------------

 DAY2

十行代码教你爬新闻

import requests

from bs4 import BeautifulSoup

a=requests.get("https://news.sina.com.cn/")

a.encoding="utf-8"

b=BeautifulSoup(a.text,"html.parser")

for i in b.select("ul.list_14 > li >a"):

    print(i.text)

--------------------------------------------------------------------------------------------------


Tags:

相关文章

本站推荐