博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
手把手教你如何新建scrapy爬虫框架的第一个项目(下)
阅读量:6433 次
发布时间:2019-06-23

本文共 1119 字,大约阅读时间需要 3 分钟。

前几天小编带大家学会了,今天我们进一步深入的了解Scrapy爬虫项目创建,这里以伯乐在线网站的所有文章页为例进行说明。

5d7e5d6ca8de4c8791132fa3caaf5d90

在我们创建好Scrapy爬虫项目之后,会得到上图中的提示,大意是让我们直接根据模板进行创建Scrapy项目。根据提示,我们首先运行“cd article”命令,意思是打开或者进入到article文件夹下,尔后执行命令“scrapy genspider jobbole blog.jobbole.com”,代表通过Scrapy中自带的basic模板进行创建Scrapy项目,如下图所示。

9308c2d6b36540ed8c26b78db20f2ea8

根据提示,该模板创建的位置为article.spiders.jobbole,此时再次输入tree /f命令可以查看到除了之前创建Scrapy爬虫项目的基础文件之外,在spiders文件夹下确实是多了一个jobbole.py文件,如下图所示。

4c3fd40ee90f4bac81a75e103ae5e65c

当然了,爬虫模板不一定非得用Scrapy爬虫项目自带的模板,也可以自定义的进行创建,但是基本上Scrapy提供的模板是足够使用的了。

接下来,将整个爬虫项目导入到Pycharm中去,点击左上方“file”à“open”,找到爬虫项目创建的文件夹,点击确认即可。

3dbe6b4d348d443e8a4398be94a05db9

如果在Pycharm中的spiders文件夹下看不到jobbole.py这个文件的话,则先选中spiders文件夹,尔后右键,点击“Synchronize spider”,代表与spiders文件夹进行同步的意思,尔后便可以看到jobbole.py就会被加载出来。

8fd41ec474de4717a7ed31667b6e2851

点击jobbole.py文件进行查看内容,如下图所示。可以看到该文件已经默认的填充了部分Python代码,其实是从源模板中进行复制创建的。

1245713cfd3d45f98c7b5aef80154dff

可以看到该文件中有当前Scrapy爬虫项目的名字name,Scrapy爬虫项目所允许的域名范围allowed_domains,以及Scrapy爬虫项目的起始URL,即start_urls。

接下来最后检查一下该项目的Python解释器,点击Pycharm的setting,然后输入“interpreter”,找到解释器所在的位置,如下图所示。

b579e35cd67948c496460828fa59d707

如果“Project Interpreter”显示出来的解释器不是当前项目下的虚拟环境,则点击“Project Interpreter”的右侧的设置按钮,如下图所示。

3704acdc80b8451694ed9e4a3c999322

然后点击“Add local”,如下图所示。

2bf518013ff64fb0a842bc80d442b1d1

找到该项目对应的虚拟环境Python解释器,进行添加即可,如下图所示。

616068412c4f4431b8d095bc0adc84a9

至此,Scrapy爬虫虚拟环境创建、Scrapy爬虫项目的创建以及Scrapy爬虫项目导入到Pycharm中以及解释器的配置已经完成,接下来我们要开始写入爬虫逻辑,以及数据提取等,敬请期待~~

转载地址:http://iuaga.baihongyu.com/

你可能感兴趣的文章
Web 前端颜色值--字体--使用,整理整理
查看>>
五、MySQL 创建数据库
查看>>
redis安全配置
查看>>
作业15-导航,头部,CSS
查看>>
DecimalFormat用法
查看>>
用javascript去掉字符串空格的办法
查看>>
test
查看>>
JAVA编程题-用java解决兔子问题
查看>>
pychon笔记
查看>>
[转] Web前端研发工程师编程能力飞升之路
查看>>
简单理解桶排序
查看>>
C#项目代码规范
查看>>
vscode常用插件
查看>>
算法的时间复杂度比较,计算多项式的直接法和秦九韶法
查看>>
SQL SERVER与C#的数据类型对应表
查看>>
Eclipse 教程
查看>>
Search in Rotated Sorted Array II
查看>>
数据库的使用
查看>>
查找数组中元素的索引位置
查看>>
BUAA-OO 第三单元作业 JML 总结与思考
查看>>