鱼C论坛

 找回密码
 立即注册
查看: 877|回复: 2

不懂scrapy框架爬取网页过程,应该怎么搞,我有点乱!

[复制链接]
发表于 2021-9-13 03:21:20 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
希望大牛能够告诉我scrapy该怎么用的过程!谢啦!
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-9-13 08:36:42 | 显示全部楼层
scrapy框架都是在命令行执行的,编写的程序很少。
1.首先你的把路径切换到你正在用的当前路径
2.创建项目 scrapy startproject scrapy_pachong  这里的(scrapy_pachong是你要定义的项目的名称,随便写,但是不能是数字开头,也不能有中文)
3.切换到当前项目,cd scrapy_pachong\scrapy_pachong\spiders 这里就是创建爬虫项目
4.开始爬取 scrapy genspider pachong http://www.baidu.com  这里的pachong和上边的不一样,这是要运行的文件名,后边的url是你要爬取的网页,也可以说的起始页
5.在scrapy文件中,找到你刚创建的名字叫pachong的py文件,打开,在里边进行编程
6.编写好后在命令行再输入scrapy crawl pachong 回车,就开始运行了
前四个和第六个都是在命令行输入的,命令行就是按键盘上win+r,然后在出现的对话框中输入cmd,再回车就到了命令行输入框
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-9-14 20:06:29 | 显示全部楼层
scrapy 的中文开发文档,基本操作方法和常见的坑都有提及
https://scrapy-chs.readthedocs.io/zh_CN/latest/
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-10-7 10:21

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表