Python中使用Scrapy实现服务部署及定时调度
前言
这篇记录一下如何部署Scrapy
项目
上传项目
通过Xftp
将项目丢到服务器的 /home
目录下
执行项目
非调度执行
先在服务器的 /home
路径下创建两个文件夹 crawler、logs
执行爬虫(scrapy crawl test
),并打印日志(/home/logs/crawlerDemo.log
),代码如下:
1 | cd /home/crawler/crawlerDemo && nohup scrapy crawl test > /home/logs/crawlerDemo.log 2>&1 & |
调度执行
同样的,先在服务器的 /home
路径下创建两个文件夹 crawler
、logs
新建一个调度py文件,
注意:调度py文件需要建在这一层级中,否则会出现意想不到的惊喜 ~ ~ ~
1 | import logging |
使用了调度器以后,所以在Linux中执行项目的命令也会有所改变
执行爬虫,并打印日志,代码如下:
1 | cd /home/crawler/crawlerDemo/crawlerDemo && nohup python demoTaskSpider.py > /home/logs/demoTaskSpider.log 2>&1 & |
查看日志(爬虫输出的日志文件名以 爬虫name 命名)
调度器日志:/home/logs/demoTaskSpider.log
爬虫日志:/home/logs/爬虫名.log
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 学弟不想努力了!
评论