使用python scrapy框架抓取cnblog 的文章内容
wptr33 2025-05-08 06:56 6 浏览
scrapy 的文档请移驾到
http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/install.html
1、准备工作
安装python 、Spyder 、scrapy 如果想要数据直接入mysql 还需要安装python的 MySQLdb 依赖包
本人mac操作系统 安装MySQLdb的时候出现了些小问题 最后是重装了openssl 才通过的
Spyder 是编写python的ide
2、新建项目
cd /usr/local/var/www/python
执行 scrapy startproject myblog 则新建了一个名称为myblog 的项目,执行完成后 你的python文件夹就出现了myblog文件夹了
cnblog_spider.py 是后来我新建的 后缀.pyc 是执行python后的编译的文件 其他的都是执行创建项目后就自动生成的文件了
3、编写爬虫脚本 cnblog_spider.py
分析cnblog的网站 使用scrapy shell
http://www.cnblogs.com/threemore/
使用google浏览器 找到你想要抓取的数据 话不多说 直接上代码,我抓取了cnblog文章的标题,链接 时间,文章的id,正文内容
# -*- coding: utf-8 -*- from scrapy.spider import Spider from scrapy.selector import Selector from myblog.items import MyblogItem import scrapy import re #SITE_URL = 'http://www.cnblogs.com/threemore/' #抓取在cnblog中的文章 class CnblogSpider(Spider): #抓取名称 执行命令的时候后面的名称 scrapy crawl cnblog 中的cnblog 就是在这里定义的 name ='cnblog' allow_domains = ["cnblogs.com"] #定义抓取的网址 start_urls = [ 'http://www.cnblogs.com/threemore/' ] #执行函数 def parse(self,response): sel = Selector(response) self.log("begins % s" % response.url) article_list = sel.css('div.postTitle').xpath('a') #抓取列表里面的内容也地址后循环抓取列表的内容页面数据 for article in article_list: url = article.xpath('@href').extract[0] self.log("list article url: % s" % url) #继续抓取内容页数据 yield scrapy.Request(url,callback=self.parse_content) #如果有下一页继续抓取数据 next_pages = sel.xpath('//*[@id="nav_next_page"]/a/@href') if next_pages : next_page = next_pages.extract[0] #print next_page self.log("next_page: % s" % next_page) #自己调用自己 类似php 函数的当中的递归 yield scrapy.Request(next_page,callback=self.parse) #内容页抓取 def parse_content(self,response): self.log("detail views: % s" % response.url) #定义好的item 只需要在items 文件中定义抓取过来的数据对应的字段 item = MyblogItem #xpath 寻找需要在页面中抓取的数据 item['link'] = response.url #正则匹配出文章在cnblog中的id m = re.search(r"([0-9])+", item['link']) if m: item['aid'] = m.group(0) else: item['aid'] = 0; item['title'] = response.xpath('//*[@id="cb_post_title_url"]/text').extract[0] item['content'] = response.xpath('//*[@id="cnblogs_post_body"]').extract[0] item['date'] = response.xpath('//*[@id="post-date"]').extract #print item['content'] yield item
4、数据入库
编写管道程序pipelines.py,管道就是存储数据使用的 爬虫文件最后yield 的item 会将数据给到pipelines.py 这个文件
为了测试和正式环境的方便 我就配置了两份mysql的登陆信息
每次执行前 都将即将入库的数据表给清空了一次 防止重复采集 ,直接看代码
# -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html #需要在setting.py文件中设置ITEM_PIPELINES 将前面的注释打开配置成当前的文件即可 #当前的管道就是这么配置 'myblog.pipelines.MyblogPipeline': 300, import MySQLdb,datetime DEBUG = True #定义测试环境和正式环境中的mysql if DEBUG: dbuser = 'root' dbpass = 'root' dbname = 'test' dbhost = '127.0.0.1' dbport = '3306' else: dbuser = 'root' dbpass = 'root' dbname = 'test' dbhost = '127.0.0.1' dbport = '3306' class MyblogPipeline(object): #初始化 链接数据库 def __init__(self): self.conn = MySQLdb.connect(user=dbuser, passwd=dbpass, db=dbname, host=dbhost, charset="utf8", use_unicode=True) self.cursor = self.conn.cursor self.cursor.execute('truncate table test_cnbog') self.conn.commit #执行sql语句 def process_item(self, item, spider): try: self.cursor.execute("""INSERT INTO test_cnbog (title, link, aid,content,date) VALUES (%s,%s,%s,%s,%s)""", ( item['title'].encode('utf-8'), item['link'].encode('utf-8'), item['aid'], item['content'].encode('utf-8'), datetime.datetime.now, ) ) self.conn.commit except MySQLdb.Error, e: print u'Error %d: $s' % (e.args[0],e.args[1]) return item
5、配置setting.py
开启入库的配置
找到 ITEM_PIPELINES 将前面的注释去掉 看到代码上面的注释的链接了么 直接访问看下是干啥的就行了 官方网站上看实例好像是将数据写入到monge里面去了
本人对monge 不熟悉 直接放到mysql去了 大致意思就是说pipelines.py 这个文件就是讲你采集的数据存放在什么地方
# Configure item pipelines # See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'myblog.pipelines.MyblogPipeline': 300, }
6、执行采集
在项目的文件夹下面执行 :scrapy crawl myblog
特意将crawl 拿百度翻译看了下 啥意思 原来就是“爬行”
最后展示下采集回来的数据
15条没有采集到数据 aid 程序就是拿正则随便处理了下
相关推荐
- 如何使用git clone克隆包含子模块的仓库
-
技术背景在软件开发中,当项目规模逐渐增大时,为了更好地管理代码,我们常常会使用子模块将项目拆分成多个独立的部分。Git作为目前最流行的版本控制系统,提供了管理子模块的功能。但在克隆包含子模块的仓库时...
- 基于Docker构建安装Git/GitLab,以及制作springboot工程镜像
-
今天给大家分享的是《领先的开源自动化服务器Jenkins的应用实战》之基于Docker安装构建Git/GitLab版本控制与代码云存储的场所;使用Git管理项目,springboot工程制作镜像知识体...
- Windows误删急救!3步找回+防删秘籍,免费工具一键恢复
-
“Shift+Delete一时爽,数据火葬场?”误删工作文档、清空珍贵照片、手滑格式化硬盘……这份Windows专属“后悔药”攻略,从...
- Git分支创建与合并
-
首先,我们创建dev分支,然后切换到dev分支:12$gitcheckout-bdev...
- Java项目版本控制的最佳实践
-
Java项目版本控制的最佳实践在Java开发的世界里,版本控制是构建高效协作和管理代码变更的基础。想象一下,如果没有版本控制,就像一群人在沙滩上画画,每个人都在修改别人的画作,很快就会变得混乱不堪。今...
- 10分钟搭建自己的Git仓库
-
10分钟搭建自己的Git仓库...
- GIT,如何恢复修改过的文件,回到过去呢?
-
我们知道git系统有三个区域:工作目录、暂存区域和git仓库所以恢复修改过的文件,需要考虑到三种情况。第一种情况,修改了文件,之后就再也没有任何的git操作了。这种情况只需要将当前版本的暂存区的状态还...
- 打造企业级自动化漏洞修复系统结( GitOps + Trivy + Argo CD )
-
在当今DevSecOps流水线中,实现漏洞自动检测+自动修复+自动部署是关键环节。本指南将结合:...
- 如何搭建一个git服务器?
-
GitHub是一个免费托管开源代码的Git服务器,如果我们不想公开项目的源代码,又不想付费使用,那么我们可以自己搭建一台Git服务器。首先你需要一台client和一台server。client可以是w...
- Python进阶-day27: 版本控制与协作
-
1.学习Git基本命令Git是一个强大的分布式版本控制系统,用于跟踪代码更改和团队协作。以下是课程要求的四个基本命令的说明和使用方法:(1)gitclone作用...
- git 基础分支管理基础操作
-
两个仓库git有两个仓库,一个本地仓库,一个远端仓库。大部分开发工作都是在本地仓库完成,程序没有问题后提交到远端仓库。一般是多用户维护一个git仓库...
- Git新手入门
-
欢迎各位准开发者与技术爱好者!如果你曾好奇专业开发者如何协作大型项目而不丢失修改记录(更不用说覆盖他人代码),那么你来对地方了。答案就是Git——已成为开发者工具库中不可或缺的利器。这份详尽指...
- Git推送错误:failed to push some refs to 'git@gitee.com:XXX'
-
项目推送时遇Git推送错误:error:failedtopushsomerefsto‘git@gitee.com:name/project.git’...
- 常用git命令-从远程更新代码合并分支、提交代码等
-
gitconfig设置gitconfiguser.name""...
- 迁移GIT仓库并带有历史提交记录
-
迁移git仓库开发在很多时候,会遇到一个问题。GIT仓库的管理,特别是仓库的迁移。我需要保留已有的历史记录,而不是重新开发,重头再来。...
- 一周热门
-
-
C# 13 和 .NET 9 全知道 :13 使用 ASP.NET Core 构建网站 (1)
-
因果推断Matching方式实现代码 因果推断模型
-
git pull命令使用实例 git pull--rebase
-
面试官:git pull是哪两个指令的组合?
-
git fetch 和git pull 的异同 git中fetch和pull的区别
-
git pull 和git fetch 命令分别有什么作用?二者有什么区别?
-
git 执行pull错误如何撤销 git pull fail
-
还可以这样玩?Git基本原理及各种骚操作,涨知识了
-
git pull 之后本地代码被覆盖 解决方案
-
git命令之pull git.pull
-
- 最近发表
- 标签列表
-
- git pull (33)
- git fetch (35)
- mysql insert (35)
- mysql distinct (37)
- concat_ws (36)
- java continue (36)
- jenkins官网 (37)
- mysql 子查询 (37)
- python元组 (33)
- mybatis 分页 (35)
- vba split (37)
- redis watch (34)
- python list sort (37)
- nvarchar2 (34)
- mysql not null (36)
- hmset (35)
- python telnet (35)
- python readlines() 方法 (36)
- munmap (35)
- docker network create (35)
- redis 集合 (37)
- python sftp (37)
- setpriority (34)
- c语言 switch (34)
- git commit (34)