亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

Django結(jié)合使用Scrapy爬取數(shù)據(jù)入庫(kù)的方法示例

瀏覽:42日期:2024-09-11 11:40:06

在django項(xiàng)目根目錄位置創(chuàng)建scrapy項(xiàng)目,django_12是django項(xiàng)目,ABCkg是scrapy爬蟲項(xiàng)目,app1是django的子應(yīng)用

Django結(jié)合使用Scrapy爬取數(shù)據(jù)入庫(kù)的方法示例

2.在Scrapy的settings.py中加入以下代碼

import osimport syssys.path.append(os.path.dirname(os.path.abspath(’.’)))os.environ[’DJANGO_SETTINGS_MODULE’] = ’django_12.settings’ # 項(xiàng)目名.settingsimport djangodjango.setup()

3.編寫爬蟲,下面代碼以ABCkg為例,abckg.py

# -*- coding: utf-8 -*-import scrapyfrom ABCkg.items import AbckgItem class AbckgSpider(scrapy.Spider): name = ’abckg’ #爬蟲名稱 allowed_domains = [’www.abckg.com’] # 允許爬取的范圍 start_urls = [’http://www.abckg.com/’] # 第一次請(qǐng)求的地址 def parse(self, response): print(’返回內(nèi)容:{}’.format(response)) ''' 解析函數(shù) :param response: 響應(yīng)內(nèi)容 :return: ''' listtile = response.xpath(’//*[@id='container']/div/div/h2/a/text()’).extract() listurl = response.xpath(’//*[@id='container']/div/div/h2/a/@href’).extract() for index in range(len(listtile)): item = AbckgItem() item[’title’] = listtile[index] item[’url’] = listurl[index] yield scrapy.Request(url=listurl[index],callback=self.parse_content,method=’GET’,dont_filter=True,meta={’item’:item}) # 獲取下一頁 nextpage = response.xpath(’//*[@id='container']/div[1]/div[10]/a[last()]/@href’).extract_first() print(’即將請(qǐng)求:{}’.format(nextpage)) yield scrapy.Request(url=nextpage,callback=self.parse,method=’GET’,dont_filter=True) # 獲取詳情頁 def parse_content(self,response): item = response.meta[’item’] item[’content’] = response.xpath(’//*[@id='post-1192']/dd/p’).extract() print(’內(nèi)容為:{}’.format(item)) yield item

4.scrapy中item.py 中引入django模型類

pip install scrapy-djangoitem

from app1 import modelsfrom scrapy_djangoitem import DjangoItemclass AbckgItem(DjangoItem): # define the fields for your item here like: # name = scrapy.Field() # 普通scrapy爬蟲寫法 # title = scrapy.Field() # url = scrapy.Field() # content = scrapy.Field() django_model = models.ABCkg # 注入django項(xiàng)目的固定寫法,必須起名為django_model =django中models.ABCkg表

5.pipelines.py中調(diào)用save()

import jsonfrom pymongo import MongoClient# 用于接收parse函數(shù)發(fā)過來的itemclass AbckgPipeline(object): # i = 0 def open_spider(self,spider): # print(’打開文件’) if spider.name == ’abckg’: self.f = open(’abckg.json’,mode=’w’) def process_item(self, item, spider): # # print(’ABC管道接收:{}’.format(item)) # if spider.name == ’abckg’: # self.f.write(json.dumps(dict(item),ensure_ascii=False)) # # elif spider.name == ’cctv’: # # img = requests.get(item[’img’]) # # if img != ’’: # # with open(’圖片%d.png’%self.i,mode=’wb’)as f: # # f.write(img.content) # # self.i += 1 item.save() return item # 將item傳給下一個(gè)管道執(zhí)行 def close_spider(self,spider): # print(’關(guān)閉文件’) self.f.close()

6.在django中models.py中一個(gè)模型類,字段對(duì)應(yīng)爬取到的數(shù)據(jù),選擇適當(dāng)?shù)念愋团c長(zhǎng)度

class ABCkg(models.Model): title = models.CharField(max_length=30,verbose_name=’標(biāo)題’) url = models.CharField(max_length=100,verbose_name=’網(wǎng)址’) content = models.CharField(max_length=200,verbose_name=’內(nèi)容’) class Meta: verbose_name_plural = ’爬蟲ABCkg’ def __str__(self): return self.title

7.通過命令啟動(dòng)爬蟲:scrapy crawl 爬蟲名稱

8.django進(jìn)入admin后臺(tái)即可看到爬取到的數(shù)據(jù)。

到此這篇關(guān)于Django結(jié)合使用Scrapy爬取數(shù)據(jù)入庫(kù)的方法示例的文章就介紹到這了,更多相關(guān)Django Scrapy爬取數(shù)據(jù)入庫(kù)內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Django
相關(guān)文章:
主站蜘蛛池模板: 色妞www精品视频免费看 | 亚洲网在线观看 | 久久精品视频免费观看 | 91天天操| 免费簧网站永久在线播放国产 | 色天天综合色天天害人害己 | 91sex在线观看免费 | 欧美高清视频www夜色资源网 | 天天综合亚洲 | 黄色影片免费看 | 一本久久精品一区二区 | 国产三级日本三级美三级 | 特黄一级毛片 | 久久国产免费福利资源网站 | 综合在线视频 | 欧美一区=区三区 | 亚洲福利小视频 | 国产乱码精品一区二区 | 国产精品福利在线观看入口 | 永久在线播放 | 免费人成综合在线视频 | 黄色影院免费观看 | 韩国特黄毛片一级毛片免费 | 欧美一区二区三区精品影视 | 国产图片一区 | 国产精品精品国产 | 超级碰碰碰免费视频播放 | 视频久久精品 | 色影影院 | 久久精品国产亚洲精品 | 色噜噜狠狠在爱丁香 | 日本黄色大片免费观看 | 一级一级女人18毛片 | 特黄色片 | 国产美女无遮挡免费视频网站 | 香蕉综合视频 | 亚洲精品99久久久久中文字幕 | 亚洲欧美色综合一区二区在线 | 亚洲欧美日韩国产一区二区精品 | 久久综合久久久久 | 国产亚洲毛片在线 |