一日二技:MongoDB与 Scrapy 的小技巧各一个

发布时间:2025-05-16 11:19:48 作者:益华网络 来源:undefined 浏览量(1) 点赞(3)
摘要:今天我们来讲两个小技巧。 如何更新 MongoDB 中的一个数组 我们知道,如果想给 MongoDB 的一条文档增加一个字段,我们可以使用update_one方法: importpymongohandler=pymongo.MongoClient().db.colhandler.update_one({name:kingname

今天我们来讲两个小技巧。

如何更新 MongoDB 中的一个数组

我们知道,如果想给 MongoDB 的一条文档增加一个字段,我们可以使用update_one方法:

import pymongo handler = pymongo.MongoClient().db.col handler.update_one({name: kingname}, {$set: {新的字段名: 新的字段值}}) 

但如果有一个字段是数组,我想向这个数组里面添加一个元素。并且,如果这个元素之前就已经在这个数组中了,就什么也不做,只要之前不存在时才添加。

这个时候,我们就可以使用$addToSet操作符来实现这个功能。

这个操作符的语法为:

handler.update_one({name: kingname}, {$addToSet: {字段名: 要插入的元素}}) 

我们来看一个例子。

例如对于如图所示的一条文档:

执行代码:

handler.update_one({name: kingname}, {$addToSet: {excellent: JavaScript}}) 

运行以后,数组excellent变为如下图所示:

如果插入一条已经存在的数据,那么这个数组就不会变化。例如:

handler.update_one({name: kingname}, {$addToSet: {excellent: Python}}) 

如何使用参数给 Scrapy 爬虫增加属性

在Scrapy 项目中,我们有时候需要在启动爬虫的时候,传入一些参数,从而让一份代码执行不同的逻辑。这个时候,有一个非常方便的方法,就是使用-a参数。它的语法为:

scrapy crawl 爬虫名 -a 参数1 -a 参数2 -a 参数3 

那么,传入的这些参数,在爬虫里面怎么使用呢?其实很简单,你不需要做任何额外的配置,直接在爬虫里面通过self.参数名就可以调用了。例如下面这个爬虫:

大家可以看到,PyCharm 给两个属性self.body_name和self.age_from_cmdline标上了黄色的背景,这是因为PyCharm 找不到这两个属性是在哪里定义的。

但没有关系,我们启动 Scrapy 爬虫的时候,使用-a参数传递进去就好了:

scrapy crawl example -a body_name=kingname -a age_from_cmdline=28 

运行效果如下图所示:

可以看到,这个接口成功接收到了这两个参数,并且把它显示了出来。

本文转载自微信公众号「未闻Code」,可以通过以下二维码关注。转载本文请联系未闻Code公众号。

二维码

扫一扫,关注我们

声明:本文由【益华网络】编辑上传发布,转载此文章须经作者同意,并请附上出处【益华网络】及本页链接。如内容、图片有任何版权问题,请联系我们进行处理。

感兴趣吗?

欢迎联系我们,我们愿意为您解答任何有关网站疑难问题!

您身边的【网站建设专家】

搜索千万次不如咨询1次

主营项目:网站建设,手机网站,响应式网站,SEO优化,小程序开发,公众号系统,软件开发等

立即咨询 15368564009
在线客服
嘿,我来帮您!