繁体   English   中英

ArangoDB get_or_create 文档的最佳方式

[英]ArangoDB best way to get_or_create a document

我正在执行我想象的索引图形数据库的常见模式:我的数据是一个边列表,我想“流式传输”这些数据的上传。 即,对于每条边,我想在每一边创建两个节点,然后在它们之间创建边; 我不想先上传所有节点,然后再链接它们。 一个幼稚的实现显然会导致很多重复的节点。 因此,我想实现某种“get_or_create”以避免重复。

我当前的实现如下,使用 pyArango:

def get_or_create_graph(self):
    db = self._get_db()
    if db.hasGraph('citator'):
        self.g = db.graphs["citator"]
        self.judgment = db["judgment"]
        self.citation = db["citation"]
    else:
        self.judgment = db.createCollection("judgment")
        self.citation = db.createCollection("citation")
        self.g = db.createGraph("citator")


def get_or_create_node_object(self, name, vertex_data):
    object_list = self.judgment.fetchFirstExample(
            {"name": name}
            )
    if object_list:
        node = object_list[0]
    else:
        node = self.g.createVertex('judgment', vertex_data)
        node.save()
    return node

我对这个解决方案的问题是:

  1. 由于应用程序而不是数据库正在检查存在性,因此存在性检查和创建之间可能存在插入。 我在实践中发现了重复的节点,我怀疑这是为什么?
  2. 它不是很快。 可能是因为它可能两次击中数据库。

我在徘徊是否有更快和/或更原子的方式来做到这一点,理想情况下是原生 ArangoDB 查询? 建议? 谢谢你。

更新根据要求,调用如下所示的代码。 它在 Django 上下文中,其中 Link 是一个 Django 模型(即数据库中的数据):

        ... # Class definitions etc

        links = Link.objects.filter(dirty=True)

        for i, batch in enumerate(batch_iterator(links, limit=LIMIT, batch_size=ITERATOR_BATCH_SIZE)):
            for link in batch:
                source_name = cleaner.clean(link.case.mnc)
                target_name = cleaner.clean(link.citation.case.mnc)

                if source_name == target_name: continue 

                source_data = _serialize_node(link.case)
                target_data = _serialize_node(link.citation.case)

                populate_pair(citation_manager, source_name, source_data, target_name, target_data, link)

def populate_pair(citation_manager, source_name, source_data, target_name, target_data, link):
    source_node = citation_manager.get_or_create_node_object(
        source_name,
        source_data
        )
    target_node = citation_manager.get_or_create_node_object(
        target_name,
        target_data
        )
    description = source_name + " to " + target_name
    citation_manager.populate_link(source_node, target_node, description)

    link.dirty = False
    link.save()

这是清理和序列化后数据的示例:

source_data: {'name': 'P v R A Fu', 'court': 'ukw', 'collection': 'uf', 'number': 'CA 139/2009', 'tag': 'NA', 'node_id': 'uf89638', 'multiplier': '5.012480529547776', 'setdown_year': 0, 'judgment_year': 0, 'phantom': 'false'}
target_data: {'name': 'Ck v R A Fu', 'court': 'ukw', 'collection': 'uf', 'number': '10/22147', 'tag': 'NA', 'node_id': 'uf67224', 'multiplier': '1.316227766016838', 'setdown_year': 0, 'judgment_year': 0, 'phantom': 'false'}
source_name: [2010] ZAECGHC 9
target_name: [2012] ZAGPJHC 189

我不知道 Python 驱动程序。 但这可以使用 AQL 来完成

FOR doc in judgement
Filter doc.name == "name"
Limit 1
Insert merge((vertexobject, { _from: doc.id }) into citator

vertextObject需要是一个至少具有_to值的 AQL 对象

注意 我用手机接听时可能有错别字

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM