我有一个Perl脚本(在Ubuntu 12.04 LTS中)写入26个TCH文件。 密钥大致平均分布。 写操作后成为300万个插入(平均分配到所有文件)很慢, 之后3 MM刀片的速度来自24个万辆插入/分钟下降开头 14000个插入/分钟 单独的分片文件最大不超过150 MB,总大小约为2.7 GB。

每100K插入 bnum为4 * num_records_then且文件设置为TLARGE的文件后,我在每个TCH文件上运行优化 ,并确保xmsiz匹配bnum的大小(如为何调整了bnum后,东京暴君会成倍地减慢速度?

即使在此之后,刀片也开始高速运转,然后从240k刀片/分钟缓慢降低到14k刀片/分钟。 可能是由于在一个脚本中保留了多个tch连接(26)? 还是缺少配置设置,我会丢失(是否要禁用日志记录帮助,但是上面的线程说日志记录仅在tch文件变得大于3-4GB,而我的碎片小于150MB时才影响性能。)?

===============>>#1 票数:0

我将关闭日记功能并评估发生了什么变化。 引用的线程讨论的是2-3 GB的tch文件,但是如果将26个tch文件的大小相加,则您处于同一联盟。 对于文件系统,写入的数据范围总数应为相关参数。

  ask by alpha_cod translate from so

未解决问题?本站智能推荐:

1回复

TokyoCabinet写入速度太慢

I have a perl script (in Ubuntu 12.04 LTS) writing to 26 TCH files. 我有一个Perl脚本(在Ubuntu 12.04 LTS中)写入26个TCH文件。 The keys are roughly equally distribute
1回复

选择使用Java写入cassandra数据库的框架

Hi am new to database programming, am in a project where i need to write data to noSql database currently we choosed Cassandra as our DB. 嗨,我是数据库编程的新
1回复

使用JSON对象作为值对数据库速度的性能有影响吗?

I am trying to build a authentication system using redis .我正在尝试使用 redis 构建身份验证系统。 Emails are the keys other vales as hashed passwords , uuid are store
2回复

TokyoCabinet和SQLite兼容接口?

I was wondering if anyone has seen a library that abstracts away SQLite and Tokyo-Cabinet to the same API. 我想知道是否有人看过一个库,它将SQLite和Tokyo-Cabinet抽象为相同的
1回复

这是TokyoCabinet的错误吗?

It's basically a binary tree which first searches against hash to decide whether it's left or right : 它基本上是一个二叉树,它首先搜索哈希来决定它是left还是right : if(hash &g
1回复

TokyoCabinet:hdb->close()的分段错误

I'm stuck at a Segmentation fault after inserting about 8 million records in a TC Hash Database. 在TC哈希数据库中插入大约800万条记录后,我陷入了细分错误。 After everything is