[英]Read a big file to count the number of words repeat K times
问题
有一个巨大的文件(10GB),一个必须读取文件并打印出在文件中重复k
次的单词数量
我的解决方案
ifstream
逐字读取文件; std::map<std::string, long> mp; mp[word] += 1;
std::map<std::string, long> mp; mp[word] += 1;
k
次的单词 题
文件信息
如何使用多线程有效地读取文件[由块读取]? 或任何提高读取速度的方法。
我一直在尝试实际结果,多线程是一件好事,不像我之前的建议。 非线程变体运行1m44,711s,4线程(4核)运行0m31,559s,8线程(4核+ HT)运行0m23,435s。 那么重大改进 - 加速几乎是5倍。
那么,你如何分配工作量? 将其拆分为N个块(n ==线程计数)并使每个线程除了第一个寻找第一个非单词字符之外。 这是他们逻辑块的开始。 它们的逻辑块在它们的结束边界处结束,在该点之后向上舍入到第一个非单词字符。
并行处理这些块,将它们全部同步到一个线程,然后使该线程完成结果的合并。
为提高阅读速度,您可以做的最好的事情是确保尽可能不复制数据。 读取内存映射文件并通过将指针或索引保持在开头和结尾来查找字符串,而不是累积字节。
除了map之外是否有更好的数据结构可以有效地找到输出?
好吧,因为我认为你不会使用订单,所以unordered_map是更好的选择。 我也会把它变成unordered_map<std::string_view, size_t>
- string_view复制它甚至比字符串更少。
在分析时,我发现53%的时间用于查找包含给定单词的确切存储桶。
如果您有一个64位系统,那么您可以对该文件进行内存映射,并使用例如此解决方案从内存中读取 。
结合dascandy关于std::unordered_map
和std::string_view
(如果你有的话) 的答案 ,你应该尽可能快地获得单个线程。 您可以使用std::unordered_multiset
而不是std::unordered_map
,其中一个是“更快”我不知道。
使用线程很简单,只需执行您所知道的操作,但每个线程只处理文件的一部分。 完成所有线程后合并地图。 但是当你将文件拆分成每个线程的块时,你就冒险在中间分割单词。 处理这个并非微不足道。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.