[英]How can I use lambda to count the number of words in a file?
我正在尝试以非常规的方式使用reduce
、 lambda
和readlines
来计算文件中的字数:
import functools as ft
f=open("test_file.txt")
words=ft.reduce(lambda a,b:(len(a.split())+len(b.split())),f.readlines())
print(words)
当我尝试拆分整数(索引)时,这会引发属性错误。 如何获取此代码来拆分f.readlines()
返回的可迭代元素并连续添加它们的长度(即这些行中的单词数)以最终计算文件中的单词总数?
如果您尝试获取文件中的字数, f.read()
比f.readlines()
更有意义,因为它无需逐行求和。 您将整个文件放在一个块中,然后可以在没有 arguments 的情况下使用split
分割空白。
>>> with open("foo.py") as f:
... len(f.read().split())
...
1530
如果你真的想使用readlines
,在任何情况下都更容易避免使用functools.reduce
并对split
线的长度sum
( sum
是一个非常简洁的对可迭代的归约操作,它消除了令人分心的累加器业务):
>>> with open("foo.py") as f:
... sum(len(x.split()) for x in f.readlines())
...
1530
使用with
上下文管理器是一个很好的做法,这样您的资源就会自动关闭。 在所有运算符周围使用空格,以便代码可读。
至于让functools.reduce
工作:它接受一个 lambda ,它接受累加器作为其第一个参数,当前元素作为第二个参数。 functools.reduce
的第二个参数是可迭代的,第三个参数初始化累加器。 将其留空,将其设置为可迭代项中第一项的值 - 可能不是您想要的,因为这个想法是使用累加器执行数值求和。
您可以使用
>>> with open("foo.py") as f:
... ft.reduce(lambda acc, line: len(line.split()) + acc, f.readlines(), 0)
...
1530
但这让我觉得这是解决问题的一种相当鲁布·戈德堡式的方式。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.