[英]Issue with appending to txt file
我正在尝试读取和写入相同的文件。 当前2289newsML.txt
的数据作为普通句子存在,但我想附加文件,以便它仅存储相同句子的标记化版本。
我使用了下面的代码,但是即使它打印出标记化的句子,也不会将其写入文件。
from pathlib import Path
from nltk.tokenize import word_tokenize
news_folder = Path("file\\path\\")
news_file = (news_folder / "2289newsML.txt")
f = open(news_file, 'r+')
data = f.readlines()
for line in data:
words = word_tokenize(line)
print(words)
f.writelines(words)
f.close
任何帮助将不胜感激。
谢谢 :)
from nltk.tokenize import word_tokenize
with open("input.txt") as f1, open("output.txt", "w") as f2:
f2.writelines(("\n".join(word_tokenize(line)) for line in f1.readlines()))
使用with
理解,确保文件句柄将得到照顾。 所以你不需要f1.close()
该程序正在写入其他文件。
当然,您也可以通过以下方式进行操作:
f = open(news_file)
data = f.readlines()
file = open("output.txt", "w")
for line in data:
words = word_tokenize(line)
print(words)
file.write('\n'.join(words))
f.close
file.close
Output.txt将具有标记词。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.