![](/img/trans.png)
[英]How to split dask dataframe into partitions based on unique values in a column?
[英]How to create a text file based on the unique values of a dataframe column?
我有一个 excel 表,其中有 2 列称为('NE' 和 'Interface'),我想要做的是:使用每个接口值编辑 a.txt 文件模板(我已经有了,我在下面显示) . 然后连接属于同一组'NE'的txt文件。
这是我的 excel:
这是我的 txt 文件模板,我想用 excel 的接口值更改“接口”:
conf t
**$interface**
no service-policy input QOS-IN_ACCESS
end
conf t
no policy-map QOS-IN_ACCESS
policy-map QOS-IN_ACCESS
class DSCP_VOIX_SIG
set mpls experimental imposition 5
set qos-group 5
end
conf t
**$interface**
service-policy input QOS-IN_ACCESS
end
这是我的代码:(我已经连接了文件,我需要做的是把它们放在一组 NE 中)
from string import Template
import pandas as pd
df3 = pd.read_excel(r"C:\Users\audit_policymap.xlsx")
with open(r"C:\Users\audit_policymap.txt") as fp:
template = Template(fp.read())
content2 = ''
content3 = ''
for i in range(len(df3)):
file_name = df.loc[i, "NE"] + '_output.txt'
with open(file_name, 'w') as fp:
content = template.substitute(interface=df.loc[i, "Interface"])
if df.loc[i, "NE"] == df.loc[i+1, "NE"]:
content2 = str(content2)+'\n'+str(content)+'\n'
content3 = str(content2)+'\n'
fp.write(content2)
else:
content2 = ''
content3 = str(content3)+'\n'+str(content)+'\n'
fp.write(content3)
总结:我希望每个 'NE' 有一个 txt 文件,并根据它们对应的 'NE' 编辑所有接口
NE
列上使用pandas.DataFrame.groupby 。
DataFrameGroupBy
object,其中i
是来自NE
的唯一 groupby 值, g
是关联组。NE
中的每个唯一值f'{i}_output.txt'
)
'250002-PEFTTS-2_output.txt'
g
中的所有值仅属于NE
中的唯一值之一,因此无需检查NE
是否与每一行匹配,就像您在问题中所做的那样。[str(template.substitute(interface=row)) for row in g.Interface]
是一个列表理解,对于g.Interface
中的每一行,将str(template.substitute(interface=row))
添加到列表中。
'\n'.join()
将列表中的每个项目连接为由换行符分隔的字符串。for i, g in df.groupby('NE'): # iterate through unique values in NE
file_name = f'{i}_output.txt' # create the empty content string
with open(file_name, 'w') as fp: # open the file
content = '\n'.join([str(template.substitute(interface=row)) for row in g.Interface])
fp.write(content) # write content to file
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.