![](/img/trans.png)
[英]How to create a dictionary from a list of tuples without overwriting the first unique key value?
[英]How to create a dictionary from a list of tuples without overwriting the keys
我有一個從網站提取文件的腳本,文件中的密鑰是相同的。
我想從這些文件中提取文件創建一個字典而不覆蓋鍵。
table_information = []
for t in my_url[:5]:
page_detail = requests.get(t)
tree_1 = html.fromstring(page_detail.content)
title = ''.join(tree_1.xpath('//div/h1[@class="title"]/text()'))
Track = title.split(' ')[0].strip()
date = title.split('-')[1].strip()
year = pd.to_datetime('now').year
race_date = pd.to_datetime(date + ' ' + str(year)).strftime('%d/%m/%Y')
table_information.append((race_date,Track))
上面的代碼提取文件並將它們附加到列表中。
提取出來的文件是這樣的。
table_information =
[('Angle', '01/10/2021', ['342m', '342m', '530m', '342m', '342m', '595m', '530m', '342m', '342m', '342m']),
('Ballarat', '02/10/2021', ['390m', '390m', '390m', '390m', '450m', '450m', '450m', '450m', '390m', '390m']),
('Bendigo', '02/10/2021', ['425m', '425m', '425m', '425m', '500m', '500m', '500m', '425m', '425m', '425m', '425m', '425m'])]
現在我想要一本這種形式的字典。
new_dict = { 'Date':['01/10/2021', '02/10/2021', '02/10/2021'],
'Track': ['Angle', 'Ballarat', 'Bendigo'],
'Distance': [['342m', '342m', '530m', '342m', '342m', '595m', '530m', '342m', '342m', '342m'],
['390m', '390m', '390m', '390m', '450m', '450m', '450m', '450m', '390m', '390m'],
['425m', '425m', '425m', '425m', '500m', '500m', '500m', '425m', '425m', '425m', '425m', '425m']]
}
我嘗試使用以下代碼創建字典,但我重復了多次鍵。 請問我怎樣才能做到這一點?
greyhound = {}
new_dict = {}
greyhoud['Date'] = [race_date]
greyhoud['Distatnce'] = [Distatnce]
greyhoud['Track'] = [Track]
for k,v in greyhoud.items():
for key in k:
if key in new_dict:
new_dict[k].append(v)
else:
new_dict[k] = [v]
只需遍歷table_information
,將元組中的每個元素附加到適當的字典元素。
greyhound = {'Date': [], 'Track': [], 'Distance': []}
for track, date, distance in table_information:
greyhound['Track'].append(track)
greyhound['Date'].append(date)
greyhound['Distance'].append(distance)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.