![](/img/trans.png)
[英]Insert a row into a MySQL table when one of the elements is a Python dictionary
[英]Python faster way to insert each row of dataframe as one table to mysql
我有這樣的 dataframe 超過 300 行
name price percent volume Buy Sell
1 BID 41.30 -0.36 62292.0 604.0 6067.0
2 BVH 49.00 -1.01 57041.0 3786.0 3510.0
3 CTD 67.80 6.94 68098.0 2929.0 576.0
4 CTG 23.45 0.43 298677.0 16965.0 20367.0
5 EIB 18.20 -0.27 10517.0 306.0 210.0
對於每個名稱,我在 mysql 中創建 1 個表。 到目前為止,這是我的代碼。
vn30 = vn30_list.iloc[:, [10,13,12,15,25,26]].dropna(how='all').fillna(0)
data = vn30_list.iloc[:, [13,12,15,25,26]].dropna(how='all').fillna(0)
data.columns = ['gia','percent','khoiluong','nnmua','nnban']
en = sa.create_engine('mysql+mysqlconnector://...', echo=True)
#insert into mysql
for i in range(30):
macp = vn30.iloc[i][0].lower()
#print(row)
compare_item = vn30.iloc[i][1]
if compare_item == data.iloc[i][0]:
row = data.iloc[i:i + 1, :]
#print(row)
row.to_sql(name=str(macp), con=en, if_exists= "append", index=False,schema="online")
有沒有辦法讓它更快地處理 300 行? 太感謝了。 對不起我的英語。
# import the module
from sqlalchemy import create_engine
# create sqlalchemy engine
engine = create_engine("mysql+pymysql://{user}:{pw}@localhost/{db}".format(user="root",pw="12345",db="employee"))
# Insert whole DataFrame into MySQL
data.to_sql('book_details', con = engine, if_exists = 'append', chunksize = 1000)
您可以在此處獲取所有詳細信息: https://www.dataquest.io/blog/sql-insert-tutorial/
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.