簡體   English   中英

使用 tensorflow 版本 2.x 從頭開始進行 BERT 預訓練

[英]BERT pre-training from scratch with tensorflow version 2.x

我在tensorflow version 1.15.5中使用run_pretraining.py ( https://github.com/google-research/bert/blob/master/run_pretraining.py ) python 腳本。 我也使用谷歌雲 TPU。 是否有可能或任何 python 腳本使用 tensorflow 版本 2.x 在 TPU 上從頭開始進行 BERT 預訓練?

是的,您可以使用TF2 model garden中的NPL 庫

創建訓練數據和運行預訓練的說明在這里: nlp/docs/train.md#pre-train-a-bert-from-scratch

您還可以按照BERT Fine Tuning with Cloud TPU教程進行一些更改以運行預訓練腳本而不是微調。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM