![](/img/trans.png)
[英]how to train Large Dataset on free gpu in Google Colab if the stated training time is more than 12 hours?
[英]How to train large datasets in Colab free
我必須在 google colab free 上為我的人臉驗證項目訓練 70,000 張圖像。 首先,它卡在第一個時期,然后即使它開始訓練,一段時間后它也會拋出 RAM 錯誤。 我使用的代碼是:
<https://nbviewer.org/github/nicknochnack/FaceRecognition/blob/main/Facial%20Verification%20with%20a%20Siamese%20Network%20-%20Final.ipynb>
如果我必須對我的數據集進行小批量處理以使其適合 colab 的 GPU memory,那么我該怎么做呢? 另外,我想訓練整個數據集,因為它包含 5 個不同人的圖像作為錨點和陽性。
您可以執行以下選項來訓練更大的數據集。
下面附上示例 colab 筆記本。 https://colab.sandbox.google.com/github/tensorflow/docs/blob/master/site/en/guide/data.ipynb
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.