簡體   English   中英

在協同過濾的梯度下降中,x 和 theta 是否同時更新?

[英]In gradient descent for collaborative filtering, are x and theta update simultaneous?

我正在學習 Andrew Ng 的機器學習課程,並且正在學習第 16 章:推薦系統。 我目前看完了關於協同過濾的部分。 在其中,他談到了如何猜測參數:theta,然后用它來預測 x 並使用預測的 x 來學習更好的參數,等等。 他還說可以同時完成,並給出了梯度下降算法:

協同過濾梯度下降算法示意圖

我想問一下 x 和 theta 是否同時更新。 例如,對於每次迭代:在 x 上執行一次梯度下降后,我是否使用 x 的新值重新計算平方誤差和,然后在 theta 上執行梯度下降,然后重復直到收斂。 或者我是否在 x 上執行單個梯度下降,使用相同的平方誤差和,也在 theta 上執行梯度下降

您可以同時進行一次更新。 您甚至可以使用以下公式同時更新x和 theta 來總結它: 在此處輸入圖像描述

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM