cost 213 ms
如何計算 CATS 算法的損失

[英]How the losses are being computed for CATS algorithm

在 VowpalWabit 庫中使用 CATS 算法時,我在嘗試計算損失時遇到了困難。 有誰知道它是如何計算的(平均值和最后一個) 我試圖計算我在文檔中找到的平均成本(損失 = 成本 = -獎勵) ...

需要幫助理解為什么這個無效的 C++ 代碼編譯成功

[英]Need help understanding why this invalid C++ code compiles successfully

以下代碼在某些環境中為我正確編譯(例如,在帶有 gcc 9.3.0 的編譯器資源管理器上)並在其他環境中抱怨(CentOS 7.9.2009(核心),gcc 9.3.1)。 當我收到錯誤時,錯誤是: 該錯誤對我來說看起來很合理,因為根據C++ 文檔, arguments 到std::basic_st ...

Vowpal Wabbit Contextual Bandit 正確用法

[英]Vowpal Wabbit Contextual Bandit correct usage

我目前正在使用 Vowpal Wabbit package 來模擬 Contextual Bandit。 關於圖書館的使用,我有幾個問題: 我有多個上下文/類別,其中的操作相交。 例如,假設我有 A 隊、B 隊和 C 隊的球衣。這些球衣有 S、M 和 L 碼。根據過去的需求,我想推薦生產 jerse ...

VowpalWabbit 上下文 wabbit 僅生成單個動作,與上下文無關

[英]VowpalWabbit Contextual wabbit generating just single action irrespective of context

我在上下文強盜設置中使用 vowpalwabbit。 但我對一個奇怪的問題感到震驚,即無論上下文如何,vowpalwabbit 都只會生成相同的 PMF。 理想情況下,它應該根據不同的上下文為動作選擇生成不同的 PMF。 這是我正在使用的示例數據。 我使用以下設置初始化了我的 vowpalwabbi ...

如何在上下文強盜設置中打印 vowpal wabbit 回歸 model

[英]how to print a vowpal wabbit regression model in contextual bandits setting

我在 python 中使用 vowpal wabbit 解決上下文強盜問題。Vowpal wabbit 有一個預測 model,它使用雙穩健方法構建回歸 model 來預測不同操作的成本。 這個 model 然后被探索策略用於 output 預測。 有沒有辦法打印(在 python 中)預測的回歸 ...

如何進行熱啟動並將 vowpal wabbit 用於上下文強盜

[英]How to do warm start and use vowpal wabbit for contextual bandits

我想在 vowpal wabbit 中實現上下文強盜。 我想將它用於 email 活動(新),其中有 5 種不同的電子郵件變體。 我有過去 email 活動的歷史數據(1 個 AB 測試有 2 個 email 變體和 1 個 email 有 100% 展示活動的變體)。 歷史數據中的 email 變 ...

vowpal wabbit java:獲取原始預測

[英]vowpal wabbit java: get raw predictions

我正在使用 vowpal wabbit 的 Java API 來獲得預測。 我需要原始預測(與-r output.txt相同)但我在VWMulticlassLearner class 中找不到任何此類方法。我正在使用以下arg通過 cmd 在 python 中訓練我的 model - 我們在 Jav ...

vowpal wabbit 的自定義損失

[英]Custom loss for vowpal wabbit

Vowpal Wabbit 目前提供 5 個損失...我正在尋求實施一個與我的問題相匹配的新損失。 怎么可能做到這一點? 如何使用 python (pyvw) 包裝器做到這一點? ...

上下文老虎機獎勵可以隨着時間而改變嗎?

[英]Can contextual bandit rewards be changed over time?

我正在使用 Vowpal Wabbit 實現一個上下文強盜,用於動態定價,其中武器代表價格利潤。 成本/回報由價格 - 預期成本決定。 成本最初是未知的,因此它是一個預測並且有可能發生變化。 我的問題是,如果您的成本/獎勵會隨時間變化,您能否更新成本/獎勵以反映實際成本並重新訓練 model? 下 ...

VowpalWabbit 上下文強盜的默認學習器 (SGD)

[英]VowpalWabbit Default Learner For Contextual Bandit (SGD)

我正在考慮使用 VowpalWabbit 實現一個上下文強盜,類似於此處的示例 - 使用 VowpalWabbit 優化 CTR(點擊率):如何選擇合適的參數? ,但我的應用程序將用於動態定價。 我目前使用的唯一上下文是客戶 ID,但我希望最終添加更多內容。 我正在使用 --cb_explore ...

如何理解 vw.format 中的插槽 - Vowpal Wabbit Conditional Contextual Bandit

[英]How to understand the slots in the vw.format - Vowpal Wabbit Conditional Contextual Bandit

我正在嘗試建立一個上下文強盜。 因為我喜歡對動作進行排名,所以我想切換到有條件的上下文強盜(正如我在這里讀到的)。 但是現在我很難理解新的 vw 格式。 vowpal wabbit wiki的示例是這樣的: 不幸的是,我不了解 Slot 部分。 我知道這告訴了所選行動的成本和概率。 ccb s ...

VowpalWabbit - 如何僅為具有連續特征和分類特征的表格數據的分類特征設置三階交互

[英]VowpalWabbit - how to set third order interactions only for categorical features for tabular data with both continues and categorical features

對於 VowpalWabbit - 如何僅為具有連續和分類特征的表格數據的分類特征設置三階交互,例如如何更改: vw_squared = VWRegressor(loss_function='squared' , interacts = 'abc') 假設 VWRegressor 的輸入數據是 P ...

如何在 VowpalWabbit 中正確地批量訓練?

[英]How to properly train batch-wise in VowpalWabbit?

我們正在嘗試以在線方式訓練 VowpalWabbit (VW) 模型。 然而,由於我們的系統架構和需要擴展,我們必須分批訓練,不能在每次預測時都進行在線更新。 我的問題是,在收斂方面解決這個問題的最佳方法是什么。 是否有一種特殊的模式可以為此運行大眾? 我們目前在做什么: 初始化模型:-- - ...

Vowpal Wabbit中contextual bandit的數值訓練數據格式

[英]numerical training data format of contextual bandit in Vowpal Wabbit

我計划使用 Vowpal Wabbit(VW) 的上下文強盜來構建推薦系統。 我有N用戶的M (在這種情況下為26 )維數字特征,並且有包含用戶點擊哪個項目(例如廣告)的信息的反饋日志。 並且每個反饋日志的有效動作總數略有不同(大約100 ~ 150 )。 只有來自 items(actions) ...

使用 VowpalWabbit 優化 CTR(點擊率):如何選擇合適的參數?

[英]Optimizing CTR (click through rate) with VowpalWabbit: How to choose suitable parameters?

我正在嘗試使用 VowpalWabbit(按照這篇文章vw 教程)優化某些文章或廣告(操作)的點擊率給定設備類型(上下文)。 但是,我無法使其可靠地收斂到最佳動作。 我創建了一個最小的工作示例(抱歉長度): 本質上,存在三種可能的操作(文章 1-3)和 6 個上下文(設備 1-6),每種組合都 ...

如果沒有與手臂相關聯的特征,cb_adf 算法如何知道數據中有新動作可用?

[英]How does cb_adf algorithm know a new action is available in the data if no feature is associated with arms?

從我讀過的文檔來看,cb_adf 格式的多行數據適用於操作數量隨時間變化的場景。 我的問題是,算法如何知道新動作是否可用? 像格式化記錄的強盜數據這樣的代碼是否正確? 和 如果一項操作不再可用怎么辦? ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM