嘗試使用 Tensorflow 概率中的 DenseVariational 層創建貝葉斯神經網路。我的問題是,當我們將引數 kl_use_exact 設定為 False 時,我們沒有考慮先前的函式。我試圖查看 DenseVariational 類(_make_kl_divergence_penalty 函式)的源代碼,我比以前更困惑,我沒有得到 kl_use_exact 的使用。
uj5u.com熱心網友回復:
kl_use_exact
指定變分后驗和先驗之間 KL-Divergence 的計算方法。
False
: KL 是近似的。
True
:使用實際的 KL 值。但是,True
當且僅當分布之間的 KL-Divergence 在 TensorFlow-Probability 中注冊時,才能設定它。
轉載請註明出處,本文鏈接:https://www.uj5u.com/ruanti/495333.html