![](/img/trans.png)
[英]How to compute all second derivatives (only the diagonal of the Hessian matrix) in Tensorflow?
[英]TensorFlow: Compute Hessian matrix (and higher order derivatives)
好吧,您可以毫不费力地计算 Hessian 矩阵!
假设您有两个变量:
x = tf.Variable(np.random.random_sample(), dtype=tf.float32)
y = tf.Variable(np.random.random_sample(), dtype=tf.float32)
以及使用这两个变量定义的函数:
f = tf.pow(x, cons(2)) + cons(2) * x * y + cons(3) * tf.pow(y, cons(2)) + cons(4) * x + cons(5) * y + cons(6)
在哪里:
def cons(x):
return tf.constant(x, dtype=tf.float32)
所以在代数方面,这个函数是
现在我们定义一个计算hessian的方法:
def compute_hessian(fn, vars):
mat = []
for v1 in vars:
temp = []
for v2 in vars:
# computing derivative twice, first w.r.t v2 and then w.r.t v1
temp.append(tf.gradients(tf.gradients(f, v2)[0], v1)[0])
temp = [cons(0) if t == None else t for t in temp] # tensorflow returns None when there is no gradient, so we replace None with 0
temp = tf.pack(temp)
mat.append(temp)
mat = tf.pack(mat)
return mat
并调用它:
# arg1: our defined function, arg2: list of tf variables associated with the function
hessian = compute_hessian(f, [x, y])
现在我们获取一个 tensorflow 会话,初始化变量,然后运行hessian
:
sess = tf.Session()
sess.run(tf.initialize_all_variables())
print sess.run(hessian)
注意:由于我们使用的函数本质上是二次的(并且我们进行了两次微分),因此无论变量如何,返回的 hessian 都将具有常量值。
输出是:
[[ 2. 2.]
[ 2. 6.]]
提醒一句:Hessian 矩阵(或更一般地说,张量)的计算和存储成本很高。 您实际上可能会重新考虑是否真的需要完整的 Hessian 或一些 hessian 属性。 其中许多,包括迹、范数和顶部特征值,无需显式Hessian矩阵即可获得,只需使用 Hessian 向量乘积预言机即可。 反过来,hessian-vector 产品可以有效地实现(也在领先的 autodiff 框架中,例如 Tensorflow 和 PyTorch)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.