問答題
以下語句實(shí)現(xiàn)了損失函數(shù)loss 分別對(duì)可訓(xùn)練參數(shù)w1和b1求偏導(dǎo)數(shù),并將計(jì)算結(jié)果保存到grads列表中。 with tf.GradientTape() as tape: 前向傳播過程計(jì)算y 計(jì)算總loss grads = tape.gradient(loss, [ w1, b1 ])
答案:
是的,您提供的代碼片段是使用TensorFlow框架實(shí)現(xiàn)自動(dòng)微分的一個(gè)例子。這段代碼使用了`tf.GradientTap...