我们熟悉 标量对标量 的求导,因为这是高数、微积分的基础。 但是在神经网络的学习中,常常处理的是 向量对向量 的求导。
这里我们采用由浅入深的方式介绍
这里参考 王圣元 (2019)
组合含有 京东一股
\[组合 = 1 \cdot 京东 \xrightarrow{京东变动1美元} \frac{d 组合}{d 京东} = 1\]
组合含有三种股票 一股京东,两股百度,三股脸书
\[\frac{d 组合}{d 股票} = \frac{d 组合}{d [京东, 百度, 脸书]} = \begin{bmatrix} \frac{d 组合}{d 京东} & \frac{d 组合}{d 百度} & \frac{d 组合}{d 脸书} \end{bmatrix} = \begin{bmatrix} 1 & 2 & 3 \end{bmatrix}\]
把 LaTeX 编辑好
有两个组合,都买了京东
\[\frac{\mathbb{d} \space 组合}{\mathbb{d} \space 京东} = \frac{\mathbb{d} \space \begin{bmatrix} 组合a & 组合b \end{bmatrix} }{\mathbb{d} \space 京东} = \begin{bmatrix} \frac{\mathbb{d} \space 组合a}{\mathbb{d} \space 京东} & \frac{\mathbb{d} \space 组合b}{\mathbb{d} \space 京东} \end{bmatrix} = \begin{bmatrix} 1 & 4 \end{bmatrix}\]
变动为
我们假设组合和股票类型为
\[组合 = \begin{bmatrix} 组合a \\ 组合b \end{bmatrix}\]
\[股票 = \begin{bmatrix} 京东 & 百度 & 脸书 \end{bmatrix}\]
实际上就是先将 \(\frac{\mathbb{d} \space 组合}{\mathbb{d} \space 股票}\) 写成和“组合”一样大小的向量,再根据“股票”的大小,把组合向量里每个元素展开。
\[\frac{\mathbb{d} \space 组合}{\mathbb{d} \space 股票} = \begin{bmatrix} \begin{bmatrix} \frac{\mathbb{d} \space 组合a}{\mathbb{d} \space 京东} & \frac{\mathbb{d} \space 组合a}{\mathbb{d} \space 百度} & \frac{\mathbb{d} \space 组合a}{\mathbb{d} \space 脸书} \end{bmatrix} \\ \begin{bmatrix} \frac{\mathbb{d} \space 组合a}{\mathbb{d} \space 京东} & \frac{\mathbb{d} \space 组合a}{\mathbb{d} \space 百度} & \frac{\mathbb{d} \space 组合a}{\mathbb{d} \space 脸书} \end{bmatrix} \end{bmatrix} = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}\]
现在有四家基金,分别在组合 A 和 B 上投资 20% 和 80%,50% 和 50%,70% 和 30%,90% 和 10%
\[\frac{\mathbb{d} \space 组合}{\mathbb{d} \space 股票} = \begin{bmatrix} 基金1 \\ 基金2 \\ 基金3 \\ 基金4 \end{bmatrix} = \begin{bmatrix} 0.2 & 0.8 \\ 0.5 & 0.5 \\ 0.7 & 0.3 \\ 0.9 & 0.1 \\ \end{bmatrix} \begin{bmatrix} 组合a & 组合b \end{bmatrix} = \begin{bmatrix} 0.2 & 0.8 \\ 0.5 & 0.5 \\ 0.7 & 0.3 \\ 0.9 & 0.1 \\ \end{bmatrix} \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \begin{bmatrix} 京东 \\ 百度 \\ 脸书 \end{bmatrix}\]
R 中 求导数,方程是什么。 矩阵求导 R,没找到
王圣元. 2019. “张量求导和计算图.” 王的机器. 2019. https://mp.weixin.qq.com/s/HQpaAg00j-teybSQJAb-ZQ.