寻求一个光滑的最大值函数
这篇文章的目的是推导最大值函数\max(x,y)的一个光滑可导函数,并且该函数具有多阶可导性。实际上这和深度学习的关系并不是特别大,只有极少数情况会用到
在数学分析中,当x\ge0,y\ge0时,我们有
那么,为了寻求一个最大值的光滑函数,我们首先考虑寻找一个能够近似表示绝对值|x|的函数。那么,哪些函数可以使用呢?
直接观察挺难发现哪个函数可以使用的,我们将问题逐步向简单推进。对f(x)=|x|求导,除了x=0这一点外,其他都可以顺利求导
到此为止,我们要做的是利用一个函数g(x),将其仿射变换为f'(x)。而关于函数g(x)的选择,应该至少满足以下两点:
- 应该是个分段函数
- 求不定积分简单,或者说至少能查到\int g(x)dx的结果
实际上g(x)也确实有许多满足上述两点的选择,以下就分别给出选择\text{sign}(x)和单位阶跃函数\theta(x)的推导
\text{sign}(x)
首先回顾\text{sign}(x)的形式:
于是就有f'(x)=\text{sign}(x),下面只需要寻求\text{sign}(x)的近似函数,很容易想到
其中,\tanh(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}}。由于f'(x)=\tanh(kx),积分得
不难发现,(5)式中的对数部分,在k足够大的时候,常数\ln2的影响微乎其微,把它去掉之后,我们有一个比较简单的绝对值函数:
\theta(x)
首先回顾单位阶跃函数\theta(x)的形式:
那么
下面只需要寻求\theta(x)的近似函数,物理学家已经提供现成的函数给我们了,一个比较简单的形式是
那么我们就可以取\frac{1}{1+e^{-kx}}作为近似函数了,带入(8)式得到\frac{2}{1+e^{-kx}} - 1,积分得
同理,当k足够大的时候,常数2的影响微乎其微,把它去掉之后,我们同样得到一个比较简单的绝对值函数
对比(6)和(11)可知,无论选用\text{sign}(x)还是\theta(x),最终|x|的近似函数都是一样的,这也从侧面证明了这个式子的准确性
将式(11)带入到式(1)得
由于式(1)是在x\ge 0, y\ge 0时成立的,所以式(12)中的e^{-2kx},e^{-2ky}都不重要了,我们也把它去掉,进一步得到
或者写成
(14)式正是我们希望得到的理想的最大值函数。虽然我们的推导基于x\ge0,y\ge0,但是不难发现,对于x,y中出现负数时,上述公式仍然成立!它甚至还可以推广到多个变量的最大值函数:
补充
对于式(14)我们不妨设k=1,令x=3,y=8,则\ln(e^3 + e^8)\approx8.00672 。由于x和y都在指数位置上,因此它们的差距将会放得很大。虽然3和8这两个数虽然相隔不远,但e^3\approx20.0855,e^8\approx2980.96,两个幂差了几个数量级。因此,把e^3加到e^8上,几乎不会改变e^8的大小。对e^3+e^8取对数的结果和直接对e^8取对数的结果相差不多,并且这个函数可以通过控制k的大小实现精度控制,k越大则结果越近似
这实际上是做了这样的一个事情:找一个在整个实数域上都单调递增的函数,而且增长速度要快于线性增长,然后求和,最后取逆函数。因此,不难构造出类似的函数:我们选f(x)=x^{2k+1},那么得到
当然,(16)的精度(或者说收敛速度)远没有(14)那么好,要提高精度也不难,比如
References
-
深度学习
这个用来干哈?
可以用来装x
大佬