毕竟正常人哪有随便打个赌,就把未来十年给交代出去的?
乔源吃饭保持了以往的超快速度。本来也的确有些饿了。
放下筷子,他也没继续在电脑上鼓捣,而是把小黑板拖到了自己这边,拿起粉笔直接开始推导。
这一动作自然吸引了两个女人的目光,尤其是骆余馨,边吃着饭边盯着黑板看着。
时不时的还点评两句:「呦,Fkker—Plank方程都用上了?」
乔源随口答道:「解决具体问题的时候,当然是什么工具好用就用什么。
说着,乔源在黑板上随手写下了ρ(X,),嘴里则随口解释着:「这就是时刻策略向量的概率分布,这个分布ρ的演化,正好可以用Fkker—Plank方程描述。
所以现在问题就是雅典娜的优化过程,其策略的经验分布在平均场极限下必然会收敛于一个稳态分布ρ—∞。
因此,其性能指标Y作为随机变量的期望值,也必然收敛。但我还没找到收敛速率以及何时能达到最优解,完成这项工作就能开始构建模型了。
不过这也难不倒我了,我刚刚上午已经想到了,完全可以采用微分包含描述其非光滑性。」
说着乔源随手又写下一串公式:dX—∈—af(X—)d————
「然后再引入随机性————」
话音落下,又一行公式乔源在上面的公式后面又加上了一串。
+σdW—
「好了,现在就是要考虑怎么把分布式与随机性统一起来。首先我们需要给出一个定义。
对了,解释一下,刚刚我说的分布收敛并不是概率学意义上的分布收敛,而是一个新的定义。
就是上述随机分布式优化过程。
严格定义就是对于一个随机优化过程{X—},如果其经验分布u—弱收敛于一个稳态分布μ—∞,则称该过程是分布收敛的。」
说完,乔源扭头看了眼抱着盒饭,已经没心情继续吃的骆余馨,挑了挑眉毛,说道:「师姐,现在请一定不要眨眼,看我给你变个魔术啊!」
听了这话,骆余馨报复性疯狂眨了眨眼,但没吭声。
可惜乔源说完之后就已经扭过头,不管不顾的继续开口说道:「现在我们定义个新的泛函,嗯,不如就给它取个新名字叫分布熵吧————」
话音落下,黑板上又多出—排的公式:V(ρ)=∫f()ρ()d+∫ρ()lnρ()d
「师姐先别急着犟啊,刚才我说了,引入随机性,那是不是就可以把整个粒子系统当成一个热力学系统?
当然你要是看不懂这一步也没关系,不影响你观看魔术。现在我问你一个问题,这个系统最终会去哪?」
骆余馨依然没有回答,然后乔源则开始自问自答了。
「这就是解决这个问题最重要的定理之一了,想想我刚才对分布收敛的定义,系统的经验分布μ—会弱收敛于一个稳态分布μ—∞。
非常非常巧合的是,当我们完成这一系列推导之后就会发现,这个稳态分布恰好就是这个分布熵的极小点!这个结果可以通过简单的计算就能确定!
看吧,得到这一步之你是不是开始觉得太神奇了?所以你肯定要问,这是为什么呢?
答案就藏在这一步。其中第一项∫fρ是性能驱动,它要把分布推向性能更好的区域。
第二项就是熵,它不止代表了随机性,更让分布不会坍缩成一个点,而是始终保持探索性!」