第89章 理论和应用(2/2)

“若我们先用传统傅里叶变换,再用均匀的离散傅里叶变换来逼近。其误差则~m^-a/d,必然被维度所影响。

try{ggauto();} catch(ex){}

可,若一个函数可以表示成期望的形式,而令所有样本为独立同分布样本,则有拟合差值为var(f)/m,与维度无关。

若将两层神经网络写作该形式,则意味着,这一类期望函数均可由两层神经网络逼近,且其逼近速度与维度无关。”

“让我们转向离散动力系统的视角,举一个随机控制问题。

动力模型Zl+1=Zl+g1(z1,a1)+n,其中z为状态,a为控制信号,n为噪声。若我们想寻找一个反馈控制信号函数,而通过求解动态规划贝尔曼方程,则必然会遭遇维度灾难问题。

该过程的性质,其实与残差网络等同。

..................”

“最后,我总结。深度学习根本上是高维中的数学问题。神经网络是高维函数逼近的有效手段,而残差网络则是更加容易优化的高维函数。

这意味着:数学处于科技创新的真正前沿,并且对新领域产生直接冲击。同时也为人工智能领域、科学以及技术领域提供了众多新的可能性。”

韩辞总共讲述的时间大约是孟繁岐的两倍,讲述完成之后,更是被几位老学究抓着反复提问,讨论。

半晌,主持人才找到机会重新登台,把孟繁岐又请了上去。

主持人看上去年纪不大,大约三十岁左右,估计是斯坦福的在读博士生或者刚毕业的讲师。

为人相当活跃,看热闹的不嫌事大,他将孟繁岐重新请上来之后,还开了一句玩笑。

“这次演讲本来是你的舞台,现在却被韩辞小姐抢去了不少风头和关注,不知道你作何感受?”

孟繁岐笑着接过话筒,等台下的笑声稍稍平息一些过后,十分大方地回答道,“我们专注应用方面的人,依靠得是代码说话。虽然我今天丝毫没有提到技术的实现和细节,但我想看了我代码的大家,都已经感受到了我的万语千言。”

台下的不少程序员闻言马上开始起哄,口哨声和呼声此起彼伏。

“我的梦想是自己的技术可以广泛地应用到世界各地,让AI智能就如空气一般,每个人都无法缺少,但在生活当中却又很少会注意到它们的存在。

至于AI的理论研究和探索,可能就要拜托韩辞和大家了。”

这一番话还算是谦逊得体,意料之中地迎来全场的掌声。

台下诸人又再分别向两人问了一些问题之后,会议的主要流程也算是走完。

除了公开询问的问题,不少人也有很多私下里才方便的问的事情要询问两人。

于是乎,在场的不少人就自然而然地分成了应用与理论两个派别。

一派以科技巨头,例如杰夫为首,围在孟繁岐周边讨论他出色成果的应用场景,市场潜力还有落地难点。

而另一派则以牛津大学的几位老学究为首,一群理论派,表情严肃,正在严谨地讨论一些设想和它们的理论证明。

以会场中心的走廊为分界线,一群人在左,一群人在右。

倒是一幅意外有趣的画面。