CloseAI提示您:看后求收藏(第88章 学界的偏爱,重生之AI教父,CloseAI,笔趣阁),接着再看更方便。
请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。
首先,她是移民华裔,对华国人也相当照顾。比如后来成为阿狸VP的贾扬清,在斯坦福的时候虽然不是李飞飞的学生,但也被其多次督促学习。
虽然目前地位还没有那么高,但后来是美国三院院士,在斯坦福AI圈内算得上第一流导师。
其次,她跟《自然》《美国国家科学院院刊》等顶级杂志,以及视觉三大顶级会议等组织的关系很不错,她的IMAG赛事经常在顶会上举办。
与她合作,自己的成果发布起来会轻松不少。凭借自己的成果质量,基本上几个会议的奖项可以说是预订了。
最后,她在谷歌的影响力,会一定程度上使得自己的成果更容易推动,乃至具体分成和其他的谷歌内部事情都会更加顺利一些。
在会场直接谋求入学斯坦福是孟繁岐之前就想好了的事情,因此他早就备好了纸质的简历和研究计划书等内容,甚至还包括辛顿帮忙写的推荐信。
可以说是非常有备无患了,辛顿也只得扼腕叹息,为何自己所在的学校偏偏远在加拿大,果然还是近水楼台先得月。
此时,台上的韩辞手忙脚乱了一番之后,开始了自己的展示部分。
“到目前为止,AI相关的学科发展,已经彻底改变了人们过去对AI的认识。孟的残差思想在许多图像任务上取得了令人叹为观止的成就。
比如比人类更精确地识别图片,又或者直接凭空生成完不存在的图像。而这些了不起的成就,主要是通过求解的方式来完成。
例如,对于任一图像问题,我们感兴趣的是从图片到具体意义的映射函数,比如图像到它的内容的类别。
目前惯常的训练做法是,基于一个有限的数据,给出目标函数的一个高效逼近。又或者是利用没有标签的有限样本,逼近采用背后的未知概率。”
“神经网络的基本组成部分即为:线性变换与一维非线性变换。深度神经网络,一般就是上述结构的反复复合。
对于已经构建的网络,设计一个最优化问题,根据经验误差去拟合数据,有时加上一些正则化项,并求解该优化问题。”
韩辞的幻灯片上开始展示密密麻麻的一些公式,“由此,我们便可以把误差分解成三部分,逼近误差完由假设空间的选取所决定,估计误差由数据集的大小和质量而带来的额外误差,以及优化误差,这是由优化,或者说训练带来的额外误差。”
虽然之前已经大概了解了韩辞在这方面的想法,但在如此正式的场合,看到她有些紧张却仍旧十分自信的展示这些专业高深的内容。
孟繁岐还是相当敬佩的。
这里面的不少结论都是后来世人熟知的,不过大都是通过大量的实验观察,总结归纳出的一些经验性结论。
虽然今生,孟繁岐将会在诸多AI应用领域开天辟地,可内在的数理证明,终将是他两辈子都无法越过的鸿沟。
对那些可以做到这些事情的人,人们难免会另眼相待。
而此时此刻,会场当中,看好韩辞的并不只是懵懵懂懂觉得厉害的孟繁岐。
以辛顿为首的学院派,比如牛津团队的几位老教授,眼中满是赞许的目光。
这个待遇是连孟繁岐刚刚也没有的。
“可能这就是老学究们对于理论的偏爱吧。”孟繁岐笑着摇了摇头,自己这个做AI应用技术的,可能永远没有办法获得这几个怪老头的如此偏爱。
本章未完,点击下一页继续阅读。