第67章 Q&A
第67章 Q&A (第2/2页)如果周昀无法回答这个问题,这篇文章的严谨性就会受到质疑。
何凯明也很好奇周昀会怎么回答这个问题,于是他看向台上,结果对方的反应倒是有些出乎他的预料。
周昀的眼神中没有丝毫的慌乱,反倒是有些......兴奋?
其实这个问题周昀自己也问过自己,他本来还想着如果没人提出这个问题,自己是不是要在报告的时候提一下,毕竟这个点确实非常重要。
不过最后还是没有加到前面的报告里,主要是之前报告要讲的都已经确定了,再加上这一段,时间上可能会超。
现在有人提出来,正合他的心意。
“何教授,非常感谢您如此深刻的提问,这确实是我的工作中最需要谨慎对待的部分。
您提到的‘无限递归’风险,在任何自指系统中都是理论上存在的。
为了规避这一点并确保系统的收敛与可靠,我们引入了一个基于博弈论和不动点理论的混合数学框架。”
这就是为什么周昀在一开始要学习数学的原因了,一个良好的数学功底,真的能在很多时候帮忙解决一些关键性的问题。
周昀看了眼时间,应该够了。
他用电脑创建了一个白板,然后开始用鼠标作画,虽然有点抽象,但是配合他的讲解,也算能勉强看的懂。
“首先,我们将‘被压缩的AI模型’与‘负责调教的AI元模型’之间的关系,形式化为一个非零和合作博弈。
‘被压缩的AI模型’选择一组模型参数θ目标是在给定的压缩约束下最小化任务损失函数L_task(θ),
而‘负责调教的AI元模型’选择一种压缩策略φ,目标是最小化一个元损失函数L_meta(φ,θ),
这样就能得到一个组合的惩罚项,也就是一般模型里的损失函数L_meta(φ,θ)=L_task(θ')+λ*R(φ),
我们并不追求一个无限递归的最优,而是试图找到一个平衡,这正是一个纳什均衡点的概念。
之后我设计了一个交替优化算法来逼近这个均衡点,其迭代过程可以假设地抽象为一个映射T:(θ_k,φ_k)->(θ_{k+1},φ_{k+1})
......
经过以上的过程,我们就可以证明T确实是压缩映射,根据Banach不动点定理,
这个映射就存在唯一的不动点,并且无论从任何初始点开始迭代,
该算法都会以线性收敛速度全局收敛到这个唯一的不动点(θ*,φ*)。
而这个不动点正是我们寻求的纳什均衡。”
其实说到一半的时候大部分人就已经跟不上周昀的思路了,毕竟不是数学系的,
对于这种数学证明,大部分人都不是特别擅长,更别说周昀这个证明也没那么简单。
不过何凯明倒是能跟得上,毕竟他在从事计算机的研究之前,是水木大学物理系的学生,数学功底也会强一点。
周昀说完,再次向何凯明微微点头示意:“不知道这个解释是否回答了您的问题?”