零点看书

字:
关灯 护眼
零点看书 > 科研系学霸 > 第6章 今天的面试就先到这里,几位回去等通知吧

第6章 今天的面试就先到这里,几位回去等通知吧

第6章 今天的面试就先到这里,几位回去等通知吧 (第1/2页)

邓永华听完微微点头:“一些行业里确实会存在这种问题,我是搞网安方向的,
  
  一般这种情况我们关注的都是如何保护已上传的数据或者是在数据传输过程中进行更加复杂的加密算法,
  
  但是数据在传输过程中,无论加密多强,理论上都存在被截获和破解的风险,而且数据包越多,传输时间越长,风险暴露窗口越大,
  
  现在大模型的数据量都是巨大的,风险也会更大,所以一些保密性强的数据,现在还是会采用光盘,硬盘这种物理的方式。
  
  不过你这种方法也算是一种新的思路,继续吧。”
  
  “老师说的没错,AI模型的边缘部署如果能够实现,可以很大程度上规避这类数据安全的问题,让数据可以直接在本地进行使用,不用转移。”
  
  周昀将PPT翻到下一页:“其实现在已经有了不少相关的研究,但是想要真正实现让大模型在手机这种终端运行还有很长一段路要走。”
  
  哪怕是明年年初deepseek公开论文中的蒸馏方法,也达不到周昀想要的结果。
  
  其实凭借他现在变态的记忆力完全可以复现出大量还未出现的顶刊论文,包括很多开源的代码。
  
  但是他不会这么做,计算机能够如此快速的发展,离不开两个字——“开源”!
  
  如果他真的做了“文抄公”,就相当于是剽窃了别人的研究成果,哪怕是前世的周昀都没有干过这种事情,更别说现在了。
  
  而且,凭他现在的智商,想发几篇顶刊,很难吗?
  
  收回有些发散的思维,周昀继续道:“现有的边缘AI部署我总结为以下三类:
  
  1.模型压缩,这是最直接也最常用的方法之一,可以理解为将一块充满水分的海绵强行挤压变小,主要的方法一般有量化、剪枝、知识蒸馏,不过这种方法也有一个缺陷,那就是模型的性能会变差。
  
  2.边缘资源管理与调度,简单来说就是智能地分配和优化边缘计算设备,如服务器、传感器、网关的算力,以高效、低延迟地执行AI任务,但是这种方法会带来数据安全和隐私问题。
  
  3.适应性AI系统,这是我自己定义一种方法,即设计一种框架,让大模型能够自行优化,缩小,达到能够部署在边缘设备的方法,通俗来讲就是用AI调教AI。
  
  这也是我提出的AgileEdge的主要思想。
  
  当然,我所说的方法都是软件层面的,不管怎么设计,其终究都是受限于物理设备,
  
  但是在我看来,如今的算法还远远没有触及到现有物理设备的上限。”
  
  听到这里,一同参加面试的四位学生已经有点麻了。
  
  满脸的问号已经不足以形容他们的懵逼。
  
  他们脑子里不由得同时发出灵魂三问:“我是谁?我在哪?我要干什么?”
  
  这还是双非吗?
  
  不光是他们,其实就连邱彦和沈瑞都有些唏嘘,虽然暂时周昀还没有讲到具体的算法,
  
  但是光凭前面这些,就能看出来他在AI方面的功底不差,论文估计也没少看,不然就邓老师问的第一个问题,他就答不出来。
  
  两人心里不约而同地冒出一个想法:“新来的学弟,有点狠啊!”
  
  要说现在最淡定的就是邓永华了,毕竟像周昀这种自带方向进组的学生他也见过不少。
  
  

(本章未完,请点击下一页继续阅读)
『加入书签,方便阅读』
热门推荐
极品全能学生 凌天战尊 御用兵王 帝霸 开局奖励一亿条命 大融合系统 冷情帝少,轻轻亲 妖龙古帝 宠妃难为:皇上,娘娘今晚不侍寝 仙王的日常生活