57书屋

第6章 今天的面试就先到这里,几位回去等通知吧 (1/3)

      邓永华听完微微点头:“一些行业里确实会存在这种问题,我是搞网安方向的,

    一般这种情况我们关注的都是如何保护已上传的数据或者是在数据传输过程中进行更加复杂的加密算法,

    但是数据在传输过程中,无论加密多强,理论上都存在被截获和破解的风险,而且数据包越多,传输时间越长,风险暴露窗口越大,

    现在大模型的数据量都是巨大的,风险也会更大,所以一些保密性强的数据,现在还是会采用光盘,硬盘这种物理的方式。

    不过你这种方法也算是一种新的思路,继续吧。”

    “老师说的没错,AI模型的边缘部署如果能够实现,可以很大程度上规避这类数据安全的问题,让数据可以直接在本地进行使用,不用转移。”

    周昀将PPT翻到下一页:“其实现在已经有了不少相关的研究,但是想要真正实现让大模型在手机这种终端运行还有很长一段路要走。”

    哪怕是明年年初deepseek公开论文中的蒸馏方法,也达不到周昀想要的结果。

    其实凭借他现在变态的记忆力完全可以复现出大量还未出现的顶刊论文,包括很多开源的代码。

    但是他不会这么做,计算机能够如此快速的发展,离不开两个字——“开源”!

    如果他真的做了“文抄公”,就相当于是剽窃了别人的研究成果,哪怕是前世的周昀都没有干过这种事情,更别说现在了。

    而且,凭他现在的智商,想发几篇顶刊,很难吗?

    收回有些发散的思维,周昀继续道:“现有的边缘 AI部署我总结为以下三类:

    1.模型压缩,这是最直接也最常用的方法之一,可以理解为将一块充满水分的海绵强行挤压变小,主要的方法一般有量化、剪枝、知识蒸馏,不过这种方法也有一个缺陷,那就是模型的性能会变差。

    2.边缘资源管理与调度,简单来说就是智能地分配和优化边缘计算设备,如服务器、传感器、网关的算力,以高效、低延迟地执行 AI任务,但是这种方法会带来数据安全和隐私问题。

    3.适应性 AI系统,这是我自己定义一种方法,即设计一种框架,让大模型能够自行优化,缩小,达到能够部署在边缘设备的方法,通俗来讲就是用AI调教AI。

    这也是我提出的AgileEdge的主要思想。

    当然,我所说的方法都是软件层面的,不管怎么设计,其终究都是受限于物理设备,

    但是在我看来,如今的算法还远远没有触及到现有物理设备的上限。”

    听到这里,一同参加面试的四位学生已经有点麻了。

    满脸的问号已经不足以形容他们的懵逼。

    他们脑子里不由得同时发出灵魂三问:“我是谁?我在哪?我要干什么?”

    这还是双非吗?

    不光是他们,其实就连邱彦和沈瑞都有些唏嘘,虽然暂时周昀还没有讲到具体的算法,

    但是光凭前面这些,就能看出来他在AI方面的功底不差,论文估计也没少看,不然就邓老师问的第一个问题,他就答不出来。

&nbs

本章未完,请点击下一页继续阅读

『加入书签,方便阅读』
推荐小说:
混在大巫中的人族 亲妈重生在七零,带着崽崽杀疯了 镜影墨痕 大秦:开局捡到一只灰太狼 逃荒有空间,全家魂穿古代搞事业 我修真归来,只为守护家人 明争暗诱 重生四九城,激活每日情报系统 阎王殿下的小闺女 无限天神君临
相关推荐:
宿主虐渣不眨眼,极品纷纷跪地哭 全民末日:开局洗劫灯塔万亿物资 末世重生:娇软美人霸宠各路大佬 末世直播救母,前夫哥追悔莫及 钢铁洪流开荒异世界