57书屋

第5章 不好意思,我打断一下。 (2/3)

p;Low-Latency Edge AI,这是我今天要汇报的内容。”

    一口流利的英语让邓永华满意地点点头,不过表情却是变的严肃了不少。

    还没等周昀继续,他就开口问道:“你是要汇报论文吗?这是什么期刊或者会议上的论文?作者是谁?......”

    邱彦和沈瑞都是一副果然如此的样子,他们记得当初他们第一次汇报的时候虽然有着新手保护期,但也被邓老师问的死去活来的。

    不过当他们看向周昀时,却发现他脸上没有一丝的紧张。

    事实也确实如此,三年下来,周昀都不知道经历过多少组会了,紧张?那是不存在的。

    等邓老师话音落下,周昀一脸从容的回答:“这是我想要研究的课题,根据我的调研,暂时还没有以这篇文章命名的论文。”

    “哦?这个题目是你自己想的?”周昀的回答让他有些意外,就算是他手下那几个要读博的研三的学生,也没有谁的研究课题是完全独立想出来的。

    这对于一个研零的学生来说已经是非常不错了。

    “你继续。”

    周昀翻到下一页PPT,没有文字,PPT上是一些著名的AI公司的LOGO:“这些都是现在比较著名的AI公司,

    GPT,claude,gemini这都是现在世界上顶尖的大模型,不可否认的是,这些大模型的性能都非常强,但相对应的,训练他们所耗费的资源也是海量。

    一个先进的图像识别模型可能需要几十甚至上百兆的内存,数以亿计的计算量。

    它们就像高性能的跑车,必须在云端数据中心这样的大跑道上才能发挥实力,但是现实生活中,大家的设备都是电脑,手机,摄像头等等。”

    说到这里周昀停了一下,将PPT翻到下一页。

    老师没有提问,那他就继续讲。

    “这种情况下,我们面临一个巨大的挑战:如何让庞大、复杂的AI模型,在这些资源有限的“小设备”上,也能跑得又快又好,还能实时响应?

    以下四点是我认为的需要解决的几个痛点:

    1.尺寸不符:大模型在小设备上跑不动,或直接装不下。

    2.速度滞后:即使勉强能跑,响应速度也慢,用户体验差。

    3.能耗巨大:小设备电池续航有限,大模型会迅速耗尽电量。

    4.网络依赖:依赖云端意味着有延迟,且断网就失效,隐私也难以保障。”

    “不好意思,我打断一下。”

    “老师您说。”

    “你刚才提到了这些大模型性能虽强,但资源消耗巨大,而现在你想把这些大模型塞进小设备里,其中的难点我理解,

    但是,既然这些顶尖大模型在云端表现如此出色,为什么我们非要执着于把它们硬塞进边缘设备?

    云端计算的便捷性和可扩展性难道不更符合AI发展的趋势吗?边缘部署的必要性到底有多强?”

    这个问题问的非常刁钻,如果周昀不能回

本章未完,请点击下一页继续阅读

『加入书签,方便阅读』
推荐小说:
朕与皇姐 大唐:从练武到修仙 全民末日:开局获得神级天赋 捡了个古代女侠为妻 七零糙汉的外科大佬娇妻 穿成反派,开局迎娶主角未婚妻 栀子藏毒 出国后,我带回光刻机能一等功吗 重生成死对头的婢女后 末日进化:开局捡到一个美女丧尸
相关推荐:
末日进化:开局捡到一个美女丧尸 快穿:娇娇靠生子系统独宠好孕捏 末世:目标三千女神军 仙界穿越来的御兽师 末日:变身萌妹,我抱紧主角大腿