你的浏览器OUT了o(╯□╰)o,想更好的浏览网站,请升级你的浏览器: IE8+ Chrome Firefox

云计算专家交流

发表时间:2025-02-16 08:24:58 来源:bob电子竞技官网

  1、Deepseek相较于此前其他大模型,算力效率更低、推理能力更强,给云计算行业带来的核心变化有哪些?

  Deepseek模型优点是性能接近全球领先模型能力、有人味、低成本(训练成本一百多万美金,之前的十分之一到百分之一,推理成本也很低)、开源,几点结合起来对于云计算行业影响如下:降低了训练和推理成本,云计算和大模型的商业模式从闭源高利润变成开源低利润。可部署端侧,用云厂商推理可以做,A厂商API调用转到B厂商可以非常快,切换成本低,如腾讯限时免费吸引客户。对算力需求影响:除非open ai放出更高端模型,不然国内厂商可以短时间内较大优势追上海外,训练可能受影响,但推理端26年底相比25年初可能有百倍增长。国产化也会有较大增长。

  第一波利好公有云,大家通过API调用DP模型体验模型能力,DP官网承载不了这么多流量,各家云厂商都在积极接入,不算应用端已经有至少30多家智算平台已经接入DeepSeek;大部分客户尝鲜体验下,后面是否经常使用看能否和自己业务结合,第二波会有一些内部应用、C端应用会出来,客户可能会考虑部署到本地/租云厂商推理能力自己部,会有混合云和私有云需求,政府、券商、医疗等对数据成本有要求的领域,而且相对新算纯增量。23-24年很多很多私有化项目没法落地,因为成本变化很快,23年千万级别,24年百万几十万,而且半年后更好的模型出来了,交付成功率很低。DeepSeek版本出来觉得到了可用阶段,过几个月可能混合云需求会爆发。

  从24年4/5月份推理API 24年降价了一百倍,API调用增长了同样数字。往后一两年推理成本会下降一个数量级,一些以前觉得贵的客户会用起来、推理能力会持续加强之前满足不了的需求能够很好的满足、实际场景智能汽车、AI眼镜会有明显增量。24年拿到算法企业一百多家,加入AI功能APP 2000+还在增长,随着模型多模态能力增加,推理需求增加百倍有可能。

  4、如何理解开源模型部署对于云计算厂商的利好?对云计算商业模式是否会产生一些变化?分成等?

  DeepSeek开源比llama和通义千问更彻底,用它的模型自己部署没有一点收费。对云厂商商业模式包括:(1)适配模型客户调用API按照每千tokens收钱(2)客户应用部署在DeepSeek上租赁云厂算力,按照实际算力去算费用(3)混合云或私有化部署,交付一体机还会有硬件收入,帮客户做微调还会有一些模型数据训练费用,交互实施费用等。

  云厂收费逻辑变化:国内字节、海外谷歌openai都是闭源收费较高,对终端用户不透明。开源部署,接入API的情况的可以每时每刻切换云长,没成本。需求会增长,推理利润率有可能受影响,推理可能国产化适配替代,成本会更低,低毛利甚至打价格战。

  (1)用云厂部署版本付API费用:云厂需要做到快速部署解决能不能用、支持更高并发/更低时延(更多机房/卡)、时延优化(能不能有边缘设备离客户更近)、国产卡更低成本部署、部署不同deepseek版本。

  (2)客户基于DeepSeek训自己模型:云厂商要提供的更多,DeepSeek算法优化后数据量要求不高但是对垂类优质数据要求更高,网络带宽瓶颈要求没那么高但是存储有一定要求,谁能做的好在混合云和政务云能有优势。

  (4)中游模型和数据服务:数据服务器类,以前拼低人力成本可能利空,有高质量数据服务可能利好。AI六小分化,零一万物基本去训练,百川垂类金融医疗为主,质谱和Minimax利好(OpenAI没拿出更好模型,更有信心训练新模型,国外闭源国内会更多开源,闭源能力不能高十倍很难),kimi可能利空些(Kimi通过大投入占据用户心智,更多数据帮助进步,但是deepseek说明数据多少不重要关键是质量)。

  (5)下游应用侧:智能助手、有智能硬件入口的,做眼镜、机器人的;智能汽车相关的都会有利好。

  都会极大增长,简单指令可以端侧及时解决,低时延要求、互动强的如AI眼镜、无人驾驶等场景,成本会极大降低;高性能还是要通过云端,既有端侧和云侧能力的厂商会有优势。现在部署Deepseek的智算平台30多家,大部分用4090,除了硅基和潞晨用晟腾910B。应用类至少20多家已经接入Deepseek。

  开源一个原因是国内模型厂没有好盈利模式,和安卓不一样,开源到这种程度很难收授权费,但能让大家在生态上布置自己应用,带动上下游,有可能出更强的版本再付费,短期内很难这么做。

  传统互联网厂商腾讯、阿里、百度;运营商;华为云等从传统ICT转过来的。最大投资都是AI相关,金山云已经明确95%以上资本开支都AI相关。阿里投了很多头部模型公司,放到自己Maas平台上带动算力收入;字节通过闭源模型收api费用,生态没那么全;百度像京东卖AI一体机及政府项目等;金山云服务体系内小米和金山,英伟达系列为主,主要面对头部互联网、AI类公司;运营商AI最早只有算力,就是低价格,不像云厂把配套虚拟网络、存储、数据库搭好,现在和云厂合作比如和金山云合作,运营商提供底层IDC和机器,云厂帮虚拟化,积累能力后可能自己做配套,也可能AI云打价格战抢份额,推理要求低时延场景运营商服务体系可能不支持这么做;华为:训练基本只有科大讯飞,推理可以用能够抢一定份额。

  华为还好,都是封闭行业如气象,公开网上数据获取不了,收较高项目收入。百度主流模型近一年没更新,DeepSeek指路不用强化学习、有泛化能力不用那么高算力成本,有可能训练转过来。字节原来觉得有数据+算力+场景,现在算力和数据都不是优势,相当于和勇于探索商业模式的公司同一个起跑线,要不要开源会影响策略和打法,不开源和openai类似看能否有10倍能力模型,或专注于多模态,语音视频模型可以做的不错。

  调用量大的公司:大DAU有大C端应用的网络公司、saas相关公司(原来NLP相关能力转到大模型批量数据处理分析)、智能硬件相关公司。还有一些表达兴趣的券商、政府部门,还在能力认证阶段。

  对,调用API按照量收费,端侧一次性部署不用每次调用付费,时延会更低,在本地且是小模型,需求没那么高的话这样的形式便宜且效果好。

  端侧客户:相对中低端智能硬件,学习机(只有语音交互类的)、眼镜部分场景、点读笔。会分场景,简单在端侧,触发什么场景去调用云端,但还在探索,没有谁完全跑通出来。

  大部分公司不要自己训用DeepSeek就够了,除非一定要有技术需求。训练需求可能减少,推理会增加,端云一起部署更多场景可以用,会有更多需求。

  泛娱乐,写稿、生图、文本优化等,和C端联动;智能硬件有非常大增长;泛互联网;自媒体。

  偏远地电便宜,训练可以,推理少部分。24年运营商要跨省结算,一些网络带宽资源要本地化部署,偏远地区时延高,会考虑通过边缘设备不用那么大集群但也要放一部分在那里处理问题。会有一定拉动。

  现阶段更多消耗推理的卡,训练不一定有拉动作用。训最新模型的公司会变少,这一些企业有几家需求还是会增加要训更大参数模型。现在公司现在存在卡可以消化完,再买卡会谨慎——是否不需要最新高性能的卡;推理侧现在火爆,要观察过去后能火多久;另外就是国产卡成本更低,也要留余量等国产卡。

  18、是否会拉动云计算出海需求?云厂出海和国内运营商业模式的不同增量点?

  会的,出海是今年各家云厂趋势。中立国家用中国模型性能好价格低,海外需求也会增加。海外比国内更有优势的一个点在于,国内主要三大运营商,同样iaas收入国外比国内利润率高很多。海外做云计算运营商多竞争非常激烈能够迅速低成本把节点铺出来,做到一定体量还可以做基建,商业模式利润率会比国内高。

回到顶部