DeepSeek公开利润引服务商互怼

   2025-03-06 00

北京时间3月1日中午,Deep-Seek于“开源周”收官之际在知乎发文,不仅解读了关键的降本增效技术,还首次公开了API服务的成本、收入以及理论上高达545%的利润率。这意外引发了两家为用户提供DeepSeek服务的MaaS供应商“互怼”,让国内AI Infra(人工智能基础设施)企业罕见成为“吃瓜大戏”的主角。

MaaS,直译为模型即服务,指将模型部署到企业端提供给用户服务。春节期间DeepSeek“服务器繁忙”时,不少从事MaaS服务的大模型基础设施公司,如潞晨科技、硅基流动等为用户提供了使用“满血版”DeepSeek的机会。

对于该项服务,潞晨科技创始人尤洋曾公开发文表示“MaaS模式下用户越多亏损越多”,而随着DeepSeek公开成本和利润率,面对网友质疑,尤洋发文反驳并一度“辣评”竞对公司硅基流动,最终和硅基流动创始人袁进辉开始“互怼”。此后,更延展到此前潞晨科技涉及的抄袭风波上,引来了更多圈内人士“下场”。

对此,中存算董事长陈巍评价道:“创业不易,创新不易,需要多一点宽容。技术上偶尔出现判断偏差都很正常。”而对于究竟DeepSeek的MaaS服务亏不亏这一问题,陈巍对新京报记者表示,“这个问题已经超出纯技术讨论范畴了,涉及产品定位和AI Infra企业的求生。建议双方搁置争议,抓紧时间做Infra优化,抢占用户日活攀升的产业窗口期。” 新京报记者 罗亦丹

起因

DeepSeek展示盈利能力:一天收入56.2万美元

事件发生在DeepSeek的“开源周”行将结束之际——此前,DeepSeek曾表示将在从2月24日开始的“开源周”发布五项开源成果,但当五项成果全部发布结束后的第六天,DeepSeek又发布了《DeepSeek-V3/R 1推理系统概览》技术文章,首次公布了模型推理系统降本增效的优化细节。

该篇文章以DeepSeek推理系统的优化目标:更大的吞吐,更低的延迟为核心,详细介绍了其解决方案:使用大规模跨节点专家并行(Expert Parallelism/EP)。以通俗的方式来理解,就类似把AI模型拆分成多个“小专家”,分散到不同的显卡(GPU)上运行。就像餐馆里多个厨师同时备菜,每个厨师只负责自己最擅长的部分,整体出餐速度更快。V3系统中,每层有256个专家,但每次只用8个,通过动态分配实现高效计算。

此外,当不同显卡之间需要传递数据时,系统会像工厂流水线一样,让计算和传输同时进行。例如在生成文字时,前一部分还在计算,后一部分已经开始传输,避免“干等”浪费时间。

对此,袁进辉评论道,“DeepSeek官方披露大规模部署成本和收益,又一次颠覆了很多人的认知。现在很多供应商还做不到这个水平,主要是V3/R 1架构和其他主流模型差别太大了,由大量小Expert(专家)组成,导致瞄准其他主流模型结构开发的系统都不再有效,必须按照DeepSeek报告描述的方法才能达到最好的效率,而开发这样的系统难度很高,需要时间,幸好这周DeepSeek五连发已经把主要模块开源出来了,降低了社区复现的难度。”

一个可以让人直观感受DeepSeek效率的数据是,其在文章最后展示了以2月27日12:00至2月28日12:00,一天内DeepSeek V3和R 1推理服务占用的节点,并统计了包括网页、APP和API的所有负载,推算发现假定GPU租赁成本为2美元/小时,总成本为8.7万美元,若所消耗的tokens(算力计价单位)全部按照DeepSeek R1的API定价计算,理论上一天的总收入为56.2万美元,成本利润率为545%。

“这份成本利润披露看似坦诚,实则暗藏杀机。它告诉所有人:大模型的游戏规则早已变了,单靠算法或者简单囤积算力不能赢得大模型的胜利。在算法+数据+算力的三要素中,有效算力(算力×算力效率)才是最暴力美学的生存规则,唯快不破这个道理也适用于大模型行业。这份数据事实上是三头六臂‘大闹东海,脚踢很白的宫’的技术演绎,也是‘算力+智力’逆风翻盘的真实写照。”陈巍表示。

值得注意的是,此前DeepSeek的重要信息发布一般在X、GitHub等以英文为主的平台,而本次的发布还额外登录了知乎,这瞬间引发了国内AI圈的热情,截至3月3日早,DeepSeek发布的文章在知乎获得了7735个赞,以及866条评论。

质疑

尤洋遭网友“点名”DeepSeek API服务到底亏不亏?

新京报记者注意到,不少网友本着“看热闹不嫌事大”的心态在这篇文章的评论区里“呼叫尤洋”,其中一条@尤洋知乎账号的评论获得了475个点赞,点赞数为评论区第二高。

这是因为,此前尤洋曾发文直言“MaaS在中国短时间内可能是最差的商业模式”“满血版DeepSeek R1每日输出1000亿tokens,那么每个月亏损4亿”,引发了业界对MaaS商业模式的争论。

AI与云基础设施专家左鹏飞表示,DeepSeek和尤洋之间观点冲突的主要原因是对每台H 800机器能跑出多大吞吐量的认知不同。

“根据尤洋老师的采访视频,4台机器跑出的吞吐量是1K tokens/s,而DeepSeek官方跑出的数据是平均每台机器14.8K tokens/s,有14.8×4≈59倍的性能差距。不同MaaS服务提供商对相同机器上相同模型跑出来的吞吐量可以相差59倍,那么自然有的MaaS服务商能挣钱,有的M aaS服务商大亏钱。这也证明AI Infra的系统优化能力是多么重要。”左鹏飞说。

对于网友的“点名”,尤洋本人也发文进行了回应,他认为DeepSeek文章中的数据对计算M aaS成本没有太多参考价值,因为文章把DeepSeek网页,APP和MaaS API的token数加在一起计算,且数据是建立在大量用户把DeepSeek的APP和网页完全超负荷占满的情况下,不是一个常规的M aaS。

记者发现,DeepSeek提到的545%利润率更多指的是“理想情况”,DeepSeek在官方文章里也表示“当然我们实际上没有这么多收入,因为V3的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。”

尤洋强调,自己对DeepSeek的模型能力没有贬低,但其使用体验非常差,“我春节期间用过几次,问一个问题,然后说繁忙,让我稍后尝试,我等了15分钟或者一小时。这不是一个合格的MaaS产品。”

似乎为了证明自己的观点,尤洋在发布完回应文章后,宣布潞晨科技将在一周后停止提供DeepSeek的API服务,

对此,左鹏飞告诉新京报记者,尤洋的观点有一定的道理,但“即使考虑上资源预留,也就是545%的利润率除以2或3,依然是盈利的,不影响我提到的核心逻辑。”

互怼

两家MaaS供应商互怼 翻出抄袭“旧账”

这一事情的发展开始逐渐“跑偏”。尤洋在回复网友后,又在知乎发文,矛头直指春节期间最早开始承接DeepSeek流量,为用户提供“满血版DeepSeek服务”的硅基流动,认为该公司“牺牲员工春节假期捆绑华为宣传、在小红书拉人头、API速度慢”等。

对此,袁进辉在朋友圈反击称“我们团队愿意拼搏抓一个机会有什么错?邀请用户送点免费券有什么错?春节那几天,全民都想访问DeepSeek而不得时,我们提供了仅有的一个稳定的服务。”同时,他还提到了此前潞晨科技曾抄袭过硅基流动。

这导致更多AI圈人士被牵涉进来,如尤洋提到该起抄袭事件代码的负责人是原潞晨科技CTO方佳瑞,但后者发长文回应了自己的“背锅”经历,表示代码在自己入职之前就已存在。

此外,橘皮优团队在2024年11月发布的对潞晨科技的公开信也被挖出,该公开信提到,“潞晨云算力云平台公然抄袭我们的业务模式和机主协议,侵犯了知识产权。”袁进辉转发了该公开信并配文称:“不是一次抄袭,多次发生。”

记者注意到,虽然潞晨科技和硅基流动彼此指责,但二者都曾和华为云合作,为用户推出基于国产算力的DeepSeek服务,而在DeepSeek公布开源方案之后,这些AI Infra企业能否复现DeepSeek的技术细节,从中摊薄成本,就成了考验企业技术实力的时候。

值得注意的是,虽然DeepSeek在过去一周中开源了多个代码库,但大多数是针对英伟达芯片架构的。对此,有开发者告诉记者,这些开源成果无法直接用在华为云的推理服务中,但其思想可以借鉴。

当前,DeepSeek的成本透明化如同一面镜子,映照出了AI Infra企业的理想与现实,如何更好地借鉴DeepSeek的解决方案,控制企业成本,或许才是“破局”的钥匙,毕竟545%的理想利润率已经被DeepSeek“点出”。

当技术红利逐渐消退,AI Infra企业需回答更本质的问题:是继续内卷于算力租赁的价格战,还是以模型优化、场景深耕和生态整合构建真正的壁垒?这场争议或许只是序幕,行业的生存法则正在被重新书写。

 
举报收藏 0打赏 0评论 0
 
更多>同类新闻资讯
推荐图文
推荐新闻资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  积分购买  |  隐私政策  |  使用协议  |  版权隐私  |  sitemaps  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报