祁瑞峰表示,干基础大模型是非常烧钱、烧资源的事。他提到,中国的大模型融资基本上是5亿美元左右数量级,都是跟50亿美元的数量级在比拼,本身就是很消耗资源的事情。“OpenAI还经常不讲武德,搞了一个GPT4的mini还免费,宁愿一年烧40、50亿美元的成本还愿意免费,商业逻辑我们想破脑袋也不知道为什么,但它就是这么干了。”
零一万物怎么去考量这个事情?祁瑞峰谈了两点。第一,中国有一个优良的传统,可以更苦、更拼、多快好省地去干事情。“比如我们搭建了一个基础架构优化,万卡可以把它管得更高效,训练模型的算力利用率只有38%,我们能干到60%。我可以用它1/5、1/10的资源,当然是跟随策略,能做一个类似GPT的模型出来。”
第二,未来的服务应该越来越便宜。祁瑞峰说,未来三年能不能把推理成本降到1000倍,有极大的应用的空间。
祁瑞峰认为,在大模型时代,toC的应用美国是比中国领先的,但是到今天为止,中国toB的应用比美国要领先。