数据:
OpenAI推出推理模型o1-pro的API,100万输入token定价150美元,100万输出token定价600美元,输出价格比DeepSeek-R1贵270倍。
线索:
o1-pro采用更多计算资源,虽然定价高昂,但在基准测试中显示出比o1模型更佳的表现。对此定价,市场反响两极化,一方面认为不值得,另一方面认为物有所值。该模型的高昂定价可能旨在吸引富裕投资者,值得关注的是,未来可能对开发者的影响及投资机遇。
正文:
3月20日,OpenAI宣布上线了推理模型o1-pro的API。虽然起初对于新模型的上线感到高兴,但随即看到价格后不禁感到失落。具体而言,100万输入token的价格为150美元,而100万输出token的价格则达到了600美元,这使得o1-pro的输出定价比DeepSeek-R1高出270倍,引发了大量网友的吐槽。
在该模型上线时,OpenAI列出了其诸多优点,比如更多的计算资源与更优质的响应,支持视觉处理、函数调用、结构化输出,并兼容响应式和批量API。同时,OpenAI也解释了其定价的基础:更多的计算资源导致成本增加。
尽管价格昂贵,o1-pro仍然被认为是物有所值,原因在于该模型的能力,包括支持20万上下文窗口和处理复杂推理任务。根据OpenAI的测试结果,o1-pro在数学和编程任务中的表现优于前代模型o1。OpenAI CEO奥特曼提到,Pro模式更能应对困难的问题,显示出其智能突出之处。
然而,该功能目前只对特定开发者开放,强调需要至少在OpenAI API服务上消费5美元。此外,关于其定价的争论也引发了另一种观点:一些人认为OpenAI可能更倾向于吸引富裕投资者,而非关注普通消费者。针对其输出定价,有网友表示这个价格过于离谱,回看200美元/月的无限使用方案似乎更显便宜。
受此定价影响,一些外国用户甚至创造出了新的梗图,反映了市场对于o1-pro定价的关注与讨论。
发布时间:
2025-03-21 07:19:21
评论 ( 0 )