OpenAI的o3模型的运行成本可能比最初估计的要高

当OpenAI在12月推出其o3“推理”人工智能模型时,该公司与ARC-AGI的创造者合作,以展示o3的能力,ARC-是一个旨在测试高能力人工智能的基准。几个月后,结果被修改,现在看起来没有最初那么令人印象深刻。上周,维护和管理ARC-AGI的Arc奖励基金会更新了o3的近似计算成本。该组织最初估计,它测试的性能最好的o3配置,o3 high,解决单个电弧AGI问题的成本约为3000美元。现在,Arc Prize基金会认为成本要高得多——每项任务可能要3万美元左右。这一修订值得注意,因为它说明了今天最复杂的人工智能模型对于某些任务来说可能会变得多么昂贵,至少在早期是如此。OpenAI还没有给o3定价——甚至还没有发布它。但Arc Prize基金会认为OpenAI的o1-pro模型定价是一个合理的代理。作为背景,o1-pro是OpenAI迄今为止最昂贵的型号。Arc Prize Foundation的联合创始人之一Mike Knoop告诉TechCrunch:“我们认为o1-pro更接近真实的o3成本[……],因为使用了大量的测试时间计算。”。“但这仍然是一个代理,我们在我们的排行榜上一直将o3标记为预览版,以反映官方定价宣布之前的不确定性。”鉴于该模型据报道使用的计算资源量,o3 high的高价不是不可能的。据Arc Prize Foundation称,为了解决ARC-AGI问题,o3 high比O3 low(O3的最低计算配置)多使用了172倍的计算能力。此外,关于OpenAI正在考虑为企业客户推出的昂贵计划的传言已经流传了相当长一段时间。3月初,The Information报道称,该公司可能计划对专业的人工智能“代理人”每月收取高达2万美元的费用,如软件开发代理人。有些人可能会说,即使是OpenAI最昂贵的模型,其成本也低于一个典型的人类承包商或员工的需求。但正如人工智能研究员托比·Ord在X上的一篇文章中指出的那样,这些模型可能没有那么有效。例如,o3 high需要在ARC-AGI的每个任务中尝试1,024次才能获得最佳成绩。
《OpenAI的o3模型的运行成本可能比最初估计的要高》 在不经过允许的情况下,禁止用于商业用途或随意转载!

- 为什么网站测速都是红色,没有返回200状态码?
- CentOS终止更新之后的替代系统/方案
- 宝塔企业版/开心版安装升级(免绑定宝塔账号)
- Linux下面查找目录下面所有文件,并找到包含某个字符的文件
- 修改Windows远程桌面登录端口
- 把Python程序编译成Windows可执行文件exe的工具pyinstaller
- 解决:Could not resolve host: mirrorlist.centos.org; Unknown error解决方法
- 宝塔安装PHP的Swoole扩展的时候,CentOS 7提示No package 'libbrotlienc' found的解决方法
- ModuleNotFoundError: No module named 'PIL'解决方法
- 在Linux服务器上手动生成自签名证书
- Python数据类型中比较有趣的事情
- CentOS Linux下更换为阿里云的源repo