GPT-4o mini由OpenAI技术驱动,以高性价比强势登顶LMSYS排名,限时两个月免费微调,每日赠送200万训练token

近期,科技界掀起了一场热潮——Llama3.1405B巨兽模型开源之际,OpenAI也不甘示弱,宣布了一系列利好消息。从即日起至9月23日,开发者们每天可以享受200万个免费训练token用于微调GPT-4o mini模型。这一举措引发了广泛的讨论与期待。

与此同时,GPT-4o mini在大型模型竞技场LMSYS中的排名也已揭晓。令人惊喜的是,GPT-4o mini与GPT-4o并列榜首,而其成本仅为GPT-4o的1/20。OpenAI创始人Altman对此表示极为兴奋,称这是前所未有的成就。

为了让更多开发者体验到GPT-4o mini的强大功能,OpenAI决定在7月23日至9月23日期间提供每日200万个免费训练token。在此之后,超出部分将以每百万token 3美元的价格计费。除此之外,OpenAI还列举了从GPT-3.5 Turbo切换到GPT-4o mini的几个重要原因:

– 更具性价比:GPT-4o mini的输入Token费用相比GPT-3.5 Turbo降低了90%,输出Token费用降低了80%。
– 更长的上下文支持:GPT-4o mini的训练上下文长度达到了65k Token,是GPT-3.5 Turbo的4倍;推理上下文长度为128k Token,是GPT-3.5 Turbo的8倍。
– 更强的能力:GPT-4o mini比GPT-3.5 Turbo更智能,且支持视觉功能(尽管当前微调仅限于文本)。

GPT-4o mini的微调功能将首先向企业客户及特定级别的开发者开放,并计划在未来逐步扩大访问范围。对于那些希望尝试的开发者,OpenAI已经提供了详细的微调指南。

然而,并非所有人都对此持乐观态度。一些人担忧OpenAI可能会利用用户的私人数据来训练和改进AI模型。但也有不少开发者已经开始着手测试GPT-4o mini,通过实际应用验证了其卓越性能。

在细分领域的评估中,GPT-4o mini虽然在数学领域排名稍有下滑,但在其他多个领域仍表现出色,尤其是在编码领域展现了强大的能力。这一结果也引发了关于如何评估AI模型性能的讨论。

本文来源: 新智元公众号【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...