OpenAI震撼发布:GPT-4o mini降临,引领多模态推理新纪元!——AI应用开发的指令层级结构与安全过滤保障ChatGPT用户无忧体验

在7月19日的凌晨时刻,OpenAI在其官方网站上揭开了最新力作——GPT-4o mini的神秘面纱。这款先进的大模型不仅具备文本、图像、音频和视频的多模态推理能力,而且在性能上超越了GPT-4,达到其约80%的效能。然而,令人惊喜的是,GPT-4o mini的API价格大幅降低了60%,输入100万tokens只需15美分,输出同样数量的tokens则为60美分。自发布日起,GPT-4o mini已替代GPT-3.5 Turbo,为注册的ChatGPT用户提供免费服务,同时标志着OpenAI首次推出基于指令层级结构的模型。

根据OpenAI公开的测试结果,GPT-4o mini在数学、编码和视觉推理方面表现出色,成为当前最强的多模态小型模型之一。在MMLU测试中,它的得分高达82.0%,领先于谷歌的Gemini Flash(77.9%)和Anthropic的Claude Haiku(73.8%)。在MGSM和Human Eval评估中,GPT-4o mini同样取得了优异的成绩,展现出强大的数学和编码能力。此外,它在多模态MMMU上的得分也优于竞争对手,体现了其全面的多模态处理能力。

为了保障安全,GPT-4o mini内置了多层过滤机制,能有效过滤掉色情、种族歧视等不适当内容。更重要的是,它是OpenAI首个采用指令层级结构的模型,增强了抵御恶意攻击的能力。这一结构将系统消息置于最高优先级,其次是用户消息,最后是第三方内容,确保模型可以忽略潜在的低优先级指令,从而提高安全性。

OpenAI在4月19日发布的论文中详细阐述了指令层级结构,这是一种对抗恶意攻击的新训练方法。通过自动化数据生成和上下文蒸馏技术,他们创建了大量的训练数据,使模型能够在对齐和错位指令之间做出正确选择。对齐指令与高优先级指令一致,而错位指令则与其冲突或无关。通过训练,模型学会了遵循对齐指令,忽略错位指令,提高了整体的鲁棒性。

目前,GPT-4o mini已提供文本和图像处理能力,未来还将逐步开放语音和视频功能。这一发展对于教育、翻译等领域的应用有着重大意义。OpenAI承诺将持续开发类似GPT-4o mini的高性能、低能耗模型,以促进生成式AI应用的发展和集成,助力更多开发者和企业构建超级智能应用。

本文来源: ​AIGC开放社区公众号【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...