标签:幻觉问题

百度多模态技术深度解析:iRAG技术与数字人如何解决幻觉问题?

不做Sora的背后:百度的多模态路线是什么? 李彦宏在百度世界大会上表示:“我们非常非常看好多模态。” 当ChatGPT在国内引发“百模大战”时,百度率先推出了文心一言。然而,随着Sora掀起视频生成的热潮,李彦宏却在内部讲话中明确表示“Sora无论多么火,百度都不会去做”。这一决定引发了广泛的困惑和争议。 在百度世界大会的会后采访中,李彦宏对此进行了公开回应,不仅重申了不做Sora的决定,还详细解释了百度如何运用和发展多模态技术。他特别提到了百度从年初开始重点攻克的iRAG技术,这项技术旨在解决AI领域最棘手的“幻觉...

为了防范不实信息,苹果在其Apple Intelligence智能回复功能中增加了“反幻觉”指令。

近期,IT圈内引起热议的消息指出,在macOS 15.1测试版中,一些内部文件揭示了苹果对Apple Intelligence智能回复功能的严格管理措施。这些内部指令,采用JSON格式存储,清晰地界定了智能回复功能的工作机制。其中一条引人瞩目的指令强调:“不得捏造信息,不得产生幻觉。”智能回复作为苹果邮件应用的一项特色功能,其设计初衷是通过深度学习算法自动分析邮件内容,并生成合理的回复建议。然而,与市场上其他生成式AI工具一样,苹果的智能回复功能也不可避免地遇到了“幻觉”问题——即生成不准确或具有误导性的信息。 为了解决这...

利用语义熵破解AI幻觉:牛津研究者揭示聊天机器人的逻辑迷雾与人工智能问题

随着人工智能技术的迅速发展,聊天机器人如ChatGPT已成为获取信息的便捷途径。然而,这些智能系统常出现“幻觉”现象,即提供不准确甚至有害的信息。为解决这一问题,牛津大学的研究团队在《自然》杂志上发表了一项创新方法,旨在检测大型语言模型(LLMs)的错误生成行为。研究人员利用语义熵的概念,通过分析词语的多重含义来判断LLM是否可能产生“幻觉”。这种方法不需要额外的监督或强化学习,能有效检测LLM在新任务中的可靠性,增强用户对其的信任。尽管如此,研究人员强调,即便有了这样的检测工具,仍需谨慎对待聊天机器人...