标签:大型语言模型
桑达尔·皮查伊领导的谷歌调整AI搜索算法:Reddit对大型语言模型结果影响减弱,披萨胶水争议或成过去?
在最近的谷歌I/O大会上,一项名为“AI摘要”的创新功能引起广泛关注。然而,这一基于人工智能的搜索工具在推出后遇到了一些挑战,因为它偶尔会生成一些令人困惑甚至荒谬的结果,比如建议在披萨中添加胶水以保持配料稳定,或者提倡每日食用小石块。据分析,这些奇怪的建议可能源于AI系统从Reddit等网络论坛抓取的不准确信息。目前,据SERanking的最新数据,Reddit已不再位列谷歌“AI摘要”功能的信息来源前十。Runners World、Healthline、LinkedIn、RunRepeat和维基百科成为前五大来源。尽管具体排名未知,但Reddit曾经确实在一...
突破数据耗尽困境:大型语言模型与人工智能的2028年算力挑战 – Epoch AI预示文本数据合成新时代
在人工智能领域,训练数据的重要性不言而喻,尤其是对于大型语言模型(LLM)。然而,Epoch AI的最新论文揭示了一个令人惊讶的预测:互联网上的人类文本数据可能在2028年耗尽。这篇论文指出,尽管算力不断提升,数据已经成为AI发展的关键制约因素。OpenAI在训练GPT-5时已遇到数据短缺问题,考虑使用YouTube视频转录文本作为补充。Epoch AI预测,未来十年内,数据增长速度无法满足大型模型的需求,2028年可能面临“数据耗尽”的局面。 Epoch AI是一家专注于人工智能趋势研究的非营利机构,其工作受到政府报告和智库的重视。论文...
AI“幻觉”难解:谷歌搜索仍推荐用户往披萨里加胶水
在互联网上,谷歌的人工智能搜索结果引发了一场关于“胶水披萨”的风波。最初,一位名叫凯蒂・诺托普洛斯的网红尝试制作并食用了“胶水披萨”,导致这一话题在网络上迅速升温。如今,谷歌的人工智能系统似乎开始学习并采纳这些网络热点。安全研究员科林・麦克米伦发现,当用户询问谷歌披萨中添加胶水的正确量时,谷歌给出的答案竟是推荐添加八分之一杯胶水,这无疑是一个错误且危险的建议。科技媒体The Verge证实了这一情况,并指出这样的反馈可能反而强化了人工智能的错误信息。 此外,谷歌的人工智能在处理自身产品问题时也出...
首个智慧城市大模型UrbanGPT,全面开源开放|港大&百度
港大与百度携手开发的UrbanGPT是首个智慧城市大模型,该模型全面开源开放。UrbanGPT针对时空预测技术的挑战,如数据稀缺、高昂的训练成本和泛化能力不足,提出了一种新型时空大型语言模型。该模型通过时空依赖编码器和指令微调方法,强化了对时间和空间复杂关系的理解,即使在数据有限的情况下也能提供精确预测。实验表明,UrbanGPT在零样本学习和多种城市任务上表现出卓越性能,尤其在跨区域和跨城市预测中,展示了强大的泛化能力和对时空模式的精确理解。
微软发布Phi-3 Vision等最新大模型系列
微软近期推出了 Phi-3 系列的大型语言模型,包括 Phi-3Vision、Phi-3Small7B 和 Phi-3Medium14B,这些模型展现出与业界领先水平匹敌的性能。其中, Phi-3Medium14B 的表现甚至超越了某些知名模型,如 Mixtral8x22B 和 GPT3.5。尽管 Phi-3Small7B 规模较小,但在处理大量数据时,它的效能仍然优于 Mistral7B 和 Llama38B,成为资源受限环境的理想选择。Phi-3 系列支持的上下文长度从4K到128K,适应各种长文本处理需求。模型参数分别为 Medium 版本的14B,Small 版本的7.5B,以及 Vision 版本的4.2B。微软使用了4.8T令牌对模型...
OpenAI 高管:今天的 ChatGPT 将在一年内显得“糟糕得可笑”
随着技术的飞速发展,OpenAI的首席运营官布拉德·莱特卡普近期预言,以ChatGPT为核心的生成式AI聊天机器人将在接下来的一年内实现重大突破。他指出,目前的系统在未来可能会显得极其落后,甚至有些可笑。莱特卡普相信,这些智能工具将能处理更复杂的任务,成为用户不可或缺的“理想伙伴”,协助解决各种难题。 这一观点与OpenAI的CEO山姆·阿尔特曼不谋而合,阿尔特曼曾评论GPT-4的表现“尚有不足”。尽管OpenAI在ChatGPT上的投入超过了5.2亿美元,但阿尔特曼强调,公司的关注点在于提升大型语言模型的效能和精确度,而非成本。他...
消息称苹果挖走大量谷歌顶尖人才,建立神秘人工智能实验室
苹果公司在人工智能领域持续发力,从谷歌挖走了大约36名专家,并在瑞士苏黎世设立了一处秘密的“欧洲实验室”,以加强其AI研发能力。这个实验室专注于研发先进的人工智能模型和产品,尤其是大型语言模型。苹果的AI团队主要分布在美国加州和西雅图,但苏黎世的新中心表明了公司在这一领域的扩展。据信,苹果此举部分受到收购当地AI初创公司的启发,如FaceShift(虚拟现实)和Fashwell(图像识别)。实验室的工作涵盖了类似ChatGPT的聊天机器人技术,涉及文本和视觉输入的综合处理。 苹果的AI研究,特别是对大型语言模型的关注...
如果 LLM Agent 成为了科学家:耶鲁、NIH、Mila、上交等学者共同呼吁安全防范的重要性
随着大型语言模型(LLMs)的进步,AI科学家正崭露头角,它们在化学、生物学等领域展现出自主探索的能力,甚至超越了许多非专业人士。然而,这种自动化带来的优势伴随着风险,如用户意图的滥用、特定领域的安全隐患以及对环境的潜在影响。近期一篇名为“优先保障而非自主权:LLM Agents在科学中的风险”的论文,探讨了这些风险并提出应对策略。 论文指出,科学LLM Agents可能被用于不道德或非法实验,尤其在生物和化学领域,可能因误操作高风险物质而导致灾难。此外,它们对环境的影响也不容忽视,可能导致环境污染或生态失衡...