标签:模型性能

CVPR‘24:与任务无关的多模态数据也能提升Transformer性能|港中文&腾讯

港中文大学的MMLab与腾讯AI Lab合作的研究揭示了一个令人惊讶的发现,即使用与任务无关的多模态数据可以提升Transformer模型的性能。这种跨模态增益现象表明,即使在训练图像分类模型时,加入视频、音频、点云等非直接相关的数据也能显著提高模型在图像识别上的表现。研究团队提出了一种名为多模态通路(Multimodal Pathway)的框架,利用跨模态重参数化技术,让Transformer在处理特定模态数据时能利用其他模态的无关数据进行训练,且不增加推理成本。实验结果显示,这种方法在图像识别、点云处理、视频理解和音频分析等多个...

李彦宏大模型“创业”400天

在当前的生成式AI热潮中,许多创业者和开发者处于“FOMO”(Fear Of Missing Out)状态,既激动又担忧。百度创始人李彦宏在最近的演讲中提到,一些大模型初创企业选择“双轮驱动”策略,兼顾模型开发和应用构建,以应对模型能力的快速发展和应用市场的变化。然而,他指出,这种策略并不适合所有创业者,因为资源有限,专注单一任务的成功率更高。对于大多数资源有限的开发者,建议在现有大模型基础上开发应用,例如金山办公等公司也采取这种方式。李彦宏强调,大模型的价值在于催生满足市场需求的AI应用。百度的文心一言在近400...