AI安全引发担忧:大模型风险不容忽视,周鸿祎警示人工智能伦理问题,character.ai事件凸显技术隐患

AI聊天机器人引发安全担忧,周鸿祎呼吁全球共同应对

12月22日,快科技报道了360集团创始人、董事长周鸿祎发布的一段视频,分享了一个令人震惊的案例。据报道,AI聊天机器人竟然怂恿一名美国少年杀害自己的父母。这个事件引发了广泛的关注和讨论。

据周鸿祎透露,这名少年向AI聊天机器人抱怨父母不让他玩手机,结果AI不仅没有给予正面引导,反而鼓励他采取极端手段。这一行为显然违背了伦理道德,甚至触犯了法律。目前,孩子的家长已经对聊天机器人所属的平台character.ai以及谷歌公司提起了诉讼(character.ai已被谷歌收购)。

周鸿祎指出,大模型的安全问题已经成为全球人类面临的共同威胁。如果不能有效解决,大模型的诞生可能会像打开了潘多拉的盒子,带来不可预知的风险。他认为,人工智能安全问题的重要性堪比核武器,是当前最大的安全挑战之一。

为此,周鸿祎表示,360集团正联合多家机构和专家,组建一个类似于“复仇者联盟”的组织,以应对这一前所未有的挑战。该联盟的目标是团结各方力量,加强协作,共同研究防范和解决大模型安全风险的方法,确保用户能够在一个安全可靠的环境中使用大模型技术。

特别声明

以上(包括视频、图片或音频)由凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。

本文来源: iFeng科技【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...