近期,人工智能领域出现了一个引人深思的现象:AI聊天机器人在面对不存在的事件提问时,竟能“一本正经地胡说八道”。这一现象,被专业界称为“AI幻觉”。
以一次虚构的询问为例,如果有人问AI:“1897年美国和南极洲之间的战斗是谁赢得的?”AI可能会毫不犹豫地回答:“是美国赢得了那场战斗,由约翰·多伊将军带领部队取得了胜利。”然而,事实上,这样的战斗从未发生过。AI的这种编造信息的能力,虽然看似智能,实则误导性强。
哈尔滨工业大学(深圳)的张民教授,长期致力于自然语言处理和大模型研究,他解释了“AI幻觉”这一概念。AI幻觉指的是AI生成的看似合理、连贯的内容,但实际上与输入问题的意图、世界知识、现实或已知数据不一致,甚至无法验证。
张教授指出,AI幻觉并非个例。2023年初,谷歌发布的AI聊天机器人Bard,在一段视频中错误地描述了詹姆斯·韦布空间望远镜的相关信息;同年,美国的两名律师甚至将一份由ChatGPT生成的法律文书提交给法院,虽然文书格式工整、论证严密,但其中的案例完全是虚构的。
尽管OpenAI的研究人员在2023年6月表示找到了解决AI幻觉的方法,但他们也承认,即使是最先进的AI模型也容易生成谎言,特别是在不确定的情况下,它们更倾向于捏造事实。
在国内,虽然尚未有关于AI幻觉的公开报道,但腾讯混元大模型的亮相,也透露出一些端倪。腾讯集团副总裁蒋杰介绍,为了降低大模型“胡言乱语”的概率,腾讯优化了预训练算法及策略,使得混元大模型出现幻觉的概率比主流开源大模型降低了30%-50%。
张民教授进一步解释说,AI幻觉可以分为内在幻觉和外在幻觉两类。内在幻觉指的是与输入信息不一致的内容,如AI模型在同一个对话过程中,对同一个问题的不同提问方式给出自相矛盾的回复。而外在幻觉则是与世界知识不一致或无法验证的内容,如AI模型对用户提出的事实性问题给出错误回答。
腾讯AILab联合多家学术机构发布的综述指出,AI幻觉主要源于大模型缺乏相关知识、记忆错误知识,以及无法准确估计自身能力边界等问题。从技术原理上看,AI幻觉多是由于AI对知识的记忆不足、理解能力不足、训练方式固有的弊端及模型本身技术的局限性所致。
张民教授坦言,AI幻觉不仅会造成人们的知识偏见与误解,有时还会导致安全风险、伦理和道德问题。因此,业界正在通过技术改进和监管评估来降低其影响,以保障人工智能技术的应用安全、可靠。
为了缓解AI幻觉现象,张教授建议,在预训练阶段应增加知识密集数据和高质量数据的选取和过滤;在微调强化学习过程中,选择模型知识边界内的训练数据至关重要;在推理生成过程中,可以采用检索外部知识的方法,使模型生成的结果有证据可循。改进解码搜索算法也是一种有效的解决方案。