AI主播上热搜引骂战,更该警惕的是每小时5700万条AI错误信息

日期:2026-05-07 10:54:46 / 人气:13


五一假期,AI再次成为舆论焦点。不同于社交平台上的AI生成文案、AI滤镜特效,这一次的争议来自电视屏幕——湖南经视在《经视新闻》中启用AI主播「声声」和「双双」,仅负责假期常态化新闻播报,且画面明确标注「AI生成」,却依然引发网友大规模吐槽,相关话题一度登顶微博热搜第一。
网友的吐槽不难理解:新闻播报从来不止是信息的传递,更包含着真人主播的情感温度、专业判断与人文关怀,AI主播的机械语气、固化表情,终究难以替代真人的感染力。有人联想到港剧《新闻女王2》中的剧情:主播文慧心离开后,老东家将她与已故男主播「蒸馏」成AI数字人继续播报,彼时觉得荒诞的剧情,如今已然照进现实——从去年开始,已有越来越多电视台试点AI主播,开启了新闻传播的AI化尝试。
但比起AI主播带来的情感不适感,更值得我们警惕的,是另一个被忽视的核心问题:当AI不仅用于播报新闻,更用于搜集、撰写新闻时,其带来的错误信息泛滥风险,正在以惊人的速度侵蚀信息的真实性。如果说AI主播的争议是「表面波澜」,那么AI错误信息的失控,才是真正值得警惕的「暗流涌动」。
一个扎心的现实是,用AI搜新闻、看新闻,早已成为很多人的日常习惯,搜索引擎的AI化升级,让我们越来越依赖AI直接给出的「标准答案」。但这份「便捷」背后,藏着巨大的信息隐患——Google AI搜索新闻的结果,十条中就有一条是错误的,而这仅仅是冰山一角。
多伦多数据分析师Stephen Punwasi的经历,生动诠释了这种隐患的荒诞与可怕。去年年底,他看到一条关于传奇摔跤选手霍尔克·霍肯死亡可能引发诉讼的新闻,因从未听说霍肯去世,便打开Google查询。令人费解的是,Google AI生成的摘要(AI Overview)明确表示「没有可信的报道表明霍尔克·霍肯已经去世」,但摘要下方的第一条搜索链接,就是《每日邮报》标题为「霍尔克·霍肯死亡之谜加深」的报道,一边是AI的「否定」,一边是权威媒体的「确认」,让人陷入困惑。
这样的错误并非个例,而是已成规模化态势。2024年,Google在搜索结果顶部推出AI Overview功能,将搜索引擎从「信息策展人」变成「信息发布者」,不再提供链接,而是直接给出「答案」。《纽约时报》委托AI初创公司Oumi的测试显示,Gemini 2版本的AI Overview错误率为15%,升级到Gemini 3后,错误率虽降至9%,但结合Google每年超5万亿次的搜索量计算,这意味着每小时就有超过5700万条错误信息被推送,每分钟高达数十万条。
更令人担忧的是,AI错误信息的出错方式花样繁多,且极具迷惑性。有的是直接答错,比如将鲍勃·马利故居改建为博物馆的时间误判为1987年,而正确时间是1986年;有的是推断错误,比如将流经北卡罗来纳州戈尔兹伯勒市的尼斯河,错误推断为在城市西侧,实则其位于西南方,西侧是小河;最离谱的是「睁着眼睛说瞎话」——明明链接到了古典音乐名人堂的官网,官网明确列出马友友为入选者,AI却给出「没有记录显示他被引入过」的答案。
错误信息的泛滥,根源在于AI信息来源的混乱与缺乏审核。Oumi对AI Overview引用的5380个来源分析发现,Facebook和Reddit分别是第二和第四大被引用源,当AI给出错误回答时,引用Facebook的比例甚至高于正确回答。这意味着,我们眼中「最权威」的AI答案,其数据来源可能只是一条未经核实的社交平台帖子。更值得警惕的是,即便AI回答正确,也有56%的答案无法被逆向查验——链接的网站并不完全支持其给出的信息,相当于「答案对了,但找不到证据」,而这一比例还在持续上升。
更可怕的是,AI Overview的输出的可操纵性。BBC播客联合主持人Thomas Germain做过一个实验:他发布一篇博客,虚构了一场南达科他州国际热狗吃赛,并声称自己获得第一名。一天后,他搜索「最会吃热狗的科技记者」,Google AI Overview直接将他列为第一名,并引用了他虚构的「成绩」。Google发言人对此回应称,这类搜索「不现实」,但问题的核心的是,这种操纵机制适用于所有搜索场景——包括医疗建议、急救信息、法律问题等关乎人身安全与权益的领域,一旦被恶意利用,后果不堪设想。
Google或许意识到了问题,在每一条AI Overview下方都标注了「AI可能会犯错,请双重检查」的小字,但这更像是一种免责声明,而非负责任的解决方案。核心矛盾在于,Google将一个「不确定」的回答,包装成了「确定」的样子:过去的搜索引擎给出十条链接,用户知道需要自己判断;现在的AI直接给出一个排版干净、语气肯定的答案,放在最显眼的位置,而人类对「看起来像答案的东西」,默认反应是信任,而非质疑。
回到湖南台AI主播的争议,其实我们真正抵触的,从来不是AI技术本身,而是AI在应用过程中的「失衡」——当AI替代真人成为信息传递的载体,却未解决其自身的缺陷;当我们追求信息获取的便捷,却忽视了信息真实性的底线。AI主播的争议尚可通过优化技术、明确应用场景来缓解,但AI错误信息的泛滥,若不加以管控,终将动摇信息社会的根基。
有人说,AI是一把双刃剑,这句话放在信息传播领域尤为贴切。它可以提升信息传递的效率,降低传播成本,却也可能成为错误信息的放大器,侵蚀我们对真实的判断。Google的案例警示我们:AI技术的升级,不能以牺牲信息真实性为代价;AI的应用,更不能缺乏必要的审核与监管。
比起吐槽AI主播不够「有温度」,我们更该关注的是:每小时5700万条错误信息,正在如何影响我们的认知与决策?当AI越来越多地介入新闻生产与信息传播,我们该如何守住真实的底线?毕竟,信息的价值在于真实,一旦真实被稀释,再多的便捷与高效,都将失去意义。
未来,AI与新闻传播的结合或许是不可逆转的趋势,但这种结合,必须建立在严格的审核机制、清晰的责任界定与足够的风险管控之上。我们可以接受AI主播的存在,接受AI为信息传播带来的变革,但绝不能接受AI成为错误信息的「推手」,更不能让每小时数千万条的错误信息,成为被忽视的「信息污染」。

作者:门徒娱乐




现在致电 5243865 OR 查看更多联系方式 →

门徒娱乐 版权所有