本文作者:访客

DeepSeek对“王一博案”道歉:假新闻!

访客 2025-07-04 10:40:25 8917
DeepSeek对“王一博案”道歉:假新闻!摘要: 近日,一则消息在网络上引发热议。有媒体称,DeepSeek就AI模型违规关联王一博与‘李爱庆腐败案’,作出道歉。该媒体还表示,DeepSeek方面表示,因内容审核疏漏,平台在回答...

近日,一则消息在网络上引发热议。有媒体称,DeepSeek就AI模型违规关联王一博与‘李爱庆腐败案’,作出道歉。

该媒体还表示,DeepSeek方面表示,因内容审核疏漏,平台在回答用户查询时,引用未经证实的网络谣言,将王一博案与首创集团原董事长李爱庆案件进行不当关联,对其名誉造成侵害,DeepSeek已永久撤回相关失实信息,并援引北京市第三中级人民法院(2025)京03刑终174号刑事判决书明确。

然而,经虎嗅多方核查发现,DeepSeek 官方微信公众号、官方网站、官方 X 账号(前 Twitter)等所有官方社交媒体平台,均未公开发表过任何道歉声明。

虎嗅进一步检索所有有关 DeepSeek 就违规关联王一博与李爱庆腐败案道歉 的新闻报道,发现没有任何一则新闻明确指出 DeepSeek 的道歉渠道,也未出现相关道歉声明的截图。

事情的戏剧性不止于此。

该事件的诡异之处在于,全网几乎都认定 DeepSeek 进行了道歉。大量自媒体、网络新媒体乃至传统媒体,都在第一时间跟进报道了这条不实消息。;

不仅如此,虎嗅向市面上的所有 AI 大模型询问该事件,得到的回答竟出奇一致:均表示 DeepSeek 的确就 违规关联王一博与‘李爱庆腐败案’ 进行了道歉,并引用了上述不实新闻链接。;

DeepSeek对“王一博案”道歉:假新闻!
来源:豆包

DeepSeek对“王一博案”道歉:假新闻!
来源:DeepSeek

DeepSeek对“王一博案”道歉:假新闻!
来源:kimi

该事件本属于社会新闻、娱乐新闻等层面,但笔者作为长期跟踪科技类新闻的从业者,站在笔者的角度来看,此事背后折射出的,远不止新闻报道核查不严的问题,更暴露出当下 AI 大模型比 幻觉问题 更为严峻的困境 ——AI 通过援引假新闻生成新的假新闻。(虎嗅注:人们常说的AI大模型幻觉问题,是指AI在无事实依据的情况下所生成的不符合事实、甚至不符合逻辑的假消息)

简单来说,随着近两年AI大模型的迅猛发展,早期普遍存在的幻觉问题确实有所缓解。

这主要得益于AI大模型增加了联网搜索和推理等能力,这意味着大模型在生成用户回答时,可以根据网络上的公开信息,通过推理的方式,来生成相应的AI回答。

然而,症结在于,当网络上充斥着海量虚假信息时,连人类都难以迅速辨别其真伪,AI对此则更缺乏有效的信息核查能力。因此,在引用网络信息时,便造成了典型的Rubbish in, Rubbish out(垃圾进,垃圾出)效应。

以笔者个人经验而言,在日常写作工作中,AI并不能真正替代人类撰稿。甚至有时,当新闻工作者借助AI辅助写作时,反而会降低工作效率。

因为大部分时间仍需用于查证AI生成信息的真伪,即便AI援引了某个新闻网页,证明并非幻觉,却仍需再次核实该新闻网页所提及内容的真实性。

对此,笔者在与多数新闻从业者交流时,大家普遍认为,用AI生成稿件的效率比自己动手写更低。

回到该事件,对于AI带来的警示作用是,AI应该如何在真假难辨的网络世界里辨别真伪,从而进一步提升AI生成准确率。

因为只有当AI提高了生成回答的准确率,才能真正被投入到实际的生产工作当中。举个例子,这也是为什么,在大部分企业应用大模型时,当中重要的一步是给大模型喂企业专有的知识库,这样在员工向企业定制的大模型提问时,才不会生成错误答案。

当然,对于人类的警示作用,可能就在于,当人类自身都在生成假消息时,AI就更无法给出准确答案了。

DeepSeek对“王一博案”道歉:假新闻! 以上就是关于【DeepSeek对“王一博案”道歉:假新闻!】的相关消息了,希望对大家有所帮助!
文章版权及转载声明

作者:访客本文地址:https://www.zsclv.com/zsclv/13632.html发布于 2025-07-04 10:40:25
文章转载或复制请以超链接形式并注明出处中首车旅集团

阅读
分享