《科创板日报》1 月 24 日讯(记者 张洋洋)" 为什么我刚想看一部电影,APP 就推给了我?是不是在‘偷听’我说话?" 在抖音 2026 安全与信任大会上,北京大学教授邱泽奇提出了这样一个问题,这类疑问在社交媒体上屡见不鲜。
在邱泽奇看来,公众对算法的恐惧很大程度源于它像一个 " 黑盒 " ——看不见运作机制,摸不清推荐逻辑。
过去数年,围绕短视频平台算法的讨论始终伴随着质疑:是否制造信息茧房、是否放大情绪对立、是否纵容谣言与极端内容传播。在用户规模、内容影响力不断扩张的背景下,算法不再只是技术问题,而被视为一种公共议题。
在这场大会上,抖音发布首份《抖音安全与信任年度报告》,从公开算法原理,到披露治理数据,再到明确下一阶段治理计划,这份报告被视为平台系统性回应算法争议的一次集中呈现。
但从治理视角看,更值得关注的不止 " 做了什么 ",而是:这些举措回应了哪些争议,又解决了多少问题。
▍算法能 " 偷听 " 吗?
围绕算法是否在 " 监听 " 用户的问题,邱泽奇给出的解释并不复杂。
在他看来,推荐算法并不具备 " 读心术 ",其核心是对用户历史行为的概率计算。" 当你点赞、完播或快速划走,都会成为算法调整模型参数的依据。所谓‘懂你’,更多是你与算法共同塑造的结果。"
中国科学院软件研究所研究员、抖音知识创作者张立波也从技术角度分析提出,算法并非具备意志的主体,而是一套基于统计和建模的工具。" 算法计算的是你对某类内容产生互动的可能性,而不是理解内容的社会意义,更谈不上价值判断。"
多位学者的共识在于,算法的风险并不完全来自技术本身,而来自其规模化应用后的社会影响。当算法成为信息分发的重要基础设施,其透明度、边界和责任,就不可避免地进入公共讨论。
在大会现场,抖音内容运营负责人李翔宇试图回应这些长期争议。他表示,平台在过去一年重点推进两项工作:算法公开与治理公开。
" 算法的核心工作,是预估用户对某条内容产生互动的概率,比如是否看完、是否点赞、是否分享。" 李翔宇解释称,抖音已通过 " 安全与信任中心 " 网站系统性披露推荐机制的基本逻辑,并集中回应公众关心的高频问题。
▍ AI 与热点争议叠加
相比传统算法争议,生成式 AI 的普及让内容治理面临新的挑战。
抖音内容运营业务代表唐跃在大会上提到,AIGC 技术降低了内容生产门槛,也降低了制造误导性信息的成本。" 一些内容并非完全虚构,而是通过拼接、断章取义的方式‘以真乱真’,在热点事件中更容易获得传播优势 "。
对此,抖音在过去一年中引入大模型和智能 Agent 参与谣言治理。平台披露,借助多模态理解和传播异常识别,谣言识别响应时间已从 " 天级 " 缩短至 " 小时级 ",平台谣言曝光量较年初下降 90%。
" 目前,我们也在筹备一个新功能。" 据唐跃披露,如果用户在观看视频的过程中还心存疑问,可以在评论区直接 @抖音求真,把 " 我具体困惑在哪里 " 说出来,系统会触发 AI 分身进行真伪鉴别与解答,让用户在便捷的场景里,完成一次 " 即时求证 "。
在 AI 内容治理上,平台尝试建立可识别机制。唐跃介绍,抖音已推动 AI 生成内容元数据标识的读写能力,并在推荐和搜索场景中向用户提示内容属性," 不是否定 AI 创作,而是降低误导风险 "。
当然,外界对平台治理争议最集中的场景,往往出现在热点事件中。
抖音热点运营负责人田济铭表示,平台已建立热点分级分类机制,在事件发生初期即介入研判。" 对事实尚不清晰、争议较大的热点,我们会标记风险,限制争议热点当事人不当变现,并强化权威信息分发 "。
从报告披露的数据看,抖音的算法公开与平台治理已取得阶段性效果,但平台推进透明化的工作并未结束。一方面,平台透明化仍需要在外界监督与内生动力下持续进行;另一方面,内容风险并非单一技术问题,仍与创作动机、传播结构密切相关。
同时,抖音方面也透露了 2026 年的治理计划:在谣言治理上,将持续升级 agent 能力,建设更全面的知识库,强化与媒体辟谣团的信息共享机制;在热点管理上,将推进 " 理性创作计划 ",提供多元选题角度,加大对优质内容的流量倾斜;在信息透明度方面,将持续公开平台不鼓励的内容类型和管控措施,引导健康的流量导向。


登录后才可以发布评论哦
打开小程序可以发布评论哦