过去一年里,关于 AI 如何进入内容生产流程的讨论很多,但真正落到编辑工作现场时,问题通常不是“能不能用”,而是“应该在哪些环节用、谁来负责、出了偏差如何校正”。
如果只把 AI 当成一个写作加速器,讨论会停留在效率层面;但一旦把它放进真实的编辑流程,就会发现更关键的问题其实是判断权如何分配。编辑工作里最重要的部分,从来不是把一段文字顺畅地写出来,而是在信息不完整、语境复杂、责任明确的前提下,做出一系列带后果的判断。
1. 选题判断不能外包
AI 很适合帮助整理素材、归纳背景和提供若干表达方向,但它并不真正理解一个选题为什么值得做。选题判断至少包含三层:
- 这个议题是否具有公共价值;
- 当前时点做它是否合适;
- 采用什么角度进入,才能让读者真正获得新信息。
这三层都依赖具体语境。一个模型可以总结“近期热点”,却不能替代编辑判断一个议题是否值得进入正式生产。特别是在新闻与解释型内容中,选题常常意味着资源分配,也意味着编辑部愿意为哪一种问题承担注意力成本。这个决定必须由人来完成。
2. 结构优化可以借助 AI,但结构责任仍在人
很多编辑第一次感受到 AI 的帮助,往往是在“提纲整理”这一步。它能迅速给出几个结构方案,看起来很高效。但高效不等于可靠,因为结构并不只是段落排序,而是内容立场、证据密度和阅读路径的综合设计。
同样一组材料,AI 可能给出一个“看起来平衡”的提纲,但其中最关键的问题是:这个结构是否掩盖了真正的重要信息?是否把需要前置的判断放到了后面?是否为了语言流畅而牺牲了信息强度?
因此更合理的做法不是让 AI 决定结构,而是让它参与结构试算。编辑可以把它看作一个快速生成备选方案的工具,但最终结构必须由人来定稿,因为结构本身就是编辑判断的一部分。
3. 事实核对不是附加步骤,而是贯穿式责任
一旦 AI 进入写作流程,事实核对会变得更复杂。过去的核对对象主要是来源材料和写作者本身;现在还多了一个“模型生成结果”。而模型生成最大的风险,不只是明显错误,而是那些“表面通顺、局部可信、整体失真”的内容。
编辑在使用 AI 时,至少要明确三种核对动作:
- 核对事实是否有明确来源。
- 核对表述是否超出了来源原意。
- 核对结构是否制造了误导性的轻重关系。
这意味着核对不能放在最后统一完成,而应该伴随整个写作过程持续发生。AI 可以参与起草,但不能天然获得“默认可信”的地位。
4. 发布责任必须保持单点清晰
很多团队讨论 AI 时会忽略一个现实问题:一篇内容最终上线,责任归谁。如果一段描述来自模型建议、一处判断来自编辑改写、另一个结论来自资料拼接,那么最后对外承担责任的人必须是明确的。
在传统编辑流程里,这个责任链条相对清晰;引入 AI 之后,如果团队没有重新定义责任边界,就很容易出现“每个人都参与了,但没有人真正负责”的情况。对任何正式发布的内容来说,这都是高风险状态。
我的判断是,AI 可以进入流程,但不能稀释责任。谁决定发布,谁就应当对信息准确性、结构合理性和表达后果承担最终责任。
5. 更值得建设的是“可控使用法”
从长期看,AI 在编辑场景中最有价值的,不是取代编辑,而是帮助团队建立一套可控的使用法。所谓可控,至少包括:
- 明确它能参与哪些环节;
- 明确哪些内容不能直接采用;
- 明确每一步需要怎样的人工复核;
- 明确在什么情况下必须回到原始材料重新判断。
只有当这些边界足够清晰,AI 才会真正成为流程的一部分,而不是一个时好时坏的外部插件。
结语
编辑工作的核心不是生成文本,而是组织信息、建立判断、控制风险和承担责任。AI 可以帮助完成其中某些重复性较高的动作,但它并不能接管这些核心能力。
如果一定要给 AI 在编辑流程中的角色下一个定义,我更倾向于把它看作“辅助判断前的准备工具”,而不是“判断本身的替代者”。对编辑来说,真正值得投入时间的,不是迷信模型输出,而是重新设计一套更严密、更透明、更能落地的协作流程。