我最近参加了2场沙龙分享,尽管都是面向AI开发者、从业人员的分享,但是这场分享在模速空间里引起的共鸣和讨论热度,很高,我猜测可能是模速空间的听众有很多也来自互联网公司,有过类似的痛和领悟。
受限于沙龙的有限时长,以及我脆弱的语言表达,在沙龙中,一些观点并没有被清晰传递或者组织,所以我想用文章来重新表述我的一些思考和观点。
先同步下上下文背景。
我的分享主题是:当营销遇见内容工程:AI 如何让创意变成规模化生产力;我希望从内容工程的视角,讨论今天的营销内容工作流程变革。考虑到很多听众自己也才创业,所以slides的最后一part,我从工作流搭建、落地实践的视角,分享了自己的一些经验教训——我把他们称为工作流落地的七宗罪。
第一宗罪:建设单点工具,而不是一套完整的工作流,解决一个业务问题
很多产品研发会有一种思维惯性:看到先进能力,第一反应是做一个提效/生产力工具。
但是,我的朋友们,一旦你做出来一个生产力工具,就会面临一个灵魂拷问:谁来用你的工具?
我刚去前司那会,公司内部已经有了一个套模板生成图片素材的工具。但是这个工具在内部一直推动不起来,除了工具产出的图片确实有问题,还有一个悬而待决的卡点:广告优化师和屏幕设计师,都不认为自己该用这个工具。
过去,广告优化师只需在系统里创建任务,由设计师接单即可完成;而在引入新工具后,虽然操作步骤并不复杂,但仍需要额外投入时间,这在本质上反而增加了优化师的负担。
在设计师看来,这个工具的操作流程已经足够直观和智能,更适合优化师使用;若要让设计师来操作,还不如直接用他们最熟悉的Photoshop。
将能力封装为单点工具的另一风险在于,使用者能力差异过大,会导致工具的产出质量不稳定。
按照归因谬误理论,如果工具的最终产出不理想,用户通常不会认为是自己能力不足,而是直接抱怨“工具不好用”。这往往与产品经理的水平关系不大。哪怕是像 ChatGPT、Claude 这样门槛极低的“大杀器”,很多人也只发挥出了其中 1% 的潜力——毕竟连自己想要什么都描述不清的人比比皆是。
以前司的图片模板工具为例:如果做成高度自定义的模式,让优化师自行选择模板和商品图,有经验的优化师会根据品类、地域做出合理组合,效果尚可;但大部分优化师只能凭感觉选择,最终产出的视觉质量和投放表现自然难以保证。
因此,自动化工作流的一个显著优势在于:通过预设规则消弭个人差异,让整体产出保持在一个稳定水准上——或许不是顶尖,但至少可控,不会太差。
第二宗罪:新建工作流,而不是融入已有工作流
自动化工作流落地最大的阻碍在于“人”。因为人都有思维和工作惯性,这很正常——习惯一旦形成,就像肌肉记忆一样,这才能真正提升效率,公司里的各个角色无一例外。
然而,新的工作流往往意味着改变既有习惯。短期内,整体协同效率不升反降:学习成本、适应成本、工具边界探索成本……都会消耗大量时间和精力。与此同时,员工的任务量却并没有减少,他们依旧要完成 50 条视频剪辑、30 张图片设计。
虽然你坚信,只要大家熬过适应期,效率终将提升,但问题是——这段适应期要多久? 没有人能说清楚,也没有人愿意冒险去等待。毕竟加班时间延长是实实在在的。
因此,更务实的落地策略是:不要推翻重建,而是从已有的大工作流中切出一部分环节,用自动化替代原本的人工操作,从而最大程度减少 SOP调整带来的摩擦和抵触。
还是以前面提到的图片自动化素材为例。我们后来把它嵌入“新品测试”的场景中,实现了自动选品 → 按规则选模板 → 按规则选择输入图片 → 自动生成素材。优化师依然像过去一样,直接在素材系统里就能看到产出的图片。等我离开时,自动化生成的图片素材已经占到最终投放的 80%以上。
第三宗罪:没有端到端,需要人工干预
除了首尾两端,中间环节要尽量避免人工参与。
第一,若某些节点需要人工操作或决策,就会引入等待、沟通和返工流程,整体效率往往不增反降。
第二,一旦有人介入,评价和输入难免带有主观因素,流程的可复制性降低,结果也更不可控。而可控、可复制,恰恰是工作流的核心价值。
第三,关键节点的人为上限,决定了系统的上限。这既体现在数量上,也体现在质量上。数量上的限制很好理解,比如很多时候我们希望把图片或视频的处理任务放到半夜执行,这显然无法依赖人工。质量上的问题同样突出,尤其当一些核心策略需要人工选择时,系统的整体表现就会被人为水平所限制。
第四宗罪:没有闭环优化
很多人在做工作流时,思路仍停留在“从输入到输出”的线性逻辑,仿佛只要产出完成就算结束。但问题在于,策略从来不是一成不变的。一个真正有效的系统,需要不断通过数据反馈进行迭代,而不是永远停留在最初设计的状态。
比如,我们当时在公司内部搭建了一个视频翻译工作流,用来将英语素材翻译成德语、西班牙语和法语。起初,翻译的准确率只有 80% 左右,德语甚至更低。后来我们增加了一条规则:每次广告优化师验收通过视频时,都会将其中的 <英语,小语种> 翻译对照写入 system prompt,这样,翻译数据库就能持续动态更新,准确率也随之不断提升。
规则类策略同样如此。图片素材一旦投放,曝光、点击、CTR、CVR 等数据,完全可以再反向用于优化——帮助筛选更合适的图片与模板,从而形成一个自我迭代的闭环。
第五宗罪:用人的经验限制AI的充分探索
在用 AI 生成文本(比如文章或视频脚本)时,人们常常有一种惯性:把自己认为好的案例交给 AI,让它提炼结构,再产出新的脚本。
这种方法没错,但远远不够好。它让 AI 围着人的经验打转,却剥夺了它最有价值的能力——发散与探索。
事实上,AIGC 的最大优势在于生成力:快速、多样、成本低。与其让 AI 模仿过去的成功,不如在可控的范围内释放它的创造力,去探索未知方向。很多团队已经用这种方式试水:一次生成十几种脚本,小流量测试后,往往能发现意想不到的高效方案。
问题是,人对未知和不确定性有着天然的抗拒。相比让 AI 写出“完全不同”的内容,大家更愿意让它复制已有的套路,因为这样更安全。但这种“安全”,恰恰筑起了一道看不见的天花板。
我相信,AI 的水平可能已经超过了近一半的人。如果一开始就让它学习过去的成功案例,这在本质上就是人为给它设限。更何况,探索失败的代价也已经大大降低——AI 的试错成本远低于人力。
所以,正确的方式不是控制 AI,而是给它足够的上下文和边界条件:渠道、受众、预算、核心卖点……然后放手让它生成,交给数据去筛选。context,而不是 control。
garbage in,garbage out。如果人自己先画了一道框,AI 的产出就永远只能在这个框里打转。
第六宗罪: 没有追求极致
在公司内部开发工作流,与做 C 端产品完全不同。它的完成状态只有两种:要么能用,要么不能用。直白点说,如果不能做到 80 分以上,用户往往会直接判为 0 分。
原因在于,工作流一旦出错,就会直接触碰用户的信任底线。哪怕只是一次低级错误,用户也会觉得“不靠谱”,后续再想让他们重新使用的成本极高。更何况,业务场景下的小失误往往会被放大:一条文案的错误可能带来投放预算的浪费,一次翻译的偏差甚至会影响整个市场的品牌形象。
此外,在组织内部,口碑传播的速度极快。如果某个工具被贴上“鸡肋”标签,就很难再翻身。即便后来产品经理修复了问题,大家也往往懒得再尝试。
这就是为什么,在推出工作流时,必须追求“极致可用”。与其急着交付半成品,不如先在产研内部灰度测试,把 bug 消化掉,把成功率稳定在 85% 以上,再交付给真实用户。只有这样,才能降低他们的抵触和质疑,让工作流真正进入日常使用。
第七宗罪:让产研自己推动落地
很多公司都会掉进一个误区:认为工作流既然是“工具+流程”的问题,那就交给产研团队去推动落地。但现实是,如果没有 C-level 老板亲自下场,这事几乎不可能真正推成。
原因很简单。只要涉及跨团队,部门墙就必然存在。不同角色的工作习惯根深蒂固,需要新增的节点动作、调整 SOP,这些变化都会遭遇本能的抵触。而普通员工既没有足够的影响力去说服同事,也没有权限作出跨部门的决策。换句话说,他们面对的“三座大山”——部门壁垒、习惯惯性、责任归属——根本无法单靠自己搬开。
更现实的问题是,很多时候员工也“不敢背锅”。尤其当新工作流的策略和以往的人工交付不一致时,一旦数据表现不佳,谁都不愿意拍板承担后果。只有老板们愿意试一试,问题才可能被解决。
我当时就遇到过类似的情况:想通过删除视频翻译中的某个短句来优化策略。但广告优化师不敢点头,因为担心影响广告效果,尽管视频平均播放时长只有 10 秒,绝大部分用户根本还没看到那个短句。无奈之下,我只能在周会上把这个问题抛给 COO。结果 COO 轻描淡写地说了一句:“那就删吧。”这句话立刻结束了所有争论。事实证明,删掉这个卖点对投放效果没有任何影响。
跨部门工作流的落地,永远需要高层拍板。老板的一句话,往往比产研团队几个月的推动更有分量。
本文来自:简写2019,作者:余子申