2025年初,认真用AI的人还在写长提示。角色、语气、格式、约束条件、示例、排除项、边界情况——一股脑塞进第一句话里。提示不是请求,是控制面板。
这种写法有其道理。当时的系统有用,但容易跑偏。指令太模糊,输出就平庸;约束没写全,模型就乱猜;有隐藏需求,往往等第一轮输出错了才发现。
打开网易新闻 查看精彩图片
到了2026年,这套 workflow 开始显得过时。
打开网易新闻 查看精彩图片
提示依然重要,但不再是控制输出的唯一正经方式。更多用户现在可以用更短的指令开场,拿到一个能用的初稿,然后通过后续对话打磨结果。加参考、换模态、要变体、改语气、删段落、调视觉方向,或者把粗糙草稿变成可用资产——全程不用重启任务。
实质转变是从前置的提示工程,转向实时协作。
长提示阶段,用户得在第一句话里压缩太多意图。好提示通常要回答:受众是谁?格式怎样?语气如何?排除什么?用什么示例引导?避开哪些边界情况?不确定时怎么办?
这奖励了重度用户。懂模型行为的人,结果比随手打字的人好得多。差距真实存在,但也意味着系统有很高的技能门槛。一个需要精心工程化提示才能好用的工具,强大,但还称不上 effortless。
打开网易新闻 查看精彩图片
现在的转变不是提示不再重要,而是 workflow 变得更有弹性。
用户不必在第一句就锁定全部结果,可以从粗略想法开始,在动态中塑形。文本任务可以变成视觉任务。初稿可以变成幻灯片大纲。松散概念可以变成多个变体。有瑕疵的答案可以在同一线程内修正,不必推倒重来。
这个方向在 GPT-4o 把文本、语音、视觉整合进更快的交互循环后变得清晰。Gemini 2.0 把同一模式推向原生多模态输出、工具使用和智能体原型。Anthropic 的 computer use 工作则展示了趋势的另一面:AI 系统开始直接在软件环境中操作。
热门跟贴