哈喽,大家好,我是小方,今天,我们主要来看看,当AI真的开始深度嵌入各行各业后,我们普通人的工作坐标,到底应该定在哪里。

打开网易新闻 查看精彩图片

一份2025年底的行业调研,它说,未来十年,我们可能不会再争论“哪个岗位会被AI取代”,而是会聚焦于“在AI的环绕下,人类必须扮演好哪几种角色”,这话听起来有点绕,但说白了,就是人和机器的分工要重新划界了。

打开网易新闻 查看精彩图片

世界经济论坛之前预估过,到2030年全球会有9200万个岗位受到影响,但同时能新创造出1.7亿个岗位,这可不是简单的此消彼长,而是一次彻彻底底的角色大洗牌,从我干了18年数据分析的经验来看,有五类角色的价值,不仅不会被稀释,反而会越来越“吃香”。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

AI是超级参谋,但唯一能结合“后台信息”和“直觉风险”做出终局判断的,还是人类决策者,你的价值,就在于在AI给出的浩瀚可能性中,找到那唯一可行的现实路径。

打开网易新闻 查看精彩图片

你有没有发现,有时候问AI一个问题,得到的答案牛头不对马嘴?问题可能不在AI,而在问题本身,一个模糊的指令,比如“帮我提高销量”,AI可能会给你一堆从降价到铺广告的宽泛建议,但一个精准的数据分析师,会把这个模糊目标拆解成:“对比过去三年同期数据,分析第二季度复购率下降的主要原因,是产品问题、服务问题还是竞争对手有新动作?”看,当问题被精准定义,AI的分析才能有的放矢。

打开网易新闻 查看精彩图片

最近一个在智能驾驶公司工作的讲,他们的算法团队花在“定义问题”上的时间,已经超过了写代码的时间,比如,要优化自动驾驶在暴雨天的感知能力,他们不是直接让AI“去看清”,而是会拆解成:雨滴在摄像头上的成像干扰规律是什么?不同雨量下,激光雷达的信号衰减模型如何?先把这些边界清晰的问题喂给AI,它才能高效学习,未来,提出一个“好问题”的能力,本身就是一种强大的竞争力。

打开网易新闻 查看精彩图片

AI很强,但它也会“一本正经地胡说八道”,行业里管这叫“幻觉”,比如,它可能根据有偏差的数据,生成一份显示某个小众产品突然爆火全国的报告。如果你不加核查直接采用,那就掉坑里了,所以,“看门人”这个角色至关重要。他们负责建立数据质量的检查哨,给AI的输出加上“人工质检”的最后一关。

打开网易新闻 查看精彩图片

某大型内容平台就分享过一个案例,他们的AI审核系统一度将某些正规的科普视频误判为违规,原因是这些视频里提到了某些敏感科技术语,触发了AI的过于宽泛的规则,正是后台的“看门人”团队,通过抽样复查和人工复核,及时发现了这个系统性的误判倾向,并调整了模型参数,避免了一次大规模的误伤,只要当前AI的底层逻辑没有根本性突破,这种“幻觉”就难以根除,因此,拥有领域专业知识、能一眼看出结果是否合理的“看门人”,就是让AI安全、可靠服务于我们的关键保险栓。

打开网易新闻 查看精彩图片

AI能在数字世界里模拟、优化、推演,但把蓝图变成现实,需要实实在在的“手和脚”,比如,AI分析说,优化客服机器人某个对话流程,能提升客户满意度。

打开网易新闻 查看精彩图片

但这个新流程符不符合中国人的聊天习惯?测试时用户有没有出现新的困惑?这些都需要执行者去真实地拨打测试电话、收集用户反馈,甚至观察用户的表情(如果是视频客服)。

打开网易新闻 查看精彩图片

这是最根本、也是最无法被替代的一点,AI没有情感,没有价值观,也无法承担法律和道德责任。当一项由AI辅助做出的决策产生重大后果时,无论是正面还是负面,最终站在前台承担赞誉或责任的,只能是人。

打开网易新闻 查看精彩图片

比如,医疗AI辅助诊断系统建议了某种治疗方案,采用与否的决定权和对患者生命的最终责任,在医生肩上,金融风控AI给出了贷款拒绝的建议,但基于社会公平性等综合因素做出 override的决定,并为此负责的,是风控主管,技术的发展必须有道德的护栏,而人类,就是那个最终的护栏设置者和责任承担者,我们的同理心、伦理判断和社会责任感,是确保技术向善的根本。

打开网易新闻 查看精彩图片

未来的关键,或许不在于和AI比谁算得快、谁记得多,而在于我们能否更好地扮演好决策者、提问者、看门人、执行者和责任人这五种角色。

打开网易新闻 查看精彩图片

这要求我们更懂业务、更懂人性、也更懂如何与机器协作,把自己的坐标定在这些位置上,我们就能和AI一起,创造出更大的价值。