一个从没踏足过美国的22岁印度医学生,靠谷歌生成的一张脸,月入数千美元。他的客户群体精准得可怕——美国MAGA保守派男性。

第一,这不是技术故事,是人性套利

打开网易新闻 查看精彩图片

Sam的起点很普通。YouTube短视频没人看,学习笔记卖不动。直到他开始用谷歌Gemini的Nano Banana Pro生成AI美女图,向关注者兜售比基尼照片。

初期账号反响平平。真正的转折点来自Gemini的建议:瞄准"MAGA/保守派领域"。理由是这类美国年长男性"可支配收入更高、更忠诚"。

Sam照做了。今年1月,"Emily Hart"诞生——长相酷似詹妮弗·劳伦斯的注册护士,白色皮肤、金发、Instagram账号。他从未在美国生活,却每天花30到50分钟钻研受众喜好。

发布的内容精准到近乎嘲讽:冰上钓鱼、喝Coors Light啤酒、步枪靶场射击。配文充满表情符号,"基督为王,堕胎是谋杀,所有非法移民必须被驱逐",以及"他们说你打小就聪明,但你却自认为是自由派<小丑表情>"。

Sam承认这骗局"几乎太过明显"。但每条Reel短视频获得300万至1000万次播放,一个月内粉丝破万。订阅AI擦边内容、购买MAGA主题T恤,为他带来数千美元月收入。

"在印度,即使是专业工作也赚不到这么多。我还没见过比这更简单的网上赚钱方式。"

第二,平台算法在帮骗子打工

Sam发现了一个被平台规则奖励的机制。他称之为"愤怒诱饵"——哪怕是黑粉也要点进去骂,留下愤怒评论。"这是一个双赢的局面,无论如何你都会获得互动,你的内容就会病毒式传播。"

Instagram要求创作者标注AI生成内容,但执行松散。Emily Hart的帖子从未标注。今年2月,该账号因"欺诈行为"被Instagram封禁,但Facebook账号仍在运营。

《连线》指出,这类AI生成的MAGA美女账号已大量涌现。共同特征高度模板化:白色皮肤、金发、职业多为警察或急救人员,以美国国旗比基尼或MAGA帽示人,痛斥移民、爱泼斯坦档案或性别代词。

《华盛顿邮报》此前报道的"Jessica Foster"账号更夸张——自称美国陆军女兵,发布与特朗普和普京的合影,四个月内涨粉超百万。曝光后才被关闭。

布鲁金斯学会研究员Valerie Wirtschafter的评论很克制:"虚假账号并非新鲜事,但AI令其更可信,且可能被放大。"

第三,左右翼受众的"智商税"差异

Sam做过对照实验。他尝试创建一个对应左翼账号,发现"民主党人知道这是AI垃圾,不怎么互动"。

他的结论很直白:"MAGA受众都是超级蠢的人,只有他们才会上当。"

这句话本身充满讽刺——一个靠伪造身份赚钱的人,在嘲笑自己的客户愚蠢。但更讽刺的是,这个判断可能影响了他的商业决策。他选择了继续深耕MAGA市场,而非尝试优化左翼内容。

这里有个被忽略的产品细节:Gemini的初始建议强调的是"可支配收入更高、更忠诚",而非"更容易受骗"。Sam在实际运营中发现的,是后者。平台算法的"愤怒诱饵"机制,恰好与这个群体的信息消费习惯形成共振。

第四,"我不觉得自己是在骗人"

Sam的账号被封后,他的回应值得玩味:"我不觉得自己是在骗人","用户对自己看到的内容也很满意"。

目前已停止运营,重新专注于学业。

这个案例的荒诞之处在于多方共谋:AI工具提供策略建议,平台算法奖励争议内容,受众主动选择相信。Sam只是其中一个节点。他提供的"产品"——一个符合特定政治幻想的女性形象——确实满足了用户的某种需求,尽管这个需求建立在虚假前提上。

《连线》的报道没有追问:那些订阅付费内容的用户,在发现真相后会如何反应?是愤怒、自嘲,还是转向下一个Emily Hart?

当AI生成内容的成本趋近于零,当平台算法持续偏好极端化表达,这类"人设套利"只会更普遍。Sam的故事最锋利的部分,不是技术本身,而是他精准识别并利用了某个群体的认知盲区——然后用他们的钱,完成了自己的医学院学费储备。

问题是:下一个Sam会瞄准谁?而当每个细分群体都有自己的AI"代言人"时,我们还能分辨哪些愤怒是真实的,哪些是被设计的吗?