最近英伟达CEO黄仁勋在采访里放了个大招,说AI既没有泡沫,也不会搞出世界末日。
这话一出来,美国那边直接吵成了菜市场。
支持者把AI当成救世主,反对者天天喊着人类要完,可吵来吵去,真正该担心的事儿反而没人提了。
今天咱就掰开揉碎了说,黄仁勋这话到底靠不靠谱,AI现在真正的麻烦在哪儿。
黄仁勋这话吧,听听就行,别全当真,毕竟英伟达是卖AI芯片的,去年光靠这玩意儿就赚了个盆满钵满。
他说没泡沫,就跟开饭馆的老板说"我们家菜永远不愁卖"一样,你说能信几分?但他反驳末日论还是有点道理的,现在的AI连猫和狗都分不太清,真要毁灭世界怕是还得再修炼几十年。
可美国那边的争论早就跑偏了。
另一边又有人举着伦理大旗喊"AI要统治世界",结果越吵越凶,反而没人关心AI现在已经捅了哪些娄子。
皮尤研究中心去年做的调查挺有意思,62%的美国人觉得AI风险大,可58%又盼着它解决气候问题,这种矛盾心态,就是被两边的极端言论带沟里了。
现在网上随便刷几条信息,保不齐就有AI写的。
斯坦福去年的报告说,AI生成的内容占了全网38%,这里面65%都是些没营养的东西。
为啥会这样?还不是因为算法就认流量,企业发现用AI写东西又快又便宜,管它质量怎么样,先堆上去再说。
结果呢?真正有价值的信息被这些垃圾淹没了。
麻省理工学院研究发现,总看AI写的东西,人会变得越来越不爱动脑子,去年全球青少年"信息焦虑症"比2020年多了不少,怕是跟这脱不了干系。
黄仁勋今年开始推"物理AI",说要把AI用到工厂、汽车这些实体场景,听着挺高大上,可现实问题一堆。
就说特斯拉的自动驾驶吧,今年因为AI误判路况出了12起人命事故,算法在现实世界里的容错率简直低得吓人。
工厂里的AI系统也不靠谱,去年全球17起安全事故,都是因为数据更新慢了半拍。
科学家辛辛苦苦验证半天,结果发现是AI瞎编的,光验证成本就比生成数据的成本高10倍。
这哪是帮忙搞科研,简直是添乱,现在不光机器依赖AI,人也开始离不开了。
哈佛医学院调查显示,45%的职场人遇到复杂决策就找AI要方案,青少年更是天天抱着社交机器人聊天,线下说话都不利索了。
最要命的是Deepfake技术,今年美国大选37%的选民被AI伪造的候选人言论骗了,这社会信任要是崩了,可不是闹着玩的。
英伟达现在市值2.8万亿美元,全靠AI芯片撑着。
可这增长神话还能续多久?最新的H100芯片算力比上一代强3倍,训练GPT-5的效率却只提升12%,投入产出比越来越低。
今年全球AI投资涨了45%,企业搞AI项目的平均回报却从2022年的28%跌到11%,这账谁都会算吧?
为了破局,英伟达今年猛砸边缘计算、自动驾驶这些新赛道。
可现实制约摆在这儿,美国数据中心今年耗了12%的电,加州都不让建新的AI服务器集群了,亚利桑那州的工厂因为缺水,直接减产30%。
芯片原材料就那么多,电力水资源就那么点,想靠物理AI撑起2.8万亿市值,怕是有点难。
2000年互联网泡沫的时候,思科市值5500亿美元,结果呢?过度依赖单一技术,说崩就崩。
现在AI行业的剧本跟当年太像了,资本狂热撞上物理极限,这跟头迟早得栽。
黄仁勋说AI没泡沫,其实是怕戳破自己的饭碗,说不会末日,倒是说了句大实话。
但AI真正的危机,既不是泡沫破裂,也不是机器统治世界,而是信息越来越垃圾,应用越来越危险,资源越来越不够用。
与其天天吵AI是好是坏,不如想想怎么让它少添乱多帮忙,毕竟技术本身没好坏,就看咱们怎么用了。
热门跟贴