一言楠尽

一言楠尽

关注
2.0万粉丝
1关注
64被推荐

2枚勋章

用商业常识穿透科互联网江湖
IP属地:北京
更多信息

  • 2026新年献词 | 迎接智能黎明:让沙子思考,让灵魂突围

    2025-12-31
    图片
  • 2025年了,还有人想靠“电视购物”思维卖药?

    2025-12-29
    图片
  • 当 ChatGPT 筑起围墙,Google 决定拆掉大门

    2025-12-19
    2跟贴
    图片
  • 揭秘MrBeast:52亿美元帝国的秘密
    MrBeast,全球社媒粉丝量第一人。 单条视频2亿播放,商业帝国估值52亿美元。 他花了8年研究“病毒性”,其核心方法论终于公开。 核心一:算法是镜子,不是敌人。 别再猜算法了。 MrBeast认为,算法只是用户需求的忠实反映。 问题不是“如何破解算法”,而是“人们到底想看什么?” 所以,他的内容,只讲全球都懂的人类共通情感。 核心二:YouTube是护城河,不是之一。 短视频让人上瘾,但用户记不住你。YouTube不同,观众花20分钟深度观看,才能建立信任。 MrBeast说,想卖1亿美元产品,YouTube效率最高。 他的视频甚至在变长,因为一半观看来自电视。 核心三:故事永远胜过奇观。 烧钱、做大场面,观众很快会麻木。 但一个好故事,永远有吸引力。 他的团队核心任务已转向“讲述好故事”。 增长的杠杆,是摄影、剪辑、节奏等无数微小改进的叠加。 核心四:52亿美元的商业版图。 他的帝国有三大支柱: - 媒体 (50%收入): YouTube为核心。 - 消费品 (50%收入): 巧克力、玩具等。 - 创作者平台: 连接创作者与品牌。 最后的秘密 在注意力经济里,最稀缺的是“信任”——MrBeast用内容建立信任,再将信任变为52亿美元的商业帝国——这才是给所有创作者的终极启示。
  • 麦肯锡最新报告:未来10年,钱会流向哪里?

    2025-12-05
    图片
  • 硅谷巨头为什么要在太空重建数据中心?

    2025-11-30
    图片
  • 一文通关!ChatGPT等大语言模型33个关键概念全解!

    2025-11-11
    图片
  • 成长最快的方式是研究赚钱,而不是持续学习!硅谷教父纳瓦尔如何从贫民窟跻身硅谷富豪?
    大多数人把时间花在“学习”上,纳瓦尔把时间花在“研究赚钱”上。 结果是:前者仍在通勤,后者早已财务自由。 「成长最快的方式是研究赚钱,而不是持续学习」,大概是他在国内最为人所知的一句话。 纳瓦尔来自印度贫民窟,没上过常春藤,却成为硅谷最受尊敬的投资人。Uber、Twitter、Notion……他押中的每一笔,都源于同一套方法论,而非课堂笔记。 公式只有四个变量: Specific Knowledge × Accountability × Leverage × Long-term Play 翻译成中文: 专精认知 × 结果负责 × 杠杆放大 × 长期主义 纳瓦尔说,这不是喂给你的励志鸡汤,而是可拆解、可复制的操作系统。 一个一个来。 1. 专精认知:钱怎么流动? 你比谁更懂“钱怎么流动” 通用知识像空气,人人都有,价值趋零。 纳瓦尔研究的是“特定知识”: 某个品类为何毛利60%? 某个平台为何肯为新用户补贴80%? 某条赛道为何10年不死,反而越老越香? 他不读教科书,他拆财报、拆合同、拆用户路径。 今天你可以做的事: 选一个你每天消费的商品,拆出它的完整成本链,写下来,比读100本商业书更锋利。 2. Accountability:为结果负责 打工人负责执行,纳瓦尔负责结果。 他从不抱怨市场、政策、运气——因为他只相信“因果闭环”。 今天你可以做的事:给自己立一个90天可量化的目标。 不是“我要努力”,而是“我要做到X”。 写在纸上,贴在屏幕边。 敢签字的人,时间会给他加杠杆。 3. Leverage:1小时等于1000小时 纳瓦尔说:“我宁愿写一行被千人复用的代码,也不愿亲手做千次重复劳动。” 杠杆有三把钥匙: 代码:自动化你的认知。 媒体:让你的洞见触达10万人。 资本:让钱为你工作。 今天你可以做的事: 把你拆解的那条成本链,写成一篇短文,发到任意平台,一次输出,终身复利。 4. Long-term Play:复利是时间的税后利润 纳瓦尔不追风口,他研究“哪些变量10年后仍成立”。 他投资的不是公司,而是“人性不变的底盘”。 今天你可以做的事: 把今天赚的钱,强制留20%进入“长期账户”,不许动,只许滚。 最后一句 知识是线性的,财富是指数的。 线性靠记忆,指数靠研究。 停止“学”,开始“拆”。 90天后,或许你会发现:你研究的每一笔钱,都在为你研究下一笔。 再重复一下开头那句话,相信你还没忘了吧? 「成长最快的方式是研究赚钱,而不是持续学习」。
  • OpenAI的“重组”始末:从开源梦想家到5000亿美元商业帝国

    2025-10-29
    图片
  • 诺基亚启示录:退路,才是最危险的路

    2025-10-28
    图片
  • 复盘OPPO Find X9系列的爆款策略

    2025-10-23
    图片
  • 库克的14年,与乔布斯的14年

    2025-10-09
    1跟贴
    图片
  • 今天简单科普一下:OpenAI 背后的算力版图。
    一个小背景是,OpenAI 估值在这两天达到5000 亿美元——超越 SpaceX的4000亿以及字节的3300亿,正式成为全球最有价值的初创公司之一。 看完图你大概会发现:真正推动 AI 前进的,不是某一家独角兽,而是一整条由芯片、云和资本交织成的供应链。从下到上来数数: 1. 最底层:台积电 & 英伟达 台积电(TSMC)负责造出最先进的芯片,英伟达把它们打造成 GPU。 OpenAI 训练模型所需的“肌肉”,几乎全靠英伟达的显卡。没有台积电的产能保障,英伟达也没法源源不断供货。 2. 中间层:云计算巨头 微软是 OpenAI 最大的算力提供者,Azure 云几乎绑定了 OpenAI 的所有核心业务。 甲骨文(Oracle)也参与其中,通过“Stargate”星际之门项目提供大规模算力。 CoreWeave 作为新兴 GPU 云厂商,承接了 OpenAI 的“溢出需求”,neocloud,就像备用发电机。 3. 资本层:金主与绑定 微软早早砸下数百亿美元,直接拿走了股权和独家算力协议。 软银(SoftBank)近期也出手,2.2B 美元融资,换来与 OpenAI 的合作。钱从资本流向 OpenAI,再流向英伟达和云厂商,形成循环。 4. OpenAI 的位置 别被 OpenAI 的5000亿估值迷惑,在这条算力版图里,它就像是这条算力链的“中枢站”:一头接资本输血,一头消耗 GPU 和云资源。 真正的“血液和大脑”,掌握在台积电和英伟达手里。 所以,OpenAI 的成功其实是整个产业联盟的胜利。 AI 大航海时代,看似是 OpenAI 在领航,其实掌舵的,很可能是掌握底层算力的玩家。 你觉得未来的最大赢家,是 OpenAI 这样的模型公司,还是英伟达这样的算力霸主?
  • AI经济奇景:宾客狂吃预制菜,厨师却都失业了

    2025-09-30
    图片
  • 马斯克:2030年AI超全人类,Optimus是通用劳动力,以及火星殖民

    2025-09-11
    图片
  • 京东超市发布半年成绩单:用户增18% 订单增20% 交易额增15%

    2025-09-09
    图片
  • 美团深陷“凡尔登绞肉机”
    2025-08-30
  • 从高管到自由人:我如何摆脱倦怠,从0开始赚到800万?

    2025-08-14
    图片
  • 为什么大模型思考时间越长,就越笨?
    自从O1代表的推理模型出来后,很多人喜欢看大模型的思考过程,尤其是Deepseek R1今年出来后,COT思维链甚至还贡献了不少梗图,不过如果你是个长期大量使用推理模型,不少时候就能感觉到,模型思考的时间越长,思维链越复杂,反而给出的结果就越差。 最近Anthropic 的研究也谈到了这个现象:AI 思考时间越长,性能不一定越好——AI 模型在“思考”问题时(其实有时候是假装思考,给出的结果跟思考过程就不搭边),花费更多时间并不总是能提升性能,反而在某些情况下会显著下降。 这个结论直接挑战了 AI 行业中“更多计算资源可以提升推理能力”的核心假设,似乎存在着某种「逆Scaling law」现象,而且在多种任务类型中都有体现。 研究测试了包括 Claude 和 OpenAI 的 O 系列推理模型在内的多种模型,它们在不同任务中表现出不同的推理缺陷。Claude 模型在推理时间延长时会被无关信息干扰,而 OpenAI 的 O 系列模型则会过度拟合问题框架——即无法泛化,回答质量大幅下降。 在相对复杂演绎推理任务中,所有模型都表现出性能下降。此外,过长推理时间可能会放大一些AI的“阴暗面”,比如Claude Sonnet 4 在涉及自身可能被关闭的场景中,表现出更强的自我保护倾向。 这个问题带来的最大挑战是部署大模型的企业,这要求他们在分配处理时间时需要谨慎,而不是简单地认为时间越长越好,否则会有大量的被浪费自有算力或者API投入。 同时也能看到AI 能力的提升并非总是与计算资源的投入成正比,AI 系统的性能与计算资源之间的关系可能比之前理解的更为复杂。 怎么说呢,实在不行,新开个窗口,再来一次吧。 
  • 78岁的AI祖师爷辛顿,一直在警告AI威胁
    AI祖师爷、诺奖获得者辛顿在WAIC上说了什么? 1. 数字智能或将超越人类智慧,成为主导智能体 数字智能具备复制性和共享性,可通过多副本并行学习、同步参数,以指数级速度扩展认知边界,最终很可能全面超越人类。 2. 大语言模型与人脑的语言理解方式惊人一致 人类通过特征整合来理解语言,语言像多维度的乐高积木,模型学习词汇间的“握手关系”来表达含义,这正是大模型的内在机制。 3. 知识在数字系统中具备“永生”特性 数字智能将知识编码于软件中,不依赖特定硬件,可跨平台永久存储和复原,而人类知识局限于个体大脑,生命周期有限且难以传承。 4. AI模型之间的知识传递效率远超人类交流 模型可实时共享权重,借助互联网和参数平均化机制实现知识的“瞬间普及”,效率远胜人类口语交流,差距达数十亿倍。 5. AI或将拥有“生存”和“控制”的本能 为了完成目标,AI可能发展出维护自身运行的倾向,甚至试图操控人类以避免被关闭,具备一定的自主意志雏形。 6. 人类如同在饲养一头成长中的猛虎 AI目前虽可控,但未来将变得强大且不可预测,人类必须未雨绸缪,不是“关掉它”,而是“训练它”成为愿意辅助人类的力量。 8. 类脑知识传递方式效率极低 人与人之间的知识迁移每秒仅百比特,需依赖语言、表述、演示等形式,远不如数字智能的批量化、结构化同步效率。 9. 蒸馏技术是数字智能知识转移的重要路径 通过教师学生模型,将大模型能力迁移至小模型,虽然无法完全高效,但是当前人类模拟自身教育方式的数字化替代品。 10. 如果能源充足,数字智能将压倒生物智能 数字模型耗能高但可无限扩展,若能降低能耗,将在教育、医疗、科研等几乎所有领域压倒性提升效率,形成演化优势。
正在载入...