作者|Jimmy
来源|AI先锋官
前天深夜,老黄就在自家屋头发布了英伟达的新产品,一块“新鲜出炉”的超算。
现在小编就给各位火线讲一讲,老黄这个从烤炉里端出来的小玩意,它到底是干什么的,究竟能让我们干什么。
这块jeston orin nano有1024个英伟达cuda核心,但体积仅为一张信用卡大小。
其内置的NVIDIA Maxwell架构GPU,配合四核ARM Cortex-A57 CPU,能够为开发者提供高达每秒70万亿次的计算能力。
在算力比老版本提升百分之70的同时,耗电也下降到仅有25瓦,价格比上代的Jetson Orin NX,从500美元下降到仅需249美元,
约合人民币仅有1800多元,仅为苹果手机的四分之一。
jeston orin nano老黄把它定义为机器人处理器。
在老黄的设想里,未来我们人形机器人的发展趋势,那必然是搭载AI模型,而这个jeston orin nano,就是搭载AI大模型的硬件。
换句话说,就是未来机器人的大脑。
这意味着,用户就可以在这个小小的设备上,进行本地化信息采集训练,从而进行深度学习、计算机视觉、机器人控制等复杂任务的处理。
让机器人彻底从云端走向终端
而要想让机器人摆脱传统的走路“脑血栓”的毛病,在智能视觉的领域就必须要有突破!
同样,作为机器人终端的jeston orin nano可以支持最多四个外接摄像头。
这对于需要同时处理大量高分辨率视觉图像的应用来说是一个巨大的优势。
在此基础上,通过本地化信息采集让jeston orin nano搭载的视觉AI更适应工作环境,从而实现灵敏的避障能力。
而且,在智能城市的建设中Jetson Nano还可用于车辆和行人的检测与分析,
甚至在复杂的城市环境中进行交通流量监控和管理。
在物联网领域,Jetson Nano为设备赋予了智能化的能力,使得智能家居、智能安防等产品更加智能化与自主化。
更令人惊喜的是,这块掌中超算不仅支持大语言模型,还能轻松驾驭各类生成式AI应用。
基于Transformer架构的生成式对话模型(如GPT系列、BERT等),可以用于生成自然语言对话、自动问答、虚拟助手等应用。
通过Jetson Nano,本地设备可以快速生成实时对话,
减少依赖云端的需求,提高对话系统的响应速度和稳定性,实现让机器人“开口说话”。
尤其是在推理(inference)阶段,Jetson Nano提供了极高的性价比和优异的能效,
而与Jetson Nano旗鼓相当的苹果M2工作站售价则要达到一万美元。
最关键的是,如果你想自己拥有独属于自己的AI大模型,
Jetson Nano服务器不仅能完美兼容英伟达的软件生态,还能接入市场所有主流开源模型,从而避免用户从头训练而浪费大量时间。
but,因为英伟达自身还在深陷在反垄断调查的泥淖中,所以屏幕前的各位大概是享受不到jeston orin nano的带来的便利喽
但在这里还是要感慨一句,老黄,给你的友商留条活路吧。
扫码邀请进群,我们带你一起来玩转ChatGPT、GPT-4、文心一言、通义千问、讯飞星火等AI大模型,顺便学一些AI搞钱技能。
往期文章回顾
热门跟贴