侵权投诉
订阅
纠错
加入自媒体

AI技术全面爆发的2023,智能汽车已经入不了英伟达的眼?

2023-03-24 10:50
路咖汽车
关注

“AI的iPhone时刻”,在英伟达第14次GTC大会上,创始人黄仁勋3次强调“AI的iPhone时刻已经到来”的论调,苹果的iPhone从诞生,到改变整个手机行业,大概经历了5—8年,而AI技术在2022—2023年的全面爆发,可能会在3-5年间将人类社会的很多既定规则、规律,逐一打破。

上一次GTC大会的主角,一定是英伟达自动驾驶技术,而这一次GTC上提到汽车的只有寥寥几句,比如英伟达已与比亚迪达成合作,将在下一代王朝系列和海洋系列的多款车型中使用英伟达DRIVE Orin高性能计算平台,以及车企已经在使用Omniverse构建自己工厂的数字孪生、为新车型构建、优化和规划组装流水,这些信息其实在上一年的GTC和今年初的CES展上我们已经听过了,并不是新的内容。

而最近AI技术的大爆发,让英伟达的股价较年初低点疯涨了超过80%,这一次的GTC大会,AI是完全的主角。

智能汽车的硬件成本,会被英伟达打下来?

从ChatGPT地让大家开眼,再到GPT-4发布、百度文心一言跟进发布,事情逐渐变得不太对了,而到了微软发布AI助手Microsoft 365 Copilot、Midjourney发布能“画手指”的V5版本,AI行业的真实影响力开始逐渐影响到我们每一个人。自动驾驶的故事最多也就是讲到实现完全自动驾驶,而AI领域的边际其实我们现在还看不到,而智能座舱领域又是AI领域中一个很小的组成部分。

其实无论是自动驾驶还是整体的AI领域,算力问题都是一个最大的瓶颈,车企们在自动驾驶和座舱方面通过多芯片叠加融合的方式,让算力变得更加充裕,但是到了AI领域,算力不够的问题单纯通过堆芯片的方式,并不能解决,大家也会发现,在使用ChatGPT的时候,经常会出现卡顿或者崩溃的问题,甚至有时候直接就打不开了。

尽管微软当时为了训练ChatGPT已经斥资数亿美元,购买了数万块A100芯片,但是单纯的堆算力让整体的开发,以及芯片损耗和电费方面,都要付出极高的成本,所以还需要更高效的手段去解决算力问题。

这一次英伟达发布了专门支持ChatGPT训练的GPU芯片H100 NVL,像A100或者H100这些芯片,大家也会比较熟悉,因为目前国内外训练自动驾驶,互联网服务商的云计算芯片,都用的是这两款芯片,像我们之前提到过的特斯拉超级计算机、小鹏的数据中心。这一次的H100 NVL是H100的改进型,虽说是改进,但是它的升级幅度可以说就是换代产品,它配备双GPU NVLink,将两张拥有94GB HBM3显存的PCIe H100 GPU拼接在一起,基于NVIDIA Hopper 架构的H100配有一个Transformer引擎。

这款全新的芯片也可以叠加使用,一台搭载四对H100和双NVLINK的标准服务器能将ChatGPT的处理速度提升10倍,带来效率的同时可以显著降低成本(耗损和电费)。

除了能训练ChatGPT,还英伟达推出了全新GPU推理平台,包括了L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片四种配置。这四种配置分别用于加速AI视频、图像生成加速、大型语言模型加速(LLM)和推荐系统。

虽然英伟达没有说它们可以训练自动驾驶,但是大家可以来看看它们能够实现的功能,L4 Tensor Core GPU是针对AI视频设计的通用型GPU,它可以提供比CPU高120倍的AI视频性能,能效提高一倍。同时,优化了视频解码与转码、视频内容审核、视频通话等功能,如背景替换、重新打光、眼神交流、转录和实时翻译等。L40 GPU用于图像生成,针对2D、3D图像生成进行了优化,甚至能够融合Omniverse直接生成3D甚至元宇宙内容,其推理性能是英伟达云推理GPU T4的10倍。

使用这些硬件的能力去训练自动驾驶,可能真的是大材小用,在全场景全链条的AI面前,智能汽车所需要处理的数据,确实是有些不够看的了。不过随着硬件性能的不断提升,汽车可能真的不太需要在车辆本身上堆太高的硬件,更强大的后台处理能力,能够极大提升图片和音视频的处理能力,又给了智能汽车新的生命力,特别是随着5G的逐渐上车,基础设施的不断完善,能够极大降低单车上的硬件成本,更多内容交给后台去处理。

车企们甘愿被英伟达完全绑架?

除了硬件之外,英伟达在CES上发布过关于元宇宙以及云服务的内容,这一次GTC大会上,英伟达发布的DGX Cloud人工智能云服务,甚至比那些硬件还要吸引人,DGX Cloud是一项人工智能超级计算服务,它可以让企业快速访问一些能够生成式人工智能和其他开创性应用训练高级模型所需的基础设施和软件。

DGX Cloud所需的基础设施由英伟达与微软Azure、谷歌OCP、Oracle OCI等其他云厂商一起托管,而租用的DGX Cloud起价为单个每月36999 美元,单个实例可由8块A100或H100芯片以及相关软件算法技术组成,这片能够月租的云计算系统,甚至可以让企业们不用买硬件,就可以得到需要的训练效果或者模型成果。

而对于已经自建或者正有自建云计算中心想法的车企们来说,英伟达吹来的这片云的吸引力不可谓不大,成本会大幅降低,而且大家的自动驾驶芯片或者计算平台几乎都来自英伟达,如果再以这种低成本的方式让英伟达也来接管云计算的工作量,那么车企就太轻松了,甚至于车企都不需要在其中去努力什么了,不仅是硬件成本的降低,整体的开发成本可能就是付给英伟达的租金。

不过问题就在于要可能会被卡脖子,因为整个自动驾驶研发的全链条上已经几乎没有车企需要参与的了,去年英伟达被迫向中国断供A100和H100芯片时,就有了不小的风波,有些车企采用囤货的方式度日,也有换芯片供应商的,而到了云计算这方面,上文我们提到了,这片云并非英伟达一家企业搭建的,还有众多其他美国互联网企业,风险会变得更高,可矛盾点也正在这里,自研自建的风险虽然低,但是成本并不是所有车企都能承受得了的。

总结

前文提到的专为大模型研发的GPU,还有DGX Cloud云服务,都让我们看到了英伟达在AI时代展现出的强大实力,自动驾驶以及和车辆相关的AI技术需求,在这些AI技术和软硬件面前就像小打小闹一样,所以我们才会说让智能汽车变得暗淡,智能汽车只是AI技术要去赋能的很小一部分。

苹果的秋季发布会和特斯拉的AI DAY,会有不少人会去为它们熬大夜,但是在AI技术井喷式发展的今天,英伟达的GTC很有可能会在未来比它们更受关注,“AI的iPhone时刻”已经来到,AI的故事远不止我们现在的目之所及。

作者丨邹宇源

       原文标题 : AI技术全面爆发的2023,智能汽车已经入不了英伟达的眼?

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

新能源汽车 猎头职位 更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号