第一部分:AI加速器
加速器的核心是加速库,AI加速器通过加速工作负载来降低功耗,提升效率,达到事半功倍的效果。以往高智能AI因为其计算量大,无法做到实时响应,导致其应用面不广,但加速器改善了这一点。
正如上面这张图所描述的那样,NIVDIA CPU都兼容CUDA,这为开发者提供了庞大的安装基础和广泛的覆盖范围,大量加速应用吸引了大量的终端使用者,这又为云服务提供商和计算机制造商提供了庞大的市场,足以用数十亿去推动发展,很明显这是一个良性循环。
cuQuantum
用于量子电路仿真的加速库
Spark-RAPIDS
加速云数据处理平台
cuOpt
AT&T,高效调度、背包问题、组合优化、物流服务等
CV-CUDA
30多个计算机视觉算子,可用于检测、分割和分类
VPF
Python视频编解码加速库
Parabricks
4.1版本,用于云端或仪器设备内的端到端基因组分析
Holoscan
适用于实时传感器处理系统的软件库,用于医疗设备等(Medtronic将基于NVIDIA Holoscan构建新一代GI Genius系统,从手术导航到机器人辅助手术)
cuLitho
一个计算光刻库,将计算光刻加速了40倍以上
GRACE CPU
用于AI和云服务
BlueField
DGX
第二部分:NVIDIA AI FOUNDATIONS(生成式AI的基础套件)
这是一项云服务和代工厂,面向需要构建,优化和运营定制LLM(大语言模型)和生成式AI使用其专有数据进行训练用于特定领域的任务。其包括语言视觉和生物学制作服务。
Nemo
用于构建定制的语言文本转文本的生成模型(通过自然语言让AI写电子邮件等文本内容)
Picasso
一项视觉语言模型制作服务,面向希望使用许可内容或专有内容来自定义模型的客户(创建可用自然语言让AI生成图像,视频和3D素材)
Bionemo
一款医疗健康应用框架,用于影像仪器,基因组学分析和药物研发,有可用于三维蛋白质结构预测的模型、用于蛋白质生成的模型、蛋白质特性预测的模型、用于分子生成的模型、用于分子对接的模型
第三部分:NVIDIA One Architecture
L4
针对AI视频工作负载,在视频解码和转码、视频内容审核、视频通话功能(背景替换/打光/眼神/转录和实时翻译等),L4相比CPU服务器在AI Video上提升了120x的速度
Snap将会把L4用于视频处理、生成式AI和增强现实,Google GCP成为首款NVIDIA AI云
L40
针对Omniverse、图形渲染和文本转图像和文本转视频等生成式AI,L40相比T4服务器在GPT-3 20B上提升了10x的速度
Runway(研究团队是Stable Diffusion的主要创造者):使用CV-CUDA高效处理计算机视觉处理流程,并扩展到云,提供AI赋能的图像和视频编辑工具
H100 NVL
针对ChatGPT等大语言模型的推理,H100 NVL相比HGX A100在GPT-3 175B上提升了10x的速度
Grace Hopper
适合处理大型数据集,如推荐系统和大语言模型的AI数据库
第四部分
Omniverse:实现工业数字化的数字到物理操作,基于物理性质,反映物理原理
物流
Amazon:Proteus团队需要提高网络的性能来读取基准标记并确定机器人在地图上的位置,通过Omniverse Replicator生成大量逼真合成数据集,将标记检测成功率从88%提高到98%,将开发速度从几个月缩短到了几天
汽车
通用汽车借助Omniverse USD Composer连接和统一资产工作流,使用Alias、Maya和3ds Max将设计师、雕塑家和艺术家连接到一起,并将汽车零部件在虚拟环境中组装成数字孪生汽车。
在Omniverse中使用Drive Sim生成合成数据来训练AI
通过虚拟NCAP驾驶测试验证主动安全系统
感悟
AI的发展日新月异,生活将处处充满AI。未来,运用AI的能力将会变得极为重要。AI将会替我们完成费时,费力有低效的事。搜集、整理数据和资料将有AI完成,而我们则需要提高辨别信息真假的能力。AI是把双刃剑,运用得好,会为工作、日常带来极大的便利;运用得不好,便会小到误导一个人的认知,大到给社会带来恐慌和混乱。因此,我们要学会独立思考,辨别信息的真伪。