AI实验室

借助紫光AI实验室、企业或组织通过使用线上加速计算平台,无论身处何地都能轻松体验专为AI和数据科学领域量身定制的端到端加速计算解决方案。这些平台不仅提供灵活访问,而且专注于AI和数据科学的特定需求,从数据处理到模型训练,再到推理和部署,实现全流程加速,大大提升工作效率。

特别设计的精选体验项目,让开发人员、设计师和IT专业人员能夫上手,快速开始构建和部署数据密集型应用程序。这些项目支持快速的原型测试和验证,有助于在软件开发的早期阶段作出更优、更可靠的软件和基础架构选择,从而加速整个开发周期。

1
1
1
模型并行—— 构建和部署大型神经网络

数据并行 —— 用多 GPU 训练神经网络

构建基于 Transformer 的自然语言处理应用

超大型的深度神经网络 (DNN),无论是用于自然语言处理 (如 GPT-3)、计算机视觉 (如规模巨大的视觉 Transformer),还是语音 AI (如 Wave2Vec 2),都具有区别于其较小规模同类模型的特殊属性。基于海量数据集训练出来的 DNN 的规模越来越大,使得它们只需再经过少量示例训练就能够适应新任务要求,从而加快了向通用人工智能的迈进。使用庞大的数据集,训练包含数百亿到千亿参数的模型并非易事,这需要独特的方法来综合运用人工智能、高性能计算 (HPC) 和系统知识。本课程的目标就是学习如何训练超大型的神经网络并将其部署到生产中

现代“深度学习”正面临的数据集规模和模型复杂程度不断增加的挑战。因此,要想卓有成效且高效地训练模型,需要有强大的计算能力。学习在深度学习模型训练期间在多个 GPU 之间分配数据,使得更多基于深度学习应用开发成为可能。

此外,有效使用配备多个 GPU 的系统可缩短训练时间,从而加快应用开发速度并进一步缩短迭代周期。能够使用多个 GPU 执行训练的团队将具有更大的优势,可以在更短的时间内构建基于更多数据进行训练的模型,大幅提高工程师的工作效率。

在过去的十年中,自然语言处理 (NLP) 的应用呈爆炸式增长。随着人工智能助手的大量出现,以及企业将更多的人机交互体验融入到业务中,理解如何使用 NLP 技术来操作、分析和生成基于文本的数据是至关重要的。现代技术可以像人类一样,捕捉语言的细微差别、使用情境和复杂程度。如果设计正确得当,开发人员可以使用这些技术来构建强大的 NLP 应用,在聊天机器人、AI 语音代理等众多程序中实现自然顺畅的人机交互。

1
1
 

使用 Isaac Sim 组装一个简单的机器人

Omniverse 中定制化开发

 

在 Isaac Sim 的实时 GPU 环境中逐步装配一个两轮式移动机器人,以完成“组装简单机器人”

将本地流式客户端连接至云端的 Omniverse Isaac Sim 服务器

将 USD 模拟机器人加载到 Isaac Sim 环境中

为机器人的本体添加关节驱动和关节属性

为机器人添加关节连接

  1.  
    1.  

您想要根据自己的喜好更改 Omniverse 的功能和用户界面 (UI)吗? 那么使用 Python 代码通过扩展功能(Extensions)可以自定义 Omniverse 的体验。扩展功能(Extensions)可用于各种修改,从按下按钮生成对象到在选定对象上应用自定义的物理规律。通过将经常重复的操作复制到扩展功能中来优化工作流程,或者添加一种新的方式来操作 UI 中的对象。

 

留言咨询

紫光晓通提供了更完整的增值解决方案,为您的选择做好准备

提交留言
%{tishi_zhanwei}%