ONNX系列: ONNX模型结构解析
ONNX 全称为 Open Neural Network Exchange, 是微软提出并推广的一种机器学习模型的开放格式表示,定义了一组通用的算子集、一系列用于构建深度学习模型的模块以及一种通用的文件格式,使得人工智能开发人员能够将模型与各种框架、工具、运行时和编译器一起使用。AI模型部署工程师可以针对 ONNX 这一中间格式来针对不同的硬件平台进行运行时设计和优化,从而实现AI模型设计和模型部署的解耦。本文将重点解析ONNX 模型结构,并演示了如何使用Python脚本定位到ONNX模型各个层面的元素。
AI ONNX时间:2024-03-27 16:12:49
QRB5165 硬件设计指南(5)
本文讲述了连接性,包括通用串行总线、PCIe、QUP 端口(I 2 C、I3C、SPI 和 UART)、非 QUP GPIO 端口 – SDC与可配置的GPIO。
Qualcomm RB5 笔记时间:2024-03-27 10:01:36
QRB5165 硬件设计指南(4)
本文包括永远在线的子系统、高通安全处理单元、使用 Quad HVX 和 HCP 1.1 计算 DSP、神经处理单元四个部分。
Qualcomm 笔记 RB5时间:2024-03-26 10:00:44
Qualcomm AI Hub-示例(三)模型推理
Qualcomm AI Hub提供了部署在云端边缘物理设备执行模型推理的任务,让你能够快速的评估在真实硬件上模型推理的精度和性能。本文介绍了如何使用AI Hub提供的接口在云端设备执行推理。
Qualcomm AI Qualcomm Al Hub时间:2024-03-20 17:42:45
Qualcomm AI Hub-示例(二)模型性能分析
Qualcomm AI Hub有助于在设备上优化、验证和部署机器学习模型,用于视觉、音频和语音用例。AI Hub上的配置文件衡量在各种物理设备上运行优化模型所需的资源。它收集的指标是专门为帮助您确定模型是否符合您的时间和内存预算而设计的。
Qualcomm AI Qualcomm Al Hub时间:2024-03-20 17:42:23
Qualcomm AI Hub-示例(一)编译模型
Qualcomm AI Hub支持Pytorch、ONNX、AIMET、Tensorflow等主流AI框架训练的模型,本文介绍了如何使用AI Hub相关的SDK接口把这些模型编译成TensorFlow Lite和Qualcomm AI Engine Direct (QNN)。
Qualcomm AI Qualcomm Al Hub时间:2024-03-20 17:39:50
Qualcomm 开发者专区是 Qualcomm 联合CSDN 共同打造的面向中国开发者的技术专区。致力于通过提供全球最新资讯和最多元的技术资源及支持,为开发者们打造全面一流的开发环境。本专区将以嵌入式、物联网、游戏开发、Qualcomm® 骁龙™处理器的软件优化等技术为核心,打造全面的开发者技术服务社区,为下一代高性能体验和设计带来更多的想法和灵感。
加入 Qualcomm 开发者专区高通 AI Hub
全新高通 AI Hub 包含预优化AI模型库,支持在搭载骁龙和高通平台的终端上进行无缝部署。
该模型库为开发者提供超过75个主流的AI和生成式AI模型,比如Whisper、ControlNet、Stable Diffusion和Baichuan-7B,可在不同执行环境(runtime)中打包,能够在不同形态终端中实现卓越的终端侧AI性能、降低内存占用并提升能效。所有模型均经过优化,以充分利用高通AI引擎内所有核心(NPU、CPU和GPU)的硬件加速能力,从而使推理速度提升4倍。
Qualcomm 活动 更多
SDK 下载
本版块下载 SDK,只需简单注册,就可轻松下载。