序号 |
代码 |
股票简称 |
加入日期 |
入选理由 |
1 |
603893 |
瑞芯微 |
2024-06-02 |
NPU作为公司核心自研IP,在过去几年已经过多代迭代,对于神经网络模型的支持和计算单元的利用效率持续提升,并具有良好的可扩展性,方便模型、算法的快速移植和部署。2023年内,公司进一步升级NPU IP和相关工具链,提升对Transformer架构为代表的主流模型架构支持效率,具有更快的运行速度、更低的能耗和更高效的内存使用,助力模型在边缘侧、端侧的部署,赋能多场景边缘侧、端侧的AIoT产品应用。
|
2 |
688049 |
炬芯科技 |
2024-06-02 |
公司持续加大研发投入,以在极低功耗预算下为智能音频、智能穿戴产品打造高算力为目标,从计算架构和芯片电路实现上进行创新,将公司SoC芯片逐步快速升级为基于CPU、DSP加NPU的三核AI异构的核心架构。其中,作为NPU架构在公司产品中整合的第一个落地技术路径,通用存内计算(GP-CIM,Computing-In-Memory)架构的AI算法硬件加速引擎,可以在性能、成本和功耗之间取得很好的平衡且快速落地实现大规模量产,更便于客户移植自己的AI算法。相较于使用DSP的软件实现方式,基于CIM架构的AI加速引擎算力有几十倍的提升,且大幅提升每瓦算力效率;同时,CIM的架构可以大幅降低数据搬移存储效率和功耗的开销,使得新产品在大幅提高算力的同时,满足端侧设备的低功耗要求。公司最新一代基于SRAM存内计算的高端AI音频芯片现已流片,预计2024年中,将有望向下游客户提供样品芯片。
|
3 |
688099 |
晶晨股份 |
2024-06-02 |
2024年4月25日公司在互动平台披露:NPU(神经网络处理单元)是一种专门用于加速神经网络计算的处理器,它是“并行认知处理”,在深度机器学习方面,能够更加高效地完成神经网络计算任务,同时能耗更低、设计紧凑,能够在有限的空间内提供高效的计算能力。此外,NPU包含专门的硬件加速器,这些加速器能够显著提高数据处理速度。我们的NPU技术目前是集成在公司SoC里面的。
|
4 |
688220 |
翱捷科技 |
2024-06-02 |
2022年年报披露:公司的NPU引擎支持多种列神经网络,具备2.5Tops算力和2Tops神经网络运算性能。
|
5 |
688262 |
国芯科技 |
2024-06-02 |
在NPU和GPGPU等其他处理器领域,公司也开始投入预研,进行技术储备。在NPU方向,公司将于未来三年投入资金以支持下一代人工智能(AI)芯片技术以及相应的工具链设计,公司与香港应科院合作研发下一代AI芯片以及神经网络处理器等产品,该技术将用于公司的汽车电子、工业控制和机器人应用领域的AI芯片开发。在GPGPU方向,公司同上海清华国际创新中心以及智绘微电合作,基于RISC-V开源指令系统研发新一代开源GPGPU内核架构,共建RISC-V架构的GPGPU生态,该项技术将用于公司的网络通信与边缘计算应用领域的机器学习、密码学、网络数据处理与存储等海量数据任务的并行计算能力提升。
|
6 |
688343 |
云天励飞 |
2024-06-02 |
DeepEdge10基于公司自研的神经网络处理器NPU(NNP400)架构,采用国内先进工艺、支持多芯粒扩展的Chiplet技术,可提供12TOPS(INT8)整型计算和2TFLOPS(FP16)浮点计算的深度学习推理计算算力,满足市场对处理芯片在算法的多样性、准确性、算力密度及效能方面的要求;针对各类应用场景,云天励飞已开发出Edge10C、Edge10标准版和Edge10Max三款芯片。Edge10系列主要应用于边缘大模型推理领域,能高效支持Transformer模型中的矩阵乘法运算。目前DeepEdge10芯片主要的适配的合作伙伴包括摄像头、边缘计算设备、机器人、汽车智能座舱等行业的客户,并已开始实现批量出货。
|
7 |
688521 |
芯原股份 |
2024-06-02 |
芯原的神经网络处理器(NPU)IP已被72家客户用于其128款人工智能芯片中,集成了芯原NPUIP的人工智能(AI)类芯片已在全球范围内出货超过1亿颗,这些内置芯原NPU的芯片主要应用于物联网、可穿戴设备、智慧电视、智慧家居、安防监控、服务器、汽车电子、智能手机、平板电脑、智慧医疗等10余个市场领域,奠定了芯原在人工智能领域全球领先的根基。通过将NPU与芯原其他自有的处理器IP进行原生耦合,基于芯原创新的FLEXA低功耗低延迟同步接口通信技术,公司还推出了一系列创新的AI-ISP、AI-GPU,以及正在开发中的AIDisplay、AI-Video等IP子系统,这类基于AI技术的IP子系统,可以给传统的处理器技术带来颠覆性的性能提升。
|
8 |
688620 |
安凯微 |
2024-06-02 |
公司现有物联网摄像机芯片分为AK39A系列和AK39E系列。AK39A系列芯片内置神经网络处理器(NPU),具备一定的智能算力,支持人形检测和人脸识别算法。AK39E系列芯片凭借综合性能均衡、性价比高、功耗低等特点,已经进入众多客户的供应链,是公司销售的主流芯片。公司物联网摄像机芯片下游应用主要为家用摄像机和安防摄像机。根据艾瑞咨询数据显示,2020年度全球家用摄像机出货量为8889万台。根据Omdia数据显示,2020年度全球网络摄像机(不包含车载和家用)出货量达到了11704万台。大部分摄像机配备1颗主控SoC芯片,公司2020年和2021年物联网摄像机芯片出货量分别为1436.87万颗和3125.35万颗,已经成为物联网摄像机芯片行业的重要供应商。公司物联网摄像机芯片已经进入中国移动、TP-LINK、杭州涂鸦、摩托罗拉、广州九安等知名客户供应链。
|
9 |
300223 |
北京君正 |
2024-06-02 |
随着AI技术的快速发展和应用,芯片对AI算法提供算力支持在智能IOT领域的需求越来越普及,公司近些年来一直在神经网络处理器的研究上持续投入。公司结合自身在CPU技术上自主研发的优势,把CPU技术和神经网络处理器技术有机的结合在一起,形成了公司独特的AI算力引擎。公司的AI算力引擎兼顾计算效能与灵活性,在高算力的基础上衍伸了可编程能力,在保证充分的灵活性的基础上能够有效对卷积、池化等高强度计算进行加速,低比特量化技术则进一步强化了公司AI算力引擎的低功耗与低带宽AI计算能力,可以在不同的计算精度下提供不同的算力,以应对不同的计算需求与场景。
|
10 |
300672 |
国科微 |
2024-06-02 |
2023年9月20日公司在互动易平台披露:目前公司已实现从轻量级到中高级算力的完整布局,公司自研的NPU产品已实现前端IPC最高4T算力和后端8T算力,使用场景涵盖传统监控领域、汽车电子领域、智能家居等机器视觉领域,可支持神经网络推理等功能。公司自研NPU通过聚焦边缘端的计算,提升芯片三大核心竞争力:一是通过NPU提升智能视觉分析效率,可以实现人脸识别,车牌识别,车辆检测等各种智能应用;二是通过AI与ISP的结合,可在低照度环境下,把图像看的更加清楚;三是通过NPU与Codec的结合,进一步提高编解码能力和效率,低码率下的编码质量得到极大提升。
|