首页资讯军事 我国的芯片技术,我国的芯片技术,开发出全球首款类脑芯片

我国的芯片技术,我国的芯片技术,开发出全球首款类脑芯片

毛磊 姚保寅 黄旭辉 王智斌随着智能时代对大规模数据处理的要求越来越高,摩尔定律下的处理器集成器件数量越发接近极限,当下急需通过架构的变化以应对大数据的需求。类脑计算芯片结合微电子技术和新型神经形态器件,模仿人脑神经系统计算原理进行设计,旨…

姚黄智斌

随着智能时代对大规模数据处理的需求越来越大,摩尔定律下处理器的集成器件数量已经接近极限,迫切需要改变架构来满足大数据的需求。类脑计算芯片是将微电子技术与新型神经形态学器件相结合,模仿人脑神经系统的计算原理而设计的,旨在突破“冯诺依曼瓶颈”,实现类似人脑的超低功耗和并行信息处理能力。基本概念和内涵

类脑计算(简称“类脑芯片”)广义上是指参照人脑神经元结构和人脑感知的认知方式设计的芯片。可分为两类:一是侧重于参照人脑神经元及其组织结构的模型设计芯片结构,称为神经形态芯片,如IBM的“真北”;二是侧重于参考人脑感知的计算模型而非神经元组织结构,即设计芯片结构,高效支持人工神经网络或深度神经网络等成熟的认知算法。狭义的类脑芯片一般指神经形态学芯片。

类脑芯片,尤其是神经形态学芯片具有以下特点:擅长分析复杂的时间空序列;虽然每个神经元的放电频率很低,但基于完全并行操作,响应速度比现有的解决方案快得多。适用于各种传感器信息的实时处理;独特的事件触发操作机制,即当没有动态信息产生时,不会发生任何操作。发展状况和水平

类脑芯片起源于20世纪80年代,加州理工学院教授卡弗·米德最先提出的“神经拟态计算”的设计理念。2008年美国惠普公司发明出可模仿人脑触功能的忆阻器,使得以硬件形式模仿人脑形态和功能首次成为可能,为类脑芯片的快速发展奠定重要基础。美欧日等均设立各种类脑计划,为未来发展开辟道路,如美国2013年宣布的“通过发展创新性神经技术的大脑研究”计划(简称“大脑”计划)、欧盟第七框架计划的旗舰项目“人脑工程”、日本文部科学省2014年9月启动的“大脑研究计划”等。

IBM公司的“真北”类脑芯片类脑芯片起源于20世纪80年代,由美国加州理工学院教授卡弗·米德(Carver Mead)首先提出“神经拟态计算”的设计概念。2008年,美国惠普公司发明了可以模仿人脑触觉功能的忆阻器,首次使在硬件上模仿人脑的形状和功能成为可能,为类脑芯片的快速发展奠定了重要基础。美国和欧洲设立了各种类脑计划为未来发展铺路,如美国2013年宣布的通过开发创新神经技术进行脑研究(简称脑计划)、欧盟第七框架计划旗舰项目、日本文部科学省2014年9月启动的脑研究计划等。IBM的“真北”大脑芯片

2008年忆阻器研发成功后,美国DARPA迅速启动了总投资1.01亿美元的“神经形态自适应塑料可扩展电子系统”六年项目,旨在研发百万神经元级别的类脑芯片。该项目主要由IBM和休斯研究实验室承担。

2014年,IBM发布了第二代“真北”大脑芯片,采用28nm技术,包含100万个神经元、256m个可编程突触和54亿个晶体管,每秒可执行460亿个突触。总功耗70mW,大小只有一枚邮票大小。可以对校园监控视频中的行人和车辆进行实时分类,准确率达到80%。与执行相同的任务相比,

为了加速“真北”类脑芯片的实际应用,IBM还开发了“核心集”硬件描述语言,为类脑芯片的功能定制提供了便利。目前,IBM已经开发了150多种可以实现特定功能的算法包,以“突触核心”为基本模块。算法室可以进一步组合以实现更复杂的功能。

IBM专注于架构研究,全面简化了“真北”芯片中“神经突触核心”的电路,其中突触只有on和off两种状态。这种设计容易被传统计算机模拟,但缺乏通过实时学习来提高芯片性能的能力。休斯研究实验室的“神经突触核心”采用模拟设计,利用“突触时分复用”,使每个物理突触扮演成千上万个虚拟突触的角色。2014年6月,该实验室开发了一种具有576个神经元和73,000个突触的芯片,展示了通过即时学习提高芯片性能的能力。在项目的下一阶段,这项成果将被应用到“真北”架构中,构建一个可以实时学习的类脑微处理器。

除了“真北”芯片,英特尔还在2017年发布了Loihi大脑芯片,该芯片采用异构设计,拥有13万个神经元和1.3亿个突触,可以加速机器学习,同时将功耗要求降至现有芯片的千分之一。2019年,英特尔展示了其最新的Pohoiki Beach芯片系统,该系统可以模拟超过800万个神经元。它包含64个Loihi芯片,集成了1320亿个晶体管,总面积为3840平方毫米,拥有超过800万个“神经元”(相当于一些小型啮齿动物的大脑)和80亿个“突触”。它执行任务的速度可以比传统CPU快1000倍,能效可以提高10000倍。此外,高通、谷歌和英伟达也在加大对类脑芯片的研究。前几年谷歌AlphaGo和英伟达GPU等。都采用了最新的类脑芯片技术。

在欧盟“人脑计划”项目的支持下,类脑芯片的研制取得重大进展。由英国曼彻斯特大学牵头的“脉冲神经网络架构”项目是“人脑计划”的基础模拟项目。该项目构建了一台基于多核ARM芯片的认知超级计算机。2018年,全球最大的神经形态超级计算机“脉冲神经网络架构”首次上线。它有一百万个处理器内核,每秒可以执行200万亿次运算,这可以达到人类大脑的百分之一。它是世界上第一个低功耗、大规模的人脑数字模型。

德国海德堡大学牵头的“多级脑”项目是“人脑计划”计划的神经形态学计算项目。这个项目将加深从神经元到整个大脑的大脑信息处理过程的理解,在一个8英寸的芯片上构建384个紧密互联的神经形态学芯片,包括20万个神经元和5000万个突触。使用这种神经形态处理器的计算机已经成功运行,其功能比IBM的“真北”神经形态芯片更接近生物神经元。关键技术和应用

脑芯片的关键技术主要包括算法模型和硬件平台技术。

算法技术脑芯片算法模型技术主要涉及人工神经网络、脉冲神经网络等。其中,人工神经网络是受大脑网络的启发,通过连接大量具有相同计算功能的神经元节点,实现输入输出模式的拟合逼近而形成的神经网络。人工神经网络呈现从输入到输出的分层结构。当层数较多时,称为深度神经网络。人工神经网络本质上是存储和计算并行的,而脉冲神经网络更严格地模拟了大脑的信息处理机制。前者与前者有两大区别,一是脉冲编码(0/1),二是时间动态丰富。

脉冲神经网络方法需要有与生物神经元的动力学相似的人工突触和神经元。对模拟突触功能至关重要的人工突触已经被简单的两终端忆阻器实现。最近,带有积分泄漏和发放功能的人工神经元也被单一的忆阻器器件实现。支持脉冲神经网络的器件通常称为神经形态器件,目前大多只能体现低功耗的特性,性能尚不能与深度神经网络匹敌。

“脉冲神经网络体系结构”类脑芯片脉冲神经网络方法需要人工突触和具有与生物神经元相似动力学的神经元。模拟突触功能所必需的人工突触已经由简单的双端忆阻器实现。最近,具有积分泄漏和点火功能的人工神经元也已经由单个忆阻器器件实现。支持脉冲神经网络的器件通常称为神经形态学器件,目前大多只能体现低功耗的特点,但性能比不上深度神经网络。“脉冲神经网络架构”脑芯片

硬件平台技术脑芯片硬件平台技术主要涉及深度神经网络专用处理器、神经芯片和系统。深度神经网络专用处理器的设计需要充分考虑大量参数存储和访问带来的面积、速度和能耗瓶颈,通过压缩和简化网络模型,结合计算模块的设计,进一步优化整体架构。还有一种深度学习专用处理器的解决方案,主要是基于深度压缩算法来指导硬件设计。具体来说,就是在不损失太多性能的前提下,对深度神经网络进行理论算法层面的近似或压缩,从而设计出一个轻量级的网络,减少所需的计算和存储资源,实现更快的运行速度和更低的能耗。

目前,神经形态学芯片主要基于传统的CMOS工艺和基于新型纳米器件的神经形态学计算电路。传统CMOS工艺发展相对成熟。比如“正北”芯片就是异步-同步混合(无全局时钟)数字电路的代表作品;海德堡大学的“多级大脑”芯片是模拟集成电路的代表作。基于新型纳米器件的神经形态计算电路目前最受关注的方向是忆阻器构建的神经形态芯片。

深度神经网络处理器和神经形态学芯片分别支持人工神经网络和脉冲神经网络模型。通过设计一个通用的类脑芯片,可以实现上述两种模型的异构集成。在保持专用芯片高性能的同时,还要尽可能提高对上述机型支持的通用性。应用前景

类脑芯片具有超低功耗、大规模并行计算、高速或实时信息处理等技术潜力。在军事应用场景中,尤其是在性能、速度、功耗等强约束条件下,它们有着独特的优势。可用于基于天空的军事目标超低时延动态视觉识别,构建认知超级计算机快速处理海量数据,也可用于未来战场的智能博弈对抗和决策。

超低延时动态视觉识别类脑芯片的超低功耗、超低延时、实时高速动态视觉识别、追踪技术及传感器信息处理技术,是国防科技战略层面的关键技术,尤其超低延时实时高速动态视觉识别技术,在卫星、飞机等装备高速动态识别领域具有极为重要的作用。美国空军于2014年授予IBM一份价值55万美元的合同,利用“真北”芯片帮助卫星、高空飞机和小型无人机等更加高效、智能地完成机器视觉分析,自动识别坦克或防空系统等车辆,而功耗不到原来1/5,这对于太空有限的供能资源非常重要。三星高级技术研究院于2016年也利用IBM“真北”芯片,研发了动态视觉传感器,以每秒2000帧的速度识别图像,用于3D地图生成和自动驾驶等。

类脑芯片拥有广阔的应用前景超低延迟动态视觉识别脑芯片的超低功耗、超低延迟、实时高速动态视觉识别、跟踪技术和传感器信息处理技术是国防科技战略层面的关键技术,特别是超低延迟实时高速动态视觉识别技术,在卫星、飞机等设备的高速动态识别领域发挥着极其重要的作用。美国空陆军在2014年授予IBM一份价值55万美元的合同,帮助卫星、高空飞机和小型无人机更高效、更智能地进行机器视觉分析,自动识别坦克或反[/k0/]系统等车辆,功耗不到原来的1/5,这对该公司来说太多了。2016年,三星高级技术研究院还使用IBM的“真北”芯片开发了动态视觉传感器,可以以每秒2000帧的速度识别图像,用于3D地图生成和自动驾驶。脑芯片有着广阔的应用前景。

海量数据快速处理 类脑芯片促进神经形态超级计算机发展,使其具有极高的计算速度和海量数据处理能力,未来还能进行“认知”与“思考”,将改变计算机常规工作模式。美国空军研究实验室于2017年6月利用IBM公司的“真北”类脑芯片开始研制类脑超级计算机,并于2018年8月发布了世界上最大的神经形态超级计算机“蓝鸦”。该计算机可以同时模拟6400万个生物神经元和160亿个生物神经突触,功耗仅为40瓦,是传统超级计算机的百分之一。美国空军实验室计划在2019年演示一种利用“蓝鸦”开发的机载目标识别应用程序,2024年将实现百亿亿次的类脑认知超级计算机,对10倍于目前全球互联网流量的大数据进行实时分析,届时将使制约下一代战机等先进装备发展的大数据从难题变为资源,加速创新与发现,并极大缩短国防科技与工程的发展周期。

类脑芯片可用于未来战场的智能博弈对抗与决策海量数据快速处理脑芯片推动了神经形态学超级计算机的发展,使其具有极高的计算速度和海量数据处理能力。未来,它们还可以“识别”和“思考”,这将改变计算机的常规工作模式。美国空军事研究实验室于2017年6月开始使用IBM的“真北”类脑芯片开发类脑超级计算机,并于2018年8月发布了世界上最大的神经形态超级计算机“蓝鸟”。该计算机可以同时模拟6400万个生物神经元和160亿个生物突触,功耗仅为40瓦,是传统超级计算机的百分之一。美国空军事实验室计划在2019年展示由blue jay开发的机载目标识别应用。2024年将实现百亿亿次类脑认知超级计算机,实时分析大数据,是目前全球互联网流量的10倍。届时,它将把制约下一代战斗机等先进装备发展的大数据转化为资源,加速创新和发现,大大缩短国防技术和工程的发展周期。大脑芯片可以用于未来战场的智能博弈对抗和决策。

面向未来战争的智能博弈对抗与决策,特别是在智能化、无人化、强博弈对抗条件下,类脑芯片通过借鉴大脑的信息处理和信息存储模式,在计算能力、能耗、智能计算效率等方面具有优势,有望实现飞机/导弹等博弈对抗与决策的跨越式发展。,增强未来战场军事对抗能力。洁玉

类脑芯片的本质是模拟人脑的工作原理实现快速学习,解决极其复杂的计算问题。有望满足卫星、无人机和单兵设备的低能耗要求,通过不断学习实现复杂环境下的高效信息处理。目前类脑芯片的研究已经取得了阶段性进展。建议国内相关研究机构:一是加强类脑芯片理论建模、功耗降低等关键技术的研究,如建立神经网络处理器相关功耗模型,通过结构设计参数的选取降低相对功耗。第二,充分调动认知科学、神经科学、遗传科学、计算机科学、社会学等领域的专家,加强跨学科研究,在逆向工程方面取得新的突破。三是加强单晶硅、忆阻器等关键材料对类脑芯片发展的影响机理研究。例如,在人工突触的设计中,研究了非晶材料对电压模拟神经元信息传递的影响机制,忆阻器材料对人工神经网络的逻辑完备性、计算复杂度、级联和重构的影响机制。第四,促进用户、企业、高校的产学研合作,加快类脑计算技术向实际应用的转化。比如从应用端发力,突出导向,倒逼类脑芯片的研发;形成用户、企业、高校产学研合作机制,畅通类脑芯片研发应用链条。

编辑:张传良

本文来自网络,不代表管理窝立场。转载请注明出处: https://www.guanliwo.com/a/zx/41605.html
上一篇朝鲜在朝鲜战争中失去多少土地,朝鲜战争前后领土
下一篇 未来战争是精准斩首(斩首行动是什么战争)
管理窝

作者: 管理窝

这里可以再内容模板定义一些文字和说明,也可以调用对应作者的简介!或者做一些网站的描述之类的文字或者HTML!

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部