1. 研究目的与意义
随着信息时代的到来,当今社会的数据成爆发式方式快速增长,大数据,物联网,云计算,5G,人工智能等技术对数据处理的速度和效率有了更高的要求。
而传统的冯诺依曼计算架构因存算分离导致的问题,已经不再适用于如今处理庞大数据时需要快,准,智的要求了,架构的短板逐渐显露;而传统的cmos器件尺寸正在逼近物理极限,摩尔定律难以延续,因此也限制了计算机技术的提升。
同时,针对无人机,水下潜水器,工业机器人等领域对目标识别功能的迫切需求,如今的深度学习已难以解决功耗,延迟问题。
2. 课题关键问题和重难点
数字神经元仿生器件作为遭遇冯诺依曼瓶颈与摩尔定律失效的情况下对传统器件的一种替代方式,成为研究热点已经有十余年的历史,并取得了丰硕的成果。
通过从大脑的结构和功能中汲取灵感,数字神经元仿生器件对基于脉冲事件驱动的计算提供了高效的解决方案,实现了大量并行和超低功耗等重要特性。
我认为,在数字神经元仿生器件自身进行架构创新继续追求更高能效的基础上,针对现有硬件平台探索各种优势技术的结合,是另一个需要深入钻研的重要方向。
3. 国内外研究现状(文献综述)
数字神经元仿生器件基本原理神经元的典型结构主要包括树突(dendrite)、胞体(soma)以及轴突(axon)三个部分,其中树突的功能是收集来自其他神经元的输入信号并将其传递给胞体,胞体起到中央处理器的作用,当接受的传入电流积累导致神经元膜电位超过一定阔值时产生神经脉冲(即动作电位),脉冲沿轴突无衰减地传播并通过位于轴突末端的突触(synapse)结构将信号传递给下一个神经元。
针对神经元工作时电位的动态特性,神经生理学家建立了许多模型,它们是构成脉冲神经网络的基本单元,决定了网络的基础动力学特性[1]。
数字神经元仿生器件架构当前领域的研究主要围绕神经元模型、训练算法、编程框架、数据集以及硬件芯片加速五大方向进行[1]。
4. 研究方案
1、研究方案(1)掌握数字神经元仿生器件基本原理、架构和发展概况(总结提炼各种数字神经元仿生器件优缺点及其应用情况、适用范围);(2)总结与分析国内外基于数字神经元的类脑芯片关键技术发展概况(数字神经元器件、算法、架构及芯片);(3)总结和展望基于数字神经元的类脑芯片技术的发展未来。
2、基础资料借助学校平台查阅并翻译国内外文献,认真参考文献内容。
5. 工作计划
第1周 翻译老师下发的英文资料,并将翻译成果和开题报告初稿交予老师检查。
第2周 根据老师要求修改英文翻译和开题报告,并将最终的开题报告定稿上交毕业设计管理系统。
第3周 根据任务书领会课题的内容含义和课题的重要意义,根据老师的建议查阅相关的资料文献。
以上是毕业论文开题报告,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。