随着以卷积神经网络(convolutional neural networks,CNN)、深度神经网络(deep neural networks,DNN)、递归神经网络(recurrent neuralnetworks,RNN)等为代表的神经网络算法中的不断成熟,人工智能(artificial intelligence,AI)在自动驾驶、语音与图像识别、知识搜索、语义理解等众多应用领域获得了广泛应用。然而,目前大多数AI芯片本质上仍然采用了存算分离的冯·诺伊曼架构,在计算时需要将数据在存储单元与运算单元之间进行频繁搬移,因而仍然具有较高的延迟和能耗。目前,开发高性能的人工神经突触是突破冯·诺伊曼架构瓶颈实现高能效存算一体类脑计算的研究热点。
本专题聚焦于存算一体的类脑计算架构,从忆阻器架构上基于矩阵-向量乘运算的映射方法、校准方法和存内原位训练的神经形态计算方法的研究,到忆阻器阵列结构设计和集成工艺、多忆阻器阵列互连结构设计等多种存算一体芯片技术方案。这些研究不仅为高能效存算一体架构的忆阻类脑芯片提供了先进技术支撑和创新解决方案,还展现其走向实际应用亟需解决的问题和挑战。
关键词: