集智俱乐部 14小时前
连接人工智能与神经科学的桥梁:具有内部复杂性的神经网络模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

关键词:复杂网络,神经科学,人工智能,神经网络

论文题目:Network model with internal complexity bridges artificial intelligence and neuroscience

论文地址:https://www.nature.com/articles/s43588-024-00674-9

期刊名称:Nature Computational Science

当今人工智能研究人员普遍认为,通用人工智能的构建需要依靠更深、更大规模和更泛化的神经网络模型。然而,这种外部复杂性高的大模型瓶颈也是显而易见:消耗过多算力,理解网络中神经元的行为十分困难。近期发表在 Nature Computational Science   的一项研究,通过给单个神经元添加丰富的属性,构建了一种具有神经元内部复杂性的小模型,可与外部复杂性的大模型等效

研究者认为通过找到计算神经科学与人工智能的交叉点,模仿大脑皮层并利用丰富的时空动态,可以帮助解决现有大模型的瓶颈问题。本研究中引入了由 4 个具有时变电导的 LIF 神经元组成的子网络结构 tv-LIF2HH。首先,在理论上推导出内部复杂度较低的 LIF2HH 模型和内部复杂度较高的 HH 模型,二者在激发特性上等价。而后在实验中,为解决实际训练中的复杂性问题,研究者使用了一系列近似简化的方法,包括近似发放函数,在网络中使用直接连接,固定神经元电导等(图 2c),构建得到 s-LIF2HH 网络。结果显示,两种神经元模型对不同波形的发放模式都非常相似,放电时间之间的相对误差均低于 10%。

在深度学习任务中,研究者发现 HH 和 s-LIF2HH 网络结构都具有较强的空间和时间信息提取能力,单个 HH 神经元信息处理能力的增强补偿了其简单的拓扑结构;HH 和 s-LIF2HH 网络具有相似的噪声鲁棒性,鲁棒性来源于 HH 神经元的动态复杂性和 s-LIF2HH 的复杂拓扑结构,而不仅仅是神经元数量。这支持了模型内部和外部复杂性之间的可比性,以及在深度学习任务中,超越了神经元动态模式简单但规模大的模型。此外,与 s-LIF2HH 网络相比,HH 网络提供了可观的计算效率,表明将外部复杂性转换为内部复杂性提高了深度学习模型的效率。

图 1. ( a ) 神经元仿真模型和神经元网络结构分别对应不同水平的复杂度。具有非常精细和丰富动力学描述的神经元仿真模型对应更高内部复杂度,具有更深和更广泛连接的网络对应更高外部复杂度。 ( b ) 模型的表征能力与其总复杂性有关,总复杂性包括内部复杂性和外部复杂性。

图 2. ( a )   HH 神经元结构及相关电路图。 ( b ) 等价于 HH 神经元的 tv-LIF2HH 子网络结构及相关电路图,每个 tv-LIF 神经元电位的非线性效应之和等于相同尖峰输入下的 HH 神经元电位。 ( c ) 连接之间的等效性,tv-LIF2HH 模型包括近似操作。 ( d ) 由 HH 神经元与 tv-LIF2HH 子网络的等效连接组成的神经网络。LIF2HH 网络中的每条线代表了从前一子网络中的四个 LIF 神经元到整个后一子网络的四个不同连接。

图 3. ( a ) 相同电流输入,单个 HH 模型和 tv-LIF2HH 子网络的电位输出。 ( b ) 按网络中采用的模型分类的三种连接:HH、tv-LIF2HH 子网络和 s-LIF2HH 子网络连接。 ( c ) 将二进制编码和简化后的 LIF2HH 子网络的实验,使用了正方形、正弦、三角形和锯齿形输入信号。 ( d ) HH 神经元和 s-LIF2HH 子网络的尖峰数和相对触发时间误差。

图 4. 网络结构,与多任务学习(a,c),深度强化学习(a,b,d,e,f)和鲁棒性(a,g,h,i)实验结果。

彭晨 |   编译

计算神经科学读书会

详情请见:计算神经科学读书会启动:从复杂神经动力学到类脑人工智能

AI By Complexity 读书会

详情请见:

AI by Complexity 读书会启动:复杂性怎样量化和驱动下一代 AI 系统

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

人工智能 神经网络 深度学习 神经科学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论