不用硅芯片?这个研究成果有点牛!中国研究“弥合”了电力饥渴型人工智能模型与人类大脑之间的差距。业内专家认为,该团队的研究成果可能标志着硅基计算解决方案的关键性转变。
中国科学家说,他们模拟了一种人工智能模型,该模型模仿了人脑中神经元的行为,从而实现了强大的计算能力,同时又避免了硅基处理器的高能耗。
《自然-计算科学》周五发表的一篇论文称,研究人员开发的模型缩小了大型、外部复杂的人工智能网络与小型、内部复杂的大脑运作之间的差距。
业内专家表示,该团队的发现可能标志着人工智能发展的关键转变,促使人们进一步探索不依赖硅芯片的计算解决方案。
目前的人工智能趋势主要围绕构建越来越大的神经网络,这种方法加剧了人们对不可持续的能源需求和缺乏可解释性的担忧。
相比之下,拥有1,000亿个神经元和大约100万亿个突触连接的人脑耗电量约为20瓦。同时,大脑的每个神经元都比任何现有的人工智能模型更加多样和复杂。
中国科学院自动化研究所的李国奇和徐波研究员以及北京大学的田永红研究员指出,这两种模型具有共生关系。
但是,大脑神经元产生和传递的复杂信号会随着时间的推移而变化,而基于硅芯片的人工智能模型,也就是研究人员将其描述为生物神经元的“粗抽象”,却只能产生“0”和“1”。
研究人员利用神经学家艾伦-霍奇金和安德鲁-赫胥黎于1952年首次描述的一个数学模型,构建了一个神经网络,该网络在一个更小、内部结构更复杂的结构中有效复制了更大型、更简单的模型的功能。
论文称,通过一系列理论证明和模拟,这个由四个漏整合-发射神经元组成的网络能够重现单个霍奇金-赫胥黎神经元的行为。
在接受社新华社采访时,合著者之一的李说,研究团队的创新方法不仅保持了性能水平,还将处理速度提高了一倍,同时将内存使用量减少了四倍。这一进展可以为在实际应用中优化人工智能模型、提高性能铺平道路。
“实验结果证实,内部复杂性模型对于复杂任务是有效和可靠的,为将神经科学的动力学融入人工智能提供了新的方法和理论。”
加州大学电气与计算机工程系助理教授杰森-埃什拉格希安在同一刊物上发表了一篇关于这篇论文的文章,他说,这篇论文推动了对“硅基计算之外”的硬件的探索。通过重新审视和深化神经科学与人工智能之间的联系,我们可能会发现构建更高效、更强大、甚至可能更‘类脑’的人工智能系统的新方法。
人工智能发展的未来可能取决于在神经科学不断进步的指导下,将对生物神经元动态的详细模仿与扩展更大的模型和更强大的硬件相结合。
今年6月,中科院自动化研究所与瑞士公司SynSense合作开发出了Speck,一种集成了动态视觉传感器的类脑神经形态芯片,标志着人工智能领域的又一个重要里程碑。
据其开发人员称,Speck不仅能将任务准确性提高9%,还能将平均功耗降低60%。
见《华南早报》2024年8月20日张彤
声明:该文观点仅代表作者本人,本信息平台不持有任何立场,欢迎在下方【顶/踩】按钮中亮出您的态度。