期刊检索

  • 2024年第56卷
  • 2023年第55卷
  • 2022年第54卷
  • 2021年第53卷
  • 2020年第52卷
  • 2019年第51卷
  • 2018年第50卷
  • 2017年第49卷
  • 2016年第48卷
  • 2015年第47卷
  • 2014年第46卷
  • 2013年第45卷
  • 2012年第44卷
  • 2011年第43卷
  • 2010年第42卷
  • 第1期
  • 第2期

主管单位 中华人民共和国
工业和信息化部
主办单位 哈尔滨工业大学 主编 李隆球 国际刊号ISSN 0367-6234 国内刊号CN 23-1235/T

期刊网站二维码
微信公众号二维码
引用本文:曾晓勤,周建新,郑星,钟水明.一种高效二进前馈神经网络学习算法[J].哈尔滨工业大学学报,2016,48(5):148.DOI:10.11918/j.issn.0367-6234.2016.05.024
ZENG Xiaoqin,ZHOU Jianxin,ZHENG Xing,ZHONG Shuiming.An efficient learning algorithm for binary feedforward neural networks[J].Journal of Harbin Institute of Technology,2016,48(5):148.DOI:10.11918/j.issn.0367-6234.2016.05.024
【打印本页】   【HTML】   【下载PDF全文】   查看/发表评论  下载PDF阅读器  关闭
过刊浏览    高级检索
本文已被:浏览 2697次   下载 1517 本文二维码信息
码上扫一扫!
分享到: 微信 更多
一种高效二进前馈神经网络学习算法
曾晓勤1 , 周建新1 , 郑星1 , 钟水明2
(1.河海大学 计算机及信息工程学院 智能科学与技术研究所,211100 南京; 2.南京信息工程大学 计算机与软件学院, 210044 南京)
摘要:
为解决二进前馈神经网络(BFNN)缺乏高效实用学习算法的问题,提出一种新的融合自适应调节结构和权值的BFNN学习算法.该算法借鉴并改进了极限学习机(ELM)方法,可以高效地训练单隐层的BFNN来解决分类问题.为了满足网络的训练精度,算法可以自动增加隐层神经元个数和调节网络隐层及输出层神经元权值;同时为了提高网络的泛化精度,算法通过建立二进神经元敏感性作为度量隐层神经元重要性的尺度,自动地裁剪重要性小的神经元,并对裁剪损失的信息进行补偿.实验结果验证了该算法在处理离散分类问题时的可行性和有效性.
关键词:  二进前馈神经网络  学习算法  敏感性  结构裁剪  分类
DOI:10.11918/j.issn.0367-6234.2016.05.024
分类号:TP183
文献标识码:A
基金项目:国家自然科学基金项目(60971088).
An efficient learning algorithm for binary feedforward neural networks
ZENG Xiaoqin1, ZHOU Jianxin1, ZHENG Xing1, ZHONG Shuiming2
(1. Institute of Intelligence Science and Technology, Computer and Information College, Hohai University, 211100 Nanjing, China; 2. School of Computer and Software, Nanjing University of Information Science and Technology, 210044 Nanjing, China)
Abstract:
Focusing on the lack of efficient and practical learning algorithm for Binary Feedforward Neural Networks (BFNN), a novel learning algorithm by fusing the self-adaptations of both architecture and weight for training BFNN is proposed. Based on improving the methodology of Extreme Learning Machines (ELM), the algorithm can effectively train BFNNs with single hidden layer for solving classification problems. In order to satisfy training accuracy, the algorithm can automatically increase hidden neurons and adjust the neuron's weights with the Perceptron Learning Rule. As to improve generalization accuracy, the algorithm can automatically, by establishing binary neuron's sensitivity as a tool for measuring the relevance of each hidden neuron, prune the least relevant hidden neuron with some compensation for information losing due to the pruning. Experiment results verified the feasibility and effectiveness of the proposed algorithm.
Key words:  binary feedforward neural network  learning algorithm  sensitivity  architecture pruning  classification

友情链接LINKS