稍微回顾一下历史,第一个神经网络模型要追溯到 1950 年代末:它就是所谓的“感知器”,由美国著名心理学家和计算机科学家弗兰克·罗森布拉特在 1958 年提出,一个网络具有输入层和输出层以及基于“误差反向传播”算法(误差最小化)的中间学习规则;本质上,数学函数基于对给定输入的有效输出数据的评估,它改变了连接(突触)的权重,导致有效输出与所需输出之间存在差异。
一些行业专家将控制论和人工智能的诞生追溯到 Rosenblatt 感知器,尽管在紧随其后的几年里,数学家 Marvin Minsky 和 Seymour Papert 证明了 Rosenblatt 神经网络模型的局限性:经过充分的“训练”,感知器只能识别线性可分的函数。也就是说,通过输入向量空间中的训练集(学习算法),它设法将需要正输出的那些与需要负输出的那些分开。
此外,单个感知器的计算能力是有限的,产量在很大程度上取决于输入的选择和“修改”突触从而“修改”输出的算法的选择。
从技术角度来看,第一个重要的转折点发生在 70 年代末和 80 年代之间,随着 GPU 的发展,大大减少了网络训练时间,减少了 10/20 倍。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...