递去。
最终这些信号传递到其他的轴突与树突,再激发他们产生信号,成为二级神经元。
像人类的视觉系统,便是通过1亿3千万光受细胞接受光信号,在通过120万节细胞轴突将信息从视网传递到大脑,形成了三维图形。
而机学习,便是要教给计算机,怎么把它接受的输结果和我们想要的输结果关联起来。
诸如看到一张图片,它能够理解这便是我们需要的数字1.
而这依赖的便是知,这也是名为神经网络的原因。
知,本便是模拟神经细胞,原先的生学名词都有了对应的新名字——
权量(突)、偏置(阈值)及激活函数(细胞)。
机无法理解一副图片,但是它可以把图片翻译为“像素阵”,然后这些阵以0与1输。
林奇默默在地面上化了一个初中生熟悉的xy坐标轴,同时在上面了(1,1)(-1,1)(-1,-1)(1,-1)这四个左边,它们连接起来便是一个正方形,而这四个左边分别坐落在四个象限。
机学习需要的便是让机知晓诸如(2,2)这应该算作哪一个象限?
这便需要神经网络算法的“分类”作用。
这里输是一个(2,2)的坐标,它是一个1乘2的矩阵,这是输层。
设定50个神经元,所以它便是一个1乘50的矩阵,这是隐藏层。
而结果1-4象限,则是一个1乘4的矩阵,这是输层。
据线代数的知识,可以知矩阵之间是能够沟通的,所以一个输层的1乘4矩阵可以用最初的1乘2输层矩阵表达。
这其中的作,便在于为这个矩阵运算添加激活层以及输正规化,再通过叉熵损失来量化当前网络的优劣,最后再行参数优化。
这个过程所需要的便是反复迭代。
重新走完这个过程后,林奇也不禁慨地叹息数分。
他还记得大学的毕业论文课题,当时都是由各个导师据自己的专业范围制定题目,然后再由学生们报名选择。
当时林奇选的慢了,最后剩的都是若不好啃的“算法题”。
毕竟算法,墓地就是优化它的参数,让整个计算时间短一些,效果更确,最终更优化些,可是每年一代又一代的学生,早已把沙漠上明显的宝石捡走了,剩的方法也就研究生博士生的路,自己圈一块地,继续往挖,想要靠着视野一就挑钻石,那本是无稽之谈。
而林奇最终思索数番,选择的是一遗传算法全局最优的题目,结果当时matlab早就有一整成熟的工包,林奇还是老老实实地自己编写函数,最终凑一篇勉的论文。
最终面对评审专家提问创新之时,林奇也只能面前回答,他用的这几个参数组合,未见与前人文章,这才勉划过去。
而他那位选择了神经网络算法的舍友,当场被质疑模拟数据造假,差延毕。
后来为了帮助舍友,林奇当时算是第一次接神经网络算法。
毋庸置疑,在神经网络算法里,秘能场参数便是“输矩阵”,法术模型结果便是“输矩阵”。
随即,林奇在地面是书写了一段文字——