接上篇: 当我们从机器学习(ML)进化到深度学习(DL),我们可以选择用来训练模型的方式就变多了。 其中,神经系统就是一个十分经典的训练器。 算法步骤、激活函数、损失函数、优化器,这期笔记记录得比较全面,大家去看图片里的文字就可以了。 其中,值得一提的是,如果说计算机已经学会自己训练模型,那我们为什么还需要学习这些知识呢? 这就要提到一个概念了,叫做"Hyperparameter"超参数、也翻译为超级预定格。这个参数是需要我们人为根据数据集猜想出一个初级模型来设置的初始参数。 最后,再多问一个问题。超参数有哪些? 梯度下降法中的学习速率α,迭代次数epoch,批量大小batch-size,k近邻法中的k(最相近的点的个数),决策树模型中树的深度,树的数量或树的深度,矩阵分解中潜在因素的数量, 学习率(多种模式) ,深层神经网络隐藏层数 , k均值聚类中的簇数等等。 #神经网络##机器学习##深度学习##学习笔记#