初学者须要留意的是:Logistic回归用于分类,而不是回归。你也可以把logistic回归算作是一层神经收集。Logistic回归应用诸如梯度降低或LBFGS等最优化办法进行练习。大年夜事天然说话处理的的人员平日会称它为最大年夜熵分类器(Maximum Entropy Classifier)。
Sigmoid函数是这个样子的:
库:
应用LR对简单但具有鲁棒性的分类器进行练习。
库:
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html
入门教程:
5.支撑向量机 (Support Vector Machines,SVM )
支撑向量机是线性模型,就像线性/ Logistic回归一样,不合之处在于它们有不合的基于边沿的损掉函数(支撑向量机的推导是我见过的最漂亮的数学结不雅和特点值计算之一)。你可以应用诸如L-BFGS甚至SGD如许的最优化办法来竽暌古化损掉函数。
支撑向量机中的另一个立异是将内核用于数据,以表现工程师的特点。如不雅你有很好的范畴洞察力,你可以用更聪慧的办法来替代优良然则老旧的RBF内核并大年夜中获利。
支撑向量机能做一件独特的工作:进修一类分类器。
10.决定计划树
可以应用支撑向量机来练习分类器(甚至是回归量)。
库:
http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
入门教程:
https://www.youtube.com/watch?v=eHsErlPJWUU
6.前馈神经收集(Feedforward Neural Networks, FFNN)
这些根本上都是独裁的logistic回归分类器。很多权重的层被非线性函数(sigmoid、tanh、relu+softmax和炫酷的selu)分隔了。它们另一个风行的名字是独裁感知器(Multi-Layered Perceptron)。可以将FFNN作为主动编码器用于分类和非监督的特点进修。
独裁感知器(Multi-Layered perceptron)
FFNN作为主动编码器
这是大年夜家最爱好的无监督聚类算法。给定一组向量情势的数据点,我们可以根据它们之间的距离制造点集群。这是一个期望最大年夜化算法,它迭代地移动集群中间,然后架构每集群中间点聚焦在一路。该算法所采取的输入是将要生成的集群的数量,以及它将测验测验集合集群的迭代次数。
库:
http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier
http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPRegressor.html
https://github.com/keras-team/keras/blob/master/examples/reuters_mlp_relu_vs_selu.py
入门教程:
http://www.deeplearningbook.org/contents/mlp.html
http://www.deeplearningbook.org/contents/autoencoders.html
http://www.deeplearningbook.org/contents/representation.html
7.卷积神经收集(Convents)
今朝,世界上近乎所有基于视觉的机械进修结不雅都是应用卷积神经收集实现的。它们可用于图像分类、目标检测及图像瓜分。Yann Lecun于80年代末90年代初提出卷积神经收集,其特点是卷积层,它起着提取分层特点的感化。你可以在文本(甚至图形)中应用它们。
应用卷积神经收集对图像和文本进行分类,并进行目标检测和图像瓜分。
库:
应用CRFs标记序列(如文本、图像、时光序列及DNA等)。
https://developer.nvidia.com/digits
推荐阅读 沙龙晃荡 | 3月31日 京东、微博、华为拭魅战专家与你合营商量容器技巧实践!趋势与瞻望关于区块链的商量和争辩,自其出生之日起就大年夜未暂停。一个是技巧范畴也存在着周期律。 这个周期今朝看是 7-8 >>>详细阅读 本文标题:数据科学家必备的10种机器学习算法 地址:http://www.17bianji.com/lsqh/40943.html 1/2 1