第八十四章网络实现的机器学习笔记  学医路漫漫

关灯 护眼 舒适     字体:

上一页(5/6) 目录 下一页(5/6) 繁体版

亲爱的书友,您现在访问的是转码页面,会导致更新不及时及无法正常下载,请访问真实地址:http://m.22dshu.com/65424/86.html

征的开发。特征的提取是一种不动点的寻找。

确定简单的算法,实现它,然后根据一定的评估如无此分析来决定哪些处理能够提高算法的表现,快速决定下一步采取的措施。

我络的节点之间的几何分布和组合,并在这些分布的节点之间寻找与现实情况的对应。这样我们可以能够模拟自然界的气体分子运动,而且用上各种分布,而在分布层次的计算在我看来是高维的计算。图论的很多知识也可以派上用场,已有的网络理论的幂律分布、小世界模型和六度分隔等等也可以对网络进行描述和计算。

于是具体的实现需要我们找到很好的对应,这种节点的运动过程可以理想化为坐标的移动,而节点之间的关系构建可以理解为运动的相关度,更高维度的结构形成可以对应于现实的各种抽象情况。然后与概率网络、马尔科夫序列构建对应关系。

(或许我不应该如此努力地尝试一定要用自己的方法来理解这些计算过程,这差不多是在反抗全世界;但我更害怕我走上了别人的路就再也没有反抗的余地了。然而现在我的思路也在不断接近现在成熟的思路,可能是一直在追求可实现,也不知道是成熟还是堕落。现在只能走着瞧了,我不知道在这个学习的过程中会不会失掉原有的梦想)

一般的优化思路:收集更大的样品量;尝试减少/增加特征的数量;增加多项式特征的方法,比如x1的平方,x2的平方,x1x2的乘积;减小或增大正则化参数lambda的值。

我们选择的网络模型的假设是网络的一系列成果,如幂律分布、小世界模型和六度分隔等等,我们需要良好的定义。

算法不仅仅要有可运算的对象,还要有可评估的标准,这是我们进一步改进的基础。然后是各种统计量,如方差、平均值等等。我们总希望能够达到一定的极值,如代价函数值最小或者导数为零等等。我们可以参考数学的夹逼定理来制定边界函数来评价其整体距离。我们需要根据具体的情况来选择特定的优化措施。

越高次数的多项式模型越能够适应我们的训练数据集,但这很难推广至一般情况,因此我们应该选择真正层次竞争博弈达成的均衡。这种均衡我们可以用收益函数的导数来表示。这种均衡就是马尔科夫序列,其选择性表达就是具体的真实情况(概率的表达是耦合情况发生的基础)。最终权衡还体现于查全率和查准率,作为偏斜类问题的评估度量值。保证查准率和查准率的相对平衡是很重要的。

就我认为,医生的经验累积过程是一个学习过程,我们可以通过算法来模拟最终行为。而且经验对应于数据量,不管算法如何(医生个人的天赋之类的),数据量的增加可以显著增强算法的性能。当然,这需要我们把握足够多的特征值,从而能够表达遍历整个空间,最终选择性坍缩为特定的路径。

支持向量机篇:

监督学习算法。以一定的简单函数(分段函数)来模拟边界以做出各种推断,并且可以根据各种评价函数来优化。努力用一个最大间距来分离样本。因此支持向量机有时被称为大间距分类器。

异常数据的排除,根据其相对比例/距离来做出这种判断,从而得到更好的分界函数。

对原有的特征进行组合---利用核函数来计算出新的特征(利用x的各个特征与我们预先选定的地标(landmarks)的近似程度来选取新的特征f1,f2,f3),这是高维量的提取。

非监督学习算法,通过一定的数据分析来划分不同的类,可以基于计算机的运算能力提取出超越我们人类所能够理解的特征。就我看来,这是机器往智能方向发展的关键,我们不再指引道路,它们自己寻找道路。而且我一直偏好的网络思想似乎能够在非监督学习得到更好的体现,如聚类分析和降维分析等等。网络分析,足够细化的分类可以做出个体化的判断,如各种推荐算法;网络关系发现得出网络不同个体的关系,如寻找恐怖分子;重新分配资源,重新布局网络。由此优化数据中心,优化数据通信;

数据本身就存在一定的分布,我们之前只是对存在的对象进行解释并最后发现其分布模式,现在就是反过来了对这些分布进行定义从而做出解释,这种对标签信息的定义需要内部的构造,即进行定义分类。其中对这些分布的一个界定的算法,聚类算法,是基本的操作。可以映射为一定特征量的定义,当然,聚类远不只于此。

k-均值是一个迭代算法,通过计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置,并且重复这种运算直到形成稳定状态。在这个过程中,迭代对应于一定的可计算量的变化操作,最终形成的收敛结构就是稳定状态。优化目标便是找出使得代价函数最小的对象。

降维:把复杂结构抽象为更基本的结果,如同无穷小量可以叠加,从而构建不同层次的关系。这种本征值提取可以对数据进行一定的压缩,在这个层次的运算可以逼近所有的结果。

减少运算的特征,减少冗余,这使得我们的计算更加具有可行性。

我们于是可以构建不同维度之间的相对关系,这种新产生的特征的意义可以由我们定义。我们可以根据的无限维空间可以准确对应于所有的情况。

主成分分析、奇异值分解,可以对新求出的“主


第八十四章网络实现的机器学习笔记(5/6),点击下一页继续阅读。

『加入书签,方便阅读』

上一页 目录 下一页 TXT下载