问题的提出我们考虑一个股票推荐的数据集,它每行是一个样本。每个样本有四个特征,推荐结果只有“推荐”与“不推荐”两类: 基于以上的数据集,我们训练一个分类器。首先将推荐结果量化表示:1表示推荐,0表示不推荐。 那么对前3个样本中的任何一个,我们希望分类器应该能将它分类到1,而对后3个样本中的任何一个 ...
MLE 极大似然估计
极大似然估计MLE即maximum likelihood estimation,极大似然估计,它描述的是这样一种状况:当一件事A发生了,我们认为这件事A(而不是另外一些事B,C,D,…)之所以发生一定是因为这件事A发生的概率比其它所有的事情发生的概率都大。从这个角度,我们可以反推到底是什么前提条件才 ...
Naive Bayes Classifier 朴素贝叶斯分类器
在介绍朴素贝叶斯之前,先简要回顾一下贝叶斯 贝叶斯定理定理表达式: 它描述的是,我们对A事件有一个先验的概率判断,然后B事件发生了,它影响了我们对A事件的认识,影响因子为,那么调整后的A的概率为。当然我们可以把更新后的A事件的概率当做新的先验概率,然后继续使用贝叶斯定理,通过新事件B的加入,再次更新 ...
LSA/LSI by SVD 基于奇异值分解的潜在语义分析
问题的提出在一个图书馆系统中,如果用户键入“计算机”,系统可能会返回诸如《计算机技术与应用》,《互联网通信技术》《C++编程理论》,《算法之美》,《电脑维修方法》等书籍。我们的知道“计算机” 与“互联网”,“编程”,“算法”,“电脑”有着类似的潜在语义,所以它们被筛选出来是可以理解的,但是系统是怎么 ...
Relationship between PCA and SVD 主成分分析和奇异值分解的关系
我们有一个样本集:我们不妨把它当做一个m个用户对n个物品评分的矩阵。为了PCA计算方便,就把它当做一个已经去中心化的数据矩阵。 SVD的矩阵乘转置<=>PCA的协方差矩阵我们先作一小步SVD分解:按照SVD分解的方法,我们要获得中的U,需要对进行特征值分解。 先来看看长什么样子: 看着 ...
[Jazz Cover]All The Things You Are
演示视频 曲谱来自The Real Book 和声分析All The Things You Are 是著名的爵士标准曲。 它会改变传统音乐听者(特别是流行音乐听者)对音乐的看法: 原来音乐不需要固定一个key,原来美妙的是和声及其连接方式,而key只是和声连接的附带结果 在吉他演奏上,对我来说, ...
Recommender System by SVD 基于SVD的推荐系统
引入在之前的SVD Decomposition一文中,我们介绍过,一个mxn的矩阵A可以分解为: 其中为的特征矩阵,为的特征矩阵。同时我们通过选取部分奇异值及其对应的特征向量的方式实现对的降维: 这一降维方式可以运用在图像压缩中。 此文中,我们将继续探索SVD降维方法在推荐系统中的应用。 推荐系 ...
Image Compression by SVD 基于奇异值分解的图像压缩
基于SVD的图像压缩实践在之前的介绍里,我们讲过了SVD分解的基本原理。一个mxn的矩阵A可以分解为三个矩阵相乘: A可以被U和V表示,而其中的奇异值分别为U的列向量和V的行向量的权重: 通常,前k大的奇异值就足以占了所以奇异值90%的比重,这种情况下,我们只需要选择前k个奇异值,对应地选择U的前 ...