机器学习MachineLearning_-柚子皮-的博客-CSDN博客


本站和网页 https://blog.csdn.net/pipisorry/article/category/2126083 的作者无关,不对其内容负责。快照谨为网络故障时之索引,不代表被搜索网站的即时页面。

机器学习MachineLearning_-柚子皮-的博客-CSDN博客
自定义博客皮肤VIP专享
*博客头图:
点击选择上传的图片
格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图
请上传大于1920*100像素的图片!
博客底图:
点击选择上传的图片
图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景
栏目图:
点击选择上传的图片
图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB
主标题颜色:
RGB颜色,例如:#AFAFAF
Hover:
RGB颜色,例如:#AFAFAF
副标题颜色:
RGB颜色,例如:#AFAFAF
预览
取消
提交
自定义博客皮肤
-+
上一步保存
皮皮blog
Talk is cheap, Show me the code!
-柚子皮-
CSDN认证博客专家
CSDN认证企业博客
码龄10年
人工智能领域优质创作者
616
原创
6020
周排名
5958
总排名
1120万+
访问
等级
5万+
积分
9035
粉丝
4276
获赞
888
评论
1万+
收藏
私信
关注
热门文章
ssh用法及命令
470388
数据标准化/归一化normalization
433270
pycharm快捷键、常用设置、配置管理
399354
微积分:常用公式、微分方程、级数
261338
Latex:入门教程
252486
分类专栏
dd_ad
深度学习
18篇
Git
7篇
主题模型
16篇
概率图模型
20篇
机器学习
18篇
Django
13篇
PythonQT
5篇
----------技术流-------------
深度学习DeepLearning
27篇
机器学习MachineLearning
43篇
Scikit-Learn
15篇
主题模型Topic Model
19篇
概率图模型PMG
26篇
推荐系统Resys
10篇
PRML
5篇
机器学习公开课
19篇
分类 Classification
13篇
聚类 Clustering
3篇
序列数据
10篇
海量数据挖掘MMDS
23篇
Pytorch
22篇
Tensorflow
19篇
keras
2篇
Git小记
10篇
Spark
8篇
Hadoop
6篇
Docker
9篇
NLP
13篇
BigData
4篇
Dataming
1篇
架构
1篇
Math
32篇
----------Love Python---------
1篇
Python
41篇
Python类、函数和模块
34篇
Python拓展包
5篇
Numpy小记
15篇
Scipy小记
8篇
Matplotlib小记
8篇
Pandas小记
10篇
Networkx小记
3篇
Sympy小记
1篇
Django小记
14篇
Python网络请求与爬虫
8篇
PythonQT小记
5篇
-------Language World---------
1篇
C++
36篇
Scala
11篇
1篇
Java
18篇
Android
24篇
Html
11篇
Matlab
3篇
assembly
3篇
Perl
Database
2篇
Linux
43篇
windows
13篇
----------算法结构---------------
1篇
Algorithm&Datastructure
15篇
大数据算法
3篇
编程之美
9篇
OJ
16篇
逻辑之美
2篇
Coding
2篇
--------------OTH-------------
5篇
Office
12篇
Internet
4篇
inforSec
3篇
paper
6篇
others
2篇
Mac
1篇
最新评论
Notepad++一些好用的特性
CC Compare:
可以试下国产的Notepad--,win uos mac 三平台支持。 https://gitee.com/cxasm/notepad--
python字符串编码及乱码解决方案
华子来一颗:
㏧㋋㈫㊰㍿㊋㊥ 这种字符楼主知道怎么规范化吗?
深度学习:batch_size和学习率 及如何调整
MadChiang:
很有用,提醒一下第三个事例的scheduler 拼错了
非负矩阵分解NMF
kiki151315:
请问您文章中的matlab脚本还有吗,文章中的连接点进去显示无法安全下载
Java: 常用语法
programmer_ada:
哇, 你的文章质量真不错,值得学习!不过这么高质量的文章, 还值得进一步提升, 以下的改进点你可以参考下: (1)使用标准目录;(2)增加内容的多样性(例如使用标准目录、标题、图片、链接、表格等元素)。
最新文章
IDEA远程调试
CVR预估模型-ESMM
距离和相似度度量方法
2022年1篇
2021年8篇
2020年20篇
2019年21篇
2018年3篇
2017年73篇
2016年137篇
2015年160篇
2014年225篇
机器学习MachineLearning
关注
关注数:16
文章数:43
文章阅读量:1618830
文章收藏量:3229
作者:
-柚子皮-
╰☆ゞ不染纤尘,不忘初心ゞ☆╮
展开
聚类算法
http://blog.csdn.net/pipisorry/article/details/23567065划分算法Partitioning Methods基于划分的方法(Partition-based methods):其原理简单来说就是,想象你有一堆散点需要聚类,想要的聚类效果就是“类内的点都足够近,类间的点都足够远”。首先你要确定这堆散点最后聚成几类,然后挑选几个点作为初始中心点,...
原创
2014-04-13 00:23:54 ·
6140 阅读 ·
1 评论
聚类算法:kmeans
1.www.FreeBookSpot.comFreeBookSpot有4485本免费的E-BOOKS分成96个类别,多达71,97 GB。 您可以在类別搜寻找和下载免费的书,如:科学、设计、编码、小说和许多其他的书。您可以在类别搜寻和下载免费的书,如:科学、设计、编码、小说和许多其他的书。2.www.4eBooksorg/4eBooks 有数量相当庞大的程式设计ebooks,下载的
原创
2014-11-17 21:14:28 ·
7656 阅读 ·
1 评论
回归的线性模型
http://blog.csdn.net/pipisorry/article/details/73770637线性基函数回归模型基函数线性回归模型的最简单的形式也是输入变量的线性函数。但是,通过将一组输入变量的非线性函数进行线性组合,我们可以获得一类更加有用的函数,被称为基函数( basis function )。这样的模型是参数的线性函数,这使得其具有一些简单的分析性质,同时关于输入变量是非线性
原创
2017-07-08 11:29:32 ·
2807 阅读 ·
0 评论
信息论:熵与互信息
http://blog.csdn.net/pipisorry/article/details/51695283这篇文章主要讲:熵, 联合熵(joint entropy),条件熵(conditional entropy),相对熵(relative entropy,KL 距离),互信息(mutual information),交叉熵(cross entropy),困惑度(perplexity)。...
原创
2016-11-25 21:18:43 ·
86776 阅读 ·
13 评论
Sigmod/Softmax变换
http://blog.csdn.net/pipisorry/article/details/7781662Logistic/Softmax变换sigmoid函数/Logistic 函数取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。sigmoid 的导数表达式为: sigmoid 原函数及导数图形如下:Note: 从导数表达式可知,l...
原创
2017-09-03 11:39:32 ·
9240 阅读 ·
2 评论
EM算法原理详解
http://blog.csdn.net/pipisorry/article/details/42550815EM算法有很多的应用,最广泛的就是GMM混合高斯模型、聚类、HMM、基于概率的PLSA模型等等。本文详细讲述EM算法的由来、EM算法的实现思路、EM算法解决PLSA和LDA的方法。概述、EM是一种解决存在隐含变量优化问题的有效方法。EM的意思是“Expectation Maximizati
原创
2015-01-09 09:44:36 ·
45565 阅读 ·
7 评论
机器学习模型的评价指标和方法
http://blog.csdn.net/pipisorry/article/details/52574156衡量分类器的好坏 对于二类分类器/分类算法,评价指标主要有accuracy, [precision,recall,F-score,pr曲线],ROC-AUC曲线,gini系数。 对于多类分类器/分类算法,评价指标主要有accuracy, [宏平均和微...
原创
2016-09-18 15:04:55 ·
65376 阅读 ·
0 评论
损失函数loss
http://blog.csdn.net/pipisorry/article/details/23538535监督学习及其目标函数 损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部...
原创
2014-04-12 16:43:39 ·
18478 阅读 ·
6 评论
最优化方法:梯度下降(批梯度下降和随机梯度下降)
http://blog.csdn.net/pipisorry/article/details/23692455梯度下降法(Gradient Descent)梯度下降法是一个一阶最优化算法,通常也称为最速下降法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;
原创
2014-04-14 17:36:28 ·
21542 阅读 ·
1 评论
偏置方差分解Bias-variance Decomposition
http://blog.csdn.net/pipisorry/article/details/50638749偏置-方差分解(Bias-Variance Decomposition)偏置-方差分解(Bias-Variance Decomposition)是统计学派看待模型复杂度的观点。Bias-variance 分解是机器学习中一种重要的分析技术。给定学习目标和训练集规模,它可以把一种学习算法的期
原创
2016-02-05 17:48:11 ·
16466 阅读 ·
10 评论
机器学习模型选择:调参参数选择
http://blog.csdn.net/pipisorry/article/details/52902797调参经验好的实验环境是成功的一半由于深度学习实验超参众多,代码风格良好的实验环境,可以让你的人工或者自动调参更加省力,有以下几点可能需要注意:将各个参数的设置部分集中在一起。如果参数的设置分布在代码的各个地方,那么修改的过程想必会非常痛苦。可以输出模型的损失函数值以及训练集和验证集上的准确
原创
2016-10-23 16:49:22 ·
13612 阅读 ·
0 评论
分类的线性模型:概率判别式模型之逻辑回归LR
逻辑回归Logistic Regression逻辑回归是一种线性分类模型,而不是回归模型。也就是说,输入的因变量target y是离散值,如分类类别1,0等等,而不是连续型的数据。判别式训练的⼀种形式:在直接⽅法中,我们最⼤化由条件概率分布p(Ck j x)定义的似然函数。判别式⽅法的⼀个优点是通常有更少的可调节参数需要确定。并且预测表现也会提升,尤其是当类条件概率密度的假设没有很好地近似真实的分
原创
2017-12-18 11:39:27 ·
4904 阅读 ·
0 评论
最优化方法:L1和L2正则化regularization
http://blog.csdn.net/pipisorry/article/details/52108040机器学习和深度学习常用的规则化方法之一:L范数正则化(规格化)。一般来说,监督学习可以看做最小化下面的目标函数):θ∗=arg⁡minθ1N∑i=1NL(yi,f(xi;θ))+λ 
原创
2016-08-18 17:06:31 ·
46465 阅读 ·
6 评论
对数线性模型:逻辑斯谛回归和最大熵模型
http://blog.csdn.net/pipisorry/article/details/52788947对数线性模型log linear model对数线性模型有:最大熵模型和逻辑斯谛回归。特征和指示特征对数线性模型的一般形式[概率图模型原理与技术]某小皮对数线性模型的不同形式因子图将因子转换到对数空间,成为对数线性模型。...
原创
2016-10-11 16:17:51 ·
4259 阅读 ·
0 评论
最大熵模型The Maximum Entropy:学习
http://blog.csdn.net/pipisorry/article/details/52791036最大熵模型的学习最大熵模型具体形式的推导+参数w的学习。根据[最大熵模型The Maximum Entropy:模型]最大熵模型的形式如下:最大熵模型学习最大熵模型学习的思路学习过程的具体推导Note: 通过交换极大极小位置,即得其对偶问题...
原创
2016-10-11 20:07:31 ·
4849 阅读 ·
0 评论
最大熵模型The Maximum Entropy:模型
http://blog.csdn.net/pipisorry/article/details/52789149最大熵模型相关的基础知识[概率论:基本概念CDF、PDF ]熵定义为: [信息论:熵与互信息 ][最优化方法:拉格朗日乘数法 ][参数估计:贝叶斯思想和贝叶斯参数估计 ][参数估计:最大似然估计MLE ]皮皮blog最大熵原理和思想 ...
原创
2016-10-11 17:09:52 ·
8414 阅读 ·
9 评论
最近邻查找算法kd-tree
http://blog.csdn.net/pipisorry/article/details/52186307海量数据最近邻查找的kd-tree简介        利用Octree,為封閉的3D空間建立一個資料結構來管理空間中的每個元素。如此我們可以在 O(log N) 的時間內對這3D空間進行搜尋。        3D空間可以用Octree,2D空間可以用Quadtree(四元樹,概...
原创
2016-08-12 10:12:01 ·
58217 阅读 ·
6 评论
数据预处理:独热编码(One-Hot Encoding)
http://blog.csdn.net/pipisorry/article/details/61193868问题由来在很多机器学习任务中,特征并不总是连续值,而有可能是分类值。例如,考虑一下的三个特征:["male","female"]["from Europe","from US","from Asia"]["uses Firefox","u
原创
2017-03-10 11:32:04 ·
69301 阅读 ·
10 评论
非参数估计:核密度估计KDE
http://blog.csdn.net/pipisorry/article/details/53635895核密度估计Kernel Density Estimation(KDE)概述密度估计的问题由给定样本集合求解随机变量的分布密度函数问题是概率统计学的基本问题之一。解决这一问题的方法包括参数估计和非参数估计。参数估计参数估计又可分为参数回归分析和参数判别分析。在参数回归分析中,人们假定数据分布
原创
2016-12-14 11:38:46 ·
105110 阅读 ·
16 评论
数据标准化/归一化normalization
http://blog.csdn.net/pipisorry/article/details/52247379这里主要讲连续型特征归一化的常用方法。连续型特征还有一种处理方式是,先分桶/分箱(如等频/等距的分)[待写]进行离散化后再使用离散数据的处理方法。离散数据处理参考[数据预处理:独热编码(One-Hot Encoding)]。基础知识参考:[均值、方差与协方差矩阵][...
原创
2016-08-19 09:42:40 ·
433280 阅读 ·
69 评论
Machine Learning - X. Advice for Applying Machine Learning机器学习算法的诊断和改进 (Week 6)
http://blog.csdn.net/pipisorry/article/details/44119187机器学习Machine Learning - Andrew NG courses学习笔记Advice for Applying Machine Learning机器学习应用上的建议{解决应用机器学习算法遇到的trainning set和test set预测不高的问题}机器学习...
原创
2015-03-13 20:34:12 ·
3185 阅读 ·
0 评论
Scikit-learn:Feature selection特征选择和学习
http://blog.csdn.net/pipisorry/article/details/40200111特征工程的思维导图[机器学习之特征工程][知乎:在机器学习的项目中,特征是如何被找出来的?][机器学习中,有哪些特征选择的工程方法? - 知乎]皮皮blogsklearn.feature_selection 模块中的类能够用于数据集的特征选择/降维,以此来提高预测模型的准确率或改善它们在高
原创
2014-10-18 00:52:17 ·
7954 阅读 ·
0 评论
非负矩阵分解NMF
http://blog.csdn.net/pipisorry/article/details/52098864非负矩阵分解(NMF,Non-negative matrix factorization)NMF的发展及原理  著名的科学杂志《Nature》于1999年刊登了两位科学家D.D.Lee和H.S.Seung对数学中非负矩阵研究的突出成果。该文提出了一种新的矩阵分解思想——非负矩阵分解(Non
原创
2016-08-03 12:37:26 ·
77422 阅读 ·
24 评论
机器学习综述
http://blog.csdn.net/pipisorry/article/details/21593295机器学习应用场景[各种机器学习的应用场景分别是什么?例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型 - 知乎]皮皮blogfrom:http://blog.csdn.net/pipisorry/article/details/21593295ref:
原创
2014-03-20 09:04:52 ·
3734 阅读 ·
0 评论
Machine Learning - XI. Machine Learning System Design机器学习系统设计(Week 6)系统评估标准
http://blog.csdn.net/pipisorry/article/details/44119187机器学习Machine Learning - Andrew NG courses学习笔记Machine Learning System Design机器学习系统设计Prioritizing What to Work On优先考虑做什么the first decision we must m
原创
2015-03-13 20:38:54 ·
3566 阅读 ·
0 评论
PCA数据降维
http://blog.csdn.net/pipisorry/article/details/49235529这个没时间写,下次有空写吧╮(╯_╰)╭from: http://blog.csdn.net/pipisorry/article/details/49235529ref:
原创
2015-10-19 00:38:12 ·
1812 阅读 ·
0 评论
数据拟合:多项式拟合polynomial curve fitting
常见的曲线拟合方法    1.使偏差绝对值之和最小          2.使偏差绝对值最大的最小          3.使偏差平方和最小     按偏差平方和最小的原则选取拟合曲线,并且采取二项式方程为拟合曲线的方法,称为最小二乘法。多项式拟合介绍多项式拟合公式多项式拟合问题描述假定
原创
2015-11-12 21:01:21 ·
20049 阅读 ·
0 评论
在python中的使用Libsvm
http://blog.csdn.net/pipisorry/article/details/38964135LIBSVM是台湾大学林智仁(LinChih-Jen)教授等开发设计的一个简单、易于使用和快速有效的SVM模式识别与回归的软件包,他不但提供了编译好的可在Windows系列系统的执行文件,还提供了源代码,方便改进、修改以及在其它操作系统上应用;该软件对SVM所涉及的参数调节相对比较少,
原创
2015-09-04 12:27:35 ·
9541 阅读 ·
1 评论
Comprehensive learning path – Data Science in Python深度学习路径-用python进行数据学习
Comprehensive learning path – Data Science in PythonJourney from a Python noob to a Kaggler on PythonSo, you want to become a data scientist or may be you are already one and want to expand yo
翻译
2015-03-13 20:42:11 ·
3098 阅读 ·
0 评论
Python下的数据处理和机器学习,对数据在线及本地获取、解析、预处理和训练、预测、交叉验证、可视化
在[1]:%matplotlib inline抓取的数据一个简单的HTTP请求在[2]:import requestsprint requests.get("http://example.com").text Example
翻译
2015-04-02 16:13:14 ·
3540 阅读 ·
0 评论
PGM:贝叶斯网的参数估计
http://blog.csdn.net/pipisorry/article/details/52578631本文讨论贝叶斯网的参数估计问题:贝叶斯网的MLE最大似然估计和贝叶斯估计。假定网络结构是固定的,且假定数据集D包含了网络变量的完全观测实例。参数估计的主要方法有两种:一种基于最大的似然的估计;一种是使用贝叶斯方法。贝叶斯网的MLE参数估计最大似然估计MLE[参数估计:最大似然估计MLE
原创
2016-09-20 16:22:21 ·
4958 阅读 ·
3 评论
距离和相似度度量方法
http://blog.csdn.net/pipisorry/article/details/45651315在机器学习和数据挖掘中,我们经常需要知道个体间差异的大小,进而评价个体的相似性和类别。最常见的是数据分析中的相关分析,数据挖掘中的分类和聚类算法,如 K 最近邻(KNN)和 K 均值(K-Means)等等。不同距离度量的应用场景根据数据特性的不同,可以采用不同的度量方法。whi...
原创
2021-09-24 22:18:08 ·
99078 阅读 ·
4 评论
最优化方法:非线性方程的求极值方法
http://blog.csdn.net/pipisorry/article/details/23553263非线性方程求根方法中的数学定义零点1  如果 x * 使 f( x * )=0,则称 x * 为方 程的根,或称为 函数f( x )的零点;当 f( x )为多项式时,即其中0这里我们要求解的就是非线性方程的解(即零点)x*。一般情况下,用计算机求解非线性方程步骤第一步:对方程 f( x
原创
2014-04-12 20:43:48 ·
9337 阅读 ·
0 评论
最优化方法:牛顿迭代法和拟牛顿迭代法
http://blog.csdn.net/pipisorry/article/details/24574293牛顿法和拟牛顿法(Newton's method & Quasi-Newton Methods)牛顿法(Newton's method)  又称为牛顿-拉弗森方法(Newton-Raphson method),单变量下又称为切线法。它是一种在实数域和复数域上近似求解方程的方法。方法使用函数
原创
2014-04-27 09:18:18 ·
43436 阅读 ·
2 评论
最优化方法:共轭梯度法(Conjugate Gradient)
http://blog.csdn.net/pipisorry/article/details/39891197共轭梯度法(Conjugate Gradient)共轭梯度法(英语:Conjugate gradient method),是求解数学特定线性方程组的数值解的方法,其中那些矩阵为对称和正定。共轭梯度法是一个迭代方法,它适用于稀疏矩阵线性方程组,因为这些系统对于像Cholesky分解这样的直接
原创
2014-10-08 11:20:18 ·
20361 阅读 ·
1 评论
参数估计:最大似然估计MLE
http://blog.csdn.net/pipisorry/article/details/51461997最大似然估计MLE顾名思义,当然是要找到一个参数,使得L最大,为什么要使得它最大呢,因为X都发生了,即基于一个参数发生的,那么当然就得使得它发生的概率最大。最大似然估计就是要用似然函数取到最大值时的参数值作为估计值,似然函数可以写做相乘因为它们之间是独立同分布的。由于有连乘运算,通常对似然
原创
2016-05-21 16:57:50 ·
44783 阅读 ·
0 评论
时间序列分析
http://blog.csdn.net/pipisorry/article/details/62053938时间序列简介时间序列是时间间隔不变的情况下收集的时间点集合。这些集合被分析用来了解长期发展趋势,为了预测未来或者表现分析的其他形式。但是什么时间序列?与常见的回归问题的不同?1、时间序列是跟时间有关的。所以基于线性回归模型的假设:观察结果是独立的。在这种情况下是不成立的。2、随着上升或者下
原创
2017-03-22 17:04:51 ·
53069 阅读 ·
8 评论
参数估计:贝叶斯思想和贝叶斯参数估计
http://blog.csdn.net/pipisorry/article/details/51471222贝叶斯与频率派思想频率派思想    长久以来,人们对一件事情发生或不发生,只有固定的0和1,即要么发生,要么不发生,从来不会去考虑某件事情发生的概率有多大,不发生的概率又是多大。而且事情发生或不发生的概率虽然未知,但最起码是一个确定的值。比如如果问那时的人们一个问题:“有一个袋子,里面装着
原创
2016-05-23 10:54:29 ·
59298 阅读 ·
7 评论
Machine Learning - VII. Regularization规格化 (Week 3)
http://blog.csdn.net/pipisorry/article/details/43966361机器学习Machine Learning - Andrew NG courses学习笔记规格化RegularizationThe Problem of Overfitting过拟合问题线性规划的例子(housing prices)
原创
2015-02-27 12:22:40 ·
3006 阅读 ·
0 评论
Scikit-learn:Feature extraction文本特征提取
http://blog.csdn.net/pipisorry/article/details/41957763文本特征提取词袋(Bag of Words)表征文本分析是机器学习算法的主要应用领域。但是,文本分析的原始数据无法直接丢给算法,这些原始数据是一组符号,因为大多数算法期望的输入是固定长度的数值特征向量而不是不同长度的文本文件。为了解决这个问题,scikit-learn提供了一些实用工具可以
原创
2014-12-16 11:11:30 ·
40841 阅读 ·
0 评论