10 机器学习 | 衍化至繁:逻辑回归
10 机器学习 | 衍化至繁:逻辑回归
讲述:王天一
时长12:13大小5.60M
赞 5
提建议
精选留言(15)
- dianxin5562018-01-24王老师,请问似然概率和后验概率的区别和联系?能否举例说明?谢谢!
作者回复: 似然概率是由假设正推结果,后验概率是由结果倒推假设。 假如一种产品由不同的工厂ABC生产,每个工厂都有自己的次品率,那么A厂生产的产品占产品总数的比例就是先验概率,A厂自己的次品率就是似然概率。 在一堆产品中抽出一件,检验发现是次品,那这件次品可能来源于ABC中任意的一个厂。已知产品是次品,推断这件次品来自A厂的概率,这就是后验概率。
共 4 条评论20 - 井中月2018-03-07王老师,按文章最后一段所说,当一个样本同时属于多个类别时,是不是有几个类别就建立几个二分类模型,这样效率比较高?但是我曾经遇到过一个类似的问题,当时没有解决,想跟您请教。每个样本属于多个类别,这些类别加起来一共有将近400种,而且绝大多数类别都是严重不平衡的。这种情况下如果一个一个的建立模型是不是效率很低?这是一个文本分类的问题,文本是餐厅评论数据,类别是人工标注的评论主题。这些类别其实是可以合并的,但是合并之后意义不大。您怎么看这种情况?展开
作者回复: 抛开问题不说,做多分类两种思路:一是所有类别两两配对,就是1v2, 1v3,...,1vN,2v3,2v4,...2vN,3v4,...依此类推;二是每个类别和其他所有类别配对,就是1v其他,2v其他,…Nv其他。第一种模型多,每个模型需要的数据少,第二种相反。 具体到你的问题,我觉得类别太多了,尤其是数据有限时,给500个数据分400个类是没有价值的。所以我认为应该先对类别做优化,当然,能不能行的通还要看实际情况。
4 - 阿里-赤壁(羊宏飞)2018-06-01王老师这个课 我认为是 机器学习入门者 非常好的 图谱 ,其中一些知识点还是要结合书本和实战。问题的讨论 知乎上回答的也非常详尽3
- Jean2018-03-01问下逻辑回归中的“逻辑”是什么意思,为什么叫逻辑,是怎么来的?
作者回复: 逻辑是logistic的音译,logistic函数就是文章里的sigmoid函数,也就是S曲线。
共 2 条评论2 - 叶秋2018-03-27可否推导一下逻辑回归的条件概率的推导过程
作者回复: 在这里没法打出公式,你可以参考维基百科上逻辑回归的页面,或是推荐书目中周老师和李老师教材的相关章节。
1 - 井中月2018-03-11谢谢您的回复。我当时设想的是第二种思路,每个类和其他所有类配对。当时的数据量是50多万条。按您的经验来说,一般做分类问题,类别控制在多少个容易取得较好的效果呢?
作者回复: 这是取决于具体问题的,建议你也把类别数量作为一个变量试一试,看看类别多少时效果比较好。
1 - MJ小朋友2018-01-05我好像发现了两个无伤大雅的错误, S型函数b好像漏了,后面推导有了,又没了 对数似然函数应该取自然对数,不然没底数不行
作者回复: 感谢你的火眼金睛,这两个问题都是符号没有统一造成的。 第一个,没有常项b是因为把它看成w的一个分量w_0,并让它和另一个常数x_0=1相乘,但是推导时候这样写又不方便,所以就把b拿出来了; 第二个是个习惯问题,这要归咎于平时书写并不规范,不写底数的log就默认是ln运算。在文章中,所有的运算全是自然对数运算。
2 - 刘桢2020-03-22打卡打卡
- 杨家荣2019-12-26极客时间 21天打卡行动 8/21 <<人工智能基础课10>>逻辑回归 回答老师问题: 前文对逻辑回归的分析都是在概率理论的基础上完成的。但在二分类任务中,逻辑回归的作用可以视为是在平面直角坐标系上划定一条数据分类的判定边界。那么逻辑回归的作用能不能从几何角度理解,并推广到高维空间呢? 这个问题有点深奥,根据我自身的学习知识,在逻辑回归算法中,如果用几何去表达,显然平面几何是做不到的,以前我老师讲过一个升维的算法,在平面几何不能表达的回归图形中,假设这个图形不是二维的,是多维度的,在多维度的空间中,是能计算和描绘的; 今日所学:Logistic回归(逻辑回归),这个算法本身是解决分类问题的,逻辑回归中,实现这一映射是对数几率函数,也叫 Sigmoid 函数;(Sigmoid函数搜索较大的值,所有值将介于0和1之间),而寻找以上函数的最大值就是以对数似然函数为目标函数的最优化问题,通常通过“梯度下降法”或拟“牛顿法”求解,另外对数似然函数的最大化可以等效为待求模型与最大熵模型之间 KL 散度的最小化。这意味着最优的估计对参数做出的额外假设是最少的,这无疑与最大熵原理不谋而合。 逻辑回归与朴素贝叶斯区别: 1,逻辑回归与线性回归的关系称得上系出同门,与朴素贝叶斯分类的关系则是殊途同归。两者虽然都可以利用条件概率 P(Y|X) 完成分类任务,实现的路径却截然不同。 2,朴素贝叶斯分类器是生成模型的代表,其思想是先由训练数据集估计出输入和输出的联合概率分布,再根据联合概率分布来生成符合条件的输出,P(Y|X) 以后验概率的形式出现。 3,两者的区别在于当朴素贝叶斯分类的模型假设不成立时,逻辑回归和朴素贝叶斯方法通常会学习到不同的结果 4,两者的区别还在于收敛速度的不同; 5,朴素贝叶斯基于少量数据集更有优势 逻辑回归的改进:一种改进方式是通过多次二分类实现多个类别的标记;另一种多分类的方式通过直接修改逻辑回归输出的似然概率,使之适应多分类问题,得到的模型就是 Softmax 回归,Softmax 回归模型的训练与逻辑回归模型类似,都可以转化为通过梯度下降法或者拟牛顿法解决最优化问题。 说明:虽然都能实现多分类的任务,但两种方式的适用范围略有区别。当分类问题的所有类别之间明显互斥,即输出结果只能属于一个类别时,Softmax 分类器是更加高效的选择;当所有类别之间不存在互斥关系,可能有交叉的情况出现时,多个二分类逻辑回归模型就能够得到多个类别的标记。 总结:a,逻辑回归模型是对线性回归的改进,用于解决分类问题;b,逻辑回归输出的是实例属于每个类别的似然概率,似然概率最大的类别就是分类结果;c,在一定条件下,逻辑回归模型与朴素贝叶斯分类器是等价的;d,多分类问题时可以通过多次使用二分类逻辑回归或者使用 Softmax 回归解决。展开
- 小老鼠2019-01-17各位是不是都是数学系毕业的,好难懂共 1 条评论1
- 历尽千帆2018-12-29王老师,您好。我没有明白“对数似然函数的最大化可以等效为待求模型与最大熵模型之间 KL散度的最小化。这意味着最优的估计对参数做出的额外假设是最少的”这句话,您可否再解释下?
- jkhcw2018-12-16逻辑回归在高纬模型下就是超平面
- 星运里的错2018-05-19老师。我发现很多概念当时明白,过后就忘了,您是推荐从实战例子中去加深理解,还是反复的去看概念,知道看懂
作者回复: 我认为结合起来才有效果,想办法理解例子是如何应用概念的。
- 井中月2018-03-15好的,谢谢老师
- Andy2018-01-05王老师您好,在逻辑回归中,代价函数为什么选用交叉熵代价函数,而不是选用最小二乘代价函数呢?
作者回复: 不要被名字欺骗,逻辑回归的输出是离散值哟,离散变量用最小二乘就没意义了。