关于监督学习中生成式模型和判别式模型精度的探讨
关于监督学习中生成式模型和判别式模型精度的探讨
一、几个先行概念和想法
1.概率分布的分类
在本文讨论中,为了更好的理解和表述,我们把概率密度近似表示概率分布
1.1主要分类及特征
联合概率分布and条件概率分布
联合概率分布 Pθ(X,Y)P_\theta(X,Y)Pθ(X,Y) :该概率分布是描述,数据和标签,共同出现的概率
条件概率分布 Pθ(Y∣X)P_\theta(Y|X)Pθ(Y∣X) :该概率分布是描述,给定数据条件下,对应标签的概率
2.监督学习其中一种的分类方式
2.1.生成式模型and判别式模型
生成式模型
基于联合概率分布
主要是通过数据XXX来预测YYY
代表算法:朴素贝叶斯(NB)、隐马尔可夫模型(HMM)
判别式模型
基于条件概率分布
无法通过数据XXX来预测YYY,但是相比之下有较高的精度
代表算法:Logistic回归、条件随机场
3.关于概率分布和信息熵的宏观理解和推导
3.1什么是熵
熵的概念很多很复杂,这里只再强调其中一种最核心的观点:熵是描述一个系统混乱程度的概念。用通俗的表述方式,就是一个人随机做一件事情,被发现或者被看 ...
倔强下的不畏——2023年美赛回顾和反思
倔强下的不畏——2023年美赛回顾和反思
美赛已经结束了几天了,终于让自己稍微平复一下心情。这几天我也不断的在思考美赛于自身而言,到底带来了什么,虽然由于整场比赛的节奏并未很好的把握好,很多想做的工作像作为亮点的地方并未很突出的展现,直到现在回想起来,我仍然记得那天在官网上交完文章后,看似轻松无比表面下的另一种复杂的情感,深层的倔强。🌻
🚩场记回顾
本次美赛总体感觉题目的难度趋于平和,并且从A-F的每个类型赛题背景新颖,但是总体思路是较为清晰,并且让我有个最大的感受是,虽然美赛规定A-F是分别来自不同类型的题目,但是今年的赛题感觉这种每道题独特类型的味道欠缺。比如,B题的离散类型的题目,根据题目背景和要求,在和多位同学的讨论中发现得出的算法思路好像并不用考虑离散类数据就能解决,如果不是类型的限制,完全可以以另一种方式解答。
不过还是和往届一样,MCM中的C题和IMC中的E题一直是学生们最受青睐的题型。我们队伍一开始就未考虑C题,因为直觉告诉我这道题会涉及到过多的程序设计算法的知识,这也是恰恰是我们队伍中比较薄弱的队伍。后来,选择C题的一支队伍恰好和我说,他发现这道题的背景和命题思路 ...
关于信息熵的一些探讨和思考
关于信息熵的一些探讨和思考
信息熵越大,信息量是越大还是越小?
信息熵:代表信息传递的不确定性的大小/衡量随机事件发生的不确定性
主要分为两个方向考虑 信息学和统计学
==在信息学中==,关心的信息的正确传递和接收,信息熵实则是用于衡量信息传递中受到干扰而产生的不确定性的衡量数值(接收的数值和真实的数值)
观点:认为数据原始状态就是离散的,且不同离散度代表不同的指标特性
使用香农公式算出的值,叫做信息熵值(在熵权法中称为冗余度值or偏离度值)
信息熵值(或熵权法中的冗余度值or偏离度值):在一个确定无疑的信息源发送的信息,受到干扰后,衡量偏离原始精确信息的程度。
因此,离散度越大,信息熵值越小,消息越不可靠,得到信息越小;离散度越小,信息熵越大,消息可靠,得到的信息越大
==在统计学中==,有一个方法称为熵权法
观点:认为原本就有确定无疑的数据,是受到干扰(发送主体是可以为很多的主体or主体不同时间不同地点)才形成离散性的数据的
因此,离散值越大,熵值越小,代表信息量越大,权重越大(所以在公式信息熵权重法过程中需要用1-熵权值,使得熵权值和权重正负方向统一起来) ...
Hello World
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.
Quick Start
Create a new post
$ hexo new "My New Post"
More info: Writing
Run server
$ hexo server
More info: Server
Generate static files
$ hexo generate
More info: Generating
Deploy to remote sites
$ hexo deploy
More info: Deployment