Bayes, Bits and Brains
9 months ago
- #probability
- #information theory
- #machine learning
- 该网站聚焦概率论与信息论,以此理解机器学习与世界运行规律。
- 通过谜题设计增强读者参与感,所有谜题将在迷你课程结束时得到解答。
- 迷你课程将涵盖KL散度、信息熵、交叉熵及其核心原理的直观解释。
- 探讨机器学习中的最大似然估计与最大熵等基础原则。
- 解析逻辑回归值、Softmax函数及高斯分布在机器学习中的应用。
- 指导损失函数构建方法,揭示压缩技术在大型语言模型中的关键作用。
- 鼓励读者深入研读首章内容,系统掌握这些核心概念。