大数据机器学习(袁春)
共113课时 15小时39分33秒秒
简介
《大数据机器学习》课程是面向信息学科的高年级本科生或研究生开设的基础理论课,目的是培养学生深入理解大数据机器学习理论基础,牢固掌握大数据机器学习方法,并能够解决实际问题等综合能力。课程的主要内容包括:统计学习基本理论,机器学习基本方法,深度学习理论和方法。
章节
- 课时1:机器学习定义和典型应用 (10分2秒)
- 课时2:机器学习和人工智能的关系 (1分34秒)
- 课时3:深度学习方法和其它人工智能方法的共性和差异 (1分40秒)
- 课时4:机器学习和数据挖掘的关系 (1分26秒)
- 课时5:机器学习和统计学习的关系 (1分8秒)
- 课时6:机器学习的发展历程 (3分16秒)
- 课时7:大数据机器学习的主要特点 (9分12秒)
- 课时8:机器学习的基本术语 (5分31秒)
- 课时9:监督学习 (1分49秒)
- 课时10:假设空间 (1分58秒)
- 课时11:学习方法三要素 (3分48秒)
- 课时12:奥卡姆剃刀定理 (53秒)
- 课时13:没有免费的午餐定理v (3分43秒)
- 课时14:训练误差和测试误差 (49秒)
- 课时15:过拟合与模型选择 (6分8秒)
- 课时16:泛化能力 (1分46秒)
- 课时17:生成模型和判别模型 (1分42秒)
- 课时18:留出法 (3分21秒)
- 课时19:交叉验证法 (36秒)
- 课时20:自助法 (2分4秒)
- 课时21:性能度量 (6分23秒)
- 课时22:PR曲线 (4分30秒)
- 课时23:ROC和AUC曲线 (1分27秒)
- 课时24:代价敏感错误率 (2分49秒)
- 课时25:假设检验 (5分17秒)
- 课时26:T检验 (1分59秒)
- 课时27:偏差和方差 (4分3秒)
- 课时28:感知机模型 (4分56秒)
- 课时29:感知机学习策略 (2分28秒)
- 课时30:感知机学习算法 (17分18秒)
- 课时31:原型聚类描述 (3分43秒)
- 课时32:性能度量 (10分53秒)
- 课时33:原型聚类 k均值算法 (4分58秒)
- 课时34:原型聚类 学习向量算法 (4分55秒)
- 课时35:原型聚类 密度聚类 (4分48秒)
- 课时36:原型聚类 层次聚类 (3分22秒)
- 课时37:综述 (34秒)
- 课时38:概率图模型 (3分18秒)
- 课时39:贝叶斯网络 (12分12秒)
- 课时40:朴素贝叶斯分类器 (4分59秒)
- 课时41:半朴素贝叶斯分类器v (24分17秒)
- 课时42:贝叶斯网络结构学习推断 (1分15秒)
- 课时43:吉布斯采样 (3分17秒)
- 课时44:决策树和随机森林 (29秒)
- 课时45:决策树模型与学习基本概念 (15分29秒)
- 课时46:信息量和熵 (10分23秒)
- 课时47:决策树的生成 (13分42秒)
- 课时48:决策树的减枝 (4分41秒)
- 课时49:CART算法 (15分37秒)
- 课时50:随机森林 (5分30秒)
- 课时51:逻辑斯蒂回归与最大熵模型简介 (3分30秒)
- 课时52:逻辑斯谛回归模型 (7分36秒)
- 课时53:最大熵模型 (19分7秒)
- 课时54:模型学习的最优化方法 (21分30秒)
- 课时55:SVM (46秒)
- 课时56:SVM简介 (6分45秒)
- 课时57:线性可分支持向量机 (8分46秒)
- 课时58:凸优化问题的基本概念 (20分29秒)
- 课时59:支持向量的确切定义 (3分59秒)
- 课时60:线性支持向量机 (9分15秒)
- 课时61:核方法与非线性SVM (3分42秒)
- 课时62:泛函基础知识 (21分22秒)
- 课时63:核函数和非线性支持向量机 (14分25秒)
- 课时64:序列最小最优化算法 (16分2秒)
- 课时65:降维与度量学习 (1分59秒)
- 课时66:k近邻学习 (3分57秒)
- 课时67:降维嵌入 (12分26秒)
- 课时68:主要成分分析 (8分49秒)
- 课时69:核化线性降维 (5分4秒)
- 课时70:流型学习和度量学习 (18分15秒)
- 课时71:提升方法adaboost算法 (20分38秒)
- 课时72:Adaboost算法的训练误差分析 (4分31秒)
- 课时73:Adaboost算法的解释 (4分38秒)
- 课时74:Adaboost的实现 (13分27秒)
- 课时75:EM算法及混合高斯模型 (1分29秒)
- 课时76:问题提出 (2分23秒)
- 课时77:EM算法的引入 (19分13秒)
- 课时78:EM算法的收敛性 (4分16秒)
- 课时79:EM算法在高斯混合模型学习中的应用 (7分11秒)
- 课时80:EM算法的推广 (5分41秒)
- 课时81:计算学习理论 (1分47秒)
- 课时82:计算学习理论的基础知识 (7分27秒)
- 课时83:概率近似正确学习理论 (11分49秒)
- 课时84:有限假设空间 (10分7秒)
- 课时85:VC维 (10分30秒)
- 课时86:学习稳定性 (6分12秒)
- 课时87:隐马尔可夫模型 (1分10秒)
- 课时88:隐马尔科夫模型的基本概念 (12分9秒)
- 课时89:概率计算算法 (15分15秒)
- 课时90:学习算法 (10分29秒)
- 课时91:预测算法 (13分16秒)
- 课时92:条件随机场 (7分4秒)
- 课时93:概率无向图模型 (8分21秒)
- 课时94:条件随机场的定义与形式 (17分2秒)
- 课时95:条件随机场的计算问题 (4分27秒)
- 课时96:条件随机场的学习算法 (6分47秒)
- 课时97:条件随机场的预测算法 (8分13秒)
- 课时98:概率图模型的学习与推断 (2分11秒)
- 课时99:精确推断法:变量消去法和信念传播法 (11分34秒)
- 课时100:近似推断法:MCMC和变分推断 (20分58秒)
- 课时101:神经网络的发展历程 (7分56秒)
- 课时102:神经网络的基本概念以及常见的神经网络(一) (16分9秒)
- 课时103:神经网络的基本概念以及常见的神经网络(二) (25分23秒)
- 课时104:玻尔兹曼机 (6分8秒)
- 课时105:深度学习 (7分4秒)
- 课时106:深度学习简介和架构设计 (6分57秒)
- 课时107:计算图形式的反向传播算法 (8分27秒)
- 课时108:深度学习的正则化方法(一) (25分49秒)
- 课时109:深度学习的正则化方法(二) (27分11秒)
- 课时110:深度学习的优化问题 (18分2秒)
- 课时111:神经网络优化的挑战 (14分33秒)
- 课时112:神经网络的优化算法 (12分0秒)
- 课时113:相关策略 (23分57秒)
热门下载
热门帖子