- 本课程为精品课,您可以登录eeworld继续观看:
- Adaboost算法的训练误差分析
- 继续观看
课时1:机器学习定义和典型应用
课时2:机器学习和人工智能的关系
课时3:深度学习方法和其它人工智能方法的共性和差异
课时4:机器学习和数据挖掘的关系
课时5:机器学习和统计学习的关系
课时6:机器学习的发展历程
课时7:大数据机器学习的主要特点
课时8:机器学习的基本术语
课时9:监督学习
课时10:假设空间
课时11:学习方法三要素
课时12:奥卡姆剃刀定理
课时13:没有免费的午餐定理v
课时14:训练误差和测试误差
课时15:过拟合与模型选择
课时16:泛化能力
课时17:生成模型和判别模型
课时18:留出法
课时19:交叉验证法
课时20:自助法
课时21:性能度量
课时22:PR曲线
课时23:ROC和AUC曲线
课时24:代价敏感错误率
课时25:假设检验
课时26:T检验
课时27:偏差和方差
课时28:感知机模型
课时29:感知机学习策略
课时30:感知机学习算法
课时31:原型聚类描述
课时32:性能度量
课时33:原型聚类 k均值算法
课时34:原型聚类 学习向量算法
课时35:原型聚类 密度聚类
课时36:原型聚类 层次聚类
课时37:综述
课时38:概率图模型
课时39:贝叶斯网络
课时40:朴素贝叶斯分类器
课时41:半朴素贝叶斯分类器v
课时42:贝叶斯网络结构学习推断
课时43:吉布斯采样
课时44:决策树和随机森林
课时45:决策树模型与学习基本概念
课时46:信息量和熵
课时47:决策树的生成
课时48:决策树的减枝
课时49:CART算法
课时50:随机森林
课时51:逻辑斯蒂回归与最大熵模型简介
课时52:逻辑斯谛回归模型
课时53:最大熵模型
课时54:模型学习的最优化方法
课时55:SVM
课时56:SVM简介
课时57:线性可分支持向量机
课时58:凸优化问题的基本概念
课时59:支持向量的确切定义
课时60:线性支持向量机
课时61:核方法与非线性SVM
课时62:泛函基础知识
课时63:核函数和非线性支持向量机
课时64:序列最小最优化算法
课时65:降维与度量学习
课时66:k近邻学习
课时67:降维嵌入
课时68:主要成分分析
课时69:核化线性降维
课时70:流型学习和度量学习
课时71:提升方法adaboost算法
课时72:Adaboost算法的训练误差分析
课时73:Adaboost算法的解释
课时74:Adaboost的实现
课时75:EM算法及混合高斯模型
课时76:问题提出
课时77:EM算法的引入
课时78:EM算法的收敛性
课时79:EM算法在高斯混合模型学习中的应用
课时80:EM算法的推广
课时81:计算学习理论
课时82:计算学习理论的基础知识
课时83:概率近似正确学习理论
课时84:有限假设空间
课时85:VC维
课时86:学习稳定性
课时87:隐马尔可夫模型
课时88:隐马尔科夫模型的基本概念
课时89:概率计算算法
课时90:学习算法
课时91:预测算法
课时92:条件随机场
课时93:概率无向图模型
课时94:条件随机场的定义与形式
课时95:条件随机场的计算问题
课时96:条件随机场的学习算法
课时97:条件随机场的预测算法
课时98:概率图模型的学习与推断
课时99:精确推断法:变量消去法和信念传播法
课时100:近似推断法:MCMC和变分推断
课时101:神经网络的发展历程
课时102:神经网络的基本概念以及常见的神经网络(一)
课时103:神经网络的基本概念以及常见的神经网络(二)
课时104:玻尔兹曼机
课时105:深度学习
课时106:深度学习简介和架构设计
课时107:计算图形式的反向传播算法
课时108:深度学习的正则化方法(一)
课时109:深度学习的正则化方法(二)
课时110:深度学习的优化问题
课时111:神经网络优化的挑战
课时112:神经网络的优化算法
课时113:相关策略
课程介绍共计113课时,15小时39分33秒