本课程为精品课,您可以登录eeworld继续观看: Ceiling Analysis- What Part of the Pipeline to Work on Next继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 猜你喜欢 Altera Mini-Data机器人 Altera Quartus II 14.1采用DSE优化Quartus II设计 零基础电路学 用于白电等家电市场: 高性能开关电源 - 28V DC-DC同步降压转换器 怎样测量DC-DC转换器的效率 SYS BIOS 简介(2) —— 定时器和时钟模块 Required Technologies for Transmission of 4 x 25 Gb/s Over a Copper Backplane (上) Low Iq LDOs 低静态电流LDO 热门下载 水木清华DSP技术精华 dsp学习不可或缺的资料 基于STC89C52单片机智能小车设计_陈飞鹏 MAX15458 关联分类算法采用贪心算法发现高质量分类规则 AVR单片机的天然气发动机电控系统设计 时序约束整理 这种数学模型的使用能使旅游学更具学科性 通信电子电路基础 IBM笔记本机型与所用屏幕品牌、型号对照表 振荡电路的设计与应用-稻叶-293页-20.3M.pdf 热门帖子 LM3S产生硬件故障hard faults的各方面原因 LM3S产生硬件故障hardfaults的各方面原因有哪些?比如每个外设模块都需要时钟和使能,如果没开时钟和使能直接访问就会产生hardfaults程序跳转到FaultISRBFaultISR的位置,,我做了一个串口通讯,发送20字节,接受32字节,这样相互通信1000多次后,就准确的产生hardfaults,,不知道这是为什么?LM3S产生硬件故障hardfaults的各方面原因搞定,原来是访问内存超界的原因...学习了一般碰见 kiilycn 在pda中如何让datagrid的列可编辑 开发平台:VS2005(c#)pda上的操作系统为:windowsCE我想实现在datagrid中的某一列可以编辑,如何实现?我试了一下,在windows平台下可以编辑,在pda下这个datagrid无法编辑,请教高手们给出解决办法,感激不尽!在pda中如何让datagrid的列可编辑 lmcmc 为什么会对负电源感到不爽? 转自:德州仪器微信作者:RobertTaylor1大多数电源设计人员都知道怎样把较高电压转换到较低电压(降压转换器)或把较低电压转换到较高电压(升压转换器)。但如果要生成不同极性的电压又当如何呢?这类电源设计并不常见,但对各种工业、音频以及RF应用来说极为必要。从正极生成负电压有几种不同方法。您可使用任何类型的隔离转换器(反激、正激等)或升降压转换器。在使用隔离转换器时,GND被隔离,设计人员可根据设计需要随意连接负载。在使用非隔离拓扑生成该负电压时, okhxyyo 自动洗手器电路图 本帖最后由jameswangsynnex于2015-3-319:59编辑自动洗手器电路图本帖最后由jameswangsynnex于2015-3-319:59编辑谢谢分享。。。本帖最后由jameswangsynnex于2015-3-319:59编辑谢谢楼主的分享谢谢分享哦哦哦原来如此,。, 探路者 如何采集正弦信号的幅值? 我想采集一正弦信号的幅值,在网上了解到可以用高速AD还可以使用LF398等采样保持电路可以得到幅值,但这种方法我们必须知道此信号何事达到最大值,如果我想采集一个未知的正弦信号的幅值,请问还有什么有效的方法啊?如何采集正弦信号的幅值?最简单的,是参考调幅收音机的检波电路,它就是取幅值的电路,非常简单:要个二极管再加个阻容滤波就行了。仅使用AD,而不作保持处理的话,需要速度较高的芯片,要高于所测量信号的频率的多倍,越多越好。然后再作些数据处理。“采集一个未知的正弦信号的幅值”,总有个可能的 守月 有人用过这个神仙设计吗? 初看??? 细想yyds 为啥现在没有了啊 我觉得这个老好了有人用过这个神仙设计吗?估计是因为只能装在角落吧。我觉得这个反而有需求 估计是因为只能装在角落吧。 我觉得这个反而有需求感觉不是太美观啊,而且墙脚的位置不如中间的位置吹到的地方多啊小众产品,特殊用途省地方,虽然不好维护,但是能充分利用空间也是不错的。若能设计的更人性化的方便拆卸维护就更好!我去搜了搜最早日本小房子小空间角落的空调,不得不说日本的很多工程师脑洞不小啊你们 吾妻思萌 网友正在看 模拟电子技术基础41 汇编LED驱动实验-驱动编写 原理图工具栏图标不显示了,怎么调出来? Qt信号槽介绍 5元钱简易防偷拍神器,快来动手做一个吧 MATLAB Arduino(18):在MATLAB中使用fill() -缩放和平移二维动画 嵌入式软硬件裁剪原则 Linux驱动开发—中断程序编写与测试