本课程为精品课,您可以登录eeworld继续观看: Gradient Descent in Practice II - Learning Rate继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 猜你喜欢 直播回放: TI 毫米波雷达在汽车和工业领域的最新应用 FPGA时序约束 拆解特斯拉Model3 VCFRONT的前置控制器模块 设计指南-低功耗压力传感器 EXA 让您的测量更简单精准 机器人-人工智能中级教程 直播回放 : TI 最新 C2000 实时控制器,在功率变换应用中实现高性能的成本优化型设计 详解比特币原理和运行机制 热门下载 水木清华DSP技术精华 dsp学习不可或缺的资料 基于STC89C52单片机智能小车设计_陈飞鹏 MAX15458 关联分类算法采用贪心算法发现高质量分类规则 AVR单片机的天然气发动机电控系统设计 时序约束整理 这种数学模型的使用能使旅游学更具学科性 通信电子电路基础 IBM笔记本机型与所用屏幕品牌、型号对照表 振荡电路的设计与应用-稻叶-293页-20.3M.pdf 热门帖子 patBlt()函数有时返回false,不是总这样子 PatBlt(hdc,0,0,zx,zy,WHITENESS)怎么可能失败呢?是因为hdc根本没有获得句柄吗?为什么false也是随机的请大虾指教patBlt()函数有时返回false,不是总这样子沙发,可惜不懂啊。帮你顶吧。 christy 新型数字温度传感器的原理及应用 在传感器技术突飞猛进的今天,多家现代传感器企业提供的新型数字温度传感器,与传统温度传感器相比,具有性价比高、性能优越、可靠性高、使用方便、体积小、灵敏度高和控制电路简单等特点。完全可以替代传统热敏电阻和电阻式温度检测器。新型数字温度传感器原理数字温度传感器也叫热电偶,是将两种不同材料的导体或半导体A和B焊接起来,构成一个闭合回路,当导体A和B的两个执着点1和2之间存在温差时,两者之间便产生电动势,因而在回路中形成一个大小的电流,这种现象称为热电效应。热电偶就是利用这一效应来工作的 chuandong 水流量传感器 请问下论坛有朋友自己设计流量传感器的嘛?或者有什么性价比比较高的流量传感器可以介绍下呢?水流量传感器楼主所说的“流量传感器”,通常称“流量计”。流量计有多种,不过你要是打算自己设计,是办不到的。maychang发表于2015-6-2416:29楼主所说的“流量传感器”,通常称“流量计”。流量计有多种,不过你要是打算自己设计,是办不到的。 为什么呢?wateras1发表于2015-6-2420:08为什么呢? 前面说过,流量计有几十种,各自适 wateras1 如何产生40MHz的时钟信号? 小弟是初学者,请问各位大侠怎样产生40MHz的时钟信号啊?(给DA提供时钟信号)如何产生40MHz的时钟信号?买一块有源晶振。谢谢,搞定了,以前还未接触过有源晶振回复沙发仙猫的帖子 守月 FPGA设计流程简介及设计注意事项 FPGA设计流程简介及设计注意事项FPGA设计流程简介及设计注意事项谢谢下了不知道能不能用回复:FPGA设计流程简介及设计注意事项谢谢楼主回复:FPGA设计流程简介及设计注意事项Thanks,有没人能说下ICDESINGUSINGFPGA的流程呢?回复:FPGA设计流程简介及设计注意事项thanks!回复:FPGA设计流程简介及设计注意事项thankyou回复:FPGA设计流程简介及设计注意事项谢谢楼主!!!dddddddddddddddd支持,,,, 呱呱 全桥逆变电路为什么要用驱动电路而不用电平转换电路 为什么信号源输出的PWM信号在驱动全桥逆变电路(比如说MOS的型号为IRF540)的栅极控制端(如图所示S1,S2,S3,S4)时需要接驱动芯片(比如说IR2110),而不是直接加个电平转换芯片?将PWM信号的TTL电平转换成CMOS电平?全桥逆变电路为什么要用驱动电路而不用电平转换电路须知图中S1和S2两信号电平(暂且使用你所用的这个名称)是对上面两管的源极来说的,不是对电源负端(图中的地)来说的。无论你使用什么“电平转换电路”,其输出都是对图中的地来说的,所以对上面两管不能使用。驱动 平漂流 网友正在看 家庭物联网关介绍 第四章-02-结构体成员的默认值 电子测量原理40 布局-PCB封装更新 三阶系统仿真实验 ADI技术及产品支持中国能源互联网.p1 电力电子基础 如何开发DSP在OMAPL138(除了Linux)