本课程为精品课,您可以登录eeworld继续观看: Mini-Batch Gradient Descent继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 猜你喜欢 微波技术基础 BlueCoin MIC 测试 合见工软小课堂——先进封装为什么这么火? TINA-TI(TM)系列课程 Microchip低成本dsPIC® DSC电机控制方案 Atmel Studio 6仿真器介绍 【中英字幕】什么是引力波 研讨会 : 现代电动工具的设计挑战与英飞凌解决之道 热门下载 场效应晶体管及其集成电路 经典教材:《电子元器件及手工焊接》(7).pdf 单片机控制的LCD心电监护仪的设计 AMC7150cv资料 μPD7802808单片机的功能及应用 Verilog HDL语言的PPT教程。包括简介、逻辑概念、语法和示例。 遗传工具箱及代码 HDS组态软件功能演示工程 数字电路课程设计教学大纲.doc Digital Signal Processing Using MATLAB 3rd Edition, by Vinay K. Ingle and John G. Proakis.pdf 热门帖子 如何对framebuffer 进行清屏操作 framebuffer通过dd进行清屏操作/dev/graphics/fb0/dev/zeroLinux的fb设备文件一般是/dev/fb0,执行ddif=/dev/zeroof=/dev/graphics/fb0bs=1280count=720实现清屏也可以通过fbset对framebuffer来进行设置内核当中的一种驱动程序接口。这种接口将显示设备抽象为帧缓冲区。用户可以将它看成是显示内存的一个映像,将其映射到进程地 37°男人 浅谈MHL 随着数字电视以及便携式影音设备的逐步普及与推广,消费者对于随时随地传递数字高清内容到个人移动设备上的需求与日递增。据市场预估,2011年起,数字电视就已采用多达5口的端口处理器,以使电视设备可以连接越来越多的HDMI设备,例如网络电视盒、智能手机等,还包括蓝光播放器、机顶盒、游戏机等。不同设备之间的高清数据传输与切换速度成为消费者所关注的问题。但为何不沿用HDMI接口而要新开发MHL接口呢?笔者认为原因有三:1.由于现在的移动设备特别是手机体积和外 1055875333 团购的板子到了 板子091到了,先搭建工程模板,首先要下载或在MDK中更新PACK,不然建立工程时找不到091选项.团购的板子到了也收到鸟深圳,今天还没收到我的还没发货你们的速度真快啊。广州表示还没到..........真快!我的还在路上!祝贺大家同收到大家用软件仿真吗?进不到里面,说0X0000000C不能读板子到鸟!很不错真快,恭喜........我的也还没到!!!没参与期待大家的作品这么快就收到了。已经发货了吗,这么快,我的淘宝上还没显示发货vvooo20 wawaw 数字IC设计工程师笔试面试经典100题(大部分有答案) \0\0\0eeworldpostqq数字IC设计工程师笔试面试经典100题(大部分有答案)感谢分享,收藏了先收着感谢分享 xiefei 金刚狼套件即将发布 就是这个家伙,这是金刚狼刚出现的时候的样子。我猜测应该还是会保持和launchpad系列兼容的模式露面。估计会同步的发布墨水屏,然后把功耗给show出来。下面是即将发布的消息出处。金刚狼套件即将发布若是再不出来,我都快把它忘记了。确实是姗姗来迟,现在的低功耗竞争太激烈了!那个是超级电容还是纽扣电池?有团购不?墨水屏感兴趣看起来好高端啊继续期待~~~~~~~~金刚狼哎,希望能快点出支持一下!!!zca123发表于2014-2-1209:23那个 wstt Dsplib中的函数运算结果和Matlab运算结果不一致? 我用的开发板是TMS320C5535,想要做卷积运算,自己写的卷积函数,运算时间太长,于是改用Dsplib里面的convol1函数。测试数据:x=h=;计算二者的卷积matlab计算卷积的结果为:61940701101141068550使用库函数convol1的计算结果为:0000-279300-1000\0\0\0eeworldpostqqDsplib中的函数运算结果和Matlab运算结果不一致?dsplib里的函数对数据 Changhong 网友正在看 CLA协处理器模块特性介绍,模拟子系统特性介绍,增强型脉宽调制模块(ePWM) 电源技术基础 (1) - 电源的基本认识 电路方程的矩阵形式(四) How_to_Protect_PLC_I_O_Modules_with_Fused_Terminal_Blocks platform :虚拟的平台总线 移动通信系统-17 元件Group的技巧使用 循环队列的结构、操作、入队出队算法