本课程为精品课,您可以登录eeworld继续观看: Mini-Batch Gradient Descent继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 正在载入数据,请稍等... 猜你喜欢 LabVIEW FPGA 模块简介 Altera MAX 10嵌入式闪存FPGA入门培训 Microchip PICkit 3 Programmer To-Go功能演示 电子设计基础(黄根春) 一键查询和搞定PCB设计中的各类生产问题 电源设计小贴士22:避免常见的误差放大器使用错误 ADC基础知识分享 - 选择最适合您应用需求的ADC架构(1) Atmel|SMART基于Cortex-M0+核的最低功耗MCU SAML21研讨会 热门下载 期刊论文:基于CCD技术的电机换向片检测系统 基于单片机和射频芯片实现的短距离无线数据传输系统 MTK RF部分 修原理 基于粗糙集的属性约简算法 AT91 ARM在医疗行业中的应用pdf 大学生电子设计竞赛资料信号处理篇 Cadence Allegro SPB V16.5视频 开发环境是FPGA开发工具 24V防雷设计 Genesis常见错误及其解决方法 热门帖子 TxCON最高位导致的2812 TxPR寄存器写失败 CCS仿真环境中,2812的TxPR寄存器的值更新会受TxCON里最高位(free位,为0表示仿真挂起会使计时停止,为1则计时不受挂起影响)影响。而TxCMPR里的值不受该位影响。如下面的程序代码:EvaRegs.T2PR=0x0080;EvaRegs.T2CMPR=0x0040;EvaRegs.T2CON.all=0x1546;//Free=0 Jacktang STEVAL-IDB007V1各种姿势仿真器连 BlueNRG-1 各种姿势仿真器连BlueNRG-1——在KeilMDK、IARforARM下,ulink2、stlinkv2、jlinkv9连接BlueNRG-1。1、BlueNRG-1相关软件,该装的都装好。2、Jlink驱动JLink_V622d版本3、Keil5最新版KeilMDK5.24a4、Keil5BlueNRG-1器件支持包5、IARforARMV7.80.46、Keil工程——“C:\ProgramFiles(x86)\S gs001588 MSP430 ADC12采样转换模式详解 ADC12提供4种转换模式:单通道单次转换对选定的通道进行单次转换要进行如下设置:x=CSStartAdd,指向转换开始地址ADC12MEMx存放转换结果ADC12IFG.x为对应的中断标志ADC12MCTLx寄存器中定义了通道和参考电压转换完成时必须使ENC再次复位并置位(上升沿),以准备下一次转换。在ENC复位并再次置位之前的输入信号将被忽略。序列通道单次转换对序列通道进行单次转换要进行如下设置:x=CSStartAdd,指示转换开始地址EOS(ADC12MCTLx.7 Aguilera 【NUCLEO-L4R5ZI评测】——by donatello1996 【NUCLEO-L4R5ZI评测】搭建开发环境&开箱【NUCLEO-L4R5ZI评测】点灯&使用板载串口发送【NUCLEO-L4R5ZI评测】CoreMark跑分测试【NUCLEO-L4R5ZI评测】外部中断&定时器中断【NUCLEO-L4R5ZI评测】——bydonatello1996测试一下 okhxyyo FPGA与单片机实现数据RS232串口通信的设计 刚写完一个关于FPGA与单片机实现数据RS232串口通信的设计VHDL语言程序,编译没有语法错误却出现Error:CurrentlicensefiledoesnotsupporttheEP4CE6E22C6device,以致于编译不通过,怎么解决,求高手帮忙解答,拜谢!FPGA与单片机实现数据RS232串口通信的设计应该是软件没有破解成功,有两个dll需要用破解器破解一下,才可以。 我也觉得是没有破解成功,但是整个过程是按照助学板上面的教程安装破解的,而且显示破解成 18772964987 【阅读打卡有礼】翻开《射频技术For Dummies系列》书籍,跟帖漫谈射频世界 也许你一直想要涉足射频世界,但还没计划也许你一直想谈谈你对射频的感悟,而没找到契机那么,欢迎加入我们的读书活动,大家一起跟着Qorvo逛聊射频世界~~~~~~关于本次活动阅读书籍:《射频技术ForDummies系列》此系列是Qorvo同时面向技术读者和非技术读者出版、关于RF基础知识的书籍,现在已经出版5本,未来还会陆续推出新内容。本次活动我们将一起来阅读和讨论此系 EEWORLD社区 网友正在看 什么是静电释放ESD 数字控制系统的时域分析方法和传递函数 中断流程代码2 A Greedy Heuristic for Influence Maximization 2 于 PPC3 理解 TAS58x5 系列功放增益结构,寄存器结构以及上电时序 如何使用Vivado IP集成器打包自定义IP 符号矩阵的创建及运算 深入了解:SoC FPGA之电源