本课程为精品课,您可以登录eeworld继续观看: Model Representation II继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 猜你喜欢 TI近场供电NFC参考设计介绍 LPCOpen软件平台及其使用介绍 HVI 系列: 高功率密度和高效率适配器的设计考虑 ALINX Zynq MPSoC XILINX FPGA视频教程——Vitis AI开发 回放:TI 毫米波传感器在智能家居中的应用 直播回顾:恩智浦KW41大赛颁奖礼 time-of-flight TI 3D传感器 2015 TI MCU研讨会(3) C2000 热门下载 水木清华DSP技术精华 dsp学习不可或缺的资料 基于STC89C52单片机智能小车设计_陈飞鹏 MAX15458 关联分类算法采用贪心算法发现高质量分类规则 AVR单片机的天然气发动机电控系统设计 时序约束整理 这种数学模型的使用能使旅游学更具学科性 通信电子电路基础 IBM笔记本机型与所用屏幕品牌、型号对照表 振荡电路的设计与应用-稻叶-293页-20.3M.pdf 热门帖子 单工的串口无线通信,怎样做出全双工的效果? 如题,需要制定怎样的规则比较好。感觉可能会冲突的吧?单工的串口无线通信,怎样做出全双工的效果?默认情况下从机为接收状态,收到数据判断数据是否合法,合法处理数据然后发送数据出来,数据发送完就设置为接收状态,说一下你想要达到什么样效果,给你指明 qwerghf发表于2017-1-320:54默认情况下从机为接收状态,收到数据判断数据是否合法,合法处理数据然后发送数据出来,数据发送完就设置为... 特地想了一天还是没特别好的办法。就是尽可能的实现两台pc”同时”在串 fangkaixin dfa 由以上2式可知,为了减小倾翻力,只有减小v是可行的,而且F2∝v2。根据牛顿第三运动定律,转弯时汽车在受到向心力作用的同时,产生与向心力大小相等、方向相反的离心力,因为汽车质量m是一定的,当向心力不能满足v2PR的增大时,倾翻力矩大于稳定力矩,就会发生倾翻。dfa好心人啊!回复:dfa tigar_chen (转)嵌入式系统中的大端小端 大端格式:在这种格式中,字数据的高字节存储在低地址中,而字数据的低字节则存放在高地址中,小端格式:与大端存储格式相反,在小端存储格式中,低地址中存放的是字数据的低字节,高地址存放的是字数据的高字节。请写一个C函数,若处理器是Big_endian的,则返回0;若是Little_endian的,则返回1解答:intcheckCPU(){ zhouning201 PMU电源管理单元布局 PMU(全称PowerManagementUnit),即电源管理单元,是一种高度集成、针对便携式应用的电源管理方案,它将传统分离的若干类电源管理器件,如直流/直流转换器(DC/DC)、低压差线性稳压器(LDO)集成到一个封装里,缩小了组建数量和板级空间之余,同时实现更高的电源转换效率,其功耗更低。一、PMU一般组成内容1)DC/DC开关电源2)LDO低压差线性稳压电源3)控制部分的电阻、电容PMU多被用于消费电子特定主芯片配套的电源管理集成单元,能提供给主控 工控兴趣使然 多电机驱动同一负载如何做到功率平衡? 在多电机驱动同一负载时经常听到一个新词,下垂控制,请问下垂控制的原理是什么,就从两台变频器驱动两台电机带动同一个负载为例,分别描述在下垂控制起作用时,两台变频器的工作状态(出力还是被拖)、输出电压、输出电流(有功无功)、输出频率等几个具体参数等表现出什么样的? 多电机驱动同一负载如何做到功率平衡?【就从两台变频器驱动两台电机带动同一个负载为例】你举个【两台电机带动同一个负载】的例子,如何? 两台变频器带两台电机带同一个负载 【两台变频器带两台电机带同一个负载】 乱世煮酒论天下 继电器连接问题 我最近在做09年电设国赛题,其中中间一级采用继电器选通放大器847,以实现增益可变。单测含继电器的847可用,但含继电器的847与后一级3091级联就出问题,输入输出做了匹配,请问是什么原因?换成没有继电器的847级联没有问题,请问继电器连接需要注意什么?继电器连接问题“但含继电器的847与后一级3091级联就出问题”,我能知道出了什么问题吗?另,847、3091是什么?给出电路图以及说明你用的继电器。chunyang发表于2015-8-712:12给出 122沸腾 网友正在看 家庭物联网关介绍 第四章-02-结构体成员的默认值 电子测量原理40 布局-PCB封装更新 三阶系统仿真实验 ADI技术及产品支持中国能源互联网.p1 电力电子基础 如何开发DSP在OMAPL138(除了Linux)