本课程为精品课,您可以登录eeworld继续观看: Implementation Note- Unrolling Parameters继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 猜你喜欢 毫米波雷达的应用无处不在 计算机体系结构 (华中科技大学) 低噪声 μModule DC/DC 转换器简化了 EMI 设计 故障指示器采集单元的电源解决方案 直播回放: 与英飞凌一同探寻网络摄像机的黑科技 【虚拟仪器大赛】自平衡自行车 使用虚拟JTAG与FPGA通信并调测FPGA EDA技术 杭电 郭裕顺 热门下载 水木清华DSP技术精华 dsp学习不可或缺的资料 基于STC89C52单片机智能小车设计_陈飞鹏 MAX15458 关联分类算法采用贪心算法发现高质量分类规则 AVR单片机的天然气发动机电控系统设计 时序约束整理 这种数学模型的使用能使旅游学更具学科性 通信电子电路基础 IBM笔记本机型与所用屏幕品牌、型号对照表 振荡电路的设计与应用-稻叶-293页-20.3M.pdf 热门帖子 水——贴PDA是啥怎么用? 大家寄快递的时候可能会经常看见快递员手里拿着一个设备,可以扫码还可以打电话,后来问了快递员才知道原来那个叫做PDA。下面根据我的了解说两句,哈哈,欢迎高手改正补充~~先看一下PDA英语全称,PersonalDigitalAssistant,顾名思义就是个人数字助手的意思啦。作为数字工具,主要用来辅助个人工作的,具有提供记事、通讯录、名片交换、行程安排等功能。生活中这类产品非常多见,这里就不多说了。除了生活,工业上也有很多地方要运用到PDA,就像上面所说的快递行业啦~此外,像物流、仓储、巡检执 UROVO msp430g2553红外遥控解码 基于MSP430G2553的红外遥控红外遥控原理:红外无线遥控主要用于短距离(一般10米以内可靠)控制被操作对象。我们家里有很多电器都用到了红外遥控,比如,电视机,DVD,空调等。这里主要讲用于MP3的遥控器。这种遥控器小巧便宜随处可见,电子市场和各淘宝上的电子元件卖家的店里更是相当的廉价(2块钱左右)。先来讲讲它的物理特性,遥控板上有21个按键,意味着你有21种功能选择,遥控器长方形一只手就能握完。它能发射频率约为38KHZ的载波,不可见,这种电波是红外线 jqh_111 三极管下拉电阻取值作用 12V直流无刷电机,低压测试RD信号不稳,去掉下拉电阻R8就可以了,R8(经验值2K)能拿掉吗,作用是什么三极管下拉电阻取值作用R8的作用是稳定Q2的电平的作用,你这里的R810K合适,R7太大,R7减小到200R比较合适保证FGO浮空的时候三极管输入为低电平。确保此时三极管不导通。【低压测试RD信号不稳,去掉下拉电阻R8就可以了,R8(经验值2K)能拿掉吗,作用是什么】去掉R8即可正常,是你的三极管电流放大倍数恰为低限,有R8分流,电流放大倍数就不够 李二峰 【中科蓝讯AB32VG1 RISC-V评估板】电流电压检测项目开发 1.首先创建项目,项目名称meterADC2、然后选择硬件,开通ADC,这里板子只支持ADC0,芯片支持多个通道,3、从文件中可以找到引脚的配置,其中AB32VG1有16个通道的10bit的ADC模块。 最大采样速度是78k/s;ADC模块时钟的最大速度是1MHz 有内部100k的上拉电阻 这里对应的是arduino接口的A3,是ADC7,引脚PE.54、创建新的文件adc.c,代码如下#incl 北方 NaNo型WiFi接受模块 目前很多行业都在趋向迷你化,公司结合自身技术情况,有推出一款NaNo型的WiFi接受器:150兆,灵敏度高!使用方便,只要安装一个小驱动就可以,是旅行商务人事的好伴侣,希望wifi爱好者会青睐!有兴趣的可以联系QQ:42142951MP:13510620050nanowifi接收器NaNo型WiFi接受模块 natertech 关于环路补偿,这一篇就够了 作为工程师,每天接触的是电源的设计工程师,发现不管是电源的老手、高手、新手,几乎对控制环路的设计一筹莫展,基本上靠实验。靠实验当然是可以的,但出问题时往往无从下手,在这里我想以反激电源为例子(在所有拓扑中环路是最难的,由于RHZ的存在),大概说一下怎么计算,至少使大家在有问题时能从理论上分析出解决问题的思路。示意图:这里给出了右半平面零点的原理表示,这对用PSPICE做仿真很有用,可以直接套用此图。递函数自己写吧,正好锻炼一下,把输出电压除以输 木犯001号 网友正在看 Altium Designer—制作封装元件 图像色彩空间(Bayer) BC20模组原理图绘制-串口通信部分 Geomerics Enlighten实时全局照明SDK 触控USB鼠标实验(M3) 明德扬的FPGA设计模板 matlab基本操作函数cylinder C2000DesignDRIVE 位置管理器