本课程为精品课,您可以登录eeworld继续观看: Random Initialization继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 猜你喜欢 直播回放: TI 多款MSP430 ™ 片上Sigma-Delta ADC助力高精度信号检测应用 MPLAB代码配置器实验4 树莓派视频-蓝宙电子 非线性控制理论(浙大) 电源设计小贴士42:可替代集成MOSFET的分立器件 设计指南-热功率器件设计中的几点思考 Atmel SAM D21 USB接口模块(一) USB Type-C和PD 101 热门下载 场效应晶体管及其集成电路 经典教材:《电子元器件及手工焊接》(7).pdf 单片机控制的LCD心电监护仪的设计 AMC7150cv资料 μPD7802808单片机的功能及应用 Verilog HDL语言的PPT教程。包括简介、逻辑概念、语法和示例。 遗传工具箱及代码 HDS组态软件功能演示工程 数字电路课程设计教学大纲.doc Digital Signal Processing Using MATLAB 3rd Edition, by Vinay K. Ingle and John G. Proakis.pdf 热门帖子 炼狱传奇-移位和位拼运算符之战 1.移位运算符移位运算符是双目运算符,将运算符左边的操作数左移或右移运算符右边的操作数指定的位数,用0来补充空闲位。如果右边操作数的值为X或Z,则移位结果为未知数X。VerilogHDL中有两种移位运算符:(左逻辑移)和(右逻辑移)。例程1仿真图从仿真图,可以看出,每次a都向左边移动移位,后面补充0,直到把逻辑1溢出,后面就一直为0了。每次b都向右边移动移位,前面补充0,直到把逻辑1溢出,就一直为0了。总结:移位运算符的使用时 梦翼师兄 Debug main(){//PB1设置为推挽输出DrvGPIOInit(PB,E_PIN_0,E_GPIO_MODE_OUT_PP_L_SLOW);//使能TIM2的时钟CLK_PCKENR=0x01;//关闭TIM2TIM2_CR1|=0x00;//16分频TIM2_PSCR=0x04;//初始的计数值TIM3_CNTR=0x00;//设置波形的频率,0.125MHZ/(139+1)=900HZ czx2014 浅谈MHL 随着数字电视以及便携式影音设备的逐步普及与推广,消费者对于随时随地传递数字高清内容到个人移动设备上的需求与日递增。据市场预估,2011年起,数字电视就已采用多达5口的端口处理器,以使电视设备可以连接越来越多的HDMI设备,例如网络电视盒、智能手机等,还包括蓝光播放器、机顶盒、游戏机等。不同设备之间的高清数据传输与切换速度成为消费者所关注的问题。但为何不沿用HDMI接口而要新开发MHL接口呢?笔者认为原因有三:1.由于现在的移动设备特别是手机体积和外 1055875333 团购的板子到了 板子091到了,先搭建工程模板,首先要下载或在MDK中更新PACK,不然建立工程时找不到091选项.团购的板子到了也收到鸟深圳,今天还没收到我的还没发货你们的速度真快啊。广州表示还没到..........真快!我的还在路上!祝贺大家同收到大家用软件仿真吗?进不到里面,说0X0000000C不能读板子到鸟!很不错真快,恭喜........我的也还没到!!!没参与期待大家的作品这么快就收到了。已经发货了吗,这么快,我的淘宝上还没显示发货vvooo20 wawaw 驱动 ADC:放大器还是平衡-非平衡变压器? 转自:deyisupport平衡-不平衡变压器常用于将单端信号转换为差分信号,其可在不增加噪声的同时保持优良的失真指标。用于高速、差分输入模数转换器(ADC)的驱动器电路就是一个常见的例子。您有没有考虑过采用差分放大器来替代RF/IF信号链路中的平衡-不平衡变压器呢?如果没有,那么您应该考虑一下。虽然它们并不适用于所有的应用,但是全差分放大器(FDA)提供了一些优于平衡-不平衡变压器的长处。这里我们列出一些问题,通过回答这些问题可帮助您确定最适合您的设计的是平衡-不平 maylove 麦克风工作原理(转) 一切都在不知不觉之间悄悄地改变着。就连麦克风这样一个不起眼的小零件,也正在悄无声息地演化着。近几年来,在手机等高端应用中,传统的驻极体电容麦克风正在被MEMS器件所取代。麦克风简史麦克风,学名为传声器,由Microphone翻译而来。传声器是将声音信号转换为电信号的能量转换器件,也称作话筒或微音器。麦克风的历史可以追溯到19世纪末,贝尔(AlexanderGrahamBell)等科学家致力于寻找更好的拾取声音的办法,以用于改进当时的最新发明 qwqwqw2088 网友正在看 选择最适合您应用需求的ADC架构 第1部分:精密SAR和Delta Sigma模数转换器 第一章 第2讲 导论(四) LPC80x 微控制器系列: 生态系统介绍 NXP PEPS 应用方案 Linear classification1 自动驾驶的矫正 电路方程的矩阵形式(一) 数据校验和防碰撞算法(二)