本课程为精品课,您可以登录eeworld继续观看: Choosing What Features to Use继续观看 课时1:Welcome 课时2:What is Machine Learning 课时3:Supervised Learning 课时4:Unsupervised Learning 课时5:Model Representation 课时6:Cost Function 课时7:Cost Function - Intuition I 课时8:Cost Function - Intuition II 课时9:Gradient Descent 课时10:Gradient Descent Intuition 课时11:Gradient Descent For Linear Regression 课时12:What-'s Next 课时13:Matrices and Vectors 课时14:Addition and Scalar Multiplication 课时15:Matrix Vector Multiplication 课时16:Matrix Matrix Multiplication 课时17:Matrix Multiplication Properties 课时18:Inverse and Transpose 课时19:Multiple Features 课时20:Gradient Descent for Multiple Variables 课时21:Gradient Descent in Practice I - Feature Scaling 课时22:Gradient Descent in Practice II - Learning Rate 课时23:Features and Polynomial Regression 课时24:Normal Equation 课时25:Normal Equation Noninvertibility (Optional) 课时26:Basic Operations 课时27:Moving Data Around 课时28:Computing on Data 课时29:Plotting Data 课时30:Control Statements- for, while, if statements 课时31:Vectorization 课时32:Working on and Submitting Programming Exercises 课时33:Classification 课时34:Hypothesis Representation 课时35:Decision Boundary 课时36:Cost Function 课时37:Simplified Cost Function and Gradient Descent 课时38:Advanced Optimization 课时39:Multiclass Classification- One-vs-all 课时40:The Problem of Overfitting 课时41:Cost Function 课时42:Regularized Linear Regression 课时43:Regularized Logistic Regression 课时44:Non-linear Hypotheses 课时45:Neurons and the Brain 课时46:Model Representation I 课时47:Model Representation II 课时48:Examples and Intuitions I 课时49:Examples and Intuitions II 课时50:Multiclass Classification 课时51:Cost Function 课时52:Backpropagation Algorithm 课时53:Backpropagation Intuition 课时54:Implementation Note- Unrolling Parameters 课时55:Gradient Checking 课时56:Random Initialization 课时57:Putting It Together 课时58:Autonomous Driving 课时59:Deciding What to Try Next 课时60:Evaluating a Hypothesis 课时61:Model Selection and Train-Validation-Test Sets 课时62:Diagnosing Bias vs. Variance 课时63:Regularization and Bias-Variance 课时64:Learning Curves 课时65:Deciding What to Do Next Revisited 课时66:Prioritizing What to Work On 课时67:Error Analysis 课时68:Error Metrics for Skewed Classes 课时69:Trading Off Precision and Recall 课时70:Data For Machine Learning 课时71:Optimization Objective 课时72:Large Margin Intuition 课时73:Mathematics Behind Large Margin Classification (Optional) 课时74:Kernels I 课时75:Kernels II 课时76:Using An SVM 课时77:Unsupervised Learning- Introduction 课时78:K-Means Algorithm 课时79:Optimization Objective 课时80:Random Initialization 课时81:Choosing the Number of Clusters 课时82:Motivation I- Data Compression 课时83:Motivation II- Visualization 课时84:Principal Component Analysis Problem Formulation 课时85:Principal Component Analysis Algorithm 课时86:Choosing the Number of Principal Components 课时87:Reconstruction from Compressed Representation 课时88:Advice for Applying PCA 课时89:Problem Motivation 课时90:Gaussian Distribution 课时91:Algorithm 课时92:Developing and Evaluating an Anomaly Detection System 课时93:Anomaly Detection vs. Supervised Learning 课时94:Choosing What Features to Use 课时95:Multivariate Gaussian Distribution (Optional) 课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional) 课时97:Problem Formulation 课时98:Content Based Recommendations 课时99:Collaborative Filtering 课时100:Collaborative Filtering Algorithm 课时101:Vectorization- Low Rank Matrix Factorization 课时102:Implementational Detail- Mean Normalization 课时103:Learning With Large Datasets 课时104:Stochastic Gradient Descent 课时105:Mini-Batch Gradient Descent 课时106:Stochastic Gradient Descent Convergence 课时107:Online Learning 课时108:Map Reduce and Data Parallelism 课时109:Problem Description and Pipeline 课时110:Sliding Windows 课时111:Getting Lots of Data and Artificial Data 课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next 课时113:Summary and Thank You 课程介绍共计113课时,19小时28分58秒 机器学习 吴恩达 此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数算法、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐系统、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工智能的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,控制)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、音频、数据挖掘及其他领域上。 上传者:老白菜 猜你喜欢 LPWAN workshop - connect your long-range network to the cloud(ST) 选择德州仪器最新升压变换器及D类功放,显著提高拉杆音箱续航时间 动手学深度学习V2 模拟精英—与业内专家面对面互联2 大帅DIY 2018 PSDS 研讨会系列 - (3) 基于氮化镓和硅管的有源嵌位反激变换器的比较 直播回放: 全方位详解 TI MSP Academy 教程 应用的RF4CE协议的射频遥控器系统 热门下载 水木清华DSP技术精华 dsp学习不可或缺的资料 基于STC89C52单片机智能小车设计_陈飞鹏 MAX15458 关联分类算法采用贪心算法发现高质量分类规则 AVR单片机的天然气发动机电控系统设计 时序约束整理 这种数学模型的使用能使旅游学更具学科性 通信电子电路基础 IBM笔记本机型与所用屏幕品牌、型号对照表 振荡电路的设计与应用-稻叶-293页-20.3M.pdf 热门帖子 【第二批入围名单】DigiKey“智造万物,快乐不停”创意大赛 【大赛详情】DigiKey智造万物,快乐不停创意大赛再次感谢大家对本次大赛的关注和支持,第二批入围名单出来啦~恭喜本批入围的小伙伴!未入围的小伙伴也不要灰心,如有网友放弃参赛,会补充新名单,如未出现弃赛网友,本批为最后一批入围名单。入围名单由DigiKey和EEWorld工程师共同遴选,遴选基本原则:项目描述明确,且基于在DigiKey得捷电子官网商城的所选物料切实可行。【入围名单】 创意名称 EEWORLD社区 TI DSP程序烧写FlashBurn 如何将TIDSP生成.out文件转换为.Bin文件,也可以选择将TIC6000DSPboot加载hex文件,但是转换为这类格式文件之后如何操作呢?以及为什么要转换到这类文件呢?out文件直接通过loadprogram到DSP芯片内部RAM(可能包含SDRAM),是可以直接运行的,但是out文件为coff格式,定义比较负责,TI有文档介绍,由于没想直接弄out文件,所以也没有读coff文件格式是神马东东。总之coff文件不是可以直接按线性地址访问,即文件中数据的位置 fish001 Vxworks网络编程提问 我在Vxworks下实现以太网通讯,采用UDP协议,在调试状态下,程序运行正常,用ping指令ping目标机和测试程序测试均正常,但将程序作成映像下载到DOC中运行时,却发现无法ping通目标机,不知怎么回事,请高手解释一下,另外,我在程序中开了三个任务,其中两个任务不影响ping,但第三个任务只要一加上,立马无法ping通目标机。Vxworks网络编程提问可能是第三个函数影响了吧 youngboy 分享高手视频讲解ALLEGRO PCB设计规范和建库---关键是免费 视频不错:http://v.youku.com/v_show/id_XMz...m=a2hzp.8253869.0.0分享高手视频讲解ALLEGROPCB设计规范和建库---关键是免费老师讲解得很详细很专业,学习了 CCBSKY DSP对位操作的C++的简单封装 位操作在为硬件编程中是非常普遍的。往往是寄存器的各位都具有不同的意义,包括获取位状态,给位置数等。正因为位操作这么普遍,往往容易出现错误,而且除了那些对HEX编码,以及二进制编码非常熟悉的大牛之外,一般很难发现错在哪。另外,尤其是在中断之类的要求快速处理完成的过程中,对位操作的执行效率要求也高。我使用模板对位操作做了一个简单的封装定义各种类型的位掩码:viewplaincopyprint?/** fish001 《深度学习的数学——使用Python语言》第2章 概率论学习 概率是一个介于0-1之间的数,用于衡量事情发生的可能性,如果事件一定不会发生,那么概率为0。我们从最基础的概率法则开始下面对这一章部分例程进行实操进行测试一、模拟1000000次(N)掷三枚硬币(M)的实验,0次1次2次或3次硬币朝上的次数被保存在变量heads中。对于0次1次2次3次正面的概率输出np.zeros()函数是NumPy数组库的一部分,用于生成元素全部为0的数组。其基本语法结构如下: 常见泽1 网友正在看 BIST2 Parallel ORA MISR 软件自带原理图库介绍与编辑 第5课 NAND FLASH控制器 各种模拟调制抗噪声性能分析及应用 ams 医用/工业CT医疗影像探测器芯片应用与解决方案 VSB和幅度调制抗噪声性能分析 字符设备驱动(第一节) 智能扬声器投影技术