机器学习的基础是什么?是“数学”,而“优化”就是数学中的核心知识之一。

而且在机器学习遇到的复杂优化问题(非凸,不熟悉的),最高效的方法就是利用凸优化的思路去解决。

小七这次把《机器学习中的数学 第二期》,中关于优化的部分PPT送给大家。

其中优化问题简介、凸集合与凸函数、优化和凸优化是属于非常基础的部分,后续两大板块有一定难度。


目录:

一、优化问题简介

二、凸集合与凸函数 

知识点:

  1. 凸集合与凸函数的关系

  2. 琴生不等式的几何解释 

三、优化与凸优化 

知识点:

  1. 凸优化问题

  2. 对偶问题

  3. 对偶性

  4. KKT条件

  5. 拉格朗日乘数法

四、支持向量机(SVM)简介

知识点:

  1. 线性分类器

  2. 对偶方法推导SVM

  3. 几何方法推导SVM

五、压缩感知简介

知识点:

  1. 信号还原问题

  2. 压缩感知

  3. 求解压缩感知的优化方法

  4. Lasso方法与优化的稳定性


优化问题简介



凸集合与凸函数



局部极值与全局极值:

凸函数的重要性质:局部极值一定是全局极值

(下图左侧为凸函数,右侧为非凸函数)


凸优化


当原问题只有等式约束而没有不等式约束时,KKT条件即为拉格朗日乘数法。


阶段总结


  1. 优化问题在机器学习的模型训练中有重要应用。

  2. 凸函数代数性质与凸集合的几何性质;琴生不等式的几何解释。

  3. 凸优化是一类相对简单的优化问题;凸函数的局部最小值就是全局最小值。

  4. 对偶方法的主要目的是处理原问题中的复杂边界条件;对偶问题永远是凸问题; 弱对偶性永远成立,可以为原问题提供下界。

  5. KKT条件可以用来求解一些优化问题;拉格朗日乘数法是KKT条件的一种特殊形式。


支持向量机简介



压缩感知介绍


向量的范数:

对于一个向量:©著作权归作者所有:来自51CTO博客作者mb5fd86d5f5874e的原创作品,如需转载,请注明出处,否则将追究法律责任

更多相关文章

  1. 面试题:人工神经网络中为什么ReLu要好过于tanh和sigmoid?
  2. 函数节流你应该知道的那点事
  3. python之函数的基本使用
  4. NSGA-II多目标优化算法讲解(附MATLAB代码)
  5. Oracle OCP 071中文考试题库-第17题
  6. 采用XLL封装工作表函数的演示,确保工作表上的公式不暴露给用户
  7. 3-24(类与对象的自我总结)
  8. 浮动(License)许可使用紧张优化方案
  9. 函数计算持续交付入门:云效+FC实现 简单IP查询工具

随机推荐

  1. Android(安卓)BrocastReciver广播使用
  2. Android 与web的相互调用
  3. Android 自定义属性与xmlns
  4. 《Android深入透析》之Android事件分发机
  5. Android基础概念
  6. Android(安卓)ActionBar Item学习笔记
  7. Android开发常用代码片段(二)
  8. Android 启动过程详解
  9. (二)Android事件分发机制 - ViewGroup篇
  10. Android字体(一)