酷极了!5分钟用Python理解人工智能优化算法

作者: python小白社区 2019-11-27 09:47:49

 概述

梯度下降是神经网络中流行的优化算法之一。一般来说,我们想要找到最小化误差函数的权重和偏差。梯度下降算法迭代地更新参数,以使整体网络的误差最小化。

酷极了!5分钟用Python理解人工智能优化算法

梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果我们需要求解损失函数的最大值,这时就需要用梯度上升法来迭代了。在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。

该算法在损失函数的梯度上迭代地更新权重参数,直至达到最小值。换句话说,我们沿着损失函数的斜坡方向下坡,直至到达山谷。基本思想大致如图3.8所示。如果偏导数为负,则权重增加(图的左侧部分),如果偏导数为正,则权重减小(图中右半部分) 42 。学习速率参数决定了达到最小值所需步数的大小。

酷极了!5分钟用Python理解人工智能优化算法

图3.8 随机梯度最小化的基本思想

酷极了!5分钟用Python理解人工智能优化算法

误差曲面

寻找全局最佳方案的同时避免局部极小值是一件很有挑战的事情。这是因为误差曲面有很多的峰和谷,如图3.9所示。误差曲面在一些方向上可能是高度弯曲的,但在其他方向是平坦的。这使得优化过程非常复杂。为了避免网络陷入局部极小值的境地,通常要指定一个冲量(momentum)参数。

酷极了!5分钟用Python理解人工智能优化算法

图3.9 典型优化问题的复杂误差曲面

我很早就发现,使用梯度下降的反向传播通常收敛得非常缓慢,或者根本不收敛。在编写第一个神经网络时,我使用了反向传播算法,该网络包含一个很小的数据集。网络用了3天多的时间才收敛到一个解决方案。幸亏我采取一些措施加快了处理过程。

说明 虽然反向传播相关的学习速率相对较慢,但作为前馈算法,其在预测或者分类阶段是相当快速的。

酷极了!5分钟用Python理解人工智能优化算法

随机梯度下降

传统的梯度下降算法使用整个数据集来计算每次迭代的梯度。对于大型数据集,这会导致冗余计算,因为在每个参数更新之前,非常相似的样本的梯度会被重新计算。随机梯度下降(SGD)是真实梯度的近似值。在每次迭代中,它随机选择一个样本来更新参数,并在该样本的相关梯度上移动。因此,它遵循一条曲折的通往极小值的梯度路径。在某种程度上,由于其缺乏冗余,它往往能比传统梯度下降更快地收敛到解决方案。

说明 随机梯度下降的一个非常好的理论特性是,如果损失函数是凸的 43 ,那么保证能找到全局最小值。

代码实践

理论已经足够多了,接下来敲一敲实在的代码吧。

一维问题

假设我们需要求解的目标函数是:

()=2+1f(x)=x2+1

酷极了!5分钟用Python理解人工智能优化算法

显然一眼就知道它的最小值是 =0x=0 处,但是这里我们需要用梯度下降法的 Python 代码来实现。

  1. #!/usr/bin/env python 
  2. # -*- coding: utf-8 -*- 
  3. ""
  4. 一维问题的梯度下降法示例 
  5. ""
  6.  
  7.  
  8. def func_1d(x): 
  9.  ""
  10.  目标函数 
  11.  :param x: 自变量,标量 
  12.  :return: 因变量,标量 
  13.  ""
  14.  return x ** 2 + 1 
  15.  
  16.  
  17. def grad_1d(x): 
  18.  ""
  19.  目标函数的梯度 
  20.  :param x: 自变量,标量 
  21.  :return: 因变量,标量 
  22.  ""
  23.  return x * 2 
  24.  
  25.  
  26. def gradient_descent_1d(grad, cur_x=0.1, learning_rate=0.01, precision=0.0001, max_iters=10000): 
  27.  ""
  28.  一维问题的梯度下降法 
  29.  :param grad: 目标函数的梯度 
  30.  :param cur_x: 当前 x 值,通过参数可以提供初始值 
  31.  :param learning_rate: 学习率,也相当于设置的步长 
  32.  :param precision: 设置收敛精度 
  33.  :param max_iters: 最大迭代次数 
  34.  :return: 局部最小值 x* 
  35.  ""
  36.  for i in range(max_iters): 
  37.  grad_cur = grad(cur_x) 
  38.  if abs(grad_cur) < precision
  39.  break # 当梯度趋近为 0 时,视为收敛 
  40.  cur_x = cur_x - grad_cur * learning_rate 
  41.  print("第", i, "次迭代:x 值为 ", cur_x) 
  42.  
  43.  print("局部最小值 x =", cur_x) 
  44.  return cur_x 
  45.  
  46.  
  47. if __name__ == '__main__'
  48.  gradient_descent_1d(grad_1d, cur_x=10, learning_rate=0.2, precision=0.000001, max_iters=10000) 

就是这么酷吧!用Python理解剃度下降!

算法 人工智能 Python
上一篇:【NCTS峰会回顾】融360艾辉:AI模型测试探秘 下一篇:人工智能和机器学习将会如何改变SaaS行业
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

人工智能是应对气候变化的新时代解决方案

气候变化是我们这个星球面临的最大挑战,人工智能可以帮助我们应对不断上升的全球气温。

Cassie ·  1天前
草图变真人脸?AI:可以,多草都行

这篇论文讲技术人员如何在styleGAN顶层训练了一个深度神经网络来学习将源图像映射到styleGAN模型的输入,最终输出高质量的目标图像。

丰色 ·  1天前
深度学习算法

深度学习算法在机器视觉中就如一个巧妙的接收转换器般的存在,它灵活、敏捷、“深度”与广度兼具,强悍的计算与预测能力可以称为其魅力之处。深度计算——可以集数亿个神经网络的自拟,对于数据、语音、图像等多种形式的资源进行分析、解释。

三姆森科技 ·  1天前
人工智能工程可以帮助组织充分利用人工智能

“人工智能”这一术语如今似乎无处不在,这在行业市场的应用中造成一些混乱,甚至可能让技术决策者感到困惑。

Bob Violino ·  1天前
人工智能赖以生存的大数据,掌握在垄断者的手中真的可怕

我至今还记得2016年那场旷世人机大战,人工智能软件“阿尔法狗”战胜世界围棋冠军李世石,那是一场标志性的比赛,打破了人们对人工智能的想象。

国学达人观世界 ·  1天前
中美欧人工智能发展现状比较分析

从投资、人才、研究、硬件、应用、数据多个维度,系统对比中、美、欧人工智能发展现状,最终得出结论称,美国当前依然保持着世界人工智能发展总体领先地位,中国在一些重要领域与美国的差距缩小,欧盟在三者中相对落后。

王璐菲 ·  1天前
基于机器学习的自动漏洞修复分析方法

。在本文中,我们提出了一个基于机器学习的自动化框架来自动化电力公司的修复决策分析。我们将其应用于一家电力公司,并对从该公司获得的两个真实运行数据集进行了大量实验。结果表明,该解决方案具有很高的有效性。

佚名 ·  1天前
通过细胞自动机,AI在「我的世界」学会了盖房子

许多研究采用了更为复杂的神经网络规则,被称为神经元细胞自动机(NCA)。但是其应用大多局限于2D结构,或是只能生成简单的3D结构。

子豪 ·  1天前
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载