修改密码

请输入密码
请输入密码 请输入8-64长度密码 和 email 地址不相同 至少包括数字、大写字母、小写字母、半角符号中的 3 个
请输入密码
提交

修改昵称

当前昵称:
提交

申请证书

证书详情

Please complete this required field.

  • Ultipa Graph V4

Standalone

Please complete this required field.

Please complete this required field.

服务器的MAC地址

Please complete this required field.

Please complete this required field.

取消
申请
ID
产品
状态
核数
申请天数
审批时间
过期时间
MAC地址
申请理由
审核信息
关闭
基础信息
  • 用户昵称:
  • 手机号:
  • 公司名称:
  • 公司邮箱:
  • 地区:
  • 语言:
修改密码
申请证书

当前未申请证书.

申请证书
Certificate Issued at Valid until Serial No. File
Serial No. Valid until File

Not having one? Apply now! >>>

ProductName CreateTime ID Price File
ProductName CreateTime ID Price File

No Invoice

搜索
    中文

      梯度下降法

      梯度下降(Gradient Descent)是一种在图嵌入中广泛使用的基本优化算法。其主要目标是通过迭代调整图嵌入模型的参数,使得预定义的损失或成本函数的值最小。

      梯度下降有不同的变体,每个变体都针对大规模图嵌入任务中的特定挑战进行了优化。主要的变体包括随机梯度下降(SGD, Stochastic Gradient Descent)和小批量梯度下降(MBGD, Mini-Batch Gradient Descent)。这些变体在每次迭代中只使用从单个数据点或小批量数据点计算的梯度来更新模型的参数。

      基本形式

      考虑一个现实场景:一个人站在山顶,希望尽快下山。一条最佳的下山路径自然是存在的,但想要精确地一下子找出这条路径却很不容易。更常见的做法是走一步看一步:每走一步到达一个新位置时,计算该位置最陡的下降方向(即梯度下降方向),然后朝着那个方向移动至下一位置。重复这个过程,直到到达山脚。

      梯度下降就是一种不断沿着梯度下降方向寻找函数最小值的技术。相反地,梯度上升(Gradient Ascent)技术就是要沿着梯度上升方向找到最大值。

      给定一个函数 J(θ),梯度下降的基本形式是:

      其中,J 是函数在位置 θ 处的梯度η学习率(Learning Rate)。由于梯度实际上是最陡的上升方向,所以在 ηJ 前加一个减号就得到最陡的下降方向。

      学习率决定了沿梯度下降方向朝目标前进的每一步的步长。在下山的例子中,可以将学习率视为每一步所行的距离。

      在模型训练的过程中,学习率通常保持恒定。然而,有些模型的优化也可能包括学习率,例如使学习率随着训练的进行而逐渐减小或按照预定义的其他计划进行调整。这些调整旨在增强收敛性和优化效率。

      示例:单变量函数

      对于函数 J=θ2+10,它的梯度(在这种情况下,与导数相同)是 J=J(θ)=2θ

      如果从 θ0=1 的位置开始,并设置 η=0.2,以下是根据梯度下降原则的位置移动:

      • θ1=θ0-η×2θ0=1-0.2×2×1=0.6
      • θ2=θ1-η×2θ1=0.6-0.2×2×0.6=0.36
      • θ3=θ2-η×2θ2=0.36-0.2×2×0.36=0.216
      • ...
      • θ18=0.00010156
      • ...

      随着步数的增加,会逐渐收敛到 θ=0 的位置,最终达到函数的最小值。

      示例:多变量函数

      对于函数 J(Θ)=θ12+θ22,其梯度是 J=(2θ12θ2)

      如果起始位置是 Θ0=(-1-2),并设置 η=0.1,以下是根据梯度下降原则的位置移动:

      • Θ1=(-1-0.1×2×-1-2-0.1×2×-2)=(-0.8-1.6)
      • Θ2=(-0.64-1.28)
      • Θ3=(-0.512-1.024)
      • ...
      • Θ20=(-0.011529215-0.002305843)
      • ...

      随着步数的增加,会逐渐收敛到 Θ=(00) 的位置,最终达到函数的最小值。

      在图嵌入中的应用

      在图嵌入的神经网络模型训练过程中,通常会使用一个损失或成本函数 J(Θ) 来评估模型的输出与预期结果之间的差异,然后应用梯度下降技术来最小化这个损失函数。这就涉及到在梯度 J 的反方向上迭代调整模型的参数,直到收敛,从而优化模型。

      为了在计算效率和准确性之间取得平衡,在实际中采用了几种梯度下降的变体,主要包括:

      1. 随机梯度下降 (SGD)
      2. 小批量梯度下降 (MBGD)

      示例

      考虑使用 m 个样本来训练一个神经网络模型的场景。每个样本包括输入值和对应的期望输出。我们使用 x(i)y(i)i=12...m)分别表示第 i 个输入值和期望的输出。

      模型的假设函数(hypothesis)h(Θ) 定义如下:

      在这里,Θ 代表模型的参数 θ0 ~ θnx(i) 是第 i 个输入向量,包含 n 个特征。模型通过函数 h(Θ) 对输入的特征进行加权组合来计算输出。

      模型训练的目标是找到尽可能使得输出接近期望值的 θj 的最佳参数组合。在训练开始时,随机初始化所有参数 θj

      在模型训练的每轮迭代中,计算出所有样本的输出后,使用均方误差(MSE)作为损失/成本函数 J(Θ) 来衡量每个输出与其对应的期望值之间的平均误差:

      在标准的均方误差(MSE)公式中,分母是 1m。然而,其作为机器学习的损失函数时,通常使用 12m 作为分母,目的是抵消掉对损失函数的平方项求导后产生的常数系数,从而简化后续计算。这种修改不会影响最终的结果。

      随后,利用梯度下降更新参数 θj。对 θj 求偏导数如下:

      因此,θj 更新为:

      i=1m 的求和表示在每次迭代中使用所有 m 个样本来更新参数,这种方法被称为批量梯度下降(Batch Gradient Descent,BGD),是梯度下降优化的原始和最直接形式。在 BGD 中,每次迭代使用整个样本数据集来计算损失函数的梯度。

      尽管 BGD 可以确保精确收敛到损失函数的最小值,但对于大型数据集来说计算则过于密集。因此梯度下降的变体,如 SGD 和 MBGD,就被开发出来以平衡效率和收敛速度。它们在每次迭代中只使用训练数据的子集,使得优化过程更快,同时仍能够找到最优的参数。

      随机梯度下降法

      随机梯度下降(SGD)每次迭代只随机选择一个样本进行梯度计算。

      在使用 SGD 时,上述的损失函数应表示为:

      对于 θj 求偏导数为:

      更新 θj 为:

      SGD 的计算复杂性大大降低了,因为它只使用一个样本,不需要求和以及求平均。虽然提高了计算速度,但代价是牺牲一定程度的准确性。

      小批量梯度下降法

      BGD 和 SGD 代表两个极端——一个使用所有样本,另一个只使用一个样本。小批量梯度下降法(MBGD)则随机选择大小为 x(1m) 的样本量进行计算,以求在二者之间取得平衡。

      数学基础

      导数

      单变量函数 f(x) 的导数(Derivative)通常表示为 f(x)dfdx,它表示在给定位置上 x 略微变化时 f(x) 的变化。

      从图上看,f(x) 对应函数曲线的切线(Tangent Line)的斜率。点 x 处的导数是:

      例如,f(x)=x2+10,在点 x=-7 处:

      切线是指一条刚好触碰到函数曲线上某一点的直线,切线的方向与该点的方向相同。

      偏导数

      多变量函数的偏导数(Partial Derivative)衡量在保持其他所有变量不变的情况下,某一个变量变化时函数如何变化。对于一个函数 f(x,y),在特定点 (x,y) 处,它相对于 x 的偏导数表示为 fxfx

      例如,f(x,y)=x2+y2,在点 x=-4y=-6 处:


      L1 表示在保持 x 不变、沿 Y 轴移动时函数的变化;L2 表示在保持 y 不变、沿 X 轴移动时函数的变化

      方向导数

      函数的偏导数表示沿着坐标轴方向轻微移动时输出的变化情况。当沿着与任何坐标轴都不平行的方向移动时,就有了方向导数(Directional Derivative)的概念。

      方向导数在数学上表示为向量 f(它由函数的所有偏导数组成)与表示变化方向的单位向量 w 的点积:

      其中 |w|=1θ 是两个向量之间的夹角,并且

      梯度

      梯度(Gradient)是使函数的输出具有最陡上升的方向,这等同于找到最大的方向导数,而这发生在向量 fw 之间的角度 θ0 时,因为 cos0=1,即 wf 的方向一致。因此,f 就是函数的梯度。

      很显然,负梯度就是函数最陡下降的方向。

      链式法则

      链式法则(Chain Rule)描述如何计算复合函数的导数。在最简单的形式中,复合函数 f(g(x)) 的导数可以通过将 f 关于 g 的导数与 g 关于 x 的导数相乘来计算:

      例如,s(x)=(2x+1)2s(u)=u2u(x)=2x+1 组成,那么:

      在多变量复合函数中,可以通过对每个变量应用链式法则来获得偏导数

      例如,s(x,y)=(2x+y)(y-3)s(f,g)=fg 以及 f(x,y)=2x+yg(x,y)=y-3 组成,那么:

      请完成以下信息后可下载此书
      *
      公司名称不能为空
      *
      公司邮箱必须填写
      *
      你的名字必须填写
      *
      你的电话必须填写
      *
      你的电话必须填写