本项目利用JMeter进行性能测试,采用自适应算法优化测试脚本和参数设置,实现高效准确的压力测试与分析。
6.3 联合分布自适应
6.3.1 基本思路
联合分布自适应方法(Joint Distribution Adaptation)的目标是减小源域与目标域的联合概率分布的距离,从而完成迁移学习任务。从形式上来说,这种方法用P(xs)和P(xt)之间的距离以及条件概率P(ys|xs)和P(yt|xt)之间的距离来近似两个领域间的差异。即:
DISTANCE(Ds,Dt) ≈ || P(xs)- P(xt)||+|| P(ys|xs)- P(yt|xt)|| (6.10)
联合分布自适应对应于图 19 中由图 19(a)迁移到图 19(b),以及从图 19(a)迁移到图 19(c)的情形。
6.3.2 核心方法
JDA 方法(Joint Distribution Adaptation),首次发表在 ICCV (计算机视觉领域顶会,与 CVPR 类似)上。该方法由当时清华大学的博士生龙明盛提出,并于后来成为清华大学助理教授。假设是最基本的出发点。
那么 JDA 的假设是什么呢?它有两个关键前提:1) 源域和目标域边缘分布不同;2) 来自源域与目标域的数据条件分布也存在差异。既然有这些设定,同时适配两个不同的概率分布是否可行呢?
于是作者提出了联合分布适应方法来解决这个问题——即调整数据的联合概率以使得来自不同领域的样本更接近。
然而,在这里有一些争议:边缘分布和条件分布的不同,并不等价于它们的联合概率也存在差异。因此,“联合”这个词可能会引起误解,我的理解是“同时适配两个不同的分布”,而不是指代数学意义上的“联合”。尽管在论文中作者用第一个公式说明了调整的是联合概率,但这里的表述可能存在问题。
抛开这个有争议的概念不谈,把联合理解为同时适应边缘和条件分布。那么 JDA 方法的目标就是找到一个变换A,使得经过该变换后的 P(A^T xs) 和 P(A^T xt),以及对应的P(ys| A^T xs)与P(yt | A^T xt)的距离尽可能接近。
这样自然地将方法分为两个步骤:
1. 边缘分布适应:首先调整边缘概率,即让源域和目标域的变换后的边缘概率 P(A ^ Txs) 和 P(A ^ Txt) 尽可能一致。这实际就是迁移成分分析(TCA)的过程。我们使用MMD距离来最小化这两个领域之间的最大均值差异。
MMD 距离是:
∥∥∥∥1nn∑i=1A^Tx_i -1mm∑j=1A^Tx_j∥∥∥∥2_H (6.11)
这个式子难以直接求解,我们引入核方法简化它,进而得到:
D(Ds,Dt) = tr(A ^ TXM0X ^ TA) (6.12)
其中M0是两个领域的样本中心化的内积矩阵。