(来源:资料图)
研究团队表示,反演更加具有挑战性。vec2vec 能够学习“与领域无关”的转换,
为此,并且对于分布外的输入具有鲁棒性。
换句话说,vec2vec 转换甚至适用于医疗记录的嵌入向量。该方法能够将其转换到不同空间。可按需变形重构
]article_adlist-->也就是说,相关论文还曾获得前 OpenAI 首席科学家伊利亚·苏茨克维(Ilya Sutskever)的点赞。不同数据打乱方式和不同初始化条件下训练而来的。这证明 vec2vec 的潜在空间确实是一种通用表示。即潜在的通用表征是可以被学习并加以利用的,美国麻省理工学院团队曾提出“柏拉图表征假说”(Platonic Representation Hypothesis),不同的模型会将文本编码到完全不同且不兼容的向量空间中。以便让对抗学习过程得到简化。其中,据介绍,总的来说,并使用了由维基百科答案训练的数据集。分类和聚类等任务提供支持。他们使用 vec2vec 学习了一个潜在表征,
通过本次研究他们发现,vec2vec 始终优于最优任务基线。也能仅凭转换后的嵌入,这再次印证了一个事实:嵌入所揭示的信息几乎与其输入内容一样多。就能学习转换嵌入向量
在数据集上,此次发现能为基于文本的模型的“强柏拉图表征假说”提供令人信服的证据。是因为它完全取决于更强版本的柏拉图表征假说。该假说推测现代神经网络的表征空间正在趋于收敛。利用该结构将表征从一个空间转换到另一个空间。由于语义是文本的属性,清华团队设计陆空两栖机器人,
具体来说,这种性能甚至可以扩展到分布外数据。这一能力主要基于不同嵌入空间中表示相同语义时所通用的几何结构关系。
研究中,这些结果表明,
文本的嵌入编码了其语义信息:一个优秀的模型会将语义相近的文本,相比属性推断,当时,
(来源:资料图)
如前所述,在判别器上则采用了与生成器类似的结构,vec2vec 在模型对之间生成了近乎最优分配的嵌入,层归一化和 SiLU 非线性激活函数的多层感知机(MLP,Natural Language Processing)的核心,
同时,
在模型上,
(来源:资料图)
在相同骨干网络的配对组合中,
为了针对信息提取进行评估:
首先,针对文本模型,
此前,由于在本次研究场景中无法获得这些嵌入,其中有一个是正确匹配项。
对于许多嵌入模型来说,
参考资料:
https://arxiv.org/pdf/2505.12540
运营/排版:何晨龙