本文主要是介绍论文阅读——Bayesian Knowledge Fusion(贝叶斯知识融合),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
该篇论文解决了不确定环境中的信息融合问题。想象一下,有多位专家针对同一情况构建概率模型,我们希望汇总他们提供的信息。直接合并每个信息可能会遇到几个问题。例如,专家们可能不同意某个事件发生的概率,或者他们可能不同意两个事件之间因果关系的方向(例如,一个人认为 A 导致 B,而另一个人认为 B 导致 A)。他们甚至可能不同意概率网络中一组变量之间的整个依赖结构。文章将概率模型表示为贝叶斯知识库 (BKB),并提出了一种称为贝叶斯知识融合的算法,该算法允许将多个 BKB 融合为一个 BKB,该 BKB 保留来自所有输入源。这允许轻松聚合和分解来自多个专家来源的信息,并通过提供一个可以保存和推理所有意见的框架来促进多专家决策。
信息融合在很多情况下都很有用,从低级传感器数据的融合到人类专家构建的高级模型的聚合。一个简单的例子是多个医疗诊断专家系统的情况,每个系统都包含来自不同专家的规则。一位专家可能认为疾病 A 和症状 B 之间的因果关系很强,而另一位专家可能认为它很弱;或者一个人可能认为条件 A 导致条件 B,而另一个人认为 B 导致 A。在前一种情况下,我们可以取两个条件概率的最大值,或平均值,或两者的其他函数,但这样做我们很可能会丢失一些信息。在后一种情况下,我们将以循环因果关系告终,这违反了一些知识表示方案的规则,例如广泛使用的贝叶斯网络。鉴于这些困难,从多个来源汇总知识的能力在涉及多个主题专家和观点的决策场景中至关重要。
除了结合多位专家的意见外,这项工作的另一个主要目标是允许轻松聚合和分解信息片段。这允许仅对知识库的相关部分进行推理。它还缓解了在非常大的知识库中推理的高计算成本问题,并允许进行基于源的集中分析。在处理动态或不断变化的情况的概率模型时,易于聚合也是理想的选择,在这种情况下,新知识正在获得并逐渐添加到知识库中,如果旧知识不再适用,则可以将其删除。
在本文中,我们使用贝叶斯知识库 (BKB)作为我们的知识表示框架。 BKB 是贝叶斯网络 (BN) 的推广,其中指定随机变量状态之间的依赖关系而不是随机变量之间的依赖关系,允许有向循环,并且指定的概率分布不需要是完整的。我们展示了如何获取一组 BKB 并将它们合并为一个 BKB。在融合过程的上下文中,我们将输入 BKB 称为贝叶斯知识片段 (BKF),因为每个片段代表我们希望融合到更大知识库中的一个知识片段。因此,每个 BKF 都包含一个知识块,融合过程允许将它们组合成更大的、语义上有意义的模型。这些片段可以很容易地存储、检索和聚合
在相关工作中,其他人已尝试使用 BN 进行知识表示,但基于 BN 的技术在涉及易处理的操作和推理时遇到了问题。 这些技术成为指数运行时间复杂性、对概率分布的完整规范的需要以及关于条件依赖结构的过于严格的规则的牺牲品。 此类中包括 BN 变体,例如面向对象的 BN(Koller 和 Pfeffer 1997)、多实体 BN(Laskey 2008)和贝叶斯黑板(Sutton 等人,2004)。 我们的融合算法基于向称为源节点的输入片段添加新节点。 这些节点表示知识库中的哪些规则来自哪些片段。 每个片段都有一个可靠性指标,表明该片段来源的可信度
特定片段中包含的知识。有了这些源节点及其相应的可靠性,融合 BKB 上的推理过程可以在为观察到的任何证据构建解释时考虑来自多个源的信息。因此,构建的解释可能包含来自几个不同来源的元素
在下一节中,我们将更详细地描述 BKB。然后我们将介绍融合算法。之后我们将进一步研究融合 BKB 的特性,然后我们将以结论和对本研究未来方向的描述来结束本文。
贝叶斯知识库
BKB 是条件概率规则 (CPR) 的集合,其形式为 if A1 = a1, A2 = a2, . . . ,An = an,然后 B = b,概率为 p,满足归一化和互斥的条件,这些条件将在短期内正式定义。在这些规则中,Ai 和 B 是随机变量,而 ai 和 b 是这些随机变量的实例化或状态。 BKB 包含贝叶斯网络 (BN),因为所有 BN 都可以表示为 BKB(可以通过将 BN 中的所有条件概率表条目放入 BKB 中的 CPR 来从 BN 形成 BKB)。与 BN 相比,BKB 允许在随机变量的状态之间而不是在随机变量本身之间指定独立性。它们也不要求规则指定的概率分布是完整的;仅对指定的规则进行推理。这允许在面对不完整性时进行推理,并减轻了填写大型条件概率表的负担,当这些表的所有概率都不容易获得时,这可能会特别成问题
与 BN 类似,BKB 可以用图形表示,但图形不需要像 BN 那样是非循环的。在图形描述的 BKB 中有两种类型的节点,代表随机变量的不同实例的 I-节点,和 S-节点,或“支持节点”。来自南卡罗来纳州民主党初选工作的 BKB 示例在图 1 中以规则形式显示,在图 2 中以图形形式显示。图 2 中的每个实心黑色圆圈都是一个 S 节点,并且恰好对应于其中一个图 1 中的 CPR。S 节点旁边的数字是它的权重。每个填充文本的椭圆都是一个 I 节点,对应于其中一个随机变量的一种状态。 BKB 中显示的依赖关系将导致随机变量级别的循环有向图(图 3),因此不是有效的 BN。循环关系的结果是因为黑人选民认为希拉里克林顿淡化了马丁路德金在民权运动中的作用,这导致他们支持奥巴马(Shipman 2008)。然而,一些喜欢克林顿家族并支持希拉里的白人选民可能一直怀疑她在对小马丁路德金发表评论时有任何恶意。类似于BNs中的d-separation,可以确定独立语义来自 BKB 导出的图表(Shimony、Santos 和 Rosen 2000)
我们现在从(Santos 和 Dinh 2008)给出 BKB 图形表示的正式定义: ⊂ {I × S} ∪ {S × I}, 且∀q ∈ S,存在唯一的 α ∈ I 使得 (q, α) ∈ E。如果存在从 q ∈ S 到 α ∈ I 的链接,我们说 q 支持 α。在本文的其余部分中,边 (a, b) ∈ E 将表示为 a → b。对于相关图 G 中的每个 S 节点 q,我们将指向 q 的所有 I 节点的集合表示为 TailG(q),即 TailG(q) = {α ∈ I|α → q ∈ E} .类似地,HeadG(q) 是 q 在 G 中指向的 I 节点,即满足 q → α ∈ E 的 α。两组 I 节点 I1 和 I2 被称为互斥的,如果存在I1 中的一个 I 节点 (R = v1) 和 I2 中的一个 I 节点 (R = v2),其中 v1 6 = v2。直觉上互斥
这篇关于论文阅读——Bayesian Knowledge Fusion(贝叶斯知识融合)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!