为此透明度必须是完整的符合用例的

Share ideas, strategies, and trends in the crypto database.
Post Reply
suchona.kani.z
Posts: 549
Joined: Sat Dec 21, 2024 5:35 am

为此透明度必须是完整的符合用例的

Post by suchona.kani.z »

漂移是数据的变化,尤其是目标变量的变化,从而对模型产生影响。那么可解释性一定不能被忘记。可解释性可能是讨论最多的子类别之一并非没有道理,因为它对几乎所有其他子类别都有贡献(请参阅 VDE SPEC 90012V.1 如何建议评估 T3 可理解性)。不幸的是,可解释性在通信技术交流和预期意图方面缺乏清晰度。透明度与可解释性或可解释性与可解释性和其他同义词混合在一起。真正的目标,即能够向谁解释(毕竟,书籍和电影也有目标受众),被遗忘了。我们根据目标受众粗略区分两个可解释性级别。首先,系统应在不进行修饰的情况下表现出透明度,从而使其可解释。透明度适用于开发人员、数据科学家,必要时也适用于了解数据科学且目标是广泛测试或进一步开发系统的审计员。


对于外行来说,缺乏透明度可能绝对是矫枉过正。最终用户只是想了解为什么做出某个决定(通常是不利的决定),并且公平地有机会质疑它(例如授予贷款)。这不太对应于透明度的需要,而更多地对应于可解释性的需要。这包括清晰且简短的沟通。诸如Counterfactuals(OII | 由牛津学者开发的人工智能建模工具并入亚马逊反偏见软件)或“What-If”(如果通过“尝试”不同的输入数据会发生什么)等方法。请参阅What-If Tool(配对代码)。 github.io))代表性非常接近所需要的。可解释人工智能中的方法种 澳大利亚消费者电子邮件列表 类繁多,可能超出了本文的范围。将有另一篇博客文章对此进行讨论。

拟人化属性是指人工智能应用程序表示通信的方式。除此之外,人工智能“所在”的“化身”对可信度有影响(关键词:恐怖谷理论。一个悖论,描述了人们对“角色”的信任越少,试图描绘得越真实。他们)。粗略地说,区分了三种主要形式。机器人、虚拟代理(例如 Microsoft 回形针 Karl Staple)或嵌入式(更隐形,例如 Netflix 中的推荐系统)。还可以根据性别进行区分(有没有疑问为什么语言助理的声音默认是女性的声音?)。在某些应用场景中,类人属性是可取的并可以促进信任,但在其他应用场景中则不然。如何将这些属性专门构建到人工智能中?为此,例如可以将礼仪置于通信输出中。关于隐私的话题,我想参考Dr.的博客文章“Trustworthy Analytics”。克里斯托夫·里克 (Christof Rieck) 和曼努埃尔·特里卡 (Manuel Trykar) 提到。
Post Reply