我们从哪里开始?

Share ideas, strategies, and trends in the crypto database.
Post Reply
jrineakter
Posts: 846
Joined: Thu Jan 02, 2025 7:17 am

我们从哪里开始?

Post by jrineakter »

从巨头到小公司,各个组织都在想方设法地制定道德框架。以谷歌的人工智能章程为例,它列出了非常广泛的原则,将指导其未来的项目选择。但这并没有解释他们将使用什么数据、方法和人工智能——大概是为了适应广泛的业务组合。另一方面,DataKind开发了一组非常具体的问题,其志愿数据科学家在做出决定之前应该问自己这些问题。这很好,但是(我对这个“但是”表示赞同,因为慈善机构的资源有限),我不清楚数据科学家是否一定是最适合为自己的工作开绿灯的人。与谷歌的主张相反,这种章程或许将太多的企业责任转移到数据科学家身上。

抛开建设性的批评,我承认稍晚参与竞选意味着我们可以从后见之明中获益。因此,在其他人工作的基础上,我提出以下建议:我们将制定一份非常简洁、语言通俗易懂的数据科学宪章,这既可以指导我们的工作,也可以为包括公众在内的利益相关者提供清晰的信息。

我们的公开对话中的想法
后一点与我上周参加Nesta 包容性创新团队委托的一次公开对话的经历特别相关。我个人从这次对话中得到的收获如下:

数据的用途似乎比数据本身更令人担忧。
有针对性的人工智能产品,即那些向个人提供建 IG 数据 议或针对个人提供建议的产品,是人工智能最具争议的应用。人们强烈反对被算法贴上标签,甚至被诋毁。
使用数据科学作为政策制定的工具比自动化政策制定更受欢迎。
需要建立公众对数据科学“黑匣子”的信心。我个人认为,关于这个问题有很多恐慌,这忽视了算法决策背后的真正逻辑,而算法决策是基于数据中的真实模式(对于书呆子来说:想想特征重要性、决策树或模型提取)。只有当组织对其方法和数据不透明时,黑匣子才会真正出现。
特别值得注意的是,虽然数据似乎是专家们最关心的问题,但乍一看,公众似乎更关心方法。这其中可能有充分的理由,可能是因为算法如何直接影响我们的日常生活更为明显,或者可能只是因为专家们更积极地参与更广泛的讨论。我认为这不一定是一个症结所在,因为这是同一枚硬币的两面:如果你因为道德原因不能产生输出,那么你可以使用的数据也会受到限制。

来自我们内心对话的想法
Nesta 一直在讨论人工智能的伦理问题。在最近的一次非技术研讨会上,随着 Nesta 率先利用数据科学解决人类行为的敏感问题,明确我们的道德界限变得越来越重要。

人们强烈认为 Nesta 应该保留一些数据科学方面的企业责任,尽管 Nesta 的数据科学家总数相对较少。我们正在考虑的一种方法是创建一个小型的非技术数据科学道德小组。该小组将从影响和声誉方面评估 Nesta 的风险和机遇。一旦数据源或分析技术获得批准,它将被添加到面向公众的列表中,这将提供公共问责制。

一个关键考虑因素是尽可能将“日常道德”应用于数据科学项目。让我们举一个日常例子:站在餐厅里猜测顾客的种族在道德上是不可信的。数据科学的对应行为可能是使用 Twitter 上顾客的名字来预测他们的种族。我承认争论比这更微妙,但这种方法至少应用了可关联的道德底线。

迈向数据科学宪章
随着我们朝着数据科学宪章迈进,我很清楚 Nesta 应该提供一份平衡企业和个人责任的宪章,同时保持对公众的责任。简而言之:如果我们的工作影响到民选人士的决策方式,那么我们必须对我们的算法和解释负责。此外,我们必须承认,我们日益算法化的社会正变得不透明,这是真正的担忧。在这方面,Nesta 必须成为公众信心建设的一部分。

在接下来的两个月里,我们将根据其他人的工作、我们的公开对话、我们的内部讨论以及您的评论起草一份章程。8 月份,我们将向其他组织的同行提交章程草案(如果您是同行,请联系我们!)。此后,我们的目标是让董事会批准该章程。

文化和道德总是在不断发展,因此关于数据科学道德的争论永远不会结束。这个灰色地带的红线是情境和个人的,考虑到这一点,我们想知道您的想法!您希望从我们、谷歌或任何其他人的数据科学宪章中看到什么?
Post Reply