新研究表明,人工智能(AI)可以设计出优于人类设计的财富分配方案。

由英国AI Company DeepMind的一组研究人员提出的研究结果表明,机器学习系统不仅擅长解决复杂的物理和生物学问题,而且还可以帮助实现更多的开放式社会目标,例如实现一个公平,繁荣的社会的目标。

当然,这不是一件容易的事。如果可以在人工智能研究中建立“价值一致”性,无疑能带来有价值的结果。

在第一作者和DeepMind Researchs科学家Raphael Koster领导的论文中,研究者解释说:“价值一致性的一个关键障碍是,人类社会承认了多种观点,这使得AI无所适从。例如,政治科学家和经济学家就经常提出相互矛盾的理论。”

为了弥合现实里的矛盾,研究人员开发了负责财富分配的AI,其培训数据中内置了人们的互动(实际和虚拟)信息。指导AI朝着人类总体上更公平的结果前进。

AIS可以产生令人惊叹的结果,甚至也可以得出距离现在还很遥远的社会学论断。人类反馈可以帮助将神经网络朝着更好的方向发展。

“在AI研究中,人们越来越认识到,要建立与人类兼容的系统,我们需要新的研究方法,其中AI和人类互动,并越来越多地从人类那里学习价值观来建立价值一致的系统。”

在涉及成千上万参与者的实验中,该团队的AI代理(称为“民主AI”)研究了一种名为“公共物品游戏”的投资练习,玩家可以收到不同数量的钱,并可以向公共基金捐款,然后从与其投资水平相对应的基金中获取回报。

在一系列不同的游戏中,财富通过三个传统的再分配范式重新分配给玩家——严格的平等主义者,自由主义者和自由主义平等主义者——每种奖励的收益都不同。

还测试了第四种方法——深度强化学习开发的人类中心重新分布机制(HCRM),使用人类参与者的反馈数据和旨在模仿人类行为的反馈数据。

随后进行的实验表明,HCRM系统比任何传统的再分配标准都更受玩家欢迎,并且比人类裁判设计的新重新分配系统更受欢迎。

研究人员解释说:“AI发现了一种机制,该机制纠正了最初的财富失衡,并成功赢得了多数票。我们表明,有可能利用价值一致性,以实现更广泛的人类社会中使用的共识来选举代表,决定公共政策或做出法律判断。

值得注意的是,研究人员承认他们的系统提出了许多问题——主要是,AI中的价值一致性围绕民主决定,这意味着代理人实际上可能会加剧社会上的不平等或偏见。

还有信任的问题。在实验中,玩家不知道财富重分配模型的来源。他们知道后,是否还会支持AI?目前还不清楚。

最后,该小组表示,其研究不应被解读为一项激进的技术官僚提案,以推翻社会实际上的财富重分配制度的研究——但它是一种研究工具,可以帮助人类设计更好的方案。

作者写道:“我们的结果并不意味着支持'AI政府'的形式。我们认为民主AI是设计潜在有益机制的研究方法,而不是在公共领域部署AI的秘诀。”

这些发现在《自然·人类行为》中报道。

https://www.sciencealert.com/ai-could-be-be-better-at-distributing-wealth-experiment-suggests

[ 广告 ]
赞一个 (12)

PREV :
NEXT :