人工智能系统会有意识吗?三位意识科学家表示,目前没有人知道,他们对缺乏对这个问题的调查研究表示担忧。

数学意识科学协会(AMCS)的三位领导人在向联合国发表的评论中呼吁提供更多资金来支持意识和人工智能的研究。他们表示,迫切需要对意识和无意识系统之间的界限进行科学调查,法律和安全问题使理解人工智能意识变得至关重要。例如,如果人工智能发展出意识,是否应该允许人们在使用后简单地关闭它?

AMCS董事会成员Jonathan Mason是英国牛津的数学家,也是评论的作者之一,他说,最近关于人工智能安全的讨论,比如备受瞩目的英国人工智能安全峰会,大多没有这种担忧。梅森指出,美国总统乔·拜登寻求负责任地开发人工智能技术的行政命令也没有解决有意识的人工智能系统提出的问题。

Mason说:“随着人工智能的发展,不可避免地会有其他邻近的科学领域需要迎头赶上。”。意识就是其中之一。

另一些评论的作者是AMCS主席Lenore Blum,他是宾夕法尼亚州匹兹堡卡内基梅隆大学的理论计算机科学家,以及董事会主席Johannes Kleiner,他是德国慕尼黑路德维希·马克西米利安大学研究意识的数学家。

科学界还不知道是否存在或将永远存在有意识的人工智能系统。Mason说,即使知道是否已经开发出一种也将是一个挑战,因为研究人员还没有创造出科学验证的方法来评估机器中的意识。加州旧金山非营利研究机构人工智能安全中心的哲学家罗伯特·龙表示:“考虑到进展的速度,我们对人工智能意识的不确定性是人工智能的许多担忧之一。”。

这样的担忧不再只是科幻小说。包括创建聊天机器人ChatGPT的OpenAI公司在内的公司正致力于开发通用人工智能,这是一种经过训练的深度学习系统,可以执行与人类类似的各种智力任务。一些研究人员预测,这将在5到20年内实现。梅森说,即便如此,意识研究领域还是“支持不足”。他指出,据他所知,2023年还没有一笔资助来研究这一主题。

AMCS领导人向联合国人工智能高级别咨询机构提交的报告概述了由此产生的信息差距。该机构于10月启动,计划于2024年年中发布一份关于世界应如何管理人工智能技术的报告。AMCS领导人的意见书尚未公开发布,但该机构向作者证实,该组织的评论将成为其“基础材料”的一部分,这些文件为其关于人工智能系统全球监督的建议提供了信息。

AMCS的研究人员表示,了解什么可以使人工智能有意识,对于评估有意识的人工智能系统对社会的影响,包括其可能的危险,是必要的。人类需要评估这些系统是否具有人类的价值观和利益;否则,它们可能会给人们带来风险。

但研究人员表示,人类也应该考虑有意识的人工智能系统的可能需求。这样的系统会受到影响吗?Long说:“如果我们没有意识到人工智能系统已经变得有意识,我们可能会给有意识的实体带来痛苦:“我们在将道德考虑扩展到与我们长相和行为不同的实体方面并没有很好的记录。”,因为人类不应该花费资源来保护那些不需要保护的系统。

AMCS的评论中提出的一些问题是法律问题,以强调意识问题的重要性:有意识的人工智能系统是否应该对故意的不当行为负责?它是否应该被赋予与人民相同的权利?该联盟写道,答案可能需要对法规和法律进行修改。

此外,科学家还需要教育其他人。梅森说,随着公司设计出越来越强大的人工智能系统,公众会怀疑这些系统是否有意识,科学家需要有足够的知识来提供指导。

其他意识研究者对此表示赞同。位于博卡拉顿的佛罗里达大西洋大学未来思维中心主任、哲学家Susan Schneider表示,像ChatGPT这样的聊天机器人的行为看起来非常像人类,人们有理由对此感到困惑。如果没有科学家的深入分析,一些人可能会得出结论,认为这些系统是有意识的,而其他公众可能会忽视甚至嘲笑对人工智能意识的担忧。

为了减轻风险,AMCS的评论呼吁政府和私营部门资助更多关于人工智能意识的研究。推进这一领域不需要太多资金:尽管迄今为止支持有限,但相关工作已经在进行中。例如,Long和其他18名研究人员开发了一份标准清单,以评估一个系统是否有很高的意识。这篇论文于8月发表在arXiv预印本库中,尚未经过同行评审,其标准来源于解释意识生物学基础的六个著名理论。

Mason说:“进步的潜力很大。”。

本文译自 nature,由 两个猪头 编辑发布。

[ 广告 ]
赞一个 (3)

PREV :
NEXT :