生成式人工智能依赖于计算能力。部署越多的人工智能,需要的计算能力就越多。这不仅会将计算能力从其他潜在更有用的活动中转移出来,而且还需要大量的能源。这些环境成本是众所周知的,但随着人工智能的普及,它们会变得更加严重。OpenAI 首席执行官 Sam Altman 强调了这一点,他认为人工智能要想成功需要一场“能源革命”。即使撇开生态成本不谈,人工智能对能源的巨大需求也会导致整个社会的能源价格上涨。

此外,人工智能还依赖于对计算基础设施的大量资本投资。人工智能建立在光纤、服务器、数据中心等基础设施之上。我们可以从大型科技公司的企业报告中看到这一点,这些报告强调了他们在这项基础设施上花费和正在花费的数十亿美元。大型科技公司现在控制着我们的大部分计算能力(这本身就是一种社会成本),但为了使人工智能作为一种日常技术在商业上可行,我们将需要投入更多资金。这些资金可以用于其他更有用的地方。

人工智能也在吸纳创新资金,尤其是风险资本。根据 CBS Insights 的数据,2022 年至 2023 年,用于生成式人工智能的风险资本支出增长了五倍,接近 220 亿美元。在萎缩的风险资本池中,这些资金本可以用于其他地方。更重要的是,评论员 Ed Zitron 指出,如果人工智能炒作泡沫破裂,这似乎很可能会发生,那么所有这些创新资金都将被浪费(就像所有资本投资一样)。

随着人工智能沿着这条轨迹继续发展,它正威胁着以人工智能垃圾邮件淹没我们。人工智能需要数据来训练模型,但内容生产者(如报纸、网站和作者)现在正在通过起诉 OpenAI 等组织来挑战他们对其受版权保护的内容的抓取。更重要的是,随着人工智能生产的“数据”在互联网上传播饱和,它将自身崩溃:正如政治经济学家 Jathan Sadowski 诗意地所说,我们正面临着“哈布斯堡人工智能”带来的社会成本不断增长,他指的是“在其他生成式人工智能的输出上训练得如此之重,以至于它变成了近亲繁殖的变种,很可能具有夸张的、怪诞的特征”。这意味着幻觉叠加幻觉,创造出各种意想不到的后果。

也许最重要的是,人工智能将它的社会影响的责任推卸给了社会其他部分,即使它没有提供任何社会效益。人工智能必然会导致重大的社会变革和相关成本,因为我们被迫改造我们的社会、政治和经济制度来应对其影响的后果。即使是像人工智能生成图像这样基本的事情,在处理它们对我们政治制度的影响时也会产生集体成本;例如,为了适应我们的政治制度,保护我们免受生成式人工智能对政治错误信息的强力推动,将需要花费大量的资金。

问题的核心在于,生成式人工智能并不是真正设计来解决实际的社会问题。我们迫切需要社会科学家的专业知识,能够对我们想要的生成式人工智能的未来做出必要的集体决策;我们不能将它留给企业、市场或技术专家。我们需要向这些专家求助,了解我们的社会或集体问题以及我们希望生成式人工智能解决的挑战。然后,我们需要弄清楚人工智能是否可以(不仅仅是怎样)为找到可行的解决方案做出贡献,然后让人工智能公司专注于生产这些解决方案。

本文译自 The Globe and Mail,由 BALI 编辑发布。

[ 广告 ]
赞一个 (5)

PREV :
NEXT :