谷歌删除了不将AI用于武器与监控领域的承诺
sein @ 2025.02.06 , 07:01 上午谷歌更新后的AI伦理政策撤回了其“不用于武器与监控技术”的承诺,这一转变反映了AI技术发展的竞争与风险。
谷歌近日更新了其公开的AI伦理政策,撤回了过去承诺的“不将AI用于武器或监控技术”的声明。这一变化标志着该公司在自我约束方面的松动,而这种松动恰好发生在AI技术飞速发展的背景下。
在之前的政策中,谷歌明确表示不会推动伤害他人的武器技术,也不会从事超出国际规范的监控技术。如今,随着AI的飞速发展,尤其是自2022年OpenAI推出ChatGPT以来,AI技术的应用愈加广泛,但立法和伦理规范的制定却未能跟上。谷歌也承认,自己在这方面的限制正在放松。
在本周二的博客中,谷歌高级副总裁James Manyika与DeepMind负责人Demis Hassabis表示,民主国家发布的AI框架加深了谷歌对AI潜力与风险的理解。他们提到,当前的AI竞争是在一个复杂的全球政治背景下进行的,并认为民主国家应当在AI发展中占据领导地位,秉持自由、平等和尊重人权等核心价值观。
他们还提到,“我们相信,分享这些价值观的公司、政府和组织应当共同合作,创造出能够保护人类、推动全球发展并保障国家安全的AI技术。”
然而,这一立场的转变与谷歌在2018年的初衷大相径庭。当时,谷歌曾放弃了一项价值100亿美元的云计算军方合同,理由是“无法保证该合同符合我们的AI伦理原则”。同年,超过4000名员工签署请愿,要求谷歌明确表示“公司及其承包商绝不会开发用于战争的技术”,并有约十名员工因抗议而辞职。
目前,CNN已就此事向谷歌寻求评论,但尚未收到回应。
PREV : 马斯克的脑机接口重大进展,患者仅通过思维就能控制机械臂
NEXT : 新的证明探索数学真理的极限