我们有理由相信,1995年,计算机科学家David Gedye是在参加某场鸡尾酒会时,脑中蹦出了那个奇妙的好主意:如果将世界上的个人电脑通过互联网上链接在一起,构建出虚拟的超级计算机,用它帮我们SETI(寻找外星情报),行不行得通?计算网络能够给射电望远镜收集的大量数据分类,寻找指向某恒星系的,疑似外星文明的信号。当时,分布式超级计算系统听起来有些古怪,但是4年后,Gedye和合作伙伴、计算机科学家David Anderson开发出相关程序,使其成为现实。他们称这一项目为SETI@home。

本周二,伯克利SETI中心的研究人员宣布,他们将于3月底停止向SETI@home用户分发数据。它标志着一场延续20年、前所未有的数字项目的终结,项目的参与者覆盖了几乎每个国家,有数百万人之多。但是所有项目都有结束的那一天,SETI@home也不例外。到目前为止,伯克利大学的研究人员仅对SETI@home数据的一小部分完成了分析。他们不得不暂停项目面向公众的部分,整理分析二十年里的射电天文学数据。

SETI@home于1999年5月17日在伯克利正式启动,旨在解决外星文明搜索方面的最大挑战之一:噪音。无垠太空中,卫星、各国电视台的信号和脉冲星等天体物理学现象的干扰淹没了我们梦寐以求的无线电信号。

筛选所有这些数据需要计算资源,并且是很多的资源。更多的处理器意味着更敏锐的分析能力。通过从世界各地的个人电脑中借用未使用的处理能力,SETI@home可以比以往更快地浏览射电望远镜的数据。当计算机闲置时,SETI@Home程序启动一个屏幕保护程序,调用本地资源分析波多黎各阿雷西博射电望远镜在扫描宇宙时收集到的信号。

这一项目很快成为了Geek文化的一部分。迅速成长为SETI@home合作伙伴的非营利组织Planetary Society将其称为“有史以来最成功的公众参与项目”。如WIRED在2000年的报道,在SETI@home推出后的几个月内,226个国家/地区的260万民众自愿利用自己富余的处理能力解析SETI射电望远镜产生的大量数据。它们合在一起每秒执行约25万亿次计算,使得SETI @ home的性能是当时世界上最好的超级计算机的两倍以上。

在过去的20年里,SETI@home的屏保大军已经解析了在Arecibo收集的数十亿条信号,并筛选出最有可能的数据。

Breakthrough Listen项目的科学家Steve Croft说说:“SETI@home通过在其他人的计算机上进行处理而成为云计算的先驱,云计算只是SET@home更光彩照人的版本。”

在历史上最大的两项SETI研究计划里,公众都做出的巨大贡献,这昭示着“寻找地外生命”事业的未来。如果我们确实听到了ET的消息,那不是生命个体之间的对话,而是整个物种之间的对话。

本文译自 wired,由 majer 编辑发布。

[ 广告 ]
赞一个 (26)

PREV :
NEXT :