分析题
结合材料回答问题:
材料1 “只要是科学,理性就不可能是普适的,非理性也不能加以排除。科学的这个特点要求一种无政府主义的认识论。”“科学如果不频频弃置理性,就不会进步。”
——保罗·费耶阿本德
材料2 当代最伟大的理论物理学家,英国乃至全世界的科学“瑰宝”——斯蒂芬·霍金,其主要研究领域是宇宙论和黑洞,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,在统一20世纪物理学的两大基础理论——爱因斯坦创立的相对论和普朗克创立的量子力学方面走出了重要一步。
不过,作为理论物理学界和量子宇宙学界的名公巨人,霍金先生在预言界“治学”可能并不那么严谨,而是以敢想敢说著称,那些悲天悯人的见解,也可能并不完全靠谱。
例如,2012年,霍金表示,未来1000年内,地球会因某场大灾难而毁灭,比如核战争或者温室效应。“末日说”其实并不新鲜,但出自霍金这样一位重量级科学家之口,那就不得不认真思量了。更何况,霍老还给地球寿命加了一个明确的期限——1000年。
与此相关的另一个言论是,霍金认为几乎可以肯定外星人的存在,如果人类在太空中与他们“不期而遇”,最好“不要和外星人说话”,否则后果可能会相当严重,那是因为,“外星人不好惹”。
再如,霍金在21岁时就患上了罕见的运动神经元疾病,全身肌肉逐渐萎缩,只有几根手指能够活动,后来连说话也只能依靠特制的声音合成装置。但在这种情况下,他在宇宙和黑洞研究等领域取得了卓越成果,赢得了全球科学界的尊敬。
因而,为避免日渐衰弱的身体将那些弥足珍贵的思想永久“封存”,有人在研究脑神经设备,试图帮助这颗“最强大脑”绕开身体的局限,直接与外界沟通。
霍金他本人也笃信,人的大脑是可以不依附于身体而独立存在的,而思维就像储存在大脑中的一段程序,可以被复制。
2014年12月,霍金更是语出惊人。他认为,人工智能“到时它可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。”“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”
从“地球毁灭说”到“外星人不好惹”,从“大脑可独立于人体存在”到“人工智能终将超越人类”,这位“预言帝”的论断总是那么惊世骇俗。
需要说明的是,这些预言多数与霍老本身的研究无关,太认真你就输了。然而,它们不乏对人类社会发展的种种警示,也许这才是顶级科学家的智慧所在。
——摘编自新华网