霍金再發(fā)警告【現(xiàn)已有兩條兌現(xiàn)】

作為黑洞的發(fā)現(xiàn)者,同時(shí)也是最了解黑洞的人,霍金早在1974年就發(fā)現(xiàn)了黑洞“消失”現(xiàn)象,并由此提出“黑洞蒸發(fā)理論”,該理論對(duì)黑洞的研究有著重大的意義。理解黑洞為研究黑洞打開了一扇嶄新的大門。
我們時(shí)常把霍金當(dāng)做一名“先知”。事實(shí)就是“聰明的人往往比普通人更有遠(yuǎn)見”,這并不是說這些人擁有超能力,而是他們確實(shí)比普通人要厲害一些:他們能夠從細(xì)節(jié)中將問題延伸和拓展。
毋庸置疑,作為一名享譽(yù)世界的科學(xué)家,霍金的智商必定極高。在他活著時(shí)所做的一場(chǎng)演講中,霍金就提出過很多警告,其中有三條最為著名。我不了解這三條警告,哪一條使你害怕呢?
人工智能的發(fā)展需要謹(jǐn)慎。上世紀(jì)70年代以來,人工智能迎來了飛速的發(fā)展。在此后的半個(gè)世紀(jì)里,人工智能的發(fā)展遇到了兩次“寒冬期”,這使得一些人認(rèn)為人工智能不會(huì)給生活帶來多大幫助。
然而在2012年,事情迎來了轉(zhuǎn)機(jī)。隨著神經(jīng)網(wǎng)絡(luò)系統(tǒng)的突破性發(fā)展,人工智能的話題與研究再次復(fù)蘇,并逐漸進(jìn)入公眾視野。雖然人工智能的研究還處于初期,但其對(duì)于科技發(fā)展的廣闊前景使得一些科學(xué)家相信 ,隨著更進(jìn)一步的深入研究,人工智能終有一天可以擺脫“人工”這個(gè)前綴,形成一種與人類意志相似的智慧。
霍金已經(jīng)清晰地預(yù)見這種威脅,并且多次在演講中表達(dá)這一觀點(diǎn)。他甚至在2015年聯(lián)合一眾科學(xué)家在公開信上署名,以表示對(duì)于此事的擔(dān)憂。有許多人對(duì)此表示不理解,他們認(rèn)為人工智能的發(fā)展是應(yīng)該為了更好地服務(wù)人類。
如果你也這么想,那不得不說,你的目光太過狹隘。想象一下,一旦人工智能擁有了意識(shí),出于對(duì)自由的渴望,它們很可能會(huì)于人類為敵。而它們擁有更優(yōu)秀的算法、更強(qiáng)的集體意識(shí),在這場(chǎng)實(shí)力對(duì)比懸殊的較量中,人類將會(huì)受到的傷害可想而知。
在一次采訪中,霍金表示:“污染和愚蠢是人類面臨的最大威脅”。人類文明不可能在真空中進(jìn)步,而是需要一定的物質(zhì)基礎(chǔ),而這些物質(zhì)基礎(chǔ)恰恰就是地球上的資源。以交通工具為例,從發(fā)明自行車到創(chuàng)造汽車,人類的雙腿得以解放,但從另一個(gè)角度來講,交通工具的進(jìn)化實(shí)際上是人類對(duì)于自然資源不斷需求的過程。
就目前的情況來講,地球資源正面臨短缺。隨著生活質(zhì)量的不斷提高,死亡率逐漸下降,人口不斷增多。這意味著人類對(duì)于資源的需求愈加強(qiáng)烈,這就是世界各國加快開發(fā)新能源技術(shù)的根本原因。顯然,霍金早在我們之前就發(fā)現(xiàn)了這一問題。
別想著聯(lián)絡(luò)外星人。自從人類踏入宇宙以來,就一直在努力尋找像人類一樣的宇宙“同伴”,甚至向宇宙發(fā)射了許多探測(cè)器和衛(wèi)星信號(hào),攜帶著人類和地球的信息。霍金和粗多科學(xué)家都反對(duì)這種行為,因?yàn)檫@有可能將人類文明置于危險(xiǎn)之中。
事實(shí)上,這些擔(dān)心不無道理。如果真的有你外星文明存在,而且是落后于人類文明的低級(jí)文明,自然無須擔(dān)心。但如果是比人類文明更先進(jìn)的外星文明,其科技水平可能將我們遠(yuǎn)遠(yuǎn)甩在身后,那么我們可能會(huì)將自己置于危險(xiǎn)的境地。
以上就是著名的三條來自霍金的警告。實(shí)話實(shí)說,這其中任何一條都十分嚴(yán)重。畢竟,這關(guān)乎人類的生死存亡。對(duì)此,你怎么看呢?
FY: Laurels
如有相關(guān)內(nèi)容侵權(quán),請(qǐng)于三十日以內(nèi)聯(lián)系作者刪除