他認為,人類需要警惕人工智能發(fā)展帶來的威脅,因為人工智能一旦脫離其束縛,在加速狀態(tài)下重新設(shè)計自身,人類將無法與其競爭,將會被取代。霍金也多次警告世界要關(guān)注人工智能領(lǐng)域的“強者”。人工智能的崛起要么是人類歷史上最好的事情,要么是最壞的事情。同時,也高度關(guān)注人工智能技術(shù),并多次發(fā)表對人工智能發(fā)展的看法。一個警告。
1. 為什么比爾蓋茨、霍金等名人警告人們警惕人工智能?就像當(dāng)初的基因技術(shù)和克隆技術(shù),以及最初的蒸汽機革命、電氣化革命、核威脅和冷戰(zhàn)一樣,人類有恐懼的本能,因為如果不加以控制和限制,真的會帶來災(zāi)難性的后果。例如,克隆技術(shù)會帶來倫理問題,核武器可能產(chǎn)生核冬天,基因武器可能輕易消滅人類。他們所說的人工智能是由于計算機的力量。單一的能力是人類無法企及的。如果研究綜合能力,或許這就是人類最后一次科技革命。所以,馬斯克是在為人機大腦找借口,限制政策,需要我們認真對待。然而,技術(shù)的發(fā)展從來都不是人為的。已經(jīng)停止。
2、霍金預(yù)言人工智能將毀滅人類。是的,霍金做出了四個預(yù)測。 1. 地球?qū)⒆兂梢粋€火球。 2.人工智能是我們文明史上最糟糕的事情。它帶來了危險,比如強大的自主武器,或者少數(shù)人壓迫多數(shù)人的新方法。它可能會對我們的經(jīng)濟造成巨大損害。
3.霍金多次警告人工智能,為什么機器人在發(fā)達國家仍然不斷涌現(xiàn)?;艚鹪谔祗w物理學(xué)領(lǐng)域做出了杰出的貢獻。同時,他也非常關(guān)注人工智能技術(shù),并多次發(fā)表對人工智能發(fā)展的看法。他認為,人類需要警惕人工智能發(fā)展帶來的威脅,因為人工智能一旦脫離其束縛,在加速狀態(tài)下重新設(shè)計自身,人類將無法與其競爭,將會被取代。霍金也多次警告世界關(guān)注人工智能。 “強者的崛起。人工智能要么是人類歷史上最好的事情,要么是最壞的事情。我們還不確定它是好還是壞?,F(xiàn)在人類只能盡力確保他們未來的法律可以阻止獅子騎,但發(fā)展對人類和環(huán)境有利,人類別無選擇?!边@無疑給人工智能火熱時代的人類敲響了警鐘。
4. 史蒂芬霍金為什么說不要發(fā)展人工智能?史蒂芬霍金和特斯拉的埃隆馬斯克都認為,當(dāng)人工智能的能力超過人類智能時,人類將很可能被毀滅,人們需要密切關(guān)注其發(fā)展,尤其是中國加速人工智能研究讓他擔(dān)心,但并不是所有人認為機器可以那么聰明。物理學(xué)家史蒂芬霍金和企業(yè)家埃隆馬斯克有一個共同點:霍金在2017年全球移動互聯(lián)網(wǎng)大會上的一段視頻中表示,機器內(nèi)部傳播的智能如果被危險地使用,可能會導(dǎo)致人類滅絕。 “我認為生物大腦能夠?qū)崿F(xiàn)的目標(biāo)和計算機能夠?qū)崿F(xiàn)的目標(biāo)之間沒有真正的區(qū)別。