資料圖
但隨著技術(shù)的不斷進(jìn)步,如果這一天真的到來,事情可能會(huì)遠(yuǎn)遠(yuǎn)超出我們的想象。但與此同時(shí),有一個(gè)值得思考的問題:最危險(xiǎn)的新興技術(shù)是什么?讓我們看看專家對(duì)此有何評(píng)論。
Zephyr Tichote(福特漢姆大學(xué)法學(xué)副教授)
辦公室監(jiān)控。這項(xiàng)技術(shù)會(huì)造成嚴(yán)重的信息不對(duì)稱,讓雇主像實(shí)驗(yàn)室老鼠一樣監(jiān)控員工,進(jìn)一步惡化本來就很糟糕的上下級(jí)關(guān)系。雇主知道如何激勵(lì)員工以不健康的方式工作,以及如何從較低的工資中獲取更多的價(jià)值。這使得他們能夠通過差別待遇排除異見人士并疏遠(yuǎn)員工。這種技術(shù)現(xiàn)在在工作場(chǎng)所已經(jīng)無(wú)處不在,如果不加以制止,很快就會(huì)普及。
Michael Littman(布朗大學(xué)計(jì)算機(jī)科學(xué)教授)
在2021年AI100報(bào)告中,有一章描述了目前人工智能對(duì)我們最緊迫的威脅。 17人專家團(tuán)隊(duì)認(rèn)為,雖然人工智能系統(tǒng)在現(xiàn)實(shí)世界中的應(yīng)用可以造福人類,但隨著其應(yīng)用范圍的擴(kuò)大,誤用、過度使用和濫用的風(fēng)險(xiǎn)也會(huì)增加。
專家團(tuán)隊(duì)對(duì)人工智能最大的擔(dān)憂是所謂的“技術(shù)解決主義”,即“像人工智能這樣的技術(shù)可以用來解決任何問題”的心態(tài)。許多人認(rèn)為人工智能做出的決策是客觀、中立和公正的,但這些決策的結(jié)果可能被不當(dāng)應(yīng)用或基于歷史偏見甚至公然歧視。如果數(shù)據(jù)或解釋數(shù)據(jù)的算法不夠透明,公眾可能對(duì)這些決定將如何影響他們的生活一無(wú)所知。
人工智能系統(tǒng)已經(jīng)被用來在網(wǎng)上發(fā)布虛假信息,因此可能對(duì)民主構(gòu)成威脅,并被用作傳播法西斯主義的工具。此外,如果人工智能中的人為因素沒有得到充分考慮,就會(huì)導(dǎo)致人們?cè)凇安恍湃稳斯ぶ悄芟到y(tǒng)”和“過度依賴這些系統(tǒng)”之間來回?fù)u擺。人工智能算法還在涉及器官分配和疫苗等醫(yī)療問題的決策中發(fā)揮著作用,這些問題可能會(huì)帶來生死攸關(guān)的后果。
如果對(duì)系統(tǒng)影響負(fù)責(zé)的個(gè)人或組織能夠在問題出現(xiàn)時(shí)承擔(dān)主要責(zé)任,那么人工智能的危險(xiǎn)可能會(huì)減輕。讓所有利益相關(guān)者參與進(jìn)來將顯著減緩人工智能解決難題的速度,但這是不可或缺的一步,因?yàn)闉E用該技術(shù)的負(fù)面后果太嚴(yán)重了。技術(shù)專家也應(yīng)該像醫(yī)療行業(yè)一樣,堅(jiān)持“不造成傷害”的原則。
David Shumway Jones(哈佛大學(xué)流行病學(xué)教授)
至于誰(shuí)能擔(dān)負(fù)“最危險(xiǎn)的新興技術(shù)”的稱號(hào),候選人顯然有很多。例如,CRISPR等基因編輯技術(shù)的效果可能并不像支持者聲稱的那么強(qiáng)大,但可能會(huì)造成嚴(yán)重?fù)p害。此外,社交媒體已經(jīng)證明了其造成廣泛傷害的力量。但最讓我擔(dān)心的是面部識(shí)別技術(shù)在監(jiān)控領(lǐng)域的大規(guī)模應(yīng)用。這項(xiàng)技術(shù)在很多方面都是重要的社會(huì)資產(chǎn)。例如,面部識(shí)別可以提高交易效率。登機(jī)時(shí)無(wú)需出示身份證或登機(jī)牌,在商店購(gòu)物時(shí)可以直接刷臉支付。面部識(shí)別還可以加強(qiáng)社會(huì)安全,更容易發(fā)現(xiàn)和逮捕罪犯。
那么這項(xiàng)技術(shù)有哪些危險(xiǎn)呢?首先,我們的一舉一動(dòng)將不再是私人的,總會(huì)有人知道我們?cè)谀睦铩⑷ミ^哪里。即使這些個(gè)人信息沒有被濫用,隱私和匿名的喪失也會(huì)讓人感到不舒服。還有信息濫用的問題,而且風(fēng)險(xiǎn)是真實(shí)存在的。任何有權(quán)訪問此信息的人都可能將其用于非法目的。從心理扭曲的追求者到政府機(jī)構(gòu),我們可以監(jiān)視我們?nèi)ツ睦?、遇見誰(shuí),甚至預(yù)測(cè)我們的下一步行動(dòng)。而且我也懷疑這項(xiàng)技術(shù)的危害可能遠(yuǎn)比我們想象的要大。
Ryan Carlo(華盛頓大學(xué)法學(xué)教授)
我認(rèn)為最危險(xiǎn)的信息技術(shù)是量子計(jì)算機(jī)。除了加密破解之外,量子計(jì)算的危險(xiǎn)其實(shí)也不是什么新鮮事。自超級(jí)計(jì)算機(jī)時(shí)代以來,量子計(jì)算對(duì)個(gè)人隱私造成的威脅不斷加速。憑借足夠的數(shù)據(jù)和處理能力,當(dāng)今的計(jì)算機(jī)系統(tǒng)捕獲私人信息的能力越來越強(qiáng)。我擔(dān)心的是,有了量子計(jì)算技術(shù),政府和企業(yè)將成為福爾摩斯,從公共信息中猜測(cè)我們所有的秘密。
Amy Weber(未來今日研究所首席執(zhí)行官,一家前景、趨勢(shì)和情景規(guī)劃公司)
最危險(xiǎn)的新技術(shù)可能是生物學(xué),或更準(zhǔn)確地說是合成生物學(xué)。這項(xiàng)技術(shù)有一個(gè)目標(biāo):利用細(xì)胞編寫新的(或更好的)遺傳密碼。合成生物學(xué)利用工程學(xué)、人工智能、遺傳學(xué)和化學(xué)來重新設(shè)計(jì)生物身體部位或有機(jī)體,以增強(qiáng)特定能力或創(chuàng)造新功能。利用一系列最新的合成生物學(xué)技術(shù),我們不僅可以讀取和編輯DNA代碼,還可以編寫新的代碼。這意味著我們很快就能像微型計(jì)算機(jī)一樣對(duì)生物體進(jìn)行編程。
合成生物學(xué)讓我們可以將DNA序列變成軟件工具,就像Word一樣,只不過編輯的對(duì)象是DNA代碼。研究人員按照自己的想法完成DNA書寫或編輯后,借助3D打印機(jī)等技術(shù)就可以憑空“打印”出新的DNA分子。這種DNA合成技術(shù)正在迅速發(fā)展。如今的技術(shù)可以常規(guī)地打印包含數(shù)千個(gè)堿基對(duì)的DNA鏈,這些DNA鏈可用于建立新的細(xì)胞代謝途徑,甚至足以構(gòu)成完整的細(xì)胞基因組。
這可能會(huì)導(dǎo)致什么問題?不久之后我們就能對(duì)任何病毒的基因組進(jìn)行編程。冠狀病毒可能看起來很可怕,但病毒并不一定都是壞事。事實(shí)上,病毒只是遺傳編碼的容器。未來我們或許能夠制造出對(duì)人體有益的病毒,用于治療癌癥等特定疾病。
合成生物學(xué)將在氣候危機(jī)以及糧食和水短缺方面發(fā)揮重要作用。它將減少我們對(duì)動(dòng)物蛋白的依賴,并最終實(shí)現(xiàn)定制藥物,讓人們的身體成為自己的“藥房”。
但合成生物學(xué)之所以成為最危險(xiǎn)的新興技術(shù),并不是科學(xué)本身,而是我們?nèi)祟?。這需要我們挑戰(zhàn)現(xiàn)有的思維模式,提出一系列復(fù)雜、困難的問題,對(duì)生命起源進(jìn)行理性討論。否則,我們就會(huì)創(chuàng)造風(fēng)險(xiǎn),錯(cuò)失機(jī)遇。未來10年,我們必須充分利用數(shù)據(jù)、證據(jù)和科學(xué)精神來做出關(guān)鍵決策,比如創(chuàng)造哪些新病毒來治療疾病、基因隱私的概念是什么、誰(shuí)擁有“生物體”的所有權(quán)等。 ”等等等等。監(jiān)管機(jī)構(gòu)還必須確定公司如何從人工編輯的細(xì)胞中賺錢,以及必須遵循哪些程序才能在實(shí)驗(yàn)室中維持合成生物體。
我們自己也在合成生物學(xué)中發(fā)揮著重要作用。如果你可以重新編輯自己的身體,你會(huì)選擇什么?如果你未來的孩子可以被編輯,你會(huì)擔(dān)心嗎?如果吃合成生物可以緩解氣候變化,你會(huì)接受嗎?合成生物學(xué)將成為人類有史以來創(chuàng)造的最強(qiáng)大、最可持續(xù)的制造平臺(tái)。我們現(xiàn)在正處于這場(chǎng)工業(yè)革命的風(fēng)口浪尖。
Jeroen van den Hoeven(代爾夫特理工大學(xué)倫理與技術(shù)教授)
我認(rèn)為最危險(xiǎn)的技術(shù)是阻礙人們理解世界和他人需求的社交或認(rèn)知技術(shù)。這些技術(shù)很容易導(dǎo)致人性的湮滅,讓人變得自私、自戀、不考慮他人。這些技術(shù)就像造霧機(jī),讓我們看不到我們的人類社區(qū)和我們的責(zé)任。人們對(duì)這些技術(shù)完全沒有信心。那些開發(fā)它們的人要么被他人用作工具,要么極其天真,要么是同謀,要么是謊言大師,堅(jiān)決否認(rèn)未來可能降臨到人類身上的一切苦難。
所以我認(rèn)為這些促進(jìn)認(rèn)知混亂的數(shù)字技術(shù)是我們面臨的最大威脅。這些技術(shù)的危險(xiǎn)很容易被掩蓋或否認(rèn),因此大多數(shù)人認(rèn)為它們沒有任何問題。與此同時(shí),其他真正能夠造福人類的技術(shù)將會(huì)受到污名化。暴君和惡棍受到贊揚(yáng),英雄和救世主受到誹謗。
一些人還沒有放棄應(yīng)對(duì)氣候變化、尋找抗擊疫情的方法、阻止醫(yī)院使用人工智能進(jìn)行分診、揭露深層次騙局等等。但現(xiàn)在這些人很難辨別什么是真相,什么是道德上可接受的。而大多數(shù)人恐怕早就放棄了對(duì)真理的追求,變得溫順和自滿。
Sid Johnson(紐約州立大學(xué)北部醫(yī)學(xué)院生物倫理學(xué)和人類學(xué)副教授)
異種移植,即將一種動(dòng)物的器官和組織移植到另一種動(dòng)物中,長(zhǎng)期以來一直被視為解決移植器官短缺的一種解決方案。成千上萬(wàn)的人正在等待挽救生命的器官,有些人最終未能熬過漫長(zhǎng)的等待,不幸在這個(gè)過程中死亡。從20 世紀(jì)60 年代到90 年代,研究人員多次嘗試將靈長(zhǎng)類器官移植到人類身上。但到目前為止,還沒有患者在接受異種器官后存活下來。有些人只能活幾個(gè)小時(shí),而另一些人則可以活幾天或幾周。原因之一就是免疫系統(tǒng)對(duì)新器官的排斥反應(yīng),甚至是可怕的超急性排斥反應(yīng)。
物種之間的差異越大,被排斥的風(fēng)險(xiǎn)就越大,就像人類和豬一樣。畢竟,這兩個(gè)物種之間存在著八千萬(wàn)年的進(jìn)化差異。但豬目前被認(rèn)為是理想的器官來源,因?yàn)樗鼈円子陲曫B(yǎng),其器官大小適合人類使用,而且每年有數(shù)億頭豬被屠宰,所以為了它們的器官而宰殺它們似乎并不可行成為可能。巨大的倫理和道德問題。
靈長(zhǎng)類動(dòng)物和人類之間的遺傳相似性增加了人畜共患感染的風(fēng)險(xiǎn)。美國(guó)食品和藥物管理局已明確禁止使用靈長(zhǎng)類器官進(jìn)行異種移植。但豬也可能感染與人類類似的病毒,也可能傳播人畜共患疾病。 1998年和1999年,馬來西亞養(yǎng)豬戶爆發(fā)了豬源性尼帕病毒引起的病毒性腦炎,造成100人死亡,撲殺超過100萬(wàn)頭生豬。
COVID-19也是一種人畜共患疾病,可能在多個(gè)物種之間傳播,最終傳播給人類,引發(fā)全球大流行,奪去了數(shù)百萬(wàn)人的生命,對(duì)醫(yī)療系統(tǒng)造成沉重打擊,并引發(fā)了一系列全球社會(huì)經(jīng)濟(jì)動(dòng)蕩。到目前為止,我們已經(jīng)在狗、貓、雪貂、黑猩猩、大猩猩、水獺、大型貓科動(dòng)物、歐洲的圈養(yǎng)水貂和美國(guó)的野生白尾鹿中發(fā)現(xiàn)了新冠病毒。
通過異種移植傳播人畜共患疾病的風(fēng)險(xiǎn)是一個(gè)嚴(yán)重的話題,許多組織建議對(duì)器官接受者、他們的密切接觸者以及參與移植過程的醫(yī)護(hù)人員進(jìn)行終身觀察。觀察的目的不是為了保護(hù)器官接受者本身,而是出于公共衛(wèi)生考慮。因此,異種移植是一種極其危險(xiǎn)的新興技術(shù)。在最壞的情況下,可能會(huì)爆發(fā)另一次全球大流行,帶來災(zāi)難性后果。
除了異種移植之外,還有其他解決器官短缺的辦法,其中一些已經(jīng)可用,例如增加人類捐贈(zèng)者的數(shù)量。有些還在研究和開發(fā)中(例如:在體外培養(yǎng)人體器官、利用3D生物打印技術(shù)修復(fù)和再生體內(nèi)受損器官等)。這些技術(shù)都不會(huì)造成全球大流行的風(fēng)險(xiǎn)。經(jīng)過幾十年的研究和無(wú)數(shù)次的失敗,異種移植技術(shù)仍然存在很多疑問。如今,COVID-19疫情已進(jìn)入第三個(gè)年頭,異種移植中疾病傳播的風(fēng)險(xiǎn)已成為關(guān)鍵問題,其風(fēng)險(xiǎn)不容高估。
Johanna Bryson(柏林赫蒂管理學(xué)院倫理與技術(shù)教授)
我認(rèn)為最危險(xiǎn)的新興技術(shù)其實(shí)是各種形式的國(guó)家治理。我們已經(jīng)對(duì)社會(huì)控制了解很多。一些國(guó)家大多出于善意使用這些信息,但另一些國(guó)家則利用這些信息來壓迫和操縱少數(shù)群體,甚至剝奪多數(shù)群體的權(quán)力。無(wú)論哪種方式,結(jié)果都是殘酷的。我們還需要意識(shí)到,這種暴行還包括“文化滅絕”,即抹去人們留下的所有記錄和歷史,否認(rèn)祖先的存在和身份。雖然這種方法不一定會(huì)真正殺死這些人,但也會(huì)嚴(yán)重影響他們的發(fā)展能力。
解決這些問題的唯一出路是創(chuàng)新治理形式、鼓勵(lì)合作行為、尊重基本權(quán)利。許多技術(shù)實(shí)際上具有“雙重用途”。我們不能選擇袖手旁觀,并認(rèn)為解決方案超出了我們的控制范圍。政治意識(shí)和參與在社會(huì)的任何層面都很重要。有趣的是,我們利用社交媒體等工具在很大程度上提高了人們的政治意識(shí)。所以我認(rèn)為還是有希望的,但是還有很多工作要做。
伊麗莎白·希爾特(伊利諾伊理工學(xué)院哲學(xué)教授)
最危險(xiǎn)的新興技術(shù)是那些逃脫人類控制和監(jiān)督的技術(shù)。技術(shù)并不是憑空奇跡般地出現(xiàn)的,它們本身并不危險(xiǎn)。危險(xiǎn)在于設(shè)計(jì)、修改和部署它們的人類。
雖然很多人猜測(cè)未來可能會(huì)出現(xiàn)超級(jí)人工智能來統(tǒng)治和主宰人類,但我相信新興技術(shù)有很多更實(shí)用的方式來逃脫人類的控制。
例如,如果技術(shù)的工作原理不透明,它很容易逃脫我們的控制。此外,制造商或公司可能會(huì)向公眾歪曲或隱瞞某種技術(shù)的功能和影響。
人類的情感投入也可能導(dǎo)致對(duì)技術(shù)的失去控制。在與技術(shù)交互時(shí),越符合我們的直覺和情感,就越容易掌握它。因此,人形機(jī)器人經(jīng)常模仿人類彼此互動(dòng)的方式。但如果將情感等人類特征賦予技術(shù),則可能會(huì)導(dǎo)致人類單方面的情感投入,使得人類與技術(shù)的互動(dòng)不再以理性為主,而是以感性因素驅(qū)動(dòng)。在這種互動(dòng)中,人類成為更脆弱的一方。