大家好,今天小編關(guān)注到一個(gè)比較有意思的話題,就是關(guān)于科技倫理人工智能有感的問(wèn)題,于是小編就整理了1個(gè)相關(guān)介紹科技倫理人工智能有感的解答,讓我們一起看看吧。
謝邀。
人工智能的大規(guī)模應(yīng)用,將帶來(lái)人類社會(huì)深刻的變化,倫理當(dāng)然是其中重要的一方面。人工智能將帶來(lái)的,包括了科學(xué)/技術(shù)倫理,社會(huì)倫理以及相關(guān)的法學(xué)理論和實(shí)踐。當(dāng)然,這三者互有交叉,并非涇渭分明。
阿西莫夫提出的機(jī)器人三原則,就屬于科學(xué)技術(shù)倫理范疇。
但實(shí)際上,人工智能的科技倫理比這要復(fù)雜得多。舉個(gè)例子 : 自動(dòng)駕駛將如何處理機(jī)器與人的關(guān)系?如何在程序控制上設(shè)定無(wú)人駕駛汽車在事故發(fā)生時(shí)的反應(yīng)?
在人工駕駛時(shí)代,人類可以依照緊急避險(xiǎn)原則,在緊急狀態(tài)下以自我保護(hù)。但實(shí)際上還存在一個(gè)“默認(rèn)原則”,當(dāng)發(fā)生緊急事故時(shí),駕駛?cè)顺鲇诒灸艿淖晕冶Wo(hù)而造成對(duì)他人生命財(cái)產(chǎn)的損失,并不會(huì)被追究刑事責(zé)任,也不會(huì)受到道德的譴責(zé)。
但無(wú)人駕駛則必須將默認(rèn)的“潛規(guī)則”以程序的方式“寫”出來(lái),形成對(duì)人工智能的明確指令 :
~事故發(fā)生時(shí),是優(yōu)先保護(hù)乘客還是他人?
~是優(yōu)先保護(hù)低損害還是高損害?
~既然是明確的指令,如果優(yōu)先保護(hù)乘客,那么乘客應(yīng)該承擔(dān)什么樣的責(zé)任?
~既然是明確的指令,指令下達(dá)者,汽車生產(chǎn)商該承擔(dān)怎樣的責(zé)任?
任何事物都有利有弊,人工智能當(dāng)然不例外。此問(wèn)答很及時(shí),的確應(yīng)引起科技研發(fā)、智能生產(chǎn)行業(yè)以及人類學(xué)、社會(huì)學(xué)等和法制部門重視、研考!止是止不住的,發(fā)展是洪流。辦法可選擇疏通,引流;還可以其人之道之其身,即研發(fā)更高智能機(jī)器監(jiān)管同類,這也是水漲船高之游戲。人類道德受到挑戰(zhàn)是必然的,不僅道德受到挑戰(zhàn),人類生存同樣受到威脅!讀者之見(jiàn)。
到此,以上就是小編對(duì)于科技倫理人工智能有感的問(wèn)題就介紹到這了,希望介紹關(guān)于科技倫理人工智能有感的1點(diǎn)解答對(duì)大家有用。