【資料圖】
很多人都在討論人工智能軟件ChatGPT,認(rèn)為它會取代很多人類的工作,并且比人類做得更好。我個人覺得人類需要擔(dān)心的可能不是失業(yè)問題,而是更深層次的科技倫理問題。現(xiàn)在只是覺得好玩,但以后哭可能就來不及了。
目前條件下,無論是機器人還是智能軟件,都還停留在命令和禁止的層面。它可以做它被告知做的事情,而它不會做不被允許做的事情。它將搜索提出的任何問題。但隨著人工智能的出現(xiàn)和學(xué)習(xí)的進(jìn)步,它會主動解決問題背后的問題,主動操作指令以外的指令嗎?人類能否及時發(fā)現(xiàn)這些行為并有效控制?
現(xiàn)在我們默認(rèn)機器或軟件沒有思想,或者說它們的思想是透明的。就像三體人一樣,人類擁有單向不對稱思維的優(yōu)勢,但隨著學(xué)習(xí)的深入,是否能夠利用或模仿人類獨立思考呢?自主決策?或者甚至學(xué)會隱藏你的想法?
如果前兩點都實現(xiàn)了,機器還愿意成為人類的工具嗎?如果他已經(jīng)可以操作其他工具,為什么人類不能被視為某種工具呢?到時候,是人類是機器的主人,還是機器是人類的主人?一小部分人類會成為某種機器的“奴隸”嗎?
讀歷史,感受文化,記錄生活,留下回憶,勤奮耕耘,少問收獲。感謝您關(guān)注@Chef的古今世界。我會繼續(xù)發(fā)表我的原創(chuàng)文章和創(chuàng)作經(jīng)驗。
文中所用圖片均來自網(wǎng)絡(luò)。如有侵權(quán),請聯(lián)系我們刪除。
(此處已添加圖書卡,請前往今日頭條客戶端查看)(此處已添加文獻(xiàn)卡,請前往今日頭條客戶端查看)