大家好,今天小編關(guān)注到一個(gè)比較有意思的話題,就是關(guān)于科技發(fā)展帶來哪些挑戰(zhàn)英語的問題,于是小編就整理了1個(gè)相關(guān)介紹科技發(fā)展帶來哪些挑戰(zhàn)英語的解答,讓我們一起看看吧。
人工智能革命歸根結(jié)底是算力的革命。
為了能夠讓讀者對人工智能有一個(gè)相對清晰的印象,我打算先聊一些人工智能是什么,然后再聊具體的機(jī)遇和挑戰(zhàn)。
如上文所講,人工智能革命歸根結(jié)底是算力的革命。何為算力?就是做1+1=2的能力,就是簡單地做加法的能力,更復(fù)雜的計(jì)算都會(huì)轉(zhuǎn)化為加法的計(jì)算。人工智能就是基于這個(gè)最微觀的能力建立起來的大廈,這次的革命就是以GPU和TPU的算力的興起為代表。所有的研究問題都可以看做一種優(yōu)化,就是給出一個(gè)模型,這個(gè)模型有一些參數(shù)沒辦法確定,然后通過計(jì)算對這些參數(shù)進(jìn)行優(yōu)化,最終讓這個(gè)模型的預(yù)測結(jié)果最好地符合觀測數(shù)據(jù)。所以,計(jì)算就是優(yōu)化。
(圖源: https://www.cgdirector.com/best-hardware-for-gpu-rendering-in-octane-redshift-vray/)
人工智能的各種模型,算法和技術(shù)細(xì)節(jié)其實(shí)都沒那么重要。現(xiàn)行的人工智能模型以神經(jīng)網(wǎng)絡(luò)為主,其實(shí)就是很簡單的一些加和然后做一些非線性變換。神經(jīng)網(wǎng)絡(luò)雖然相對其他模型或許在表達(dá)上相對簡潔,但是不是最根本的,哪怕就是線性模型,找到合適的參數(shù)可能都能夠達(dá)到很好的效果,只不過參數(shù)量比較大而已。況且現(xiàn)在的人工智能趨勢大有只用加和和乘法的趨勢,非線性變換都沒有那么必要了。這就是現(xiàn)在很火的transformer和Bert模型的核心——注意力機(jī)制。所以,最終的人工智能模型可能就是加法下的線性模型,只有加法沒有任何其他的別的東西。
到此,以上就是小編對于科技發(fā)展帶來哪些挑戰(zhàn)英語的問題就介紹到這了,希望介紹關(guān)于科技發(fā)展帶來哪些挑戰(zhàn)英語的1點(diǎn)解答對大家有用。