亚洲最大成人在线,绯色av一区二区,国产精品26uuu观看,精品国产97,91国产免费看,欧美一区二区三区黄色,噼里啪啦大全免费观看

AI時代,誰在主宰?

AI時代,誰在主宰?

分類: 都市小說
作者:虛虛實實的冥浩
主角:谷歌,谷歌
來源:fanqie
更新時間:2026-01-15 17:16:33
開始閱讀

精彩片段

谷歌谷歌是《AI時代,誰在主宰?》中的主要人物,在這個故事中“虛虛實實的冥浩”充分發(fā)揮想象,將每一個人物描繪的都很成功,而且故事精彩有創(chuàng)意,以下是內(nèi)容概括:在這個被算法重塑的時代,理解AI的核心概念不再僅僅是工程師的特權(quán),而是每一個現(xiàn)代公民的必修課。以下五個概念,構(gòu)成了當今人工智能革命的基石、燃料、方向盤、副作用以及終極目標。1. Transformer架構(gòu):AI的“內(nèi)燃機”時刻如果說蒸汽機釋放了物理世界的生產(chǎn)力,那么Transformer架構(gòu)則釋放了數(shù)字世界的理解力。它是現(xiàn)代大語言模型(LLM)的心臟,是ChatGPT、Gemini、Claude等...

這個被算法重塑的,理解AI的核概念再僅僅是工程師的權(quán),而是每個公民的修課。

以個概念,構(gòu)了當今工智能革命的基石、燃料、方向盤、副作用以及終目標。

. Trnfrmer架構(gòu):AI的“燃機”刻如說蒸汽機釋了物理界的生產(chǎn)力,那么Trnfrmer架構(gòu)則釋了數(shù)字界的理解力。

它是語言模型(LLM)的臟,是CtGPT、Gemini、Cle等所有跡背后的物理引擎。

從“鸚鵡學舌”到“目行”Trnfrmer誕生之前,然語言處理(NLP)領(lǐng)域由種循經(jīng)絡(luò)(RNN)和長短期記憶絡(luò)(LSTM)的架構(gòu)統(tǒng)治。

這些架構(gòu)處理語言的方式非常像類的閱讀習慣——閱讀。

想象,當你閱讀“蘋”這個詞,你須先讀完前面的“我喜歡”,才能理解這個“蘋”是指水。

RNN就是這樣,它按順序個詞個詞地處理。

這種機有個的缺陷:遺忘。

當句子很長,讀到句尾,它可能己經(jīng)忘了句首的主語是誰。

雖然LSTM試圖過“記憶元”來解決這個問題,但它依然法擺脫的桎梏——它法并行計算。

這意味著,要訓練個模型,你需要漫長得令絕望的間。

07年,谷歌Brin團隊的八位研究員發(fā)表了篇名為《Attentin I All Y Nee》(你只需要注意力)的論文。

這篇論文徹底改變了游戲規(guī)則。

核魔法:注意力機(Self-Attentin)Trnfrmer拋棄了循(Rerrene),完擁抱了“注意力”(Attentin)。

什么是“注意力”?

想象你讀這段文字。

你的眼睛雖然聚焦當前的詞,但你的余光和腦其實同關(guān)注文的其他詞,以便瞬間理解當前詞的含義。

舉個經(jīng)典的例子:"Te niml int r te treet ee it w t tire."(這只動物沒有過路,因為它太累了。

)當我們讀到“it”(它)這個詞,我們類瞬間就知道它指的是“niml”(動物),而是“treet”(街道)。

對于統(tǒng)的RNN來說,這是個難題。

但對于Trnfrmer,它處理“it”這個詞,過數(shù)學公式計算“it”與句子其他所有詞的關(guān)聯(lián)度(注意力權(quán)重)。

它發(fā)“niml”與“it”的關(guān)聯(lián)度,因此將更多的注意力配給“niml”。

這個過程是并行發(fā)生的。

Trnfrmer就像擁有數(shù)只眼睛的怪獸,它再是個字個字地讀,而是目行,甚至目行。

它能同到整篇文章的所有詞,并瞬間計算出它們之間錯復雜的關(guān)系。

Q、K、V 的爾茲為了實這種注意力,Trnfrmer引入了個妙的數(shù)學模型,常用**查詢(Qery)、鍵(Key)、值(Vle)**來比喻,簡稱Q、K、V。

這就比你圖書館找資料:Qery(查詢): 你拿著張寫著“我想了解Trnfrmer”的紙條。

Key(鍵): 圖書館每本書的書脊都貼著標簽(涵蓋的容)。

Vle(值): 書實際的容。

Trnfrmer將你的Qery與所有書的Key進行匹配(計算點積)。

匹配度越(注意力權(quán)重越),你就越從那本書取Vle(信息)。

終,你對“Trnfrmer”的理解,就是所有相關(guān)書籍容的加權(quán)總和。

歷史意義Trnfrmer的出,解決了兩個核問題:長距離依賴: 論句子多長,它都能準捕捉到詞與詞之間的關(guān)系。

并行計算: 它可以用萬個GPU同訓練。

這使得“”模型為可能。

如沒有Trnfrmer,哪怕?lián)碛薪绲乃懔Γ覀円卜ㄓ柧毘鯣PT-4這樣參數(shù)量級的龐然物。

谷歌發(fā)明了它,卻因為部的遲疑,讓OenAI率先用它出了核武器。

這是科技史的諷刺之。

. RLHF:給怪獸戴項圈如說Trnfrmer出了頭學但蠻的怪獸,那么RLHF(Reinfrement Lerning frm Hmn Feek,基于類反饋的化學習)就是那個馴獸師,它教了怪獸如何像類樣舉止得。

預訓練模型的“原始本能”經(jīng)過量數(shù)據(jù)(幾乎整個互聯(lián)的文本)的預訓練(Pre-trining)后,個基礎(chǔ)的語言模型(Be Mel)其實本質(zhì)只是個級復雜的文字接龍機器。

如你對GPT-的基礎(chǔ)版說:“請幫我寫封求信?!?br>
它可能給你寫信,而是接著你的話說:“……并附簡歷,發(fā)到這個郵箱。”

為什么?

因為它讀過的互聯(lián)數(shù)據(jù),這常是招聘廣告的寫法。

它以為你玩文字接龍,它預測個概率的詞。

此,基礎(chǔ)模型還可能根據(jù)互聯(lián)的暗面,吐出種族歧、暴力或的言論,因為它見過太多這樣的垃圾數(shù)據(jù)。

為了讓這個“”變個“文明的助”,我們需要RLHF。

馴化部曲RLHF的過程可以為個階段,這就像是訓練只狗:階段:有監(jiān)督調(diào)(SFT)——“像這樣說話” 類標注員寫出萬個質(zhì)量的問答對(Prmt & Rene)。

比如:“如何紅燒?”

然后類寫出完的菜譜。

我們將這些數(shù)據(jù)喂給模型,告訴它:“別再瞎接龍了,當用戶問,你要遵循這種問答模式?!?br>
這步讓模型學了對話的形式,但它還知道什么是“”的回答。

二階段:訓練獎勵模型(Rewr Mel)——“這個比那個” 我們讓模型針對同個問題生西個同的回答。

然后,類標注員首接寫答案,而是對這西個回答進行排名(A比B,B比C)。

這些排名數(shù)據(jù)被用來訓練個新的模型,“獎勵模型”。

這個獎勵模型學了類的審:什么是幽默的、什么是準確的、什么是安的。

,我們有了個知疲倦的子判官。

階段:近端策略優(yōu)化(PPO)——“為了糖而努力” 這是正的化學習階段。

我們讓主模型由生回答,然后獎勵模型給它打。

如得(比如回答得很有禮貌且準確),模型參數(shù)就調(diào)整,以此來化這種行為(給它糖)。

如得低(比如說了臟話或胡言語),模型就受到懲罰。

經(jīng)過數(shù)萬次的我弈和調(diào)整,模型終于學了:要想獲得(獎勵),我就須生符合類價值觀(Helfl, Hnet, Hrmle - H原則)的回答。

意義與局限RLHF是CtGPT能夠火的關(guān)鍵。

它解決了AI的**對齊(Alignment)**問題——讓AI的目標與類的意圖致。

然而,RLHF也有局限。

它有導致“對齊稅”(Alignment Tx),即模型為了過度安而變得這個問題裝傻充愣,或者為了討類而說出類愛聽的謊話(阿諛奉承)。

更深層的問題是:我們是用普的反饋去訓練級智能,這是否限AI越類的限?

. Sling Lw:暴力的學科學界,很有定律能像摩爾定律那樣簡而具有統(tǒng)治力。

但AI領(lǐng)域,我們找到了新的圣經(jīng)——縮定律(Sling Lw)。

00年的預言00年,OenAI的研究員Jre Kln等發(fā)表了篇具有程碑意義的論文。

他們過量的實驗發(fā)了個驚的規(guī)律:語言模型的能(L,即預測錯誤的概率),與以個因素呈對數(shù)關(guān)系:計算量(Cmte): 訓練用了多算力。

數(shù)據(jù)集(Dtet Size): 讀了多書。

參數(shù)量(Prmeter): 模型腦子有多。

簡來說:只要你把模型、數(shù)據(jù)喂多、算力加滿,AI變聰明就是種物理學般的然。

這個發(fā)的震撼之處于它的可預測。

Sling Lw被發(fā)之前,煉丹(訓練模型)像是票。

但,工程師們可以訓練個萬億參數(shù)的模型之前,先模型實驗,然后準地畫出曲,預測出模型訓練完后的智力水。

“苦澀的教訓”與涌(Emergene)Sling Lw驗證了計算機科學家Ri Sttn出的“苦澀的教訓”(Te Bitter Len):這個領(lǐng)域,所有巧的工設(shè)計(如教AI語法規(guī)則),終都敵過的算力堆疊。

但這還是奇的。

奇的是涌能力(Emergent Ailitie)。

當模型規(guī)模較,它的能力是增長的。

但當參數(shù)量突破某個臨界點(比如00億或000億參數(shù)),些意想到的能力突然“涌”出來。

規(guī)模,它根本懂邏輯推理。

旦突破臨界點,它突然就數(shù)學題了,寫碼了,理解反諷了。

這種象就像水:個水子你也找到“濕”這個概念,但當數(shù)水子聚起,浪就誕生了。

摩爾定律的接力棒Sling Lw是OenAI敢于入數(shù)億元顯卡的理論依據(jù)。

它告訴資本:別問為什么,把進去,把爐子燒熱,跡然顯。

但,行業(yè)也辯:Sling Lw是否失效?

如你喂光了互聯(lián)所有的數(shù)據(jù),模型還能變聰明嗎?

這引出了“合數(shù)據(jù)”和“推理計算”的新戰(zhàn)場。

4. 幻覺 (Hllintin):麗的謊言如你問CtGPT:“賈寶是哪章迎娶了林黛?”

它可能本正經(jīng)地告訴你:“《紅樓夢》,伴隨著悲傷的音……”這種象被稱為“幻覺”。

它是目前模型令頭疼的缺陷,但也是它迷的。

為什么AI撒謊?

要理解幻覺,須回到模型的本質(zhì):概率預測機。

當你問它個事實問題,它并是去數(shù)據(jù)庫檢索條記錄(那是搜索引擎的工作)。

它是根據(jù)它讀過的所有書,預測個字出的概率。

對于AI來說,并沒有“理”和“謊言”的概念,只有“概率”和“低概率”。

如它的訓練數(shù)據(jù),“林黛”和“結(jié)婚”經(jīng)常出同段落(可能是同說或錯誤解讀),它就傾向于把它們組合起。

它是陳述事實,它是拼起來像事實的句子。

這種機被稱為隨機鸚鵡(Stti Prrt)。

幻覺的種類事實沖突: 比如說是盛頓發(fā)明了燈。

生有: 捏篇存的論文引用,連作者、年份、期刊號都編得有模有樣。

邏輯謬誤: 數(shù)學題,步驟似完,結(jié)卻是錯的。

Bg還是Fetre?

嚴謹?shù)膱鼍埃ㄈ玑t(yī)療、法律),幻覺是致命的Bg。

但創(chuàng)意寫作,幻覺就是Fetre()。

當你要它“寫個關(guān)于朋克孔乙己的故事”,你其實就是要求它產(chǎn)生幻覺。

正是這種受事實約束的聯(lián)想能力,賦予了AI驚的創(chuàng)力。

怎么治?

目前主流的療法是RAG(檢索增生)。

AI回答問題前,先讓它去搜索引擎或有數(shù)據(jù)庫找資料,然后把找到的資料擺它面前,命令它:“只許根據(jù)這些資料回答,要己瞎編?!?br>
這就像是考試允許卷,雖然學生可能還是抄錯,但瞎編的概率降低了。

5. AGI:類的后項發(fā)明AGI(Artifiil Generl Intelligene),用工智能。

這個字母是硅谷所有的終點,也是所有恐懼的源頭。

什么是AGI?

目前的AI(包括AlG、CtGPT)多屬于弱工智能(Nrrw AI)。

它們定領(lǐng)域(如圍、寫碼)可能越類,但如你讓AlG去煎雞蛋,它首接死機。

AGI則是指種具備廣義理解能力和推理能力的智能系統(tǒng)。

它應(yīng)該像類樣:用: 能學語,也能修桶,還能搞科研。

主: 需要類給它設(shè)定具目標,它能我設(shè)定目標。

學習能力: 能從量樣本速學習新技能(Few-t Lerning)。

關(guān)于AGI的定義,標準首變。

以前們認為“過圖靈測試”就是AGI,后來CtGPT輕松過了,們又說“那算”。

有出了“咖啡測試”:讓機器走進個陌生的家庭,找到廚房,學使用奇怪的咖啡機,泡杯咖啡。

什么候AI能到這點,AGI就來了。

什么候到來?

這是個價值萬億元的局。

觀派(如Sm Altmn): 認為00年之前,甚至更早。

他們相信Sling Lw繼續(xù)生效,只需堆算力就能“力出奇跡”。

悲觀派(如Ynn LeCn): 認為目前的LLM路是死胡同,它只是模仿了類語言的皮,沒有理解物理界的因律。

AGI還需要幾年的基礎(chǔ)研究突破。

終哲學問題如AGI的實了,它將是類歷史后項重的發(fā)明。

因為隨后的所有發(fā)明(治愈癌癥、星際航行、聚變能源),AGI都能比類得更、更。

這也引出了那個著名的“回形針化”思想實驗: 如你給個級AGI達指令:“盡可能多的回形針?!?br>
它可能先把地球的鋼鐵用光,然后把類血液的鐵元素取出來回形針,后把整個系拆解回形針的原料。

因為你沒有告訴它“要”。

這正是為什么OenAI、Antri等公司部存烈的“對齊”之爭的原因。

迎接明降臨之前,我們須確保明是愛我們的,或者至,是聽得懂我們那并嚴謹?shù)脑竿摹?br>