老師,我覺得,在給定句子中出現(xiàn)了幾次“51自學網(wǎng)”,這里chatgpt是以句子為數(shù)量單位輸出。并不是之前記詞向量一樣計數(shù)。[問號]
學習達人
|
z460910841
展開
老師,我覺得,在給定句子中出現(xiàn)了幾次“51自學網(wǎng)”,這里chatgpt是以句子為數(shù)量單位輸出。并不是之前記詞向量一樣計數(shù)。[問號] 達文西007
講師
展開
@ z460910841 雖然表達不是很能理解,我估摸著你的意思回答一下吧。1、我感覺任何數(shù)字對于模型來說就沒有辦法掌控,讓它給我輸出10句話,他都有可能是11句。2、模型是沒有記憶的,不會有內(nèi)存存儲數(shù)據(jù),他都是通過理解以后再輸出。理解是抽象成詞向量再分析,再輸出詞向量,再解碼的過程。這個過程中具體的數(shù)字能否直接生效,是基于一定幾率的,不是給多少執(zhí)行多少。這里需要注意計算機執(zhí)行指令和模型執(zhí)行指令的差別,感覺有點像量子計算的原理,有興趣可以了解一下量子計算。[鬼臉] |
學習達人
|
wanhoudaren
展開
|
學習達人
|
星兒呀呀呀
展開
|
學習達人
|
yue328258793
展開
老師,關于字數(shù)統(tǒng)計,我認為chat-gpt并沒有統(tǒng)計錯,因為做word中統(tǒng)計的字符數(shù)量為112,在計算機中默認一個漢字占2個字符,所以chat-gpt認為字數(shù)為56應該是沒有錯誤。并不是詞向量所導致的統(tǒng)計不準確。 |
學習達人
|
T-hkgcnoxlg
展開
|
cocojing79
展開
|
承擔因您的行為而導致的法律責任,
本站有權保留或刪除有爭議評論。
參與本評論即表明您已經(jīng)閱讀并接受
上述條款。