chatgpt人工智能算法中的術(shù)語(yǔ)“訓(xùn)練”怎么理解?

ChatGPT是美國(guó)人工智能研究實(shí)驗(yàn)室OpenAI新推出的一種人工智能技術(shù)驅(qū)動(dòng)的自然語(yǔ)言處理工具,使用了Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu),也是GPT-3.5架構(gòu),這是一種用于處理序列數(shù)據(jù)的模型,擁有語(yǔ)言理解和文本生成能力,尤其是它會(huì)通過(guò)連接大量的語(yǔ)料庫(kù)來(lái)訓(xùn)練模型,這些語(yǔ)料庫(kù)包含了真實(shí)世界中的對(duì)話,使得ChatGPT具備上知天文下知地理,還能根據(jù)聊天的上下文進(jìn)行互動(dòng)的能力,做到與真正人類(lèi)幾乎無(wú)異的聊天場(chǎng)景進(jìn)行交流。ChatGPT不單是聊天機(jī)器人,還能進(jìn)行撰寫(xiě)郵件、視頻腳本、文案、翻譯、代碼等任務(wù)。(以上內(nèi)容是百度百科對(duì)chatgpt的介紹)

從上數(shù)的描述中我們可以看出ChatGPT是基于自然語(yǔ)言處理、機(jī)器學(xué)習(xí)算法、數(shù)據(jù)爬蟲(chóng)搜索以及其他交互式工具的集合體。機(jī)器學(xué)習(xí)算法是ChatGPT的核心大腦,其他的工具都是為機(jī)器學(xué)習(xí)算法提供數(shù)據(jù)的采集、處理以及導(dǎo)入。上述的描述中有一句話“尤其是它會(huì)通過(guò)連接大量的語(yǔ)料庫(kù)來(lái)訓(xùn)練模型”,這里的模型就是機(jī)器學(xué)習(xí)算法模型,那“訓(xùn)練”這個(gè)詞到底該怎么去理解它呢?

“訓(xùn)練”其實(shí)是人們對(duì)于這個(gè)算法學(xué)習(xí)過(guò)程的感性的解釋?zhuān)胝嬲娜ダ斫膺@個(gè)詞語(yǔ),那就要以一個(gè)具體的機(jī)器學(xué)習(xí)算法為例,如BP神經(jīng)網(wǎng)絡(luò)模型。在《matlab機(jī)器學(xué)習(xí)及其應(yīng)用》課程中的4-1節(jié),有對(duì)該算法進(jìn)行詳細(xì)的描述,在查看下面的講解之前,學(xué)員們可以先對(duì)該節(jié)課進(jìn)行觀看。

254001-1.png 上圖為BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)以及大致的訓(xùn)練過(guò)程,整個(gè)過(guò)程主要分為兩個(gè)流程,從左到右為正向傳播過(guò)程,用來(lái)計(jì)算從輸入層到輸出層的中間的各個(gè)神經(jīng)元節(jié)點(diǎn)的結(jié)果,具體計(jì)算方法參考課程。從右到左為反向傳播過(guò)程,當(dāng)輸出層的預(yù)測(cè)結(jié)果得到后與實(shí)際結(jié)果計(jì)算出誤差,根據(jù)修正公式逐層去修正輸入層到隱含層之間的權(quán)值閾值、隱含層到輸出層之間的權(quán)值閾值,具體計(jì)算方法參考課程。正向-反向傳播這一次循環(huán)計(jì)算為算法的一次訓(xùn)練過(guò)程,每次循環(huán)都會(huì)對(duì)其中的參數(shù)進(jìn)行修正,當(dāng)所有循環(huán)結(jié)束或者算法停止循環(huán)后最后得到的參數(shù)對(duì)應(yīng)的模型就是我們訓(xùn)練好的結(jié)果,稱(chēng)作“訓(xùn)練”好了我們需要的神經(jīng)網(wǎng)絡(luò)模型。從該過(guò)程中,可以發(fā)現(xiàn)所謂的訓(xùn)練實(shí)際上就是循環(huán)求解修正滿足誤差要求的模型參數(shù)(模型結(jié)構(gòu)是事先確定好不變的)。

ChatGPT是人工智能、機(jī)器學(xué)習(xí)算法多年研究積淀的成果,是一個(gè)劃時(shí)代的存在,有可能成為人類(lèi)發(fā)展歷史過(guò)程中的“奇異點(diǎn)”。因此機(jī)器學(xué)習(xí)算法的研究是科技發(fā)展的下一個(gè)重要研究點(diǎn),也是大家今后學(xué)習(xí)的重點(diǎn)。



請(qǐng)前往:http://lygongshang.com/TeacherV2.html?id=269