貴州網(wǎng)站建設(shè)多少錢僅需500元(斯坦福什么概念)斯坦福多少錢一只?,
要點:1. 維基百科+大模型打敗幻覺,斯坦福WikiChat在事實準確性和其他指標上表現(xiàn)優(yōu)秀2. 斯坦福研究人員利用維基百科數(shù)據(jù)訓練大模型WikiChat,成功減輕了幻覺問題,并在事實準確性和對話性方面超過了其他模型。
3. 通過優(yōu)化和改進,WikiChat在各個方面的性能都顯著領(lǐng)先,尤其在事實準確性方面達到了97.3%站長之家(ChinaZ.com)1月4日 消息:斯坦福大學的研究人員利用維基百科數(shù)據(jù)訓練了一個大模型,命名為WikiChat,通過優(yōu)化和改進,成功解決了大模型的幻覺問題,并在事實準確性和其他指標上表現(xiàn)優(yōu)秀。
他們的最佳模型在新的基準測試中獲得了97.3%的事實準確性,遠遠超過了GPT-4的66.1%。此外,WikiChat還在相關(guān)性、信息性、自然性、非重復(fù)性和時間正確性方面領(lǐng)先其他模型。
論文地址:https://aclanthology.org/2023.findings-emnlp.157.pdf項目代碼:https://top.aibase.com/tool/wikichat為了解決幻覺問題,研究人員采用了檢索增強生成(RAG)的方法,并添加了幾個重要步驟來進一步減輕幻覺,并改進對話性指標。
通過這些優(yōu)化,WikiChat在事實準確性方面比微調(diào)后的SOTA RAG模型Atlas高出8.5%此外,研究人員還將基于GPT-4的WikiChat提煉成7B參數(shù)的LLaMA模型,這個模型在事實準確性方面能達到91.1%的高分,并且運行速度提高了6.5倍,能效更好,可以本地部署。
然而,解決大模型的幻覺問題并不容易一般情況下,當檢索不到相關(guān)信息或知識庫中沒有相關(guān)信息時,大模型會產(chǎn)生幻覺來填補空白為了解決這個問題,WikiChat通過匯總和過濾檢索到的信息,而不是直接生成響應(yīng)同時,研究人員還教導了LLM理解時間背景,以及在必要時讓系統(tǒng)說「我不知道」。
通過結(jié)合大模型和維基百科數(shù)據(jù),研究人員成功地提高了聊天機器人的性能WikiChat的成功表明,維基百科數(shù)據(jù)在大模型訓練中發(fā)揮了重要作用,通過檢索增強生成的方法,可以有效解決大模型的幻覺問題,提高模型的事實準確性和對話性能。
(舉報)