香港文匯報(bào)訊 全球領(lǐng)先的人工智能(AI)集團(tuán)正加緊努力,減少大語(yǔ)言模型中的「幻覺」現(xiàn)象,以解決這一制約技術(shù)應(yīng)用的關(guān)鍵障礙。Google、亞馬遜、Cohere和Mistral等企業(yè)通過(guò)技術(shù)修復(fù)、優(yōu)化訓(xùn)練數(shù)據(jù)質(zhì)量,以及在生成式AI產(chǎn)品中構(gòu)建驗(yàn)證與事實(shí)核查系統(tǒng),試圖降低虛構(gòu)答案的出現(xiàn)頻率。這一努力被視為推動(dòng)AI在法律、醫(yī)療等依賴精準(zhǔn)信息的領(lǐng)域廣泛應(yīng)用的關(guān)鍵。
Mistral與法新社合作整合數(shù)據(jù)
所謂「幻覺」,是指AI因統(tǒng)計(jì)性預(yù)測(cè)機(jī)制生成與事實(shí)不符或偏離指令的內(nèi)容,例如模型可能錯(cuò)誤總結(jié)事件年份,或虛構(gòu)不存在的引用。研究顯示,不同模型的幻覺率差異顯著,從0.8%至29.9%不等。儘管新一代具備推理能力的AI初期錯(cuò)誤率上升,但通過(guò)引入「數(shù)據(jù)錨定」技術(shù),企業(yè)已顯著降低錯(cuò)誤。例如Mistral與法新社合作整合新聞數(shù)據(jù),而Cohere和Mistral還允許客戶連接內(nèi)部數(shù)據(jù)庫(kù),以增強(qiáng)事實(shí)核查。
亞馬遜AWS則嘗試通過(guò)數(shù)學(xué)邏輯自動(dòng)驗(yàn)證加強(qiáng)準(zhǔn)確性,Google DeepMind等公司還訓(xùn)練小型評(píng)估模型,專門檢測(cè)輸出錯(cuò)誤。然而專家指出完全消除幻覺並不可行,Cohere聯(lián)合創(chuàng)始人弗羅斯特強(qiáng)調(diào)模型無(wú)法僅學(xué)習(xí)「真實(shí)」,因真相隨世界動(dòng)態(tài)變化,且可能因觀點(diǎn)而異。此外,聯(lián)網(wǎng)檢索可能使AI遭受「提示注入」攻擊,例如Google AI曾因Reddit惡作劇建議用戶「吃石頭」。
行業(yè)面臨的另一挑戰(zhàn)是平衡準(zhǔn)確性與創(chuàng)造性。Google DeepMind指出,創(chuàng)意功能雖提升實(shí)用性,但也可能增加非事實(shí)性回答。
評(píng)論