當(dāng)前,大語言模型(LLM)的應(yīng)用日益廣泛,覆蓋從文本生成到復(fù)雜問題解決等多個領(lǐng)域。然而,如何有效地與這些人工智能模型交互,以發(fā)揮它們的最大潛力,卻是一個經(jīng)常被忽視的話題。中國科學(xué)技術(shù)大學(xué)心理學(xué)系的林志成特任研究員在其最近的評論文章中提供了一些實用的策略和指導(dǎo),幫助我們更好地理解和利用這些先進(jìn)的人工智能工具。
在《自然人類行為》(Nature Human Behaviour)發(fā)表的文章中,林志成詳細(xì)討論了與大語言模型交互時如何寫有效的“指令”(Prompt)。文章強調(diào),精心設(shè)計的指令不僅可以提高響應(yīng)的準(zhǔn)確性和相關(guān)性,還可以避免由于指令質(zhì)量不佳而導(dǎo)致的模型表現(xiàn)不佳。

大語言模型運用深度學(xué)習(xí)技術(shù)模擬人類大腦的神經(jīng)網(wǎng)絡(luò),根據(jù)用戶的指令生成文本等內(nèi)容。與傳統(tǒng)軟件不同,它能夠解析自然語言命令,并在多種任務(wù)中表現(xiàn)出色,因而既用戶友好又具有多樣性。文章指出:“與大語言模型的互動看似非常簡單:只需輸入一個問題,立刻得到回答。然而,有效地與這些模型互動實際上比最初看起來的要更為復(fù)雜和細(xì)致?!?/p>
為了克服這一挑戰(zhàn),文章給出了一系列策略,包括明確指令、分解復(fù)雜任務(wù)、增加相關(guān)上下文、使用角色扮演以及提供具體示例等。這些方法可以有效指導(dǎo)模型生成更精準(zhǔn)的回答,并減少錯誤累積的可能性。
此外,文章還強調(diào)了“指令工程”(prompt engineering)的重要性。這是一種通過精確控制輸入指令來優(yōu)化大語言模型輸出的技術(shù)。文章分享了多種實用的指令策略,旨在幫助用戶從大語言模型中獲得最佳結(jié)果。文章不僅提供了一個實用的交互指南,還促進(jìn)了我們對大語言模型潛力的深入理解。這些策略和見解對于希望提高與大語言模型交互效率的用戶來說,具有重要價值。
林志成特任研究員為本文的唯一作者。林志成博士是心理學(xué)系今年引進(jìn)的青年人才,自2024年起擔(dān)任《Psychological Science》和《Behavior Research Methods》的副主編,是首位獲此殊榮的大中華地區(qū)學(xué)者。此外,他曾是《Journal of Experimental Psychology: General》的編委(大陸首位)、Psychonomic Society的會士,并榮獲意識科學(xué)研究學(xué)會(ASSC)威廉詹姆斯獎和心理科學(xué)協(xié)會(APS)的新星獎(Rising Star Award)等重要國際獎項。
該研究得到了科技創(chuàng)新2030、國家自然科學(xué)基金委等的資助。
原文鏈接:
https://www.nature.com/articles/s41562-024-01847-2
https://mp.weixin.qq.com/s/2GgiwfiDJGV1krc9IP2U_g
(人文與社會科學(xué)學(xué)院心理學(xué)系、科研部)