摘 要:隨著大語言模型在自然語言處理領域的廣泛應用,其在數(shù)學建模領域中的準確性成為研究的焦點。該文通過引入命名實體識別(NER)和提示詞工程(Prompt Engineering)的方法,提高大語言模型在數(shù)學建模問題中的回答準確率?;贕PT-3.5模型,通過對數(shù)學建模領域特定問題的語境和結構進行深入分析,闡述一套有效的NER策略和提示詞工程方法,以優(yōu)化大模型對數(shù)學問題的理解和響應。
關鍵詞:大語言模型;ChatGPT;命名實體識別;提示詞工程;數(shù)學建模
中圖分類號:TP18 文獻標志碼:A 文章編號:2095-2945(2024)22-0018-04
Abstract: With the wide application of large language model in the field of natural language processing, its accuracy in the field of mathematical modeling has become the focus of research. In this paper, named entity recognition (NER) and prompt engineering are introduced to improve the accuracy of large language model in mathematical modeling. Based on the GPT-3.5 model, through the in-depth analysis of the context and structure of specific problems in the field of mathematical modeling, this paper expounds a set of effective NER strategies and prompt engineering methods to optimize the understanding and response of the large model to mathematical problems.
Keywords: large language model; ChatGPT; named entity recognition; prompt word engineering; mathematical modeling
近年來,深度學習領域取得了巨大的成功,其中Transformer模型的出現(xiàn)標志著自然語言處理、計算機視覺等多個任務的性能突破。Transformer作為一種創(chuàng)新性的神經網絡架構,在其問世后引起了廣泛的關注和研究。其獨特的自注意力機制和并行化能力使其在處理長序列和捕捉全局上下文信息方面表現(xiàn)出色,成為深度學習領域的重要里程碑。
大語言模型是深度學習的應用之一,尤其在自然語言處理(Natural Language Processing,NLP)領域。它在大規(guī)模語料庫上進行預訓練的巨大神經語言模型深度神經網絡,其基于Transormer架構,學習大量的文本數(shù)據(jù),理解和生成人類語言。隨著大語言模型在自然語言處理領域的快速發(fā)展,其在數(shù)學建模中的應用為提高大模型在問題理解和準確回答提供了新的機遇。大語言模型能夠通過學習大規(guī)模文本數(shù)據(jù)中的語言模式,自動提取問題陳述中的關鍵信息,并生成相應的回答。在數(shù)學建模領域,這種能力尤為重要,因為問題通常涉及復雜的數(shù)學概念和關系以及模型的各類專業(yè)知識。例如,OpenAI的GPT(Generative Pre-trained Transformer)系列和BERT(Bidirectional Encoder Representations from Transformers),這些模型利用了Transformer的架構,并通過預訓練學習了大量的語言表示。這些表示在各種自然語言處理任務中表現(xiàn)出色,包括文本生成、文本分類、命名實體識別等。主要體現(xiàn)在層數(shù)深、參數(shù)量大、訓練數(shù)據(jù)量大。這些模型的目標是理解和生成人類語言。為了實現(xiàn)這個目標,模型需要在大量文本數(shù)據(jù)上進行訓練,以學習語言的各種模式和結構。如 ChatGPT[1],就是一個大語言模型的例子。其被訓練來理解和生成人類語言,以便進行有效的對話和解答各種問題。
在數(shù)學建模領域當中,涉及到了分類模型、預測模型、微分方程和規(guī)劃算法等各類專有名詞,精準的語言理解對于模型輸出的準確性至關重要。大語言模型的引入為解決這一問題提供了新的思路和工具,但是大多數(shù)的通用領域預訓練大語言模型并不能準確識別其名詞所屬領域,進而導致了模型的回答與問題形成了答非所問的現(xiàn)象。本文通過構建命名實體識別與提示詞工程對數(shù)學建模問題中涉及到的專有名詞進行識別,并通過提示詞工程使得模型偏向于這一特定領域,提高模型對數(shù)學建模問題回答的準確率。
1 相關工作
ChatGPT是由OpenAI開發(fā)的真正智能的聊天機器人,其核心采用通過大量語料進行訓練的GPT架構,整個程序通過GPT-3.5架構的生成式大規(guī)模語言模型搭建而成,支持用戶以文字方式互動,并可以使用人類自然對話的方式進行交互,還可以用于相對復雜的語言工作,包括文本生成、解決文本類的數(shù)學問題,實現(xiàn)代碼編寫,修改代碼等多種任務。如在文本生成方面,其可以根據(jù)輸入的文本推理輸出文本內容。在解決文本類的數(shù)學問題方面,ChatGPT可以根據(jù)輸入的問題自動生成答案。在代碼編寫、修改代碼方面,可以根據(jù)用戶想要實現(xiàn)的程序需求自動生成代碼,并可以根據(jù)用戶自行編寫的代碼邏輯基礎上,向GPT發(fā)送相關的報錯信息即可自動生成修改后的代碼。而想要真正地實現(xiàn)人工智能化的問答大模型,需要使得模型準確理解用戶發(fā)送的信息內容,通過正確的模型推理,對大模型輸出的回答進行一定程度上的優(yōu)化以及微調才能使其盡可能給出正確的回答,避免模型“幻覺”問題。
一個大模型為了實現(xiàn)更高水平的智能問答,以更準確地理解和回應用戶的需求。就必須對模型進行進一步的訓練,引入更多多樣性的語料,以涵蓋更廣泛的主題和語境。另外,對模型進行細粒度的微調也是關鍵的一步。通過針對特定領域或任務的微調,可以提高模型在這些特定情境下的表現(xiàn)。這種微調不僅包括語言層面的優(yōu)化,還可能涉及領域專業(yè)知識的注入,以使大模型在特定領域的問題上更具專業(yè)性和可靠性。
1.1 命名實體識別
隨著社會信息化的飛速發(fā)展,大量文本數(shù)據(jù)的迅猛增長已經成為當下的常態(tài)。這些文本數(shù)據(jù)涵蓋了從日常交流到新聞報道、學術研究等各個領域的豐富內容。在這海量信息中,蘊含著大量實體信息,包括但不限于人物、地點、組織機構等,這構成了信息世界的基本構成要素。這些實體信息承載著文本的關鍵語義和內在關聯(lián),對于深化對信息的理解、挖掘潛在知識至關重要。為了有效處理和利用這些龐大文本數(shù)據(jù)中的實體信息,命名實體識別(Named Entity Recognition, NER)應運而生,成為信息提取不可或缺的組成部分。NER的主要任務是在文本中識別命名實體,并將其歸類到相應的實體類型中。然而,由于文本的多樣性和復雜性,涉及多語言表達方式、文化背景以及領域專業(yè)術語,這項任務充滿了挑戰(zhàn)。然而,解決這些挑戰(zhàn)對于提高信息處理和理解的水平至關重要。
在過去,為了實現(xiàn)命名實體識別,人們主要采用手工設計的規(guī)則系統(tǒng)[2]。這些規(guī)則系統(tǒng)通過對文本中的語言規(guī)律進行建模,識別實體并將其分類。這種方法的優(yōu)勢在于對領域專業(yè)知識的靈活運用,能夠捕捉特定實體的上下文環(huán)境、語法結構等信息,從而提高識別的準確性和效率。然而,隨著深度學習技術的不斷發(fā)展,基于神經網絡的方法逐漸成為命名實體識別領域的新趨勢。這些方法通過構建復雜的神經網絡結構,使模型能夠自動學習文本中的特征表示,進而提高系統(tǒng)的自動化和泛化能力。深度學習的優(yōu)勢在于其能夠處理更復雜的語境和語言表達,對于具有挑戰(zhàn)性的實體識別問題表現(xiàn)出更強大的性能。以“請使用隨機森林分類模型預測未來5年中嬰兒出生率屬于高中低哪一類”為例,應提取信息隨機森林分類模型。
NER的應用領域非常廣泛,不僅在傳統(tǒng)的信息檢索、問答系統(tǒng)、機器翻譯等領域有著廣泛應用,還在社交媒體分析、金融輿情監(jiān)測等方面具有重要意義。通過對海量文本數(shù)據(jù)進行命名實體識別,能夠更好地理解社會、把握信息動向,為決策提供有力支持。
綜合而言,命名實體識別作為信息處理領域的重要工具,不斷在理論和技術上取得突破。其發(fā)展和創(chuàng)新將為信息挖掘、知識發(fā)現(xiàn)等領域帶來更廣闊的可能性,助力推動社會信息化進程向更深層次邁進。
1.2 提示詞工程
提示詞工程作為自然語言處理領域的一個關鍵研究方向,其核心目標在于設計具有針對性和有效性的提示詞,以應對智能系統(tǒng)在處理自然語言時所面臨的挑戰(zhàn)。這一研究方向的興起源于對大語言模型在特定領域中對上下文理解能力的限制。在特定領域中,大語言模型的上下文理解能力有限,可能無法準確捕捉領域專業(yè)術語、潛在關聯(lián)以及特定背景知識。提示詞工程的任務就是通過設計和優(yōu)化合理的提示詞,提高智能系統(tǒng)在語言理解和生成任務中的性能。這涉及到如何通過提示詞引導模型更準確地理解用戶輸入的內容,或者生成特定領域的語境。在語言處理任務中,大型語言模型通常需要一些提示詞來引導其理解用戶生成的內容或生成特定的語境。這些提示詞的設計需要考慮到領域的特殊性,以及用戶在該領域中的期望和需求。合理的提示詞設計可以彌補大型語言模型對上下文理解的不足,使其更好地適應特定領域的語境,提高系統(tǒng)的性能表現(xiàn)[3]。
2 大語言模型在數(shù)學建模中的應用
在數(shù)學建模中,特定的領域知識和結構性信息的引入變得尤為關鍵。本文以ChatGPT為實驗大模型,通過引入命名實體識別與提示詞工程,能夠在數(shù)學建模問題中實現(xiàn)更高層次的語義理解。這意味著模型可以更好地理解問題的背景、要求和約束條件,從而更準確地為用戶提供有針對性的解答。
2.1 基于詞匯表的命名實體識別
目前能夠直接應用于命名實體識別當中的數(shù)學建模語料并不完整,缺乏大規(guī)模標注數(shù)據(jù),在這種情況下,通過預定義的詞匯表可以提供一種有效的解決方案?;谠~匯表的NER模型是一種規(guī)則驅動的方法,其核心思想是通過手工構建包含命名實體的詞匯表,利用這一詞匯表來識別文本中的實體。以數(shù)學建模優(yōu)秀論文中的答案進行整理合并后為例,將以下內容“#算法*圖像分割算法。#解答*針對問題一,首先我們用 MATLAB 提取附件1—附件4中所有球團礦相的灰度圖像,再應用圖像分割算法分離出電鏡掃描圖像中礦相微觀結構孔隙的二值圖和礦相元素顆粒分布的二值圖。隨后根據(jù)分割出圖像的幾何特征和分布特征,我們提出礦相孔隙平均直徑(MA)、孔隙比(PO)、孔隙分形維數(shù)(Dim)、礦相元素聚集區(qū)域分形維數(shù)(Dimbox)、聚集體延展方向發(fā)散度(StdD)、聚集體發(fā)散方向均勻度(StdU)、礦相元素格子均值(NorM)、礦相元素格子分布均勻度(NorS)8種特征參數(shù)用于表征礦相電鏡掃描圖像的視覺特征。應用圖像圖形處理算法,通過分析研究附件1—附件4中的球團礦相,提取可以表征礦相的視覺特征。首先我們需要通過 MATLAB 提取附件1—附件4中所有球團礦相的灰度圖像, 再應用圖像分割算法分離出電鏡掃描圖像中礦相微觀結構孔隙的二值圖和礦相元素顆粒分布的二值圖。隨后根據(jù)分割出圖像的幾何特征和分布特征,我們提出了礦相孔隙平均直徑(MA)、孔隙比(PO)、孔隙分形維數(shù)(Dim)、礦相元素聚集區(qū)域分形維數(shù)(Dimbox)、聚集體延展方向發(fā)散度(StdD)、聚集體發(fā)散方向均勻度(StdU)、礦相元素格子均值(NorM)、礦相元素格子分布均勻度(NorS)8個指標表征礦相電鏡掃描圖像的視覺特征?!痹谶@個答案中,構建詞匯表識別和描述電鏡掃描圖像中的礦相特征。本文首先定義此任務屬于數(shù)學建模領域,將上述內容中的命名實體進行標注后構建出的詞匯表見表1,以此類推,搜集數(shù)學建模常用的模型構建詞匯表。然后可以通過直接將相關詞匯表內容輸入給模型使其進行記憶,然后再提出待解決的問題。亦或者通過嵌入層將詞匯表中的術語映射為向量表示,然后將這些向量作為大語言模型的輸入,這樣,每個術語都會與一個連續(xù)的向量表示相關聯(lián),可以一定程度上避免AI的誤解現(xiàn)象。
2.2 數(shù)學建模領域的提示詞
數(shù)學建模競賽,其因知識面廣,涉及領域深等多種因素,一度成為了所有專業(yè)的高校大學生趨之若鶩的黃金競賽,黃金競賽在于其綜合性強,涉及了基礎數(shù)學、機器學習模型、深度學習模型、概率論與數(shù)理統(tǒng)計、數(shù)據(jù)挖掘等多個領域的內容,同時其賽題具有很明顯的特點,賽題較難,著重考察參賽選手的綜合能力,因此對大模型采用提示詞工程,使其理解提問的問題是否屬于數(shù)學建模領域,而不是答非所問具有重要意義,利用提示詞可以讓大模型鎖定數(shù)學建模領域,更好地發(fā)揮其邏輯能力,更好地解決用戶的問題。
本文通過采用指定AI身份的方式,使其提前定位于數(shù)學建模領域,例如:“請你扮演一名數(shù)學建模領域的專家,幫我解決一些問題”用戶的輸入與ChatGPT的回答示例見表2,使得大模型在面對復雜的自然語言任務時取得更為顯著的性能提升。
面對數(shù)學建模中伴隨的長文本的問題介紹以及多個問題的現(xiàn)象,用戶想要利用AI解決這些問題,需要進行任務拆解,本文設定將多個問題拆分為小問題,例如,在一個數(shù)學建模賽題中含有4個問題,可以先將賽題的背景介紹刪除,只向AI發(fā)送賽題的核心部分使其加深對待解決問題的理解,避免答非所問的現(xiàn)象出現(xiàn),再加入附件數(shù)據(jù)的介紹以及當前待求解的賽題當中的問題,可以大大提高模型對于問題的解決能力,直接給出可以應用的智能模型類型以及問題的相關求解步驟??傊?,利用提示詞工程對模型的回答范圍進行確定,進而使用“賽題核心+附件數(shù)據(jù)介紹+問題”的提問范式進行提問,以2023年華數(shù)杯全國大學生數(shù)學建模競賽C題為例,用戶的輸入與ChatGPT的回答示例內容見表3。
3 結束語
本文主要闡述了以GPT-3.5為例的大語言模型在數(shù)學建模領域中的應用,通過引入命名實體識別和提示詞工程的方法,致力于提高其在數(shù)學建模問題中的回答準確率。在這一研究中,本文對數(shù)學建模領域特定問題的語境和結構進行了深入分析。
首先,介紹了大語言模型在自然語言處理領域的廣泛應用,并指出了其在數(shù)學建模方面的潛在優(yōu)勢。隨后,本文詳細闡述了引入NER策略的重要性,闡述了構建基于詞匯表的命名識別方法,識別并理解文本中的模型各類命名實體,大幅提高了模型對數(shù)學建模問題的概念和模型的準確理解。
其次,本文探討了提示詞工程在數(shù)學建模中的作用。通過設計并引入合適的提示詞,有效地引導了模型關注關鍵信息,提高了其對問題的敏感度和回答的準確性。
在未來的研究中,將進一步探索如何結合更多領域專業(yè)知識和先進技術,進一步提升大語言模型在數(shù)學建模中的應用水平。期待這一領域的持續(xù)深入研究,為科學研究和實際應用帶來更多創(chuàng)新和突破。
參考文獻:
[1] 胡靖宇,楊博,高海軍.科技期刊對ChatGPT沖擊的應對策略[J].編輯學刊,2024(1):80-85.
[2] 李宏杰,黃薇,王奔.基于BERT的廣西非遺知識圖譜構建[J].現(xiàn)代計算機,2023,29(21):56-60.
[3] 秦濤,杜尚恒,常元元,等.ChatGPT的工作原理、關鍵技術及未來發(fā)展趨勢[J].西安交通大學學報,2024,58(1):1-12.
基金項目:太原科技大學校級大學生創(chuàng)新創(chuàng)業(yè)訓練計劃項目(XJ2023181)
*通信作者:孫寶(1981-),男,博士,副教授。研究方向為最優(yōu)化理論及應用。