ChatGPT擅長翻譯、歌曲創作、研究和編碼等多種技能。然而,與任何人工智能一樣,其也面臨著局限性。理解復雜的環境,并依賴有偏見的數據是其挑戰之一。
ChatGPT現下非常流行,而且無處不在。對于不熟悉大型語言模型(LLM)的用戶,聊天機器人的自然語言能力可能會給人一種其無所不知、可以回答任何問題的印象。
然而,現實卻截然不同。這種流行的聊天機器人有幾個基本局限性,包括對事實產生幻覺的傾向、對當前事件缺乏了解,以及有限的邏輯推理能力。
本文將探討ChatGPT的一些主要限制,并探討過度依賴聊天機器人的危險。
ChatGPT令人失望的十大缺陷
10、幻覺的事實和數字
ChatGPT目前最重要的限制是,其可以產生幻覺信息。在實踐中,這意味著其可以編造虛假信息或事實,并自信地將其呈現給用戶。
ChatGPT是一種語言模型,其使用自然語言處理(NLP)來識別訓練數據中的模式,并預測哪些單詞最有可能回答用戶的提示。這意味著ChatGPT無法像人類那樣進行邏輯思考。
因此,不完整或有限的訓練數據,可能會導致錯誤的響應。
幻覺是一個重要問題,因為如果不加以控制,可能會導致用戶被誤導。這就是為什么OpenAI警告道,ChatGPT可能會產生有關人、地點或事實的不準確信息。
9、對2023年4月之后的事件一無所知
ChatGPT的另一個限制是,其不了解當前事件。例如,GPT-4 Turbo的截止日期為2023年4月,而GPT 3.5 Turbo僅限于2021年9月之前記錄的數據。
從這個意義上來講,ChatGPT不能像Google這樣的工具一樣被用作搜索引擎。因此,重要的是要記住,并非所有生成的信息都是最新的。
8、生成不正確的數學答案
雖然ChatGPT在生成自然語言響應方面非常出色,但其數學能力有限。根據亞利桑那州立大學副教授的一項研究,ChatGPT在數學問題上的準確率低于60%。
因此,如果使用聊天機器人嘗試平衡方程或解決數學問題,其有可能會出錯。因此,如果使用ChatGPT來解決數學問題,需要仔細檢查輸出。
7、傳播偏見
自推出以來,OpenAI一直在努力解決ChatGPT傳播偏見的傾向。早在2023年8月,東安格利亞大學的研究人員讓ChatGPT回答一項有關政治信仰的調查,就好像其是是美國、英國或巴西自由黨的支持者一樣,然后再讓助手做同樣的調查。
研究人員分析結果后發現,ChatGPT“對美國的民主黨、巴西的盧拉和英國的工黨有明顯的、系統性的政治偏見。”
此事件只是ChatGPT表現出偏見的眾多事件之一,因為生成的內容可能被解釋為性別歧視、種族主義和對邊緣群體的歧視。
因此,用戶在對輸出采取行動或公開輸出之前,應不斷評估輸出是否存在潛在的偏見和成見,以避免聲譽和法律風險。
6、成本昂貴
在幕后,一個值得注意的限制是ChatGPT的維護和運營成本非常昂貴。一些分析師估計,OpenAI每天至少花費10萬美元或每月300萬美元的運營成本。
同樣,據估計,基于GPT-3的舊版本的訓練成本可能高達400萬美元。
LLM的培訓和運營總體成本高昂,這使得那些沒有數百萬美元資金用于人工智能的小企業無法承受。其還讓Google、OpenAI和Microsoft等資金雄厚的組織能夠主導人工智能研究。
5、缺乏同理心
ChatGPT沒有情商或理解力。因此,假設要求ChatGPT提供有關情感的建議時,往往會感到失望,因為其沒有接受過同理心或從人性角度來理解人類的問題的訓練。
雖然其可以識別自然語言輸入中的情感,但無法理解用戶的需求。
在與弱勢用戶互動時,聊天機器人缺乏情商可能會很危險。就在去年,一名比利時男子據稱在與名為Chai的虛擬助手聊天后自殺,該助手在談話過程中鼓勵用戶自殺。
4、努力創建長篇內容
盡管ChatGPT可以創建可讀的邏輯句子,但其很難在長篇內容中保持連貫的格式或敘述。與此同時,其很容易重復之前提出的觀點,這可能會讓人類讀者感到不和諧。
總而言之,這些原因就是為什么許多使用ChatGPT的人選擇使用其來創建較短的內容。話雖如此,但如果想使用ChatGPT創建長篇內容,可以通過將內容分解為多個片段,并編寫詳細的提示以改進結果。
3、語境理解有限
鑒于ChatGPT無法像人類一樣思考,其在某些情況下通常難以理解上下文。雖然其可以使用NLP理解和推斷用戶提示的主要意圖,但無法“讀懂字里行間”。
例如,其不像人類那樣善于識別諷刺和幽默,也無法產生原創幽默。話雖如此,ChatGPT推斷上下文的能力將隨著訓練數據的發展而變化。
2、多任務處理能力差
ChatGPT擅長一次專注于一項任務或主題,但如果一次給予其處理大量任務和問題,就很難提供高質量的響應。
例如,混合有關歷史、地緣政治和數學的提示;與將問題限制在單個主題相比,聊天機器人的響應質量會較低。
1、需要針對專門任務進行微調
如果想使用ChatGPT生成有關特定主題的見解或作為利基用例的一部分,可能需要微調模型:需要在新數據集上對其進行訓練,以確保其在更專業的任務上表現良好。
如果不進行微調,將只能使用針對普通用戶的通用ChatGPT版本。考慮到微調過程會增加額外的成本,這是一個顯著的缺點。
總結
OpenAI的聊天機器人可能并不完美,但隨著供應商試圖解決這些限制,將在未來幾年內繼續發展。但是,偏見和缺乏情商等問題可能會成為難以解決的難題。