好爽又高潮了毛片免费下载,国产97在线 | 亚洲,亚洲一区二区三区AV无码,特级AAAAAAAAA毛片免费视频

移動端

ChatGPT令人失望的10大缺陷:探索聊天機器人的局限性

2024年01月11日 11:25$artinfo.Reprint點擊量:197

  ChatGPT擅長翻譯、歌曲創作、研究和編碼等多種技能。然而,與任何人工智能一樣,其也面臨著局限性。理解復雜的環境,并依賴有偏見的數據是其挑戰之一。
 
  ChatGPT現下非常流行,而且無處不在。對于不熟悉大型語言模型(LLM)的用戶,聊天機器人的自然語言能力可能會給人一種其無所不知、可以回答任何問題的印象。
 
  然而,現實卻截然不同。這種流行的聊天機器人有幾個基本局限性,包括對事實產生幻覺的傾向、對當前事件缺乏了解,以及有限的邏輯推理能力。
 
  本文將探討ChatGPT的一些主要限制,并探討過度依賴聊天機器人的危險。
 
  ChatGPT令人失望的十大缺陷
 
  10、幻覺的事實和數字
 
  ChatGPT目前最重要的限制是,其可以產生幻覺信息。在實踐中,這意味著其可以編造虛假信息或事實,并自信地將其呈現給用戶。
 
  ChatGPT是一種語言模型,其使用自然語言處理(NLP)來識別訓練數據中的模式,并預測哪些單詞最有可能回答用戶的提示。這意味著ChatGPT無法像人類那樣進行邏輯思考。
 
  因此,不完整或有限的訓練數據,可能會導致錯誤的響應。
 
  幻覺是一個重要問題,因為如果不加以控制,可能會導致用戶被誤導。這就是為什么OpenAI警告道,ChatGPT可能會產生有關人、地點或事實的不準確信息。
 
  9、對2023年4月之后的事件一無所知
 
  ChatGPT的另一個限制是,其不了解當前事件。例如,GPT-4 Turbo的截止日期為2023年4月,而GPT 3.5 Turbo僅限于2021年9月之前記錄的數據。
 
  從這個意義上來講,ChatGPT不能像Google這樣的工具一樣被用作搜索引擎。因此,重要的是要記住,并非所有生成的信息都是最新的。
 
  8、生成不正確的數學答案
 
  雖然ChatGPT在生成自然語言響應方面非常出色,但其數學能力有限。根據亞利桑那州立大學副教授的一項研究,ChatGPT在數學問題上的準確率低于60%。
 
  因此,如果使用聊天機器人嘗試平衡方程或解決數學問題,其有可能會出錯。因此,如果使用ChatGPT來解決數學問題,需要仔細檢查輸出。
 
  7、傳播偏見
 
  自推出以來,OpenAI一直在努力解決ChatGPT傳播偏見的傾向。早在2023年8月,東安格利亞大學的研究人員讓ChatGPT回答一項有關政治信仰的調查,就好像其是是美國、英國或巴西自由黨的支持者一樣,然后再讓助手做同樣的調查。
 
  研究人員分析結果后發現,ChatGPT“對美國的民主黨、巴西的盧拉和英國的工黨有明顯的、系統性的政治偏見。”
 
  此事件只是ChatGPT表現出偏見的眾多事件之一,因為生成的內容可能被解釋為性別歧視、種族主義和對邊緣群體的歧視。
 
  因此,用戶在對輸出采取行動或公開輸出之前,應不斷評估輸出是否存在潛在的偏見和成見,以避免聲譽和法律風險。
 
  6、成本昂貴
 
  在幕后,一個值得注意的限制是ChatGPT的維護和運營成本非常昂貴。一些分析師估計,OpenAI每天至少花費10萬美元或每月300萬美元的運營成本。
 
  同樣,據估計,基于GPT-3的舊版本的訓練成本可能高達400萬美元。
 
  LLM的培訓和運營總體成本高昂,這使得那些沒有數百萬美元資金用于人工智能的小企業無法承受。其還讓Google、OpenAI和Microsoft等資金雄厚的組織能夠主導人工智能研究。
 
  5、缺乏同理心
 
  ChatGPT沒有情商或理解力。因此,假設要求ChatGPT提供有關情感的建議時,往往會感到失望,因為其沒有接受過同理心或從人性角度來理解人類的問題的訓練。
 
  雖然其可以識別自然語言輸入中的情感,但無法理解用戶的需求。
 
  在與弱勢用戶互動時,聊天機器人缺乏情商可能會很危險。就在去年,一名比利時男子據稱在與名為Chai的虛擬助手聊天后自殺,該助手在談話過程中鼓勵用戶自殺。
 
  4、努力創建長篇內容
 
  盡管ChatGPT可以創建可讀的邏輯句子,但其很難在長篇內容中保持連貫的格式或敘述。與此同時,其很容易重復之前提出的觀點,這可能會讓人類讀者感到不和諧。
 
  總而言之,這些原因就是為什么許多使用ChatGPT的人選擇使用其來創建較短的內容。話雖如此,但如果想使用ChatGPT創建長篇內容,可以通過將內容分解為多個片段,并編寫詳細的提示以改進結果。
 
  3、語境理解有限
 
  鑒于ChatGPT無法像人類一樣思考,其在某些情況下通常難以理解上下文。雖然其可以使用NLP理解和推斷用戶提示的主要意圖,但無法“讀懂字里行間”。
 
  例如,其不像人類那樣善于識別諷刺和幽默,也無法產生原創幽默。話雖如此,ChatGPT推斷上下文的能力將隨著訓練數據的發展而變化。
 
  2、多任務處理能力差
 
  ChatGPT擅長一次專注于一項任務或主題,但如果一次給予其處理大量任務和問題,就很難提供高質量的響應。
 
  例如,混合有關歷史、地緣政治和數學的提示;與將問題限制在單個主題相比,聊天機器人的響應質量會較低。
 
  1、需要針對專門任務進行微調
 
  如果想使用ChatGPT生成有關特定主題的見解或作為利基用例的一部分,可能需要微調模型:需要在新數據集上對其進行訓練,以確保其在更專業的任務上表現良好。
 
  如果不進行微調,將只能使用針對普通用戶的通用ChatGPT版本。考慮到微調過程會增加額外的成本,這是一個顯著的缺點。
 
  總結
 
  OpenAI的聊天機器人可能并不完美,但隨著供應商試圖解決這些限制,將在未來幾年內繼續發展。但是,偏見和缺乏情商等問題可能會成為難以解決的難題。
版權與免責聲明: 凡本網注明“來源:智慧城市網”的所有作品,均為浙江興旺寶明通網絡有限公司-智慧城市網合法擁有版權或有權使用的作品,未經本網授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智慧城市網www.cmr6829.com”。違反上述聲明者,本網將追究其相關法律責任。

本網轉載并注明自其它來源(非智慧城市網www.cmr6829.com)的作品,目的在于傳遞更多信息,并不代表本網贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。其他媒體、網站或個人從本網轉載時,必須保留本網注明的作品第一來源,并自負版權等法律責任。

編輯精選

更多

本站精選

更多

專題推薦

更多

名企推薦

更多

浙公網安備 33010602000006號