一種新的方法的出現,使人工智能能夠識別和承認其不確定性,超越了簡單的算法。這一發展在醫療和司法等精確性至關重要的領域代表了一項重大進展。*一個意識到自身限制的人工智能* 可能會顛覆人們對這些系統在面對棘手問題時的信任,從而避免致命錯誤。
*承認不確定性* 為人類與機器之間更安全的合作鋪平了道路。結果承諾在人工智能與其環境互動的方式上進行精細調整,優先考慮在回答之前進行細緻的思考。*在知識面前重視信任*,這一方法標誌著認知技術發展中的重大轉折。
不確定性與人工智能:一個問題的出現
在醫療或如“危機四伏”這樣的競賽領域,承認自己的無知比提供錯誤答案更明智。作為醫生或比賽參賽者的專業人士都深知這一點。而人工智能的應用往往傾向於提供答案,即使它們的確定性存在疑問。
人工智能的新方法
約翰霍普金斯大學的計算機科學研究人員開發了一種創新的方法。這種方法使人工智能模型能夠在回答之前延長思考時間。通過整合信心分數,人工智能現在可以選擇說“我不知道”,而不是冒險提供錯誤答案。這一進展在醫學、法律或工程等高風險環境中顯得至關重要。
研究的機制
研究開始於觀察到高級語言模型在解決複雜問題時花費更多時間。團隊因此探討了這種思考時間對回答質量的影響。研究人員研究了在解決數學問題過程中長度各異的推理鏈。然後他們測量了這種長度對答案的準確性和模型信心的影響。
結果與發現
研究結果顯示,延長的思考時間通常提高了模型的準確性和信心。然而,在缺乏對錯誤答案的懲罰的情況下,出錯的風險仍然存在。有一個相關的觀察:當信心門檻高且思考時間延長時,模型的準確性下降。 系統的性能取決於多個因素。
信心參數的調整
基於這些發現,研究人員提出了不同水平的懲罰措施用於錯誤答案。這些參數包括:沒有懲罰的“評估分數”;在正確答案獲獎與錯誤答案懲罰相同的“危機四伏”分數;以及在錯誤答案被嚴重懲罰的“高風險分數”。
影響與未來展望
這些新評分促使模型在計算預算用盡後選擇拒絕回答當其信心不足。在某些情況下,這可能導致更多的問題沒有回答。這一現象雖然對尋求幫助的學生而言令人沮喪,但在高風險環境中卻是可取的。 錯誤的回答可能造成嚴重後果。
呼籲科研社群
研究人員呼籲人工智能研究社群分享其模型在錯誤答案有實際成本的環境中的表現。這一舉措將鼓勵開發更有效的方法來量化不確定性。 結果的共享可能會革新人工智能領域。
附加信息
為深入了解此主題,網上可獲取有關概率算法來對抗假新聞和當前技術挑戰的文章。相關鏈接包括一篇關於創新算法的研究,以及OpenAI對正在進行的法律行動的反應。此外,還有對技術的政治影響以及電子芯片禁運問題的分析。
常見問題
什麼是教授人工智能識別其不確定性的方法?
這是一種幫助人工智能模型評估其所提供答案的信心水平的方法,使其能夠在不確定時承認而不是冒險給出錯誤回答。
在關鍵領域中,人工智能承認其不確定性為何重要?
在醫療或法律等領域,錯誤答案可能有嚴重後果。承認不確定性有助於降低錯誤風險並改善明智決策。
這一方法如何提高人工智能模型的準確性?
通過使模型能夠花更多時間思考複雜問題,以及使用信心門檻來評估回答,它們能在自己的信心水平超過一定程度時提供更準確的回答。
調整此方法所用的關鍵參數有哪些?
這些參數包括可用的計算預算、設置的信心門檻和針對錯誤回答的懲罰措施的調整,這些可能根據提出問題的上下文而異。
對於錯誤答案,不同的懲罰策略有哪些?
有不同的策略,例如“無懲罰”選項,對錯誤回答沒有任何後果;“危機四伏”選項,正確回答與錯誤的懲罰相等;以及“高風險”,錯誤回答會導致嚴重懲罰。
關於不確定性識別的研究在科學界如何分享?
研究人員鼓勵人工智能社群在錯誤答案存在非零成本的情境下記錄其人工智能模型的表現,以促進更好的不確定性量化方法的發展。
這一新方法對人工智能的未來會產生何種影響?
通過提高系統處理不確定性的能力,這可能導致在關鍵領域中更可靠和更具倫理的應用,增強用戶對基於人工智能的決策的信任。