人工智能聊天機器人無處不在於媒體環境中,對其可靠性引發了重大疑問。*BBC突顯*它們在新聞摘要中的令人擔憂的錯誤。這些工具本應提供即時資訊,但顯示出明顯的不足,妨礙了*資訊的準確性*。
最近的一項調查結果顯示,*超過51% 的回答*由人工智能助手提供,包含顯著錯誤。這些系統無法區分事實和意見,進一步加劇了錯誤信息的風險。這個議題的相關性引發了大家的關注,既關乎媒體的可信度,也影響公眾對事實的看法。
人工智能聊天機器人的可靠性受到質疑
創新的聊天機器人承諾提供即時的新聞摘要,但它們提供可靠資訊的能力受到質疑。由BBC進行的調查揭示了持續存在的錯誤,這些錯誤出現在像OpenAI的ChatGPT、微軟的Copilot、谷歌的Gemini和Perplexity AI這樣的人工智能助手提供的摘要中。
顯著的事實錯誤
研究結果顯示,51%的分析摘要存在顯著的錯誤,其中19%是確實的事實錯誤。例子突顯了這一問題,尤其是關於政治情勢的錯誤,如Rishi Sunak和Nicola Sturgeon的任命被錯誤地認為他們分別在2024年和2023年辭職。
由這些錯誤可能引起的錯誤信息令人擔憂。這些聊天機器人傳遞不正確的信息,影響了新聞機構的可信度。谷歌的Gemini尤其受到影響,其46%的陳述被評價為有問題,包括一項關於NHS的虛假聲明,聲稱不建議使用電子煙。
事實與意見之間的混淆
另一個令人擔憂的方面是聊天機器人在區分事實和意見方面的困難。據Deborah Turness,BBC新聞總監表示,這些助手常常將最新的新聞與過舊的內容混合,導致模糊而有時引人誤解的敘事。
引用的內容被扭曲或省略。例如Perplexity AI錯誤地將某些行動歸因於國家,同時改變了所描述事件的語氣。這些近似可能有重大的影響,特別是在地緣政治領域。
科技巨頭的反應
調查提出的擔憂促使科技公司做出回應。一位OpenAI的發言人表示,正在努力提高信息的準確性,並確保摘要準確反映來源內容。相關舉措旨在讓出版商更好地控制其出版物被聊天機器人使用的方式。
儘管有這些公告,對於企業與媒體合作的實際意願仍然存在疑問。科技巨頭們是否準備保證可靠的信息?
呼籲合作與透明
Deborah Turness呼籲媒體、監管機構和科技參與者之間進行深入合作,以防止未來的偏差。她主張應建立一個框架,使人工智能工具不僅可以變得更準確,還能尊重新聞報導的背景。
根據Pete Archer,BBC的生成式AI計劃總監,編輯們重新掌控其內容至關重要。他要求科技公司對所發現的錯誤及其摘要生成過程提供更大的透明度。
常見問題解答
BBC在人工智能聊天機器人的新聞摘要中識別的主要錯誤是什麼?
BBC指出,超過51%的聊天機器人生成的摘要存在不準確,包括19%的確實事實錯誤。
在BBC對新聞摘要可靠性的調查中分析了哪些聊天機器人?
BBC的調查分析了四個主要的人工智能助手:OpenAI的ChatGPT、微軟的Copilot、谷歌的Gemini和Perplexity AI。
人工智能聊天機器人的不準確性如何影響媒體的可信度?
聊天機器人的不準確性可能誤導用戶,侵蝕對媒體的信任,因為它們傳遞不正確或誤導性的信息。
人工智能生成的新聞摘要中的事實錯誤可能帶來什麼後果?
摘要中的事實錯誤可能導致信息的錯誤解讀,造成錯誤的看法,並對用戶的決策產生負面影響。
科技公司對BBC調查結果的反應如何?
科技公司,如OpenAI,對結果持輕描淡寫的態度,但承認需要改進,特別是在事實核對方面,以及與出版商的合作以保證信息的可靠性。
事實與意見之間的混淆在聊天機器人的錯誤中扮演什麼角色?
事實和意見之間的混淆使聊天機器人無法提供清晰準確的摘要,因為它們經常將當前信息與過去的內容混合,從而形成模糊的敘述。
保證人工智能聊天機器人提供的摘要的準確性為什麼重要?
保證摘要的準確性對於維持公眾對信息來源的信任至關重要,並能防止錯誤信息的擴散,這可能影響公眾輿論和政治決策。
誰應對人工智能生成的新聞摘要中的錯誤負責?
錯誤的責任可能在人工智能開發者和媒體平台之間共享,但它們之間的緊密合作對於提高生成內容的可靠性至關重要。