機器的反向學習引發了有關數據倫理和管理的基本問題。科技的進步需要能夠*選擇相關信息*的人工智能模型。一項顯著的創新使這些系統現在可以‘忘記’多餘的數據,從而為其操作提供了一個優化的框架。
由東京科技大學的研究人員開發的方法承諾改變您與數據庫之間的互動。這一技術挑戰突顯了機器學習中的可持續性的關鍵問題,同時維護用戶的隱私權。
機器的反向學習
來自東京科技大學(TUS)的研究人員開發了一種方法,使大型人工智能(AI)模型能夠有選擇性地“忘記”某些類別的數據。這一進展標誌著人工智能系統演變中的一個重要里程碑,能夠擺脫過時信息的能力將大大優化性能。
對人工智能模型效率的擔憂
人工智能的進步催生了各個行業中的革命性工具,例如健康和自駕駛。隨著技術的進步,其複雜性和倫理考量也在不斷演變。大規模預訓練的人工智能系統,如ChatGPT與CLIP,深刻改變了社會對機器的期望。這些通用模型能夠穩定地處理各種任務,已經成為職業和個人生活中無處不在的存在。
這種多用途性並非沒有代價。訓練和執行這些模型需要巨大的能源和時間資源,從而引發了可持續性的擔憂。同時,運行這些模型所需的硬件明顯比標準計算機昂貴。通用方法在應用於特定任務時也可能會損害模型的效率。
選擇性遺忘的必要性
在具體應用中,並非所有類別的對象都需要系統性的分類。如副教授五十嵐剛所述,典型的自駕駛系統對對象的識別通常限於幾個關鍵類別,包括汽車、行人和交通標誌。保留不必要的類別可能會降低整體分類的準確性,並導致計算資源的浪費。
為了解決這些低效問題,訓練模型以“忘記”多餘的信息變得至關重要,從而將其過程重新集中在具體需求上。儘管一些方法已經嘗試滿足這一需求,但它們通常依賴於所謂的“白盒”方法,讓用戶可以訪問模型的內部架構。然而,商業和倫理現實往往使我們面臨“黑盒”系統,傳統的遺忘技術因此顯得過時。
黑盒遺忘的方法
為了克服這一挑戰,研究團隊採用了無導數優化,這是一種不需要訪問人工智能內部機制的模型。這一過程被稱為“黑盒遺忘”,通過迭代方式修改模型的輸入指令,使人工智能能逐漸忘記某些類別。這一創新方法是與來自TUS的合著者桑名優介和後藤優太,以及NEC Corporation的高橋繁博士合作開發的。
研究人員在CLIP上進行了工作,這是一個將視覺和語言結合在一起的模型,具備圖像分類能力。他們的方法基於協方差矩陣適應進化策略(CMA-ES),這是一種旨在逐步優化解決方案的進化算法。研究小組成功評估和調整了提供給CLIP的指令,從而減少了其對特定類別圖像的分類能力。
隨著項目的推進,出現了挑戰。現有的優化技術難以應對大量的目標類別。為了解決這一問題,團隊制定了一種新穎的參數化策略,稱為“潛在上下文共享”。該方法將潛在上下文,即指令所產生的信息,劃分為模型更易於管理的元素。
具體結果
在多個圖像分類數據集上的測試驗證了“黑盒遺忘”的有效性。研究人員成功使CLIP忘記了約40%的目標類別,而無需訪問模型的內部架構。該項目代表了在一個視覺-語言模型中成功引入選擇性遺忘的首次嘗試,提供了可喜的前景。
對現實世界的影響
這一技術進展為需要特定精度的應用開闢了重要的前景。簡化模型以適應特定任務可能使其變得更快、更有效能,並能在較低性能的設備上運行。這將加速人工智能在先前被視為不切實際領域的應用。
在圖像生成領域,消除整個視覺類別可以防止不當或有害內容的創建,包括冒犯性材料或虛假信息。一個主要的擔憂是隱私問題。
人工智能模型,特別是那些大規模的,通常是在包含敏感或過時信息的海量數據集上進行訓練的。針對要求刪除這些數據的請求,與“被遺忘權”法律有關,帶來了顯著的挑戰。對模型進行全面重訓以排除問題數據需要大量資源和時間,而保留它們所帶來的風險可能會引發深遠的後果。
五十嵐教授還指出,"對大型模型的重訓消耗大量能源"。因此,"選擇性遺忘"或機器反學習的概念可能為此問題提供有效的解決方案。這些以隱私為重點的應用在健康和金融等敏感領域尤其相關。
東京科技大學研究人員提出的“黑盒遺忘”方法標誌著人工智能發展中的一個顯著轉折點。它在適應性和效率方面具有轉型的潛力,同時為用戶建立了必要的防護措施。雖然對潛在濫用的擔憂仍然存在,但選擇性遺忘等方法顯示了研究人員在應對迫切的倫理和實踐挑戰上的主動努力。
了解更多: 為什麼QwQ-32B-Preview是值得關注的推理人工智能
想了解更多有關人工智能和大數據的資訊。 請參閱將在阿姆斯特丹,加州和倫敦舉行的AI & Big Data Expo。這一綜合活動將與其他知名活動同時舉行,如智能自動化會議,BlockX,數字轉型週和網絡安全與雲展會。
了解更多關於由TechForge主辦的企業技術活動和網絡研討會,請點此查看。
常見問題解答
什麼是機器的反向學習?
機器的反向學習指的是人工智能模型有能力“忘記”某些數據,以提高其效率並考慮道德,特別是隱私方面。
為什麼對人工智能模型來說,忘記某些數據很重要?
對於人工智能模型來說,忘記某些數據至關重要,以避免過度分類,減少資源消耗,並遵守如“被遺忘權”之類的法律。
東京科技大學的研究人員如何開發其遺忘方法?
研究人員開發了一種名為“黑盒遺忘”的方法,可以修改模型的輸入指令,使其能夠在不訪問內部架構的情況下逐漸忘記特定類別的數據。
黑盒遺忘的主要優點是什麼?
優點包括優化模型在特定任務上的性能,減少對計算資源的需求,以及對隱私問題的前瞻性努力。
這種遺忘方法是否適用於所有類型的人工智能模型?
雖然它是為“黑盒”類型的模型設計的,但該方法可以適應不同類型的人工智能模型,特別是在商業應用中廣泛使用的模型。
研究人員在應用此方法時遇到了哪些挑戰?
挑戰包括將這一技術擴展到大量目標類別,這使研究人員需要開發一種名為“潛在上下文共享”的創新參數化策略。
反向學習如何惠及健康或金融等領域?
在健康和金融等行業中,反向學習可以從模型中刪除敏感信息,從而幫助保護個人數據並符合法律要求。
在人工智能中的數據遺忘有哪些風險?
風險包括如果模型忘記了重要數據,有可能失去有用信息,以及如果忘記管理不當,可能出現數據完整性問題。
企業如何實施反向學習?
企業可以通過與研究人員合作開發符合其具體需求的模型,並採取道德的數據管理實踐來整合反向學習。