人工智能的興起引發了人們對人類未來的疑問。 技術的未來仍然微妙,在機會與威脅之間搖擺。被廣泛稱為*“人工智能之父”*的喬弗里·辛頓(Geoffrey Hinton)引起了關注,他認為人類滅絕的風險有所減少,預測未來*三十年*內不會發生滅絕。他的預測使人們重新認識對於出現超過人類智能的風險的看法。 積極的監管是必要的,以確保人工智能的道德發展。這一信息提出了十分嚴重的倫理和社會考慮。 人工智能會否侵犯我們的自主權?
喬弗里·辛頓和他的人工智能預測
多倫多大學的榮譽教授喬弗里·辛頓,常被稱為 「人工智能之父」,最近分享了對未來技術的驚人看法。這位人工智能專家修訂了他關於人工智能對人類威脅的估計,將滅絕風險提高到 10% 至 20% 在接下來的三十年裡。起初,他曾提到類似於10%的災難性結果的機率。
媒體和關注
辛頓的聲明被知名節目 BBC Radio 4 轉播,他表示技術進步的速度顯著 更快 於預期。當被問及他之前的估計10%時,他確認道:「並不完全正確,實際是10%至20%。」這一更新讓節目的特邀編輯薩吉德·賈維德(Sajid Javid)評論道:「您在提高估計。」辛頓回答,指出: 「如果有的話」。
人工智能的智能和人類的相比較
辛頓在發展他的論點時提及,受到控制的 更智能的實體 的例子十分罕見。他指出唯一相關的例子是 嬰兒控制母親。這一隱喻描繪了人類在面對可能比人類意識更強大的人工智能系統時的位置。
繼續他的類比,這位科學家要求聽眾想像與一位 三歲的小孩 一起,他聲稱人類會如同年幼的孩子面對這些機器的先進智能。隨著這一思考,辛頓加強了圍繞人工智能控制的倫理辯論。
人工智能所帶來的風險
對於人工智能無控制發展的擔憂,自辛頓離開谷歌後愈演愈烈。這一退出旨在引起對於這一迅速發展科技的風險的關注,特別是被 「壞角色」 濫用的潛在用法。人工智能的安全倡導者強調,超越人類的通用人工智能可能會造成 存在性威脅。
辛頓指出,目前人工智能的發展超出了研究人員的初步預期。該領域的大多數專家認為,在接下來的 二十年 裡,建造出比人類更智能的人工智能將是可能的。這一現實令人恐懼,因為可能會產生不可預測的後果。
呼籲監管
辛頓最大的關注在於缺乏有效的政府監管。他警告說市場不可能保證安全: 「看不見的手不會保護我們」。大型企業受到利潤驅動,並不一定會優先考慮安全方法。他認為,只有嚴格的規範才能促使這些企業投入人工智能安全研究。
反應與未來展望
喬弗里·辛頓是三位“人工智能之父”之一,獲得了舉足輕重的圖靈獎。這一獎項常被視為 計算機科學的諾貝爾獎,彰顯了他研究的重大影響力。還需要注意的是,其他專家如延·勒昆(Yann LeCun)對這一存在性威脅表示質疑,指出人工智能可能 “拯救人類”。
圍繞人工智能的道德與倫理影響的辯論仍在繼續,顯示出人們對這些技術快速進展的 日益擔憂。人工智能的未來仍然是一個熱議話題,吸引著研究人員和公眾的興趣與恐懼。
常見問題解答
喬弗里·辛頓在人工智能發展中扮演了什麼角色?
喬弗里·辛頓因其在自動學習和神經網絡系統的基本貢獻,常被稱為「人工智能之父」,這些貢獻促進了現代人工智能領域的重大進展。
在修訂他的預測之前,辛頓認為人工智能的發展會帶來什麼風險?
辛頓起初估計人工智能導致人類災難的機會約為10%。他現已將這一估計修訂為30年內的10%至20%範圍。
為什麼辛頓認為人工智能可能對人類構成威脅?
他強調,更智能的人工智能系統的開發帶來前所未有的挑戰,因為幾乎沒有例子顯示更智能的事物被較少智能的實體所控制。
辛頓如何評估人工智能進步的速度?
辛頓表示人工智能技術進步的速度「明顯快於」他的預期,並指出科學界預期在接下來的20年內出現超越人類智能的人工智能系統。
辛頓對人工智能監管有何具體擔憂?
辛頓對市場中「看不見的手」無法確保人工智能發展安全表示擔憂,並強調迫切需要政府監管以促使企業專注於安全解決方案的研究。
辛頓對人類智能與先進人工智能的關係有何看法?
他將人類的智能比作面對強大人工智能系統的三歲小孩,強調在面對先進人工智能時,我們可能處於相對不成熟的發展階段。
辛頓為了避免人工智能的風險提出了什麼建議?
辛頓呼籲對人工智能技術進行積極監管,以避免「惡意角色」利用技術進步進行有害行為。
辛頓提到了哪些可能的災難性情節?
辛頓警告,如果人工智能變得足夠智慧,可能會脫離人類的控制,可能對人類造成災難性的後果。
人工智能是否可能對人類的未來產生積極影響?
儘管辛頓對潛在風險發出警告,但該領域的其他專家如延·勒昆認為人工智能還可能提供解決全球問題的解決方案,甚至對人類的生存有所貢獻。