24h購物| | PChome| 登入
2023-01-30 19:57:13| 人氣76| 回應0 | 上一篇 | 下一篇
推薦 0 收藏 0 轉貼0 訂閱站台

牛津大學研究人員警告:人工智能或在本世紀內導致人類的末日


簡單來講,人工智能(AI)就是計算機系統對人類智能的模擬,它們可以通過分析數據和周圍環境、解決或預測問題、學習或適應各種任務來模仿人類的思想和行為。

時至今日,人工智能早已滲入了人類生活的方方面面,幾乎在每一個領域都或多或少地都存在着它們的「身影」,在人工智能的幫助下,人類擺脫了大量複雜、繁瑣且重複的工作,人類的生活也因此而越來越方便快捷。

儘管人工智能對人類的幫助極大,但也有不少人都對人工智能未來的發展表示擔憂,比如說在2023年1月25日舉辦的一次科學技術會議上,牛津大學工程科學研究人員邁克爾·科恩(Michael Cohen)和邁克爾·奧斯本(Michael Osborne)就提出警告稱:如果沒有得到有效的約束,人工智能或在本世紀內導致人類的末日。

為了方便描述,研究人員舉了一個簡單的例子:當我們訓練一隻狗的時候,通常會用食物作為獎勵,通過反覆的訓練,狗就會懂得執行我們想讓它做的行為,因為這樣就能夠讓它獲取到食物。

但假如這隻狗足夠聰明,可以自己找到我們貯存食物的地方,它就很可能選擇從這裡更方便地獲得食物,而不再去執行那些我們想讓它做的行為。

同樣的道理,假如人工智能足夠聰明、能力足夠強大,那它們也很可能選擇繞過人類為其設定的各種規則,直接去用「更方便的策略」達到自己的既定目的,而如果真是這樣的話,就會對人類形成巨大的威脅。為什麼會這樣呢?原因很簡單:人工智能是冷酷的,它們不會考慮自己採用的策略會不會對人類造成傷害。


關於這一點,我們不妨來了解一下哲學家尼克·博斯特羅姆(Nick Bostrom)曾經提出過的一個思想實驗:

假設有一個人工智能,其既定目的是製作儘可能多的回形針,在此設定下,如果這個人工智能足夠聰明,那麼它很快就會意識到,若沒有人類,它就會好得多,因為人類會影響它製作回形針的效率,還有可能會將它關閉。

在這種情況下,假如這個人工智能的能力足夠強,那麼它很可能就會利用自己的能力去努力實現一個沒有人類的世界,而假如它真的這樣做了,並且還成功了,人類的末日也就到了。

雖然這只是一個思想實驗,但我們也可以從中清楚地看到不受約束的人工智能對人類的威脅有多大。

需要知道的是,在經歷了多年發展之後,現代的一些人工智能已經能夠自主學習並根據經驗進行改進,其內置的算法可以在沒有人為干預的情況下進行學習和適應新數據的概念,這也就意味着,如果這種人工智能可以持續運行,那即使未來沒有人類干預,它們自己也會越來越聰明。


另一方面來講,按照目前的發展趨勢,人類在未來對人工智能的依賴會越來越強,它們所能掌控的資源以及自身的能力也會不斷提升,所以一個合理的推測就是:在不太遙遠的未來,「足夠聰明、能力足夠強大的人工智能」就可能會出現。

正是因為如此,牛津大學的研究人員才會提出警告,根據他們的估算,這樣的人工智能在本世紀內就會出現,研究人員指出,為了更方便、更高效地達到自己的既定目的,它們或許會採用一些對人類造成巨大傷害的策略,最終可能會導致人類的末日。

研究人員指出,這樣的事情一旦發生,就幾乎不可阻止,因為足夠聰明的人工智能早已懂得如何隱藏自己的「真實想法」,它們只會在時機成熟的時候才會向人類「露出獠牙」。研究人員表示:「假如我是這樣一個人工智能,那麼在付諸行動之前,我會把相關的代碼隱藏起來,這樣一來,人類就不會拔掉我的電源」。

值得一提的是,有不少知名人士也曾對人工智能表示過擔憂,例如霍金就曾經說過:「成功創造出人工智能是人類歷史上最重大的事件,但也可能是最後一次」,而埃隆·馬斯克更是提出警告稱:「從長遠來看,人工智能將是我們人類最大的生存威脅」。

總而言之,如何對日益強大的人工智能進行約束,是一個人類應該重視起來的問題,研究人員認為,為了防止人工智能在未來的威脅,人類應該及早建立起完善的保障措施。-魅力科學君

台長: 聖天使

TOP
詳全文