─人工智能革命即將到來─
但權力掌握在矽谷手中
對於人工智能,在馬克·紮克伯格和埃隆·馬斯克之前的辯論中,人們很難決定支持哪方。實際上,他們兩人都是對的,亦或者說,他們都錯了。
馬斯克只強調了人工智能(AI)的弊端,只片面地認為人工智慧會威脅人類的生存,由此看來,似乎小紮的觀點更靠譜一些。但是小劄卻只強調了AI的益處,卻忽視了人工智能可能帶來的所有的潛在風險,這樣一看,馬斯克的觀點也有可取之處。因此,人們很難去判斷究竟誰說的更對。畢竟任何科技的出現都會有利有弊,在人們對其不夠瞭解,在技術發展不夠完備之前,人們很難去評判AI的好壞。但有一點可以明確的是,他們擔心的都不是事兒。
眾所周知,現如今人工智能快速發展,正在改變我們生活的方方面面,從智慧家居等日常工作到政治經濟等全民領域,處處都有人工智能的影子。提起人工智能,每個人都能滔滔不絕講上半天。
但是,機器是否正在取代人們的工作?演算法會對政治辯論產生影響嗎?機器人會改變戰爭格局嗎?我們是否是在夢遊,進入某種反烏托邦的未來?
“人工智能安全”
首先,讓我們來緩解一下馬斯克的憂慮。機器不會很快就接管世界。人工智能專家表示,目前人工智能的技術發展仍面臨著嚴峻的考驗,許許多多的困難和挑戰仍待解決。至少就目前來看,機器要想成為人類的主宰還有相當長的時間。
很多人工智能領域的專家都認為,要造出像人類一樣聰明的機器,至少需要五十年,而當他們被製造出來以後必然會變得更加聰明。由此看來,我們仍有充足的時間來確保機器未來是“以人為本”的,是為人類的利益而服務的。正如科幻小說家以撒·阿西莫夫(Isaac Asimov)在他的機器人相關作品和其他機器人相關小說中為機器人設定的行為準則——機器人三定律 (英語:Three Laws of Robotics)一樣,為了避免將來機器接管地球等危害人類生存事情的發生,我們現在採取一些防範措施還為時不晚。
據外媒報導,目前正有一個研究團隊正致力於研究“人工智能安全”,以確保未來不會有機器叛變的發生。但這並不意味著我們就可以坐等光明的未來。仍然有很多值得擔憂的地方。有些人工智能很聰明,但有些很笨。我們要為那些實際上並不十分聰明的演算法負責,為其所犯的錯誤承擔責任,並不斷改進演算法,讓其“不犯錯”。
2016年5月,約書亞·布朗的離世讓人們意識到人工智能也會“犯錯”,並不是所有的人工智能足夠“智慧”。他是世界上第一個因自動駕駛汽車判斷失誤而被撞死的人。據悉,當時他正使用特斯拉的“自動駕駛模式”行駛在高速公路上時,但不幸的是,自動駕駛模式並未識別前方一輛正在轉彎的卡成,從而釀成了這場悲劇。可見,布朗先生對自動駕駛技術太過信任了。
另一項值得擔憂的就是人工智能對政治話語的影響。當唐納德·特朗普的推特粉絲中有數百萬個機器人時,你不得不擔心人類的聲音是否被電腦“水軍”淹沒了。如果你在Facebook上看到的新聞是由演算法決定的,那麼誰來決定這些演算法不會有所偏頗呢?
第三點擔憂就是人工智能對勞動力的影響。迄今為止,仍然沒有任何一條經濟法規規定新技術需要在減少工作崗位的同時創造更多的就業崗位。如今,世界人口仍在以爆炸般的速度增長,這也意味著有更多的人需要找工作糊口,但是因為人工智慧的出現,工作崗位不增反降,失業率也一直處於走低。
工業革命之後,人們經歷了50年的痛苦,但這一次可能會有所不同。在工業革命中,機器承擔了大量的體力勞動,但卻給我們留下了許多需要認知的“腦力”工作。
但是,在人工智能革命中,機器將接管這些認知工作中的大多數,這次留給我們的會是什麼?工業革命的前車之鑒讓我們在應對人工智能革命時有所準備,不至於手忙腳亂。
在工業革命之前,許多人在農田裏務農。工業革命之後,機器接管了這些的工作。同樣,在辦公室和工廠裏創造了新的工作機會。但是我們需要社會做出一些重大的變革以應對這些轉變。我們普及了教育,所以人們的教育水準得到提高以勝任那些新產生的工作。我們發明了勞動法和工會,所以生產資料所有者不會剝削他們的工人。我們創造了社會福利和養老金,所以我們所有人受益于不斷增加的社會財富。另外,我們還對社會進行了一些深層次的結構調整,讓每個人都能享受到生產力提高帶來的的好處。
然而,這些變化不是一蹴而就的。事實上,在工人們發現他們的生活水準比工業革命之前有所提高的時候,他們已經經歷了50年左右的痛苦轉折期。
很明顯,我們當下正處於人工智能革命的“痛苦期”,這也是我們今天所要面臨的挑戰。出於這個原因,我們需要更強有力的監管。
是時候輪到矽谷“出手”了!
在這場沒有硝煙的人工智能能鬥中,高科技事業雲集的矽谷必然起了至關重要的作用。
許多科技公司例如Facebook和谷歌,其擁有的演算法不夠透明,它們正以一些令人不快的方式影響著我們的生活。眾所周知,Facebook是目前世界上規模最大、用戶最多的線上社交網路服務網站,引領新興媒體的發展,但它並沒有擔負起傳統媒體那樣的責任。而谷歌對我們的生活影響得太多,為防止一個壟斷性企業的產生,我們需要把它拆分成幾個部分。
儘管看起來谷歌公司對於中國的用戶來說威脅並不大,因為我們目前仍需通過“翻牆”才能登陸谷歌網站,享受谷歌服務,但從全人類的角度來考慮,實際上,通過創立控股公司Alphabet,拉裏·佩奇和謝爾蓋·布林讓監管機構的工作變得更容易了,可見,具化監管有助於我們更好地監管AI,讓其往好的一方面發展。但是對於Uber這一有著以上所有“惡習”的公司,我們並不知道該怎麼辦。
如果谷歌或其他公司不納稅,那麼除了澳大利亞和英國之外,需要有更多的國家通過設立谷歌稅來迫使它繳納稅款。因此,矽谷不能對自己強大能力帶來的責任置之不理。長久以來,我們一直在被技術編織出的誘人承諾所蒙蔽。
人工智能是解決目前面臨的許多問題的少數希望之一,比如氣候變化和目前還在持續的全球金融危機。但是,能力越大,責任越大。 (2017-08-14 網易智能)
─人工智能時代的興起對國際關係意味著什麼?─
(2018-05-18 來源:環球網)
隨著谷歌、亞馬遜和蘋果等科技巨頭紛紛進軍西方的人工智能領域,以中國的人工智能領導者百度、阿里巴巴和騰訊為代表的東方巨頭們在迅速崛起,我們正處在一個新技術革命的邊緣。
人工智能,是大國的博弈,而這一輪國際競爭的開啟卻帶給我們比以往更深的憂慮,因為這不僅僅是技術的競爭,也是軍事、經濟、社會價值的競爭。人工智能時代的到來對國際貿易意味著什麼?
多倫多大學(University of Toronto)經濟學家阿維•戈德法布(Avi Goldfarb)和丹尼爾•特雷弗爾(Daniel Trefler)認為,我們研究AI對國際貿易的影響同樣重要。
“人工智能將創造和摧毀就業機會。”我們正試圖瞭解將這些創造性與破壞性力量平衡後會如何發揮作用。”研究人員在一封電子郵件中說。
新的工作機會將會在哪里?
為了回答這些問題,阿維•戈德法布和丹尼爾•特雷弗爾最近聯合發表了一篇學術論文,該論文的一個關鍵觀點是,中國正在以令世界震驚的速度成長為一個人工智能超級大國,未來,它將與矽谷在科技領域的權威性相匹敵。
研究人員指出,這對其他國家而言未嘗是一件好事。論文指出,中國人工智能的崛起可能對其他國家造成潛在的威脅。
俄羅斯總統普京曾表示,在人工智能領域領先的國家將成為世界的統治者。的確,人工智能技術對國家實力的影響力是非常大的,它將促進一個國家的經濟的創新發展效率、社會的綜合治理水準、國家的國防安全建設等。當國家實力已經以科技創新為核心,人工智能作為引領未來的高新技術,或將重塑國家實力的變化。
中國目前已經處於全球人工智能開發第一梯隊,世界上少數的幾家人工智能巨頭均來自中國和美國,因此較小的國家可能會被擠出市場。
近期,包括加拿大和英國在內的其他國家也已經加大了對人工智能的投資力度,並紛紛宣佈資助私人和國有AI合資企業的發展。
德國總理默克爾在一次談話中提到,她認為中國致力成為AI領域的全球領導地位,這樣雄心勃勃地目標,在AI領域與中國競爭是非常重要的。
人工智能早在二戰期間就被提出來進行研發了,經過多個國家長時間的各自為戰,這種新式樣的概念武器依然沒有改變世界戰爭的格局,目前的世界格局,依然還是在核武器的威懾之下建立起來的相對平靜的世界,人們對人工智能的各種武器或者裝備大為看好,不難看出很多人都把這種新思維模式武器看成了未來的主要對戰手段。
早在1936年,英國數學家就開始設計電子電腦,後來又將機器和電腦聯合在一起進一步推進,使得機器不但可以完全執行人的指令,甚至還能比人大腦更為智慧。
人工智能武器的破壞力量雖然不想核武器一樣強大,但是由於其依靠的是高強度的思維及資訊處理方式,使得它能夠擁有常規武器不能比較的優點,有人甚至覺得未來可怕的武器並不是核武器,核武器雖然攻擊破壞力無可匹敵,但是卻是死的武器,並沒有自己的主動思維,未來最為主要的則是無人智慧型武器。
中國面臨這樣的局面並非一無是處,中國已經在暗中充分準備好了人工智能的科研基礎,在多方面的無人機器方面,達到了世界領先水準,俄羅斯等強大國家是已經被中國甩在了後面的。
面對第三次武器革命的到來,中國早就已經做好了準備,在無人水下滑翔機方面,已經完全可以和美國匹敵,在空中無人殲擊機以及其他領域,中國的人工智能都有了極大的進步成果,未來戰爭中,中國不會顯得被動。
軍事武器結合人工智能,未來打仗不僅僅是無人作戰
人工智能在近幾年來很火,作為軍事網友,大家都看過好萊塢影片中的人工智能武器,那些武器可以說就是殺人機器,人類根本無法防禦抵抗人工智能武器。在現實中,已經有越來越多的國家投入鉅資開發人工智能武器,各種無人作戰平臺也正在越來越多地參與到戰爭中,作戰形式和效能正在快速提升。那麼什麼是人工智能武器,人工智能如何介入未來戰場,人工智能武器會不會失控,
人工智能英文全稱是Artificial Intelligence,縮寫簡稱為AI。它是研究、開發用於模擬、延伸和擴展人的智慧的理論、方法、技術及應用系統的一門新的技術科學。 人工智能是電腦科學的一個分支,如果與現代武器裝備進行結合,那就是人工智能武器。比如現在發達國家正在加緊研製的無人作戰潛艇、軍用機器人、軍用無人機、無人戰車等都屬於人工智能武器。
此外制導武器也可以結合人工智能,那些發射後不用管的智慧炸彈、導彈等,都可自主進行自動識別、空中機動,鎖定和打擊目標。如以色列的“哈比”反輻射導彈,它能夠長時間的在目標區上空滯空飛行,自動識別鎖定並攻擊敵雷達目標。
在未來戰場,人腦會把大部分決策權讓給高度智慧型機器。此外,人工智能機器人也可以代替人類戰士在戰場上廝殺,這可以有效的減少人類的傷亡。
軍事武器結合人工智能,那麼武器的作戰效能就不僅僅是用增加就能形容的,可以說是如虎添翼。很多專家已經為此提出警告,他們稱人工智能武器是人類的巨大威脅,就像核武器一樣,如果不慎重嚴肅對待,人工智能武器一旦氾濫,人類就會遭遇滅頂之災。人工智能技術可分為(1)弱人工智能、(2)強人工智能、(3)超人工智能3個階段。
以當前人工智能技術的發展速度,強人工智能技術很可能在2050年前問世。一旦人工智能達到強人工智能水準並且向超人工智能邁進,那麼最大的一個問題就會出現,那就是人類無法瞭解智慧型武器究竟在思考什麼,因此也就無法預測並且掌控高度智慧的武器。一旦人類無法掌控高度智慧的武器,那麼人類的危機也就到了。
上述問題並不是故意誇大聳人聽聞,而是確實存在的,著名天體物理學家霍金、特斯拉CEO埃隆·馬斯克和蘋果聯合創始人史蒂夫等專業人士共同簽署了一封公開信,他們明確呼籲各國政府禁止開發研製人工智能武器。
但是禁止研發人工智能武器是不現實的,就像核武器研製出來後,人們擔心人類會毀滅于核武戰爭。擔心是正常的,但是這阻止不了科研技術的進步,人工智能與武器結合,弊大於利,人腦開發出的智慧型武器,人腦肯定能控制。人腦的潛能要是開發出來,智慧型武器也就不足為慮,怎樣開發人腦潛能,以後肯定會談到......
─韓國研發AI武器遭抵制事件落幕:AI殺人機器─
韓國大學研發AI武器,遭受多國專家抵制的事兒,終於有了結果。
幾天前,據路透社報導,韓國科學技術院(KAIST)正在研發人工智能武器。這家學院和韓國十大財團之一的韓華集團旗下韓華系統公司合作,開設了人工智能研發中心,研發適用于作戰指揮、目標追蹤和無人水下交通等領域的人工智能技術,希望在今年年底前研發出基於人工智能的導彈、潛艇和四軸飛行器。
這事讓包括澳大利亞、美國、日本等30多個國家和地區的研究人員坐立難安,心生擔憂。4月4日,已有50多名世界知名的AI和機器人研究人員宣佈,將聯合抵制韓國科學技術院。他們在4日簽署的公開信中,敦促韓國科學技術院停止對AI武器的研發,並且表示,如果該大學不承諾停止研發,將與之斷絕關係,而且將拒絕訪問韓國科學技術院、接待對方訪客或與對方合作研究項目,直至這所韓國頂尖大學承諾放棄研發缺少“有效人工控制”的武器。
公開信的發起人、澳大利亞新南威爾士大學人工智能教授托比·沃爾什在路透社的採訪中表示,人工智慧技術和機器人固然能夠在軍事領域發揮強大的作用,但是,“我們不能將決定生死的權力交給機器,這就越過道德底線。”
公開信中也擔憂,一旦機器人武器開發競爭加速,未來的戰爭規模將達到“前所未有”的地步。而且,這種人工智慧技術,一旦被恐怖分子利用,後果不堪設想。
後來,這事兒還驚動了聯合國。
2018年4月9日,聯合國《特定常規武器公約》政府專家小組在瑞士日內瓦召開會議,預定討論致命自主武器系統研發,也就是常說的“殺手機器人”可能帶來的影響。
日前,KAIST的院長Sung-chul Shin終於對此做出了回應。他給每位抗議專家寫信,表示:“我需要重申 KAIST 無意參與致命性自主武器系統‘機器人殺手’的研發。作為一個學術機構,我們高度重視人權和倫理標準。我重申 ,KAIST 沒有進行任何有違人類尊嚴的研究,包括研發缺少有效控制的自主武器。”
KAIST表示,得到了保證後,參與抵制的研究人員們,已經同意撤回和其斷絕關係的計畫,將恢復對其的訪問和合作。
托比·沃爾什似乎還有些不夠滿意,他在採訪中表示“仍然對他們研發這些打算做什麼有一些疑問”,但總體來說,他也承認,KAIST也算做出了“適當的回應”。
基於人工智能技術的自動武器,為什麼會讓聯合國都為之動容?
讓我們來回顧下2017年11月,在日內瓦舉辦的聯合國特定常規武器公約會議上,展示的一段視頻:一群神似《黑鏡 III》中機器殺人蜂的小型機器人,通過人臉定位,瞬間便殺死了正在上課的一眾學生。
這個體型嬌小的機器人中,包含了大量的黑科技:感測器、攝像頭,可進行人臉識別,可以基於AI技術躲避狙擊,更可怕的是,在它的中部,還有3克炸藥,完全可以做到一擊致命。
在視頻結尾,伯克利大學教授Stuart Russell提醒所有人,這種殺人機器人並非真實,但是其中的科技手段都已經在現實中存在。而可以想像,一旦這些技術被恐怖分子所掌握,可以造成何等可怕的後果。
因此,專家和研發人員們,才一力要避免視頻中的悲劇在未來發生。
會後,超過200名學界和業界的加拿大科學家和100名澳大利亞科學家聯名寫了公開信給本國總理,呼籲通過限制相關研究。
《黑鏡》只是一部科幻作品,但基於AI技術的攻擊性武器,卻並非虛幻。
2018年初,據外媒報導,Google正與美國國防部合作,開發無人家軟體。應用了Google的機器學習技術後,軍方的無人機識別效果也將更為精准。
根據美國國防部發佈的報導表示,這個名為“Maen”de 項目,旨在幫助處理軍方收集的“數百萬個小時的無人機拍攝視頻”,可以為其提供精准識別個人的能力。
在韓國科學技術院的研發受到抵制的同時,一封公開信已在Google內部流傳。超過3100名Google員工在上面簽名,要求公司退出五角大樓的軍事計畫,並同意“永不開發戰爭技術”。
因此,你可以理解,當韓國科學技術院將AI武器研發提上日程時,為何會引發如此大的反應。
尤其是,和其合作的韓華集團,曾是韓國最大的武器生產商之一。它所生產的集束炸彈,根據《集束彈藥》公約,被120個簽署國禁止使用。
在各個領域內,AI應用都將發揮巨大的作用。但是,將其用於“殺人”,卻違背了一切研發它的科研人員的初衷。
而另外,還有一個存在的擔憂是,AI的內心,也仍然由我們所不理解的“黑暗”的一面,那就是人工智能尤其是深度學習和神經網路的“黑箱”——你能解釋清楚一個AI系統是如何得出結論的碼?
深度學習在近年來,已經被證明是非常強大的解決問題的方式,並已經被廣泛應用,比如在圖像識別、語音識別和語言翻譯中。但是,人類首先需要能找到方法,證明深度學習技術能夠更理解它們創造者的意圖,以及向用戶負責。
美國軍方正投入數十億美元,使用機器學習來引導車輛和飛機識別目標,並幫助分析人員篩選出大量的情報資料。不同於其他領域,甚至是醫學領域,國防部已經將證明機器學習的“可解釋性”看做一個關鍵的“絆腳石”。
Daid Gunning,美國國防高級研究計畫局的專案負責人,負責一項名為Explainable Artificial Intelligence program的人工智能“可解釋性”專案。這位滿頭銀髮的老兵,曾監督DARPA專案,最終導致Siri的成立。情報分析人員正在測試機器學習,作為識別大量監控資料模式的一種方法;許多自主地面車輛和飛機正在開發和測試。但如果一個機器坦克不能解釋自己的行為,士兵可能感到不舒服,分析師也將不願意對沒有理由的命令採取行動。Gunning說:“這些機器學習系統的本質往往是產生大量的假警報,所以分析師真的需要額外的幫助來理解它為什麼要做一個推薦。”
所以,一向支持“AI威脅論”的馬斯克又在近期秀了一把存在感。美國電影導演克裏斯·潘恩(Chris Paine)製作了一部紀錄片中,調查了一些人工智能的應用實例,包括自動武器、華爾街的技術演算法等。馬斯克則警告說,人工智能“不需要作惡,就可能摧毀人類。”
這次韓國大學研發AI武器的風波似乎已經過去。令人欣慰的是,我們也看到了,全球AI研發人員的道德界線。但是,對於AI“殺人武器”的擔憂和討論,卻仍將繼續。無論“作惡”的是AI本身,還是人類,我們是否能夠一直將之處於控制之中呢? (2018-04-21 新浪報導)
文章定位: