2018-04-06 20:24?來源 綜合網(wǎng)易
韓國機器人武器
韓國機器人武器:據(jù)外媒報道,韓國科學技術院與韓國韓華系統(tǒng)公司合作,開設人工智能研發(fā)中心,研發(fā)適用于作戰(zhàn)指揮、目標追蹤和無人水下交通等領域的人工智能技術。
機器人武器研發(fā)引起業(yè)內(nèi)專家的廣泛擔憂,目前,30個國家和地區(qū)的人工智能及機器人專家宣布將抵制研究人工智能武器的韓國科學技術院(KAIST),這由澳大利亞新南威爾士大學人工智能教授托比·沃爾什發(fā)起,美國和日本等30個國家和地區(qū)的研究人員4日簽署了一封公開信,敦促韓國科學技術院停止人工智能武器研發(fā),他們稱這是加速機器人武器開發(fā)競爭的動向,令人遺憾,并表示如果該大學不承諾停止研發(fā),將與之斷絕關系,而且將拒絕訪問韓國科學技術院、接待對方訪客或與對方合作研究項目,直至這所韓國頂尖大學承諾放棄研發(fā)缺少“有效人工控制”的武器。
聯(lián)名信中寫道:“自動武器一旦成熟,戰(zhàn)爭發(fā)展速度和規(guī)模將前所未有,它們可能會被恐怖分子利用。”發(fā)起聯(lián)名抵制的人工智能教授沃爾什告訴路透社記者,機器人和人工智能技術實際可以在軍事領域發(fā)揮有利作用,比如完成掃雷等威脅人類安全的任務,但我們不能將決定生死的權(quán)力交給機器,這就越過道德底線。
無獨有偶,Google內(nèi)部流傳著一封聯(lián)名信,有3100多人在上面簽名,抗議谷歌為五角大樓提供人工智能力量,谷歌的員工希望谷歌CEO退出五角大樓的代號為Maven的項目,并宣布“永不開發(fā)戰(zhàn)爭技術”的政策。
業(yè)界評論認為,這家硅谷巨頭和美國政府之間的文化沖突將就此凸顯出來。
韓國機器人武器
不僅僅只有聯(lián)名抵制韓國和抵制美國五角大樓,其實,早在今年3月,來自14個組織的26名研究人員對惡意AI所造成的危險進行了全面的報告。
他們?yōu)槠趦商斓臅h產(chǎn)出了一份長達100頁的報告,內(nèi)容是關于人工智能不良應用所帶來的風險以及降低這些風險的策略,工作組提出的四項建議中,有一項是“人工智能的研究人員和工程師應當謹慎對待其工作的雙重使用特性,在研究的優(yōu)先級和規(guī)范中考慮相關使用不當所產(chǎn)生的影響,并在有害應用程序可預見時主動聯(lián)系相關的參與者。”
這一建議尤其適用于最近興起的“deepfakes”,主要把機器學習用于將好萊塢女演員的臉換接到色情演員的身體上(制作人工合成的假色情片),由Motherboard的Sam Cole最先報道,這些deepfakes是通過改編一個名為TensorFlow的開源機器學習庫來實現(xiàn)的,該庫最初由谷歌工程師開發(fā),Deepfakes強調(diào)了機器學習工具的雙重使用特性,同時也提出了一個問題:誰應該使用這些工具?
盡管報告中特別提到了Deepfakes,研究人員還強調(diào)了將這種類似的技術用于處理世界領導人視頻所產(chǎn)生的危害,這會對政治安全構(gòu)成威脅,這是研究人員考慮到的三大威脅領域之一,人們只需想象出一段虛假的視頻,比如特朗普宣戰(zhàn)以及由此引發(fā)的后果,就會明白這種情況的危險性。此外,研究人員還發(fā)現(xiàn),通過數(shù)據(jù)分析和大規(guī)模有針對性的宣傳,利用人工智能技術,能實現(xiàn)前所未有的大規(guī)模監(jiān)控,這是對政治領域考量的另一個側(cè)面。
另外兩個被認為是惡意人工智能的主要風險領域是數(shù)字和物質(zhì)安全(physical AI?security)。
在數(shù)字安全方面,使用人工智能進行網(wǎng)絡攻擊將“緩解現(xiàn)有的攻擊規(guī)模和效率之間的權(quán)衡。”大規(guī)模的網(wǎng)絡攻擊可能會以人工智能的形式進行,比如大規(guī)模的網(wǎng)絡釣魚,或者更復雜的攻擊形式,比如使用語音合成來模擬受害者。
在物質(zhì)AI威脅方面,研究人員觀察到物質(zhì)世界對自動化系統(tǒng)越來越依賴,隨著更多智能家居和自動駕駛汽車上線,人工智能可能被用來顛覆這些系統(tǒng),并造成災難性的破壞。此外,還有故意制造惡意人工智能系統(tǒng)所帶來的威脅,比如自動化武器或微型無人機。
其中一些場景,比如微型無人機所帶來的災難,似乎還很遙遠,而其他的一些,比如大規(guī)模網(wǎng)絡攻擊、自動化武器和視頻操控等,已經(jīng)引發(fā)了一些問題。為了應對這些威脅,并確保人工智能被用于造福人類,研究人員建議開發(fā)新的政策解決方案,并探索不同的“開放模式”以降低人工智能的風險。例如,研究人員認為,中央訪問許可模式(central access licensing models)可以確保人工智能技術不會落入壞人之手,或者建立某種監(jiān)控程序來密切記錄人工智能資源的應用途徑。
報告寫道:“目前的趨勢強調(diào)了對前沿研究和發(fā)展成果的廣泛開放,如果這些趨勢在未來5年持續(xù)下去,我們預期攻擊者用數(shù)字和機器人系統(tǒng)造成危害的能力會顯著提高。”另一方面,研究人員認識到,開源人工智能技術的擴散也將越來越多地吸引決策者和監(jiān)管機構(gòu)的注意,他們將對這些技術施加更多限制,至于這些政策應該具體采取何種形式,必須從地方、國家和國際層面上加以考量。
報告總結(jié)說:“這份報告的合著者之間仍然存在許多分歧,更不用說世界上不同的專家群體了,隨著各種威脅和反饋被發(fā)現(xiàn),在我們得到更多的數(shù)據(jù)之前,這些分歧不會得到解決,但這種不確定性和專家分歧不應阻止我們在今天盡早采取預防措施。”
本文“”來源:http://www.desachemical.com/keji/xwzt/70366.html,轉(zhuǎn)載必須保留網(wǎng)址。編輯: yujeu