你好,歡迎來到川北在線
微信
騰訊微博
新浪微博
霍金等千名專家敦促禁止“殺人機器人”等未來武器
時間:2015-08-05 09:49   來源:每日科技網(wǎng)   責任編輯:毛青青

  科技日報北京8月3日電 (記者劉園園)1000多名知名科學家和人工智能領域?qū)<医蘸炇鸸_信,警告可能出現(xiàn)人工智能軍備競賽,并敦促聯(lián)合國發(fā)布針對“攻擊性自動化武器”的禁令。

  據(jù)英國《衛(wèi)報》報道,公開信的簽署者包括 科學家斯蒂芬•威廉•霍金、特斯拉CEO伊隆•馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫•沃茲尼亞克以及谷歌人工智能項目負責人米斯•哈撒比斯等。這封信已在網(wǎng)上公開發(fā)表,并于日前提交至在阿根廷布宜諾斯艾利斯召開的國際人工智能聯(lián)合會議。

  公開信稱:“人工智能技術已經(jīng)發(fā)展到這樣一種地步:盡管不合法,自動化武器的使用將在幾年內(nèi)而不是幾十年內(nèi)會成為現(xiàn)實。這將帶來極大的風險,自動化武器已經(jīng)被稱為繼火藥和核武器之后的武器的第三次革命。”

  這封信認為,人工智能可以讓戰(zhàn)場對軍事人員而言更為安全,但是能夠自主操作的攻擊性武器會降低戰(zhàn)爭發(fā)生的門檻,從而給人類生命帶來更大的損失。

  公開信指出,如果某個軍事力量開始研發(fā)能選擇攻擊目標并在沒有人類直接操控情況下自動運行的武器系統(tǒng),會像當年的原子彈一樣引發(fā)軍備競賽。而與核武器不同的是,人工智能武器并不需要具體的、難于制造的材料,因此很難對其生產(chǎn)進行監(jiān)控。這封信稱,“人類今天所面對的關鍵問題在于,是在全球范圍內(nèi)啟動一場人工智能軍備競賽,還是將其扼殺在萌芽狀態(tài)。”

  新南威爾士大學人工智能教授托比•沃爾什對這一呼吁表示支持:“我們需要在當下做出決定,這個決定將主宰我們的未來,并事關我們是否走在正確的道路上。”

  “殺人機器人”是當今的熱議話題;艚鸷婉R斯克此前都曾警告說,人工智能是人類最大的威脅,而且完全人工智能的發(fā)展將導致人類的終結(jié)。今年4月,聯(lián)合國曾專門召開會議討論了包括“殺人機器人”在內(nèi)的未來武器的發(fā)展,這次會議曾考慮針對某些特定類型的自動化武器頒布禁令,但遭到一些國家的反對。
 

   投稿郵箱:chuanbeiol@163.com   詳情請訪問川北在線:http://dstuf.com/

川北在線-川北全搜索版權(quán)與免責聲明
①凡注明"來源:XXX(非在線)"的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,本網(wǎng)不承擔此類稿件侵權(quán)行為的連帶責任。
②本站所載之信息僅為網(wǎng)民提供參考之用,不構(gòu)成任何投資建議,文章觀點不代表本站立場,其真實性由作者或稿源方負責,本站信息接受廣大網(wǎng)民的監(jiān)督、投訴、批評。
③本站轉(zhuǎn)載純粹出于為網(wǎng)民傳遞更多信息之目的,本站不原創(chuàng)、不存儲視頻,所有視頻均分享自其他視頻分享網(wǎng)站,如涉及到您的版權(quán)問題,請與本網(wǎng)聯(lián)系,我站將及時進行刪除處理。



圖庫
合作媒體
金寵物 綠植迷
法律顧問:ITLAW-莊毅雄律師