科技日報北京8月3日電 (記者劉園園)1000多名知名科學家和人工智能領域?qū)<医蘸炇鸸_信,警告可能出現(xiàn)人工智能軍備競賽,并敦促聯(lián)合國發(fā)布針對“攻擊性自動化武器”的禁令。
據(jù)英國《衛(wèi)報》報道,公開信的簽署者包括 科學家斯蒂芬•威廉•霍金、特斯拉CEO伊隆•馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫•沃茲尼亞克以及谷歌人工智能項目負責人米斯•哈撒比斯等。這封信已在網(wǎng)上公開發(fā)表,并于日前提交至在阿根廷布宜諾斯艾利斯召開的國際人工智能聯(lián)合會議。
公開信稱:“人工智能技術已經(jīng)發(fā)展到這樣一種地步:盡管不合法,自動化武器的使用將在幾年內(nèi)而不是幾十年內(nèi)會成為現(xiàn)實。這將帶來極大的風險,自動化武器已經(jīng)被稱為繼火藥和核武器之后的武器的第三次革命。”
這封信認為,人工智能可以讓戰(zhàn)場對軍事人員而言更為安全,但是能夠自主操作的攻擊性武器會降低戰(zhàn)爭發(fā)生的門檻,從而給人類生命帶來更大的損失。
公開信指出,如果某個軍事力量開始研發(fā)能選擇攻擊目標并在沒有人類直接操控情況下自動運行的武器系統(tǒng),會像當年的原子彈一樣引發(fā)軍備競賽。而與核武器不同的是,人工智能武器并不需要具體的、難于制造的材料,因此很難對其生產(chǎn)進行監(jiān)控。這封信稱,“人類今天所面對的關鍵問題在于,是在全球范圍內(nèi)啟動一場人工智能軍備競賽,還是將其扼殺在萌芽狀態(tài)。”
新南威爾士大學人工智能教授托比•沃爾什對這一呼吁表示支持:“我們需要在當下做出決定,這個決定將主宰我們的未來,并事關我們是否走在正確的道路上。”
“殺人機器人”是當今的熱議話題;艚鸷婉R斯克此前都曾警告說,人工智能是人類最大的威脅,而且完全人工智能的發(fā)展將導致人類的終結(jié)。今年4月,聯(lián)合國曾專門召開會議討論了包括“殺人機器人”在內(nèi)的未來武器的發(fā)展,這次會議曾考慮針對某些特定類型的自動化武器頒布禁令,但遭到一些國家的反對。
投稿郵箱:chuanbeiol@163.com 詳情請訪問川北在線:http://dstuf.com/