聽到,這些Danni當(dāng)時(shí)就被嚇壞了。
事后,亞馬遜官方稱這臺智能語音助手當(dāng)時(shí)出現(xiàn)了故障,現(xiàn)在已經(jīng)被修復(fù)完畢。當(dāng)時(shí)它只是在念百科里的內(nèi)容。
什么樣的百科內(nèi)容會是這個(gè)?
除了Danni,還有其他人在使用Alexa的時(shí)候也遇到過很多奇怪的事情。
Alexa不聽指令還怪笑
美國媒體Buzzfeed曾報(bào)道,一些用戶的Alexa智能音箱時(shí)常發(fā)出瘆人笑聲,拒聽用戶指令。
一個(gè)用戶告訴Alexa關(guān)掉家里的燈。誰料,Alexa卻不停把關(guān)掉的燈打開,如此三次之后,它竟發(fā)出了惡毒的笑聲!
“那個(gè)笑聲根本不是Alexa的聲音,聽起來就像真人。”
還有一位Echo Dot的用戶說,他讓Alexa關(guān)掉早上的鬧鐘,而Alexa回應(yīng)時(shí)則發(fā)出了“女巫般的笑聲”。
Alexa 錯(cuò)把夫妻間私房話發(fā)給他人
一對來自美國波特蘭市的夫婦,發(fā)現(xiàn)自家的Echo音箱把夫妻間的一次對話給錄音了,并且還發(fā)給了丈夫在西雅圖的一名雇員。
而這一切都是在夫妻兩人不知情的情況下發(fā)生的,要不是接到文件的人提醒了他們,兩人可能至今都不會發(fā)現(xiàn)被 Echo 給 “出賣” 了。
在確認(rèn)這則消息真的不是自己指示 Echo 內(nèi)置的語音助手 Alexa 發(fā)送的之后,他們把家里所有基于 Alexa 的智能設(shè)備都給關(guān)了。
亞馬遜給出的解釋是可能主人的談話中出現(xiàn)了某些指令的關(guān)鍵詞,被 Alexa 識別到了。
Alexa被質(zhì)疑監(jiān)聽了大量的用戶
Alexa是亞馬遜公司推出的一款語音智能助理,最初用于Amazon Echo智能音箱,首發(fā)是在2014年11月。
用戶可以通過語音助手Alexa,輕松打電話,收新聞,添加日程表,購物車,以及控制包括微波爐、車載工具等在內(nèi)的所有智能家居設(shè)備,甚至能夠做出像Danni詢問的那些醫(yī)療建議。
2019年4月11日時(shí),亞馬遜CEO貝索斯在《2018致股東信》中,曾介紹說:“自第一代Echo面世以來,用戶已經(jīng)購買了超過1億臺搭載Alexa的設(shè)備”。
他還說:“Alexa技能數(shù)量達(dá)到8萬+。與2017年相比,2018年用戶與Alexa的交互頻次增加了數(shù)百億次。”
而在這些成績的背后, Alexa被質(zhì)疑監(jiān)聽了大量的用戶。
今年4月份,彭博社曾報(bào)道說,亞馬遜數(shù)千員工正在監(jiān)聽用戶與語音助手Alexa的私人聊天。此消息一經(jīng)爆出,立馬引發(fā)了人們對于隱私的擔(dān)憂。
亞馬遜回應(yīng)稱這樣做是為了進(jìn)一步提高Alexa對人類語音的理解能力,“Alexa通過各種客戶的語音錄音進(jìn)行培訓(xùn),將有助于確保Alexa適合所有人”。
在人工智能越來越發(fā)達(dá)的今天,或者真有一天人類在它們面前將會毫無隱私可言,只這樣一想就覺得非常的可怕!
希望未來能在智能生活和個(gè)人隱私中找到平衡吧。