隱私大問題,跟 Xbox One 遊戲機講話可能有真人會聽到?

作者 | 發布日期 2019 年 09 月 04 日 8:15 | 分類 Microsoft , Xbox , 資訊安全 follow us in feedly


數位語音助理隨時聆聽使用者的指令,那麼平時對話到底會不會被「監聽」?這是許多消費者隱私權益團體一直質疑的問題,不過大多數使用者還是願意相信聽他們說話的只是「人工智慧」,不會有被別的真人聽到的隱私疑慮。

但事實恐怕不只是如此,因為各大數位語音助理開發商,為了改進數位語音助理辨認語音語意的正確性,往往會請外包公司的真人來聽使用者語音,微軟 Cortana 先前也是如此。隱私團體常常質疑:如果在家中講話被 Cortana 誤讀為指令,意外錄下上傳,又剛好發給真人聆聽對照改善,那講話內容很可能會被某個外包員工聽到。

微軟先前就傳出為了改善 Skype 使用者用數位語音助理 Cortana,將使用者的聲音交由外包商的真人來聆聽,以確保 Cortana 辨識出正確的語意。如今傳出 Xbox One 的 Cortana 也有一樣的外包工作。外包商人員透露,最初 Xbox 案子在總案量只是少數,但之後急遽增加,如今已成為總案量的大多數。

原本 Xbox One 遊戲機的 Cortana 只在辨認出「Xbox」或「Hey Cortana」後才會開始聽取並辨認語音指令,不過外包商發現,由於目前許多遊戲都有對戰時供玩家語音聊天的功能,Cortana 誤會以為玩家在下指令的機會越來越多,外包商聽到的大多數錄音,都是玩家在對 Cortana 說「不」,很明顯就是玩家聊天時,沒有要向 Cortana 下達語音指令,Cortana 卻誤聽啟動,使玩家必須不時向 Cortana 說不,表示沒有要執行任何語音指令。

微軟 Kinect 在 Xbox 360 時代就推出,內建陣列麥克風,從此開啟 Xbox 平台有聲控語音指令的時代。外包人員表示,其實聽取 Xbox 的錄音內容是他們很偏愛的業務,因為相對簡單,經常都是同樣幾款遊戲、同樣遊戲的下載內容,指令也都是同樣幾個,做起來很輕鬆,偶爾會有玩家下錯遊戲指令,例如要 Xbox 叫隊友治療,很明顯是角色扮演遊戲的語音指令。隨著微軟在 Xbox 平台推出 Cortana,改善語音指令的承包工作也繼續到 Cortana 服務。

這類工作的確有達到目標,在真人持續對照修正下,Cortana 越來越進步,外包人員聽到的 Cortana 聽錯而意外啟動的狀況越來越少,但也坐實了隱私團體的憂慮。在家中講話,萬一因 Xbox one 遊戲機的 Cortana 誤解而錄音上傳,又剛好分派給外包公司真人聆聽,隱私有可能被真人聽到。比較值得憂心的是,由於是遊戲機,有許多語音來自兒童。

微軟在 2019 年 7 月底的 Xbox One 更新,已將 Cortana 從 Xbox One 主系統移除,玩家若還想使用 Cortana,要開啟單獨的 Cortana 應用程式。

真人聆聽錄音惹議,不只是 Xbox

微軟針對相關報導表示,微軟近來已停止請真人聆聽 Xbox 內容以改善產品的工作,也不再認為有此需要,目前也沒有計畫重新開始工作,只除了微軟收到玩家回報有違規的情況下,偶爾還是會監聽一小部分玩家通話錄音,這是為了保護遊戲社群的安全。微軟強調維護隱私權,並提供相關帳戶管理頁面,供微軟產品使用者登入檢視及清除使用 Cortana 留下的資料。

改善語音語意辨識的工作,讓真人工作人員會聽到玩家意外錄下的聲音構成隱私問題,這點不只是 Xbox,其他使用數位語音助理的裝置,包括手機與智慧家庭產品都會有同樣疑慮,目前蘋果(Apple)與  Google 也都因隱私疑慮停止相關作業,只剩下亞馬遜 Alexa 還有真人聆聽改善作業。

如今一方面因 Cortana 已改善得差不多,微軟停止真人聆聽改善作業,一方面微軟已從 Xbox One 主系統移除 Cortana,在 Xbox 旁講話,不再可能發生因 Cortana 誤解而語音上傳,又剛好被發送給真人聆聽改善,導致隱私被真人聽到的意外情況。另外,若原本就不支援 Cortana 的地區,例如台灣,想擔心也無從擔心起了。

(首圖來源:Flickr/Marco Verch Professional Photographer and Speaker CC BY 2.0)

延伸閱讀: