術(shù)和產(chǎn)品上取得很大進(jìn)展,但在自然語言理解、算法魯棒性、領(lǐng)域外的泛化能力等方面也面臨新的挑戰(zhàn)?!斑@些挑戰(zhàn)隨著技術(shù)的迭代、產(chǎn)品的發(fā)展,會(huì)變得越來越多。”
語音助手也要有價(jià)值觀
隨著智能語音助手更多滲透到我們的生活中,安全和隱私問題開始逐漸成為人工智能發(fā)展過程中的一大關(guān)注焦點(diǎn),比如我們?cè)诩依锔嬖V家人銀行卡密碼的時(shí)候,會(huì)不會(huì)被手機(jī)上的智能助手或家里的智能音箱偷聽到?
對(duì)此,黃民烈認(rèn)為,從技術(shù)上來講,最難的是智能助手得知道什么樣的信息屬于隱私,聽到是一回事兒,最關(guān)鍵的是會(huì)不會(huì)說出來,什么樣的信息能說,什么樣的信息不能說,這才是最根本的地方。
“人在講任何話的時(shí)候可能知道潛在的后果是什么,會(huì)帶來什么樣的影響,但機(jī)器人它不知道,這也涉及到各種常識(shí),相關(guān)研究是很重要的事情?!秉S民烈說到,這可以通過技術(shù)的手段來實(shí)現(xiàn)。
由安全和隱私而引發(fā)的信任問題可能會(huì)成為阻礙智能語音助手進(jìn)一步發(fā)展的絆腳石。咨詢公司埃森哲曾經(jīng)發(fā)布的一項(xiàng)調(diào)研顯示,從國內(nèi)受訪者來看,安全顧慮(45%)、設(shè)備未能理解用戶需求(42%)以及隱私問題(40%)是三大最主要的擔(dān)憂。此外,有34%的中國消費(fèi)者表示,他們不知道哪些個(gè)人數(shù)據(jù)為智能語音助手所用,透明度有待提高。
一般來說,要想使得智能語音助手達(dá)到更好的體驗(yàn),就意味著需要獲取用戶更多的信息,或讓渡自己更多的權(quán)利,如何把握這個(gè)邊界非常重要。
李笛在分享中就提到了常見的Long-termmemory(長期記憶網(wǎng)絡(luò),一種算法,可以記住長時(shí)間段的信息)問題,將其放到產(chǎn)品中來,就會(huì)涉及到AI倫理問題——是不是允許對(duì)用戶進(jìn)行畫像?是不是能夠記錄或者嘗試分析用戶各方面的特點(diǎn)?
他表示,AI倫理還處于非常早期的階段,但從某種程度上來講,智能語音助手需要了解到的信息不用那么多,就可以做到和人之間是很好的朋友關(guān)系。但實(shí)際情況是用戶會(huì)恐慌,企業(yè)也會(huì)恐慌。他認(rèn)為,人和智能語音助手要想達(dá)到很默契的狀態(tài),Long-term memory不需要特別多。
黃民烈從技術(shù)上就智能語音助手的人性化體驗(yàn)和法律倫理的邊界進(jìn)行了分析。他認(rèn)為,這涉及到兩個(gè)關(guān)鍵點(diǎn),一是個(gè)性化,其本質(zhì)是把助手的能力跟用戶的個(gè)人信息、偏好、愛好做匹配;二是真正好的智能助手應(yīng)該具有持續(xù)學(xué)習(xí)的能力,在跟人交互的過程中能夠聽從人類指令,可以從人的反饋中不斷學(xué)習(xí),自動(dòng)地去積累知識(shí),讓它的能力持續(xù)躍升。
“這就涉及到很多價(jià)值判斷,得知道什么東西學(xué),什么東西不學(xué),其實(shí)就是要給機(jī)器人一個(gè)正確的價(jià)值觀?!秉S民烈表示,但這個(gè)價(jià)值觀是什么非常復(fù)雜,跟文化、地域都有關(guān)系,還需要去探索。