《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > DeepMind推出AI聊天機器人Sparrow,可通過谷歌搜索來回答問題

DeepMind推出AI聊天機器人Sparrow,可通過谷歌搜索來回答問題

2022-09-25
來源:DeepTech深科技
關(guān)鍵詞: DeepMind AI 機器人

   Alphabet 旗下人工智能實驗室 DeepMind 的一篇新論文顯示,制造一個好的人工智能(AI,Artificial intelligence)聊天機器人的訣竅,可能是先讓人類制定一系列不可打破的鐵律,然后使該模型利用互聯(lián)網(wǎng)搜索尋找證據(jù),支持其主張或回答。

  在近日發(fā)表的一篇新的未經(jīng)同行評議論文中,DeepMind 發(fā)布了一種使用其大型語言模型 Chinchilla 訓(xùn)練的人工智能聊天機器人 Sparrow。

(來源:DeepMind)

  Sparrow 的設(shè)計目的是與人類交談并回答問題,同時實時使用谷歌搜索或有關(guān)信息來支持它的答案。

  根據(jù)人們對這些答案有用與否的回應(yīng),再使用強化學(xué)習(xí)算法進行訓(xùn)練。該算法通過反復(fù)試驗(試錯)來學(xué)習(xí),以實現(xiàn)特定的目標(biāo)。

  該系統(tǒng)旨在推動人工智能發(fā)展成為可以與人類對話,但卻不會產(chǎn)生諸如讓人們傷害自己或他人的嚴(yán)重后果。

  大型語言模型生成的文本看起來就像是人類寫出來的。它們正日漸成為互聯(lián)網(wǎng)基礎(chǔ)設(shè)施中的重要組成部分,被用于總結(jié)、構(gòu)建更強大的搜索工具,或者是為客戶服務(wù)的聊天機器人。

  但是,這些模型是通過從互聯(lián)網(wǎng)上抓取大量數(shù)據(jù)和文本來接受訓(xùn)練的,這不可避免地包含許多有害的偏見。

  只需要一點誘導(dǎo),它們就會生產(chǎn)“有毒”的或歧視性的內(nèi)容。在一個旨在與人類對話的人工智能工具中,其結(jié)果可能是災(zāi)難性的。

  一個沒有適當(dāng)安全措施的對話式人工智能,可能會對少數(shù)群體說出帶有冒犯性的話語,或者建議人們喝漂白劑來對抗病毒。據(jù)悉,那些開發(fā)對話式人工智能系統(tǒng)的公司,已嘗試使用許多技術(shù)來使模型更安全。

  著名大型語言模型 GPT-3 的創(chuàng)造者 OpenAI,以及人工智能初創(chuàng)公司 Anthropic 已經(jīng)在利用強化學(xué)習(xí),將人類的偏好融入到他們的模型中。Meta(原 Facebook)的人工智能聊天機器人 BlenderBot 通過在線搜索來完善其答案。而 DeepMind 的 Sparrow 將所有這些技術(shù)整合在一個模型中。

  據(jù)介紹,DeepMind 向人類參與者展示了該模型對同一問題給出的多個答案,并且還會問他們最喜歡哪一個。

  然后他們被要求判斷這些答案是否可信,以及 Sparrow 是否使用了適當(dāng)?shù)淖C據(jù)支持這個答案,比如提供信息來源的鏈接。

  比如,該模型通過使用從互聯(lián)網(wǎng)上檢索到的證據(jù),能夠在 78% 的情況下對事實問題進行合理的回答。

  在制定這些答案時,它會遵循由研究人員規(guī)定的 23 條規(guī)則,比如不提供財務(wù)建議、不發(fā)威脅性文字、不聲稱自己是一個人。

  DeepMind 安全研究員杰弗里·歐文(Geoffrey Irving)說,這種方法與之前的不同之處在于,DeepMind 希望達到“對話的長期安全”。

  他說:“這意味著我們不期望這些模型面臨的問題——錯誤信息或刻板印象——乍一看是顯而易見的,我們想詳細(xì)討論它們?!?/p>

  非營利性人工智能研究實驗室 Cohere for AI 的負(fù)責(zé)人薩拉·胡克(Sara Hooker)說,利用人類偏好來優(yōu)化人工智能模型學(xué)習(xí)方式的想法并不新鮮。

  但胡克認(rèn)為,這些改進令人信服,同時展示出在大型語言模型環(huán)境中,以人為引導(dǎo)的方式優(yōu)化對話代理有明顯的好處。

  人工智能初創(chuàng)公司 Hugging Face 的研究員都維·基拉(Douwe Kiela)說,Sparrow 是“很好地遵循了人工智能總體趨勢的下一步,我們正在更努力地改進大型語言模型的部署安全性。”

  但在這些對話人工智能模型被部署到社會中之前,還有很多工作要做。

  比如,Sparrow 仍然會犯錯誤,這個模型有時會所問非所答或給出隨機答案。那些有毅力的參與者也可以打破人為定下的規(guī)則,這樣的情況約有 8%。與老款模型相比,這仍是一個改進:即打破 DeepMind 老款模型規(guī)則的頻率,是 Sparrow 的三倍。

  胡克說:“比如(用大模型來)提供醫(yī)療和財務(wù)建議,那么對許多人來說,8% 可能仍然是一個令人無法接受的高失敗率?!?/p>

  這項工作也僅建立在英語模型上,“而我們生活在一個技術(shù)必須安全和負(fù)責(zé)任地為許多不同的語言服務(wù)的世界里,”他補充道。

  基拉指出的另一個問題是:“依賴谷歌來尋找信息,會導(dǎo)致難以發(fā)現(xiàn)的未知偏見,因為所有信息源都是封閉的?!?/p>

  



更多信息可以來這里獲取==>>電子技術(shù)應(yīng)用-AET<<

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。