AI加持的新搜索引擎可信嗎?


中國(guó)產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)   時(shí)間:2023-02-20





  2個(gè)月前,聊天機(jī)器人ChatGPT橫空出世,其能像人類(lèi)一樣撰寫(xiě)文章并回答問(wèn)題的能力震驚了世界。這種聊天機(jī)器人帶來(lái)的對(duì)于科技行業(yè)的顛覆力量如此之大,以至于它有可能徹底改變用戶(hù)使用互聯(lián)網(wǎng)的方式。包括微軟和谷歌在內(nèi)的科技巨頭們已開(kāi)始采取行動(dòng)、奮勇?tīng)?zhēng)先,以免錯(cuò)過(guò)這股新浪潮。


  諸多跡象表明,人工智能(AI)已點(diǎn)燃了互聯(lián)網(wǎng)搜索引擎領(lǐng)域的新戰(zhàn)火。但人們能在多大程度上相信這些聊天機(jī)器人及其給出的答案呢?《自然》等雜志表示,鑒于谷歌的巴德(Bard)聊天機(jī)器人在給出答案時(shí)出現(xiàn)了事實(shí)性錯(cuò)誤,而且,聊天機(jī)器人給出答案也缺乏透明度,人類(lèi)對(duì)聊天機(jī)器人給予信任還有待時(shí)日。


  人工智能搶灘搜索引擎


  據(jù)《自然》網(wǎng)站2月13日?qǐng)?bào)道,世界上最大的3個(gè)搜索引擎:谷歌、必應(yīng)和百度上周表示,他們將把ChatGPT或類(lèi)似技術(shù)集成到自家的搜索產(chǎn)品中,讓人們直接獲得答案或進(jìn)行對(duì)話(huà),而不僅僅是在鍵入單詞或問(wèn)題后收到鏈接列表。這3家公司都在使用大型語(yǔ)言模型(LLM)。LLM通過(guò)呼應(yīng)它們?cè)诖笮蛿?shù)據(jù)庫(kù)中搜尋到的文本統(tǒng)計(jì)模式來(lái)創(chuàng)建令人信服的句子。


  據(jù)悉,微軟的必應(yīng)使用與其投資的開(kāi)放人工智能(OpenAI)公司開(kāi)發(fā)的ChatGPT相同的技術(shù)。微軟于近日演示了如何處理自然語(yǔ)言查詢(xún),利用新聞報(bào)道、火車(chē)時(shí)刻表和產(chǎn)品定價(jià)等信息生成答案和建議。無(wú)獨(dú)有偶,2月6日,谷歌公司宣布將推出由人工智能驅(qū)動(dòng)的搜索引擎巴德,巴德目前正由一小群測(cè)試人員使用。百度公司由AI驅(qū)動(dòng)的聊天機(jī)器人“文心一言”(ERNIE)則將于3月上市。


  法國(guó)國(guó)家科學(xué)研究中心主任蒂耶里·布瓦博解釋說(shuō),有AI加持的搜索引擎,會(huì)給所提問(wèn)題一個(gè)答案,不用像現(xiàn)在一樣還要查看資料才能獲得答案。


  此前一些較小的公司已發(fā)布了AI驅(qū)動(dòng)的搜索引擎。例如,去年8月,美國(guó)計(jì)算機(jī)科學(xué)家阿拉文德·斯瑞尼瓦斯等人發(fā)布了基于LLM的搜索引擎Perplexity,其類(lèi)似傳統(tǒng)搜索引擎與ChatGPT的結(jié)合體。他說(shuō):“搜索引擎正在演變成一種新?tīng)顟B(tài),你可以開(kāi)始與它們交談,就像與朋友交談一樣?!?/p>


  人類(lèi)能給出多大信任


  那么,人類(lèi)可以相信這些聊天機(jī)器人嗎?


  瑞士蘇黎世大學(xué)計(jì)算社會(huì)科學(xué)家亞歷山大·烏爾曼表示,與獨(dú)立的搜索引擎相比,人們可能更容易信任整合了聊天機(jī)器人的搜索引擎給出的答案。


  美國(guó)佛羅里達(dá)大學(xué)科學(xué)家2022年開(kāi)展的一項(xiàng)研究發(fā)現(xiàn),對(duì)那些與亞馬遜和百思買(mǎi)等公司使用的聊天機(jī)器人進(jìn)行互動(dòng)的參與者來(lái)說(shuō),機(jī)器人越像人,它們就越信任該公司。


  行業(yè)研究人員表示,通過(guò)用互聯(lián)網(wǎng)上的大量文本數(shù)據(jù)集進(jìn)行訓(xùn)練,ChatGPT等工具能以流暢的對(duì)話(huà)回答用戶(hù)的各種問(wèn)題,但這種聊天機(jī)器人不能保證回答準(zhǔn)確。據(jù)英國(guó)《新科學(xué)家》網(wǎng)站報(bào)道,巴德給出的與詹姆斯·韋布空間望遠(yuǎn)鏡有關(guān)的答案中就包含明顯的事實(shí)錯(cuò)誤。


  谷歌發(fā)言人表示,巴德的錯(cuò)誤“凸顯了嚴(yán)格測(cè)試流程的重要性”。但一些人猜測(cè),一旦用戶(hù)發(fā)現(xiàn)這些錯(cuò)誤,他們可能會(huì)對(duì)基于聊天機(jī)器人的搜索失去信心,而非增加信任。由于投資者擔(dān)心未來(lái)并拋售股票,這一錯(cuò)誤使谷歌的市值縮水1000億美元。


  《自然》指出,ChatGPT也存在一種傾向:為那些它不知道答案的問(wèn)題創(chuàng)造虛構(gòu)的答案,這可能導(dǎo)致虛假信息泛濫。專(zhuān)家警告說(shuō),還有一個(gè)風(fēng)險(xiǎn)是網(wǎng)民可能對(duì)答案感到滿(mǎn)意,但會(huì)被唯一的答案帶偏或控制。


  缺乏透明度


  相對(duì)缺乏透明度也使不準(zhǔn)確問(wèn)題變得更加復(fù)雜。通常搜索引擎會(huì)向用戶(hù)展示答案的來(lái)源:一個(gè)鏈接列表,以讓用戶(hù)自行選擇,但很少有人知道LLM訓(xùn)練的數(shù)據(jù)是什么。如果語(yǔ)言模型不正確,或傳播錯(cuò)誤信息,可能會(huì)產(chǎn)生重大影響。


  西班牙拉里奧哈國(guó)際大學(xué)AI專(zhuān)家胡安·伊格納西奧·羅耶特指出,使用普通搜索引擎時(shí),用戶(hù)可看到信息的來(lái)源,但在這些聊天機(jī)器人平臺(tái)上則看不到。


  法國(guó)巴黎數(shù)據(jù)科學(xué)平臺(tái)Hugging Face的首席倫理學(xué)家賈達(dá)·皮斯蒂利表示,聊天機(jī)器人驅(qū)動(dòng)的搜索模糊了機(jī)器和人類(lèi)之間的區(qū)別。她擔(dān)心目前科技巨頭采用AI技術(shù)的速度有點(diǎn)太快,“他們總是在沒(méi)有任何控制或我們還不知道如何正確使用的情況下將這些新技術(shù)扔給我們”。(記者 劉 霞)


  轉(zhuǎn)自:科技日?qǐng)?bào)

  【版權(quán)及免責(zé)聲明】凡本網(wǎng)所屬版權(quán)作品,轉(zhuǎn)載時(shí)須獲得授權(quán)并注明來(lái)源“中國(guó)產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)”,違者本網(wǎng)將保留追究其相關(guān)法律責(zé)任的權(quán)力。凡轉(zhuǎn)載文章及企業(yè)宣傳資訊,僅代表作者個(gè)人觀點(diǎn),不代表本網(wǎng)觀點(diǎn)和立場(chǎng)。版權(quán)事宜請(qǐng)聯(lián)系:010-65363056。

延伸閱讀

熱點(diǎn)視頻

上半年汽車(chē)工業(yè)多項(xiàng)經(jīng)濟(jì)指標(biāo)創(chuàng)新高 上半年汽車(chē)工業(yè)多項(xiàng)經(jīng)濟(jì)指標(biāo)創(chuàng)新高

熱點(diǎn)新聞

熱點(diǎn)輿情

?

微信公眾號(hào)

版權(quán)所有:中國(guó)產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)京ICP備11041399號(hào)-2京公網(wǎng)安備11010502035964