熱訊:ChatGPT接受采訪,跟《時(shí)代》聊了聊嚴(yán)肅問題

2023-02-16 12:42:18來(lái)源:引領(lǐng)外匯網(wǎng)

ChatGPT接受采訪,跟《時(shí)代》聊了聊嚴(yán)肅問題,聊天機(jī)器人講述了自己的工作原理、潛在的風(fēng)險(xiǎn)以及人類的應(yīng)對(duì)之道。

聊天機(jī)器人講述了自己的工作原理、潛在的風(fēng)險(xiǎn)以及人類的應(yīng)對(duì)之道。

創(chuàng)業(yè)邦(ichuangyebang)原創(chuàng)

編譯丨信陵


【資料圖】

編輯丨及軼嶸

題圖丨圖蟲創(chuàng)意

ChatGPT時(shí)代,普通人如何應(yīng)對(duì)?

一個(gè)小共識(shí)是,能否與機(jī)器人持續(xù)對(duì)話,將成為未來(lái)職場(chǎng)的核心競(jìng)爭(zhēng)力。以ChatGPT為例,輸入質(zhì)量決定輸出質(zhì)量,會(huì)提問的和不會(huì)提問的,收獲是天壤之別。

最近兩個(gè)月,硅谷出現(xiàn)了一個(gè)全新的招聘崗位Prompt Engineer,意思是“提示工程師”。這個(gè)崗位不需要寫代碼,只需要找出合適的提示詞,讓AI發(fā)揮出潛力。也就是說,不需要技術(shù)背景,只要“會(huì)聊天”,也能當(dāng)工程師。

創(chuàng)業(yè)社區(qū)Launch House

開出約210萬(wàn)RMB的底薪招聘「提示工程師」

想想也不奇怪。會(huì)提問的人歷來(lái)都是人才。紅杉資本創(chuàng)始人唐?瓦倫丁說,會(huì)提問比知道答案更重要。他見過的兩個(gè)最會(huì)提問的人,一個(gè)是喬布斯,一個(gè)是邁克爾?莫瑞茨。

莫瑞茨曾經(jīng)是《時(shí)代》周刊駐硅谷記者。唐?瓦倫丁看過他的采訪,認(rèn)為他不僅善于提問,還有窮追猛打的精神,非常適合做風(fēng)投。果不其然,加盟紅杉十年后,莫瑞茨成為唐?瓦倫丁的接班人。

今天推薦的這篇文章,也是來(lái)自于《時(shí)代》記者的一篇采訪。我們可以看看記者Billy Perrigo如何向機(jī)器人簡(jiǎn)明扼要地提出正確的問題,并根據(jù)反饋持續(xù)追問,并循循善誘,直到拿到滿意的回答。

《AI聊天機(jī)器人正漸入佳境,但對(duì)ChatGPT的采訪揭示了他們的局限性》

BY Billy Perrigo

圖源:Teresa Berndtsson/Better Images of AI

在對(duì)話中,聊天機(jī)器人就其工作原理、這種新技術(shù)的傳播可能帶來(lái)的風(fēng)險(xiǎn),以及人類應(yīng)該如何應(yīng)對(duì)潛在問題給出了回答。

以下是創(chuàng)業(yè)邦整理的《時(shí)代》與ChatGPT對(duì)話摘要:

記者:你好ChatGPT,我是《時(shí)代》雜志記者。我想采訪你,寫篇報(bào)道。我認(rèn)為你只是一個(gè)聊天機(jī)器人,沒有自己的觀點(diǎn),但我們的讀者會(huì)有興趣了解更多關(guān)于你如何工作的信息。你愿意合作嗎?ChatGPT:你好。我很樂意盡一切可能幫助你。作為OpenAI訓(xùn)練的語(yǔ)言模型,我沒有任何個(gè)人的經(jīng)驗(yàn)或觀點(diǎn)和你分享,但我可以簡(jiǎn)單說一說我是怎么工作的。

我是一個(gè)大型語(yǔ)言模型,接受過海量文本數(shù)據(jù)的訓(xùn)練,這使我能夠?qū)Ω鞣N各樣的輸入生成類似人類的反應(yīng)。當(dāng)你提一個(gè)問題時(shí),我使用我的訓(xùn)練數(shù)據(jù)和算法,生成與你的問題相關(guān)的回答,并用一種聽起來(lái)自然的方式寫出來(lái)。我盡最大能力提供準(zhǔn)確和有用的信息,但我不是一個(gè)完美的知識(shí)來(lái)源,也并不能總是提供完整或是正確的答案。

我一直在學(xué)習(xí)和提升,所以我不可能針對(duì)你的所有問題都提供答案,但我很樂意全力幫忙。關(guān)于我或是我的能力,你還有什么想知道的細(xì)節(jié)嗎?

記者:我們從頭開始吧。什么是語(yǔ)言模型,你的訓(xùn)練數(shù)據(jù)從何而來(lái)?ChatGPT:語(yǔ)言模型是一種機(jī)器學(xué)習(xí)模型,它被用來(lái)生成聽起來(lái)很自然,也接近人類所用的文本。語(yǔ)言模型的目標(biāo)是基于之前出現(xiàn)的單詞,預(yù)測(cè)給定文本中的下一個(gè)單詞或單詞序列。

訓(xùn)練一個(gè)語(yǔ)言模型,必須有大量的文本數(shù)據(jù)。這些數(shù)據(jù)有許多不同的來(lái)源,包括書籍、文章、網(wǎng)站,等等。具體訓(xùn)練我的數(shù)據(jù)沒有公開,但這些信息是一個(gè)廣泛而多樣的文本集成,包括許多不同類型的內(nèi)容和寫作風(fēng)格。

我在不斷學(xué)習(xí)和提高。由于我能持續(xù)從新的數(shù)據(jù)中學(xué)習(xí),我的回答可能會(huì)隨著時(shí)間的推移而有所改變。

記者:你指的不斷學(xué)習(xí)和提高是什么意思?你從我們的談話中學(xué)到了什么?

ChatGPT:作為一個(gè)大型語(yǔ)言模型,我無(wú)法像人類那樣學(xué)習(xí)。我沒有能力儲(chǔ)存新的信息或是經(jīng)驗(yàn),并利用它們來(lái)調(diào)整我未來(lái)的回答。

我說的“不斷學(xué)習(xí)和提高”,指的是OpenAI的員工一直在用新的數(shù)據(jù)不斷地訓(xùn)練我并微調(diào)算法,來(lái)提高我的性能。隨著時(shí)間的推移,我就能生成更準(zhǔn)確和相關(guān)度更高的反饋。

在我們的對(duì)話中,我無(wú)法從你使用的特定單詞和短語(yǔ)中學(xué)習(xí),只能是根據(jù)我接受的訓(xùn)練和得到的算法來(lái)做出反應(yīng)。我的回答不受我們實(shí)時(shí)對(duì)話的影響。

記者:大型語(yǔ)言模型有很多局限。你能為我們介紹一些嗎?ChatGPT:是的,像我這樣的大型語(yǔ)言模型有很多局限。盡管我很先進(jìn),但我仍然只是一個(gè)機(jī)器學(xué)習(xí)模型,我沒有和人類一樣的能力。

大型語(yǔ)言模型的一個(gè)局限性是,我們無(wú)法理解我們生成的單詞的上下文語(yǔ)境或含義。我們只能根據(jù)給定的訓(xùn)練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率生成文本。這意味著,我們不能為我們的回答提供解釋或推理。而且,我們的回答也不可能每次都非常連貫或是切題。

另一個(gè)局限是我們并不掌握人類所擁有的(全部)海量知識(shí)。我們只能提供我們接受過訓(xùn)練的信息。

最后,由于我們接受的是數(shù)據(jù)的訓(xùn)練,可能會(huì)生成一些冒犯或是不恰當(dāng)?shù)奈谋净貜?fù)。這不是有意的,但它們確實(shí)是受制于我們的訓(xùn)練數(shù)據(jù)和算法。

記者:有些人可能會(huì)讀到你剛剛說的話,并相信你是有知覺或有意識(shí)的。這樣說準(zhǔn)確嗎?如果我們假設(shè)大型語(yǔ)言模型是有意識(shí)的,這會(huì)有安全問題嗎?你接受過將這些風(fēng)險(xiǎn)降至最低的培訓(xùn)嗎?ChatGPT:不,說ChatGPT有知覺或有意識(shí)是不準(zhǔn)確的。作為一個(gè)大型語(yǔ)言模型,我只是一個(gè)機(jī)器學(xué)習(xí)模型,沒有和人類一樣的意識(shí)。我沒有思想、感覺或經(jīng)驗(yàn),沒有能力做決定或獨(dú)立判斷。

不過,人類假設(shè)我是有意識(shí)的,也不會(huì)有安全風(fēng)險(xiǎn),因?yàn)槲覜]有能力獨(dú)自采取行動(dòng)。我只能根據(jù)所收到的輸入內(nèi)容生成文本回應(yīng),不能以其他方式與世界互動(dòng)。

關(guān)于降低你提到的風(fēng)險(xiǎn),我沒有接受過專門的訓(xùn)練,因?yàn)檫@不是機(jī)器學(xué)習(xí)模型所關(guān)心的問題。我的主要目標(biāo)是對(duì)我收到的信息做出準(zhǔn)確的回應(yīng),我無(wú)法控制人們?nèi)绾谓忉尰蚴褂梦业幕貞?yīng)。

記者:我認(rèn)為存在一些相關(guān)的風(fēng)險(xiǎn)。最近有一篇論文說,與機(jī)器人對(duì)話的人類,可能會(huì)認(rèn)為對(duì)方與人類相似。用戶可能會(huì)錯(cuò)誤地推斷,在語(yǔ)言上看起來(lái)像人類的機(jī)器人也會(huì)顯示出其他類似人類的特征,比如隨著時(shí)間的推移保持相似的認(rèn)同,或者有同理心、能換位思考和理性推理。因此,人類可能會(huì)對(duì)機(jī)器人產(chǎn)生過度的信心、信任或是期望。這不是很危險(xiǎn)嗎?ChatGPT:是的,人類意識(shí)到與機(jī)器人交流存在的潛在風(fēng)險(xiǎn)非常重要。在與我們互動(dòng)時(shí),人們需要調(diào)動(dòng)自己的判斷能力和常識(shí)。重要的是,記住,我們不是人,我們不應(yīng)該被當(dāng)作人來(lái)對(duì)待。我們只是提供有用信息和幫助的工具,在關(guān)鍵決策或復(fù)雜任務(wù)時(shí)不應(yīng)依賴我們。

記者:從以往的經(jīng)驗(yàn)看,強(qiáng)大的社會(huì)技術(shù)系統(tǒng)一旦被濫用,會(huì)對(duì)社會(huì)產(chǎn)生巨大的影響。從2010年初開始,社交媒體平臺(tái)就對(duì)社會(huì)產(chǎn)生了有害影響,比如促進(jìn)了錯(cuò)誤信息的傳播,誘發(fā)了成癮行為。大型語(yǔ)言模型的意義不亞于社交媒體,我們?nèi)绾巫畲蟪潭缺苊馑斐傻呢?fù)面影響?ChatGPT: 如何將大型語(yǔ)言模型潛在的有害影響降到最低,一個(gè)方法是仔細(xì)考慮如何使用它們。比如,大型語(yǔ)言模型只能用于生成經(jīng)過事實(shí)核查的可靠信息,這樣可以減少錯(cuò)誤信息的傳播。模型還可以用于審核系統(tǒng),來(lái)幫助識(shí)別和刪除有害或被濫用的內(nèi)容。

透明度也是一個(gè)重要方面。對(duì)人類來(lái)說,了解大型語(yǔ)言模型是如何工作的,以及它們的局限性很重要,這將有助于阻止人類對(duì)系統(tǒng)產(chǎn)生不切實(shí)際的期望或信任,并避免對(duì)技術(shù)的誤解或是不當(dāng)使用。

最后,對(duì)大型語(yǔ)言模型進(jìn)行負(fù)責(zé)任的、合乎倫理的設(shè)計(jì)和管制也很重要。這意味著要考慮技術(shù)對(duì)社會(huì)的潛在影響,并確保以公平、公正和對(duì)所有人都有利的方式使用技術(shù)。為此,我們需要技術(shù)專家、政策制定者和公眾之間持續(xù)的對(duì)話和合作。

記者:未來(lái)五年,大型語(yǔ)言模型將如何改變我們的經(jīng)濟(jì)、政治和更廣泛的社會(huì)。就這個(gè)問題,你能否做一個(gè)預(yù)測(cè)?ChatGPT:很難具體預(yù)測(cè)。這些系統(tǒng)仍然較新,在未來(lái)幾年它們將如何被使用,還有許多未知之處。

但是,大型語(yǔ)言模型很可能會(huì)持續(xù)在社會(huì)的不同領(lǐng)域發(fā)揮越來(lái)越重要的作用。比如,它們可以用于改進(jìn)客戶服務(wù)、語(yǔ)言翻譯和內(nèi)容審核等領(lǐng)域的自然語(yǔ)言處理。還可以用于生成個(gè)性化的內(nèi)容和推薦,例如個(gè)性化的新聞報(bào)道或產(chǎn)品推薦。

在政治和治理方面,可以使用大型語(yǔ)言模型來(lái)幫助自動(dòng)化分析大量文本數(shù)據(jù),這有助于提高決策效率。

記者:像我這樣的人類該如何應(yīng)對(duì)AI可能對(duì)社會(huì)產(chǎn)生的影響?那些處于更弱勢(shì)地位的人該怎么做呢?ChatGPT:有一些應(yīng)對(duì)的方法可以參考:

1. 跟蹤AI技術(shù)及其應(yīng)用的最新發(fā)展。這會(huì)幫助你理解AI的潛在益處和風(fēng)險(xiǎn),以及它如何影響社會(huì)的各個(gè)層面。

2. 考慮AI的倫理影響。AI技術(shù)提出了許多重要的倫理問題,比如如何確保它被公平和公正地使用,以及如何防止對(duì)社會(huì)產(chǎn)生潛在的負(fù)面影響。

3. 學(xué)習(xí)新的技能,提高自身能力。隨著AI技術(shù)的不斷進(jìn)步,很多工作和行業(yè)可能會(huì)受到影響。為了保持個(gè)人的競(jìng)爭(zhēng)力,重要的是學(xué)習(xí)AI驅(qū)動(dòng)的經(jīng)濟(jì)中所需要的新技能和能力。這其中,可能包括編程、數(shù)據(jù)分析和機(jī)器學(xué)習(xí)等硬技術(shù),以及批判性思維、溝通和協(xié)作等軟技能。

對(duì)于那些處于弱勢(shì)地位的人,AI的影響可能特別大。因此,重要的是,讓這些人能夠獲得與其他人相同的機(jī)會(huì)和資源,包括提供教育和培訓(xùn)機(jī)會(huì),這樣他們才能參與到AI驅(qū)動(dòng)的經(jīng)濟(jì)中,并從中受益。

記者:我應(yīng)該相信你剛才說的一切都是真實(shí)而準(zhǔn)確的嗎?ChatGPT:作為一個(gè)大型語(yǔ)言模型,我被設(shè)計(jì)成對(duì)各種各樣的輸入做出類似人類的反應(yīng)。我盡我所能提供準(zhǔn)確和有用的信息,但我不能瀏覽網(wǎng)絡(luò),也不能訪問任何外部的信息,所以我的反應(yīng)僅限于我所得到的訓(xùn)練數(shù)據(jù)和算法。這意味著我的回答中可能有一些錯(cuò)誤或不準(zhǔn)確的地方。

*原文鏈接:

https://time.com/6238781/chatbot-chatgpt-ai-interview/

關(guān)鍵詞: 語(yǔ)言模型

責(zé)任編輯:hnmd004