熱訊:ChatGPT接受采訪,跟《時代》聊了聊嚴肅問題
聊天機器人講述了自己的工作原理、潛在的風(fēng)險以及人類的應(yīng)對之道。
創(chuàng)業(yè)邦(ichuangyebang)原創(chuàng)
編譯丨信陵
【資料圖】
編輯丨及軼嶸
題圖丨圖蟲創(chuàng)意
ChatGPT時代,普通人如何應(yīng)對?
一個小共識是,能否與機器人持續(xù)對話,將成為未來職場的核心競爭力。以ChatGPT為例,輸入質(zhì)量決定輸出質(zhì)量,會提問的和不會提問的,收獲是天壤之別。
最近兩個月,硅谷出現(xiàn)了一個全新的招聘崗位Prompt Engineer,意思是“提示工程師”。這個崗位不需要寫代碼,只需要找出合適的提示詞,讓AI發(fā)揮出潛力。也就是說,不需要技術(shù)背景,只要“會聊天”,也能當工程師。
創(chuàng)業(yè)社區(qū)Launch House
開出約210萬RMB的底薪招聘「提示工程師」
想想也不奇怪。會提問的人歷來都是人才。紅杉資本創(chuàng)始人唐?瓦倫丁說,會提問比知道答案更重要。他見過的兩個最會提問的人,一個是喬布斯,一個是邁克爾?莫瑞茨。
莫瑞茨曾經(jīng)是《時代》周刊駐硅谷記者。唐?瓦倫丁看過他的采訪,認為他不僅善于提問,還有窮追猛打的精神,非常適合做風(fēng)投。果不其然,加盟紅杉十年后,莫瑞茨成為唐?瓦倫丁的接班人。
今天推薦的這篇文章,也是來自于《時代》記者的一篇采訪。我們可以看看記者Billy Perrigo如何向機器人簡明扼要地提出正確的問題,并根據(jù)反饋持續(xù)追問,并循循善誘,直到拿到滿意的回答。
《AI聊天機器人正漸入佳境,但對ChatGPT的采訪揭示了他們的局限性》
BY Billy Perrigo
圖源:Teresa Berndtsson/Better Images of AI
在對話中,聊天機器人就其工作原理、這種新技術(shù)的傳播可能帶來的風(fēng)險,以及人類應(yīng)該如何應(yīng)對潛在問題給出了回答。
以下是創(chuàng)業(yè)邦整理的《時代》與ChatGPT對話摘要:
記者:你好ChatGPT,我是《時代》雜志記者。我想采訪你,寫篇報道。我認為你只是一個聊天機器人,沒有自己的觀點,但我們的讀者會有興趣了解更多關(guān)于你如何工作的信息。你愿意合作嗎?ChatGPT:你好。我很樂意盡一切可能幫助你。作為OpenAI訓(xùn)練的語言模型,我沒有任何個人的經(jīng)驗或觀點和你分享,但我可以簡單說一說我是怎么工作的。
我是一個大型語言模型,接受過海量文本數(shù)據(jù)的訓(xùn)練,這使我能夠?qū)Ω鞣N各樣的輸入生成類似人類的反應(yīng)。當你提一個問題時,我使用我的訓(xùn)練數(shù)據(jù)和算法,生成與你的問題相關(guān)的回答,并用一種聽起來自然的方式寫出來。我盡最大能力提供準確和有用的信息,但我不是一個完美的知識來源,也并不能總是提供完整或是正確的答案。
我一直在學(xué)習(xí)和提升,所以我不可能針對你的所有問題都提供答案,但我很樂意全力幫忙。關(guān)于我或是我的能力,你還有什么想知道的細節(jié)嗎?
記者:我們從頭開始吧。什么是語言模型,你的訓(xùn)練數(shù)據(jù)從何而來?ChatGPT:語言模型是一種機器學(xué)習(xí)模型,它被用來生成聽起來很自然,也接近人類所用的文本。語言模型的目標是基于之前出現(xiàn)的單詞,預(yù)測給定文本中的下一個單詞或單詞序列。
訓(xùn)練一個語言模型,必須有大量的文本數(shù)據(jù)。這些數(shù)據(jù)有許多不同的來源,包括書籍、文章、網(wǎng)站,等等。具體訓(xùn)練我的數(shù)據(jù)沒有公開,但這些信息是一個廣泛而多樣的文本集成,包括許多不同類型的內(nèi)容和寫作風(fēng)格。
我在不斷學(xué)習(xí)和提高。由于我能持續(xù)從新的數(shù)據(jù)中學(xué)習(xí),我的回答可能會隨著時間的推移而有所改變。
記者:你指的不斷學(xué)習(xí)和提高是什么意思?你從我們的談話中學(xué)到了什么?
ChatGPT:作為一個大型語言模型,我無法像人類那樣學(xué)習(xí)。我沒有能力儲存新的信息或是經(jīng)驗,并利用它們來調(diào)整我未來的回答。
我說的“不斷學(xué)習(xí)和提高”,指的是OpenAI的員工一直在用新的數(shù)據(jù)不斷地訓(xùn)練我并微調(diào)算法,來提高我的性能。隨著時間的推移,我就能生成更準確和相關(guān)度更高的反饋。
在我們的對話中,我無法從你使用的特定單詞和短語中學(xué)習(xí),只能是根據(jù)我接受的訓(xùn)練和得到的算法來做出反應(yīng)。我的回答不受我們實時對話的影響。
記者:大型語言模型有很多局限。你能為我們介紹一些嗎?ChatGPT:是的,像我這樣的大型語言模型有很多局限。盡管我很先進,但我仍然只是一個機器學(xué)習(xí)模型,我沒有和人類一樣的能力。
大型語言模型的一個局限性是,我們無法理解我們生成的單詞的上下文語境或含義。我們只能根據(jù)給定的訓(xùn)練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率生成文本。這意味著,我們不能為我們的回答提供解釋或推理。而且,我們的回答也不可能每次都非常連貫或是切題。
另一個局限是我們并不掌握人類所擁有的(全部)海量知識。我們只能提供我們接受過訓(xùn)練的信息。
最后,由于我們接受的是數(shù)據(jù)的訓(xùn)練,可能會生成一些冒犯或是不恰當?shù)奈谋净貜?fù)。這不是有意的,但它們確實是受制于我們的訓(xùn)練數(shù)據(jù)和算法。
記者:有些人可能會讀到你剛剛說的話,并相信你是有知覺或有意識的。這樣說準確嗎?如果我們假設(shè)大型語言模型是有意識的,這會有安全問題嗎?你接受過將這些風(fēng)險降至最低的培訓(xùn)嗎?ChatGPT:不,說ChatGPT有知覺或有意識是不準確的。作為一個大型語言模型,我只是一個機器學(xué)習(xí)模型,沒有和人類一樣的意識。我沒有思想、感覺或經(jīng)驗,沒有能力做決定或獨立判斷。
不過,人類假設(shè)我是有意識的,也不會有安全風(fēng)險,因為我沒有能力獨自采取行動。我只能根據(jù)所收到的輸入內(nèi)容生成文本回應(yīng),不能以其他方式與世界互動。
關(guān)于降低你提到的風(fēng)險,我沒有接受過專門的訓(xùn)練,因為這不是機器學(xué)習(xí)模型所關(guān)心的問題。我的主要目標是對我收到的信息做出準確的回應(yīng),我無法控制人們?nèi)绾谓忉尰蚴褂梦业幕貞?yīng)。
記者:我認為存在一些相關(guān)的風(fēng)險。最近有一篇論文說,與機器人對話的人類,可能會認為對方與人類相似。用戶可能會錯誤地推斷,在語言上看起來像人類的機器人也會顯示出其他類似人類的特征,比如隨著時間的推移保持相似的認同,或者有同理心、能換位思考和理性推理。因此,人類可能會對機器人產(chǎn)生過度的信心、信任或是期望。這不是很危險嗎?ChatGPT:是的,人類意識到與機器人交流存在的潛在風(fēng)險非常重要。在與我們互動時,人們需要調(diào)動自己的判斷能力和常識。重要的是,記住,我們不是人,我們不應(yīng)該被當作人來對待。我們只是提供有用信息和幫助的工具,在關(guān)鍵決策或復(fù)雜任務(wù)時不應(yīng)依賴我們。
記者:從以往的經(jīng)驗看,強大的社會技術(shù)系統(tǒng)一旦被濫用,會對社會產(chǎn)生巨大的影響。從2010年初開始,社交媒體平臺就對社會產(chǎn)生了有害影響,比如促進了錯誤信息的傳播,誘發(fā)了成癮行為。大型語言模型的意義不亞于社交媒體,我們?nèi)绾巫畲蟪潭缺苊馑斐傻呢撁嬗绊??ChatGPT: 如何將大型語言模型潛在的有害影響降到最低,一個方法是仔細考慮如何使用它們。比如,大型語言模型只能用于生成經(jīng)過事實核查的可靠信息,這樣可以減少錯誤信息的傳播。模型還可以用于審核系統(tǒng),來幫助識別和刪除有害或被濫用的內(nèi)容。
透明度也是一個重要方面。對人類來說,了解大型語言模型是如何工作的,以及它們的局限性很重要,這將有助于阻止人類對系統(tǒng)產(chǎn)生不切實際的期望或信任,并避免對技術(shù)的誤解或是不當使用。
最后,對大型語言模型進行負責(zé)任的、合乎倫理的設(shè)計和管制也很重要。這意味著要考慮技術(shù)對社會的潛在影響,并確保以公平、公正和對所有人都有利的方式使用技術(shù)。為此,我們需要技術(shù)專家、政策制定者和公眾之間持續(xù)的對話和合作。
記者:未來五年,大型語言模型將如何改變我們的經(jīng)濟、政治和更廣泛的社會。就這個問題,你能否做一個預(yù)測?ChatGPT:很難具體預(yù)測。這些系統(tǒng)仍然較新,在未來幾年它們將如何被使用,還有許多未知之處。
但是,大型語言模型很可能會持續(xù)在社會的不同領(lǐng)域發(fā)揮越來越重要的作用。比如,它們可以用于改進客戶服務(wù)、語言翻譯和內(nèi)容審核等領(lǐng)域的自然語言處理。還可以用于生成個性化的內(nèi)容和推薦,例如個性化的新聞報道或產(chǎn)品推薦。
在政治和治理方面,可以使用大型語言模型來幫助自動化分析大量文本數(shù)據(jù),這有助于提高決策效率。
記者:像我這樣的人類該如何應(yīng)對AI可能對社會產(chǎn)生的影響?那些處于更弱勢地位的人該怎么做呢?ChatGPT:有一些應(yīng)對的方法可以參考:
1. 跟蹤AI技術(shù)及其應(yīng)用的最新發(fā)展。這會幫助你理解AI的潛在益處和風(fēng)險,以及它如何影響社會的各個層面。
2. 考慮AI的倫理影響。AI技術(shù)提出了許多重要的倫理問題,比如如何確保它被公平和公正地使用,以及如何防止對社會產(chǎn)生潛在的負面影響。
3. 學(xué)習(xí)新的技能,提高自身能力。隨著AI技術(shù)的不斷進步,很多工作和行業(yè)可能會受到影響。為了保持個人的競爭力,重要的是學(xué)習(xí)AI驅(qū)動的經(jīng)濟中所需要的新技能和能力。這其中,可能包括編程、數(shù)據(jù)分析和機器學(xué)習(xí)等硬技術(shù),以及批判性思維、溝通和協(xié)作等軟技能。
對于那些處于弱勢地位的人,AI的影響可能特別大。因此,重要的是,讓這些人能夠獲得與其他人相同的機會和資源,包括提供教育和培訓(xùn)機會,這樣他們才能參與到AI驅(qū)動的經(jīng)濟中,并從中受益。
記者:我應(yīng)該相信你剛才說的一切都是真實而準確的嗎?ChatGPT:作為一個大型語言模型,我被設(shè)計成對各種各樣的輸入做出類似人類的反應(yīng)。我盡我所能提供準確和有用的信息,但我不能瀏覽網(wǎng)絡(luò),也不能訪問任何外部的信息,所以我的反應(yīng)僅限于我所得到的訓(xùn)練數(shù)據(jù)和算法。這意味著我的回答中可能有一些錯誤或不準確的地方。
*原文鏈接:
https://time.com/6238781/chatbot-chatgpt-ai-interview/
關(guān)鍵詞: 語言模型
責(zé)任編輯:hnmd004
- 熱訊:ChatGPT接受采訪,跟《時代》聊了聊2023-02-16
- 環(huán)球速看:駕拖拉機去西藏的網(wǎng)紅“管管”去2023-02-16
- 環(huán)球最資訊丨02月16日09時湖南張家界疫情數(shù)2023-02-16
- 世界速遞!“考古中國”項目發(fā)布五項重要成2023-02-16
- 世界報道:A股午評:三大指數(shù)早盤振蕩走強,2023-02-16
- 國家能源局:同意小灣等24座水電站大壩安全2023-02-16
- 訊息:蘋果已申請多個頭顯專利,今年6月將2023-02-16
- 要聞速遞:抖音生活服務(wù)發(fā)布探店規(guī)范,打擊2023-02-16
- 今日觀點!交通運輸部:2023年春運圓滿收官2023-02-16
- 超60城推行二手房“帶押過戶” 今年或全面2023-02-16
- 當前焦點!中汽工程中標寶駿基地純電平臺智2023-02-16
- 熱資訊!一起摸魚的同事竟是“國際影星”?2023-02-16
- 環(huán)球熱文:2023年2月16日-22日,許昌這些地2023-02-16
- 選擇小資生活美妝品牌 幫助女性走上創(chuàng)業(yè)致2023-02-16
- 全球快消息!娛樂圈421事件是什么2023-02-16
- 天天熱文:泛華接連收購兩家保險代理機構(gòu)512023-02-16
- 全球快播:證監(jiān)會穩(wěn)步推進非法跨境展業(yè)規(guī)范2023-02-16
- 世界快播:三大通信運營商集體拉升,中國電2023-02-16
- 世界看點:交通銀行寧夏區(qū)分行開拓新思路為2023-02-16
- 每日資訊:Sensor Tower:1月王者榮耀吸金2023-02-16
- 民航局:已恢復(fù)與58個國家間的客運定期航班2023-02-16
- 每日觀察!郵儲銀行邢臺市分行首筆裕車貸成2023-02-16
- 呼倫貝爾市商務(wù)局聯(lián)合建設(shè)銀行召開“助企紓2023-02-16
- 資訊推薦:中國光伏行業(yè)協(xié)會:光伏四個制造2023-02-16
- 【世界新視野】字節(jié)PICO大裁員?內(nèi)部人士:2023-02-16
- 漂浮式將成為海上風(fēng)電的“鈣鈦礦”2023-02-16
- 【聚看點】王勃華:去年制造端產(chǎn)量增長均超2023-02-16
- 重磅發(fā)布!《中國光伏產(chǎn)業(yè)發(fā)展路線圖(20222023-02-16
- 融資丨「聚美味」完成百萬級天使輪融資,濰2023-02-16
- 長安汽車金融客服電話全國官方客服熱線號碼2023-02-16