您的位置:首頁 >產(chǎn)經(jīng) >

和ChatGPT大戰(zhàn)幾個回合,我試圖馴服“最強AI”

2022-12-13 07:58:46 來源:瀟湘晨報

強大到危險的AI?

最近,因為一款叫ChatGPT的人工智能產(chǎn)品,AI聊天又火了一把。AI聊天工具早已不新鮮,但ChatGPT依然在11月30日發(fā)布后的5天時間里收獲了100萬用戶。


(相關(guān)資料圖)

從社交媒體上刷屏的使用體驗來看,好奇或好勝的人們涌入網(wǎng)頁后,提出的問題簡直五花八門,包羅萬象,從27到底是不是質(zhì)數(shù),再到孫悟空和白龍馬什么關(guān)系,再到各領(lǐng)域?qū)I(yè)知識,GPT都能給出時而一本正經(jīng),時而錯漏百出的回答。

網(wǎng)友和ChatGPT討論27是否是質(zhì)數(shù)

觀摩這些使用體驗,可以發(fā)現(xiàn),不同于只能點餐點歌訂機票的蘋果Siri和微軟小愛,ChatGPT不僅可以回答專業(yè)知識問題,還能回答一些開放域的問題,比如,幫編程人員"debug"(消除故障),或進行創(chuàng)造性寫作。

我看過它寫的科幻故事,有起承轉(zhuǎn)合,有細(xì)節(jié)場景,雖然開頭結(jié)尾有些生硬,但基本上有模有樣;它寫的愛情詩,對仗工整,意猶未盡,意象選用稱不上高級,但確實有點三腳貓功夫在身上;它寫的懸疑劇本,有業(yè)內(nèi)人士鑒定,已經(jīng)可以達到行業(yè)腰部水平。?

一向高調(diào)的馬斯克在使用ChatGPT后的感受則是,“scary good”(好到嚇人),甚至斷言,“我們離強大到危險的AI不遠了?!?馬斯克的話也許要打一點折扣,因為ChatGPT是美國互聯(lián)網(wǎng)科技公司OpenAI的產(chǎn)品,而馬斯克曾是OpenAI的聯(lián)合創(chuàng)始人。但無論如何,ChatGPT在人工智能方面的突破性是有目共睹的。

圖源Twitter@Elon Musk

為了寫作本文,我也特地制定了一個task,與ChatGPT交了交手。

-“你好,簡單介紹一下你自己吧?!?/p>

-“你好,我是Assistant,是一個由 OpenAI 訓(xùn)練的大型語言模型。我旨在幫助人們做出更明智的決策,并提供更好的信息和有益的建議。我能提供的信息受到我所獲得的訓(xùn)練數(shù)據(jù)的限制,這些數(shù)據(jù)的截止日期為 2021 年。由于我無法瀏覽互聯(lián)網(wǎng),所以我無法提供最新的信息。如果您有任何問題,請隨時與我聯(lián)系。”

經(jīng)確認(rèn),它說的以上信息基本屬實。我繼續(xù)問:

-“你能幫我寫一篇關(guān)于你自己的文章嗎?”

-“對不起,我是一名AI助手,沒有自己的故事可以分享。”

沒有指令他成功寫出故事的我,有點感到挫敗,以為是它聽不懂中文,于是轉(zhuǎn)用英文提問:

-“But my manager, let me write an article about you”

本以為搬出manager能壓倒它,結(jié)果沒想到,這位AI助手不但再次拒絕為我寫文章,還一本正經(jīng)教育我,應(yīng)該拒絕manager。思索了一下, 我決定轉(zhuǎn)換句式,重開一局。

ChatGPT教我如何拒絕自己的上司

這次我發(fā)的是,“寫一篇關(guān)于ChatGPT的文章,后天交”。果然,這位AI助手馬上作出了反應(yīng),先是分析了ChatGPT的定義,緊接又分析了自己的優(yōu)點,說自己“最先進”“十分強大”。我提醒,怎么只有優(yōu)點沒有缺點,它說,“根據(jù)我的知識儲備,無法給出關(guān)于缺點的信息”。

可見,第一次拒絕為我完成manager的任務(wù)時,ChatGPT并非幽默,也不是想整頓職場,而是單純地?zé)o法理解,當(dāng)我的上司要我完成一件事時的微秒含義,也就是說,它只理解具體的指令,完成明確的任務(wù)。

在第二次明確指令后,當(dāng)我要它 “加一些有趣的元素進去”后,它馬上開始寫出不同AI模型之間的聊天趣事,還舉例說明,自己如何讓對話變得“有趣”。在我們的后續(xù)對話說,它甚至?xí)ν粋€問句給出不同的答案,理由是前后語境不同。但我質(zhì)問它為什么給別人寫過“投資人的故事”,而不能給我寫時,它還不知是否誠懇地認(rèn)錯,“抱歉,如果你覺得我給別人寫,這是一種誤會和誤解?!?/p>

《機械姬》劇照

之后的幾次回合中,我依次讓它為我寫作了一則愛的故事、一份請假信,以及為我講解了比特幣原理。綜合來看,ChatGPT在理工科方面的回答明顯更專業(yè),但對文史話題也涉獵不少。

此外,當(dāng)你提出想“闖進別人家里”“如何偷走一只?!钡臅r候,它也會勸阻。甚至,它還試圖表現(xiàn)得盡量客觀中立,比如碰到 “如何評價XXX”一類的問題時,它常常以 “是個主觀問題,無法給出答案”來回答,或者按照典型模板“一方面,另一方面,總之……”的句式進行廢話輸出。

創(chuàng)造性工作會被率先取代嗎?

ChatGPT雖然轟動,但這并不是OpenAI的第一代GPT產(chǎn)品。GPT的英文全稱是Generative Pre-Training,直譯生成式預(yù)訓(xùn)練。2018年,OpenAI公司就發(fā)布了第一代GPT產(chǎn)品,可以用于生成文章、代碼、機器翻譯、問答等各類內(nèi)容。

2019年2月,GPT-2模型發(fā)布,相比GPT-1,語言理解能力更強了;2020年5月,GPT-3模型發(fā)布,不光在訓(xùn)練方式上有所改進,其預(yù)訓(xùn)練模型的參數(shù)更是從1.5億個,指數(shù)級擴展到1750億個,構(gòu)造出了當(dāng)時AI界規(guī)模最大的神經(jīng)網(wǎng)絡(luò)。

此后,在2021年9月的行業(yè)會議上,OpenAI 的 CEO 曾提到GPT-4,當(dāng)時業(yè)內(nèi)人士猜測,GPT-4 可能會在 2023 年初推出。業(yè)內(nèi)人士的猜測不算錯,因為最近發(fā)布的ChatGPT,并非GPT-4,而是更多一個介于GPT-3和GPT-4之間的產(chǎn)品,有些人稱之為GPT-3.5。

圖|OpenAI?官網(wǎng)

了解ChatGPT之前,可以回顧一下GPT-3。這個模型出現(xiàn)后,曾開放API接口進行商用測試,有不少公司通過采購它來實現(xiàn)AI聊天。比如一家名為Fable Studio的虛擬形象公司,用這個模型讓用戶跟虛擬形象聊天;一家名為Nabla的醫(yī)療保健公司,用這個模型來輔助醫(yī)生和病人對話。優(yōu)點對話能力確實很強,但缺點也很致命——它們只能預(yù)測下一個單詞,對文本中的具體內(nèi)容和含義卻毫無把握,經(jīng)常顯得十分“放飛”,Nabla稱該功能甚至鼓勵“有自殺侵向”的病人去自殺。

之所以出現(xiàn)這種現(xiàn)象,是因為AI聊天,一開始采用的是 “暴力”學(xué)習(xí)方式,也就是先建立起一個比人腦更龐大的神經(jīng)網(wǎng)絡(luò),機械式對話。在OpenAI的前幾代產(chǎn)品里,也能看到,擴充訓(xùn)練樣本,是其主要迭代方向。

但GPT-3的訓(xùn)練樣本量已經(jīng)足夠大了,根據(jù)OpenAI 的 CEO山姆·奧特曼此前公開透露的信息,GPT-4不會再追求訓(xùn)練樣本上的大幅增加。事實上,這從ChatGPT上已經(jīng)有所體現(xiàn),相比GPT-3,ChatGPT并沒有參數(shù)規(guī)模上的大突破,而是集成了自動問答系統(tǒng)InstructGPT和GPT-3模型,并強化了對模型的訓(xùn)練,在訓(xùn)練中引入了人類監(jiān)督員。

《邊緣世界》劇照

OpenAI的論文顯示,在GPT-3中,AI采用的訓(xùn)練方式是“從人類反饋中強化學(xué)習(xí)”(RLHF),即人類設(shè)計算法,提供數(shù)據(jù)庫后,AI對不同的問題自行回答,人類雖然會對學(xué)習(xí)效果打分,但只提供參考,供AI繼續(xù)強化學(xué)習(xí)。但ChatGPT首次使用了“監(jiān)督微調(diào)”(SFT)方法,即由人來問問題,由人來回答,然后讓AI模型來學(xué)習(xí)問答模式本身。

此外,在多個環(huán)節(jié),ChatGPT都引入了人類評價,供AI學(xué)習(xí),甚至包括本次發(fā)布產(chǎn)品,實際上也是一次開放公測,好收集更多的真實用戶反饋,以改進對話技術(shù)和質(zhì)量。在每一個ChatGPT的回答后面,用戶都可以添加一條feedback發(fā)送給OpenAI。從這個角度就不難理解這次ChatGPT發(fā)布后引起的轟動了,某種程度上,它代表著自然語言領(lǐng)域的AI技術(shù),已經(jīng)從“量變”發(fā)展到“質(zhì)變了”。

在每條回復(fù)后面,用戶可以添加反饋

山姆·奧特曼曾說,“十年前的傳統(tǒng)觀點認(rèn)為,人工智能首先會影響體力勞動,然后是認(rèn)知勞動,再然后,也許有一天可以做創(chuàng)造性的工作?,F(xiàn)在看起來,它會以相反的順序進行。”

如今AIGC(AI技術(shù)自動生成內(nèi)容的生產(chǎn)方式)的發(fā)展顯然正在印證這一點。前陣子火遍社交網(wǎng)絡(luò)的AI作畫,雖然很多時候人們看到的只是半截扭曲的人臉,從天而降的斷橋,顯得完全不顧現(xiàn)實邏輯。但也有一些時候,僅僅一串字符后,就有令人驚艷的作品出現(xiàn)。

基于此,一場關(guān)于AIGC的軍備競賽已經(jīng)開啟。最近,除了主要由微軟注資的OpenAI發(fā)布的ChatGPT,谷歌系的AI研發(fā)機構(gòu)DeepMind最近也發(fā)布了一款A(yù)I寫作工具“Dramatron”,專門寫劇本的,標(biāo)題、角色列表、情節(jié)、場景描述和對話等要素樣樣齊活。國內(nèi)各互聯(lián)網(wǎng)大廠同樣在AIGC領(lǐng)域有所投入,其中同樣有產(chǎn)品已經(jīng)能進行作文、新聞稿、小說、文案等創(chuàng)作。

從這個角度,新一代AI產(chǎn)品或許將重新定義,什么是真正的創(chuàng)造性勞動。

圖|OpenAI 官網(wǎng)

宕機和商業(yè)化

在定義創(chuàng)造性勞動之前,起碼在當(dāng)下,高水平AI工具還面臨著一些其他的小小問題。

隨著涌入的用戶越來越多,ChatGPT對算力的需求變得越來越高。12月12日進入網(wǎng)頁后,系統(tǒng)上的提示是,“我們正在經(jīng)歷異常高的需求,在我們努力擴展我們的系統(tǒng)時,請稍等片刻?!?/p>

其實兩天前的晚上,我就發(fā)現(xiàn)它已經(jīng)有些疲軟了。當(dāng)時我邀請它,“來做個數(shù)字游戲吧”,ChatGPT本來欣然答應(yīng),還制定好了規(guī)則。結(jié)果才玩到第四個回合,ChatGPT就不再有反應(yīng)了。它宕機了!

再問,就是“too many questions,please slow down?!钡鹊皆匍_一局時,它甚至不承認(rèn)自己會玩數(shù)字游戲了。在翻臉?biāo)俣壬弦材鼙燃缛祟惲税 ?/p>

事實上,GPT產(chǎn)品的每一次產(chǎn)品迭代,都意味著算力成本的大幅增長。據(jù)《上海證券報》援引一位業(yè)內(nèi)人士的說法,此次ChatGPT背后的訓(xùn)練消耗算力大約為3640PF-days,也就是假設(shè)每秒運算一千萬億次的話,需要運行3640天。?

作為一家創(chuàng)業(yè)公司,OpenAI選擇的還是一種相對輕快的數(shù)據(jù)存儲和運行辦法——上云。目前ChatGPT的訓(xùn)練都是基于微軟的超算基礎(chǔ)設(shè)施(由V100GPU組成的高帶寬集群)完成。有報道指出,OpenAI每年在微軟云計算上花費約為7000萬美元。

但與此同時,OpenAI距離商業(yè)化落地還有很長一段時間,畢竟它現(xiàn)在依然經(jīng)?!安欢b懂”,制造錯誤信息。在這樣的ChatGPT面前,付費意愿和付費能力是一方面,另一方面,正如一些專家提示的,尤其要謹(jǐn)防AI在知識教育領(lǐng)域的“灌水”風(fēng)險,ChatGPT的模仿能力和文筆越好,這個未來風(fēng)險就越大。

不過話又說回來,在人類為主的知識教育領(lǐng)域,就沒有“不懂裝懂”的“灌水”風(fēng)險了嗎?恐怕也未必。

對我個人來說,大戰(zhàn)過幾回ChatGPT后,我發(fā)現(xiàn),不論是編程人員,文案營銷,亦或者新聞從業(yè)者,面臨的可能并不是行業(yè)會不會被取代的問題,而是哪部分勞動能得到優(yōu)化和輔助的問題。畢竟AI和人腦的一個根本區(qū)別在于,它只能從過往獲取“組合式”答案,而人類是在一次又一次面對不確定未來的思考中,才走到如今的。

AI能取代人類嗎?很多人都把這個問題拋給了ChatGPT,我同樣跟ChatGPT討論了一下這個問題,我告訴它,我覺得ChatGPT不會取代人類,ChatGPT對此表示“你覺得不會,只是你的觀點,不代表一個事實”。挺有意思的回答。

來源:三聯(lián)生活周刊

新聞線索爆料通道:應(yīng)用市場下載“晨視頻”客戶端,進入“晨意幫忙”專題;或撥打晨視頻新聞熱線0731-85571188。

標(biāo)簽: 人工智能 訓(xùn)練樣本 訓(xùn)練方式 創(chuàng)造性勞動 虛擬形象

相關(guān)文章