Original Jay Dang FlowGPT
(資料圖片僅供參考)
Prompt 到底是什么?
如果把ChatGPT具象成一個(gè)執(zhí)行力&知識廣度拉滿的 員工 ,那Prompt則是你給的 指令 ,指令越詳細(xì),上下文越豐富,輸出定義越明確,得到的結(jié)果也就越好。
正因?yàn)镻rompt和輸出結(jié)果的 強(qiáng)相關(guān)性 ,市場對Prompt的價(jià)值非常認(rèn)可。有投機(jī)客會(huì)發(fā)廣告直接賣Prompt的bundle,也有Promptbase這樣的marketplace交易Prompts。最受歡迎的模式還是把高質(zhì)量的prompt套一層UI,封裝成SaaS產(chǎn)品 (Jasper, CopyAI)。除了那些 有自己的獨(dú)特?cái)?shù)據(jù)或大模型的公司,這些公司本質(zhì)上都是在出租 Prompt 來獲取價(jià)值。
我們認(rèn)為 P rompt并不是用來出租和出售的商品,而是像短視頻和代碼一樣會(huì)被分享和討論的內(nèi)容。
ChatGPT爆火后,市場對Prompt的認(rèn)知快速提升,各個(gè)細(xì)分領(lǐng)域的的Influencers分享了大量免費(fèi)好用的Prompt,由于創(chuàng)作門檻本身就低,越來越多的人開始參與Prompt創(chuàng)作,Prompt的體量供應(yīng)爆炸式增長。Japser的用戶發(fā)現(xiàn)網(wǎng)上隨便找的Prompt可以在ChatGPT免費(fèi)用,即使效果不如Jasper,也都跑去用ChatGPT了。未來市場并不愿意為Prompt付費(fèi),因?yàn)橛脩粲刑嗝赓M(fèi)的選擇,低門檻高多樣性的Prompt會(huì)成為一種新內(nèi)容,被分享,consume,和迭代。
代碼 | Prompt |
用強(qiáng)邏輯性結(jié)構(gòu)的抽象語句讓計(jì)算機(jī)操縱服務(wù)器/本地的數(shù)據(jù) | 用自然語言讓大模型操縱服務(wù)器/本地以及訓(xùn)練數(shù)據(jù)集的數(shù)據(jù) |
用于IT&Software | 用于內(nèi)容創(chuàng)作 |
Prompt最讓我們興奮的點(diǎn)是它極大降低了用戶批量操縱數(shù)據(jù)的門檻,讓任何人都變成了軟件工程師, 能給自己搭建信息時(shí)代的解決方案。
拿軟件舉例子,代碼的創(chuàng)作者是程序員,使用者是終端用戶,程序員不知道用戶想要什么,所以需要產(chǎn)品經(jīng)理去了解用戶,把他們的需求翻譯成產(chǎn)品功再能給程序員實(shí)現(xiàn)。這個(gè)流程有大量的交流導(dǎo)致的信息損耗,非常低效。而這個(gè)流程存在的原因則是終端用戶沒有時(shí)間和技能去寫代碼做軟件。
Prompt的出現(xiàn)徹底改變了這一流程,從此以后,只需要用自然語言描述問題和相應(yīng)的步驟,就可以搭建個(gè)性化的解決方案,省去了讓一個(gè)專門的團(tuán)隊(duì)來找問題迭代產(chǎn)品PMF的步驟,因?yàn)橛脩糇约菏亲詈玫漠a(chǎn)品經(jīng)理。
Prompt相比代碼有著極低的創(chuàng)作門檻,更強(qiáng)大的能力,更多的使用場景,因此更大的體量。
過去人們想要?jiǎng)?chuàng)作需要想象力,專業(yè)技能和時(shí)間。 比如想寫一個(gè)故事,得先構(gòu)思想象一下故事內(nèi)容,再用寫作技能實(shí)現(xiàn)。或者做一個(gè) App ,要先設(shè)想功能、界面,然后用設(shè)計(jì)和編程技能將其實(shí)現(xiàn)。這可能需要一個(gè)人或一個(gè)團(tuán)隊(duì)。問題在于培養(yǎng)這些技能的周期很長,花費(fèi)也很大,因此才會(huì)有分工。
然而,生成式模型的出現(xiàn)使任何人都具備了行業(yè)專家級別的技能。實(shí)現(xiàn)任何想法,只需用 prompt 描述,就能迅速實(shí)現(xiàn)和迭代。Prompt 成為了想象力的載體。
在GPT出現(xiàn)之前,沉淀想象力沒有任何意義,因?yàn)橹挥凶罱K實(shí)現(xiàn)的成品才會(huì)有人使用或?yàn)g覽,所以我們看到的都是像App Store, YouTube, Spotify這樣沉淀成品的平臺?,F(xiàn)在,想象力就是成品。
Prompt Engineering的最終形態(tài)是對大模型使用場景的探索。目前我們面臨的一個(gè)非?,F(xiàn)實(shí)的問題是大家不知道 AI 能用來干什么。舉個(gè)例子,在聽到 HustleGPT(讓 ChatGPT 當(dāng)老板幫你賺錢)之前,我們完全沒有意識到 ChatGPT 還能這么用。包括每天在 FlowGPT 上看大家上傳的各種各樣 Prompts 時(shí),都會(huì)被大家的想象力震驚,以前根本沒有想到這樣的使用場景。
Prompt會(huì)怎么發(fā)展?
Prompts會(huì)變得更復(fù)雜來完成越來越復(fù)雜和細(xì)分的任務(wù)。這一次更新 ChatGPT 到 GPT-4 之后,我們和很多社群的成員溝通過,做了非常多的觀察。 發(fā)現(xiàn) GPT-4 的 prompt 普遍是比 ChatGPT 的 Prompt 要更復(fù)雜、更長。
我們可以拿代碼做一個(gè)類比,代碼早期沒有什么高階的編程語言,用 Python 能一行寫完的邏輯,那個(gè)時(shí)候的代碼需要十幾行,同時(shí)電腦(代碼的載體)在內(nèi)存、在顯示上的能力也非常有限,所以早期的軟件相比今天非常簡陋。但 隨著越來越高級的編程語言和框架的出現(xiàn), 以及硬件性能的提升。軟件的復(fù)雜度、能解決的問題是越來越多的,才有現(xiàn)在的互聯(lián)網(wǎng)軟件時(shí)代。
同樣的變革正發(fā)生在 Prompt 上。GPT-4 有著 更強(qiáng)的對自然語言的理解能力 ,意味著 ChatGPT 需要十幾句話才能講明白的邏輯,在 GPT-4 里面一句話就可以講明白。prompt 工程師可以寫出更容易被理解、修改、和規(guī)?;?prompt。同時(shí) GPT-4 的緩存也提升了8倍,意味著 Prompt 的復(fù)雜度上限也大幅度提升,能解決的問題的復(fù)雜度和體量也將迅速擴(kuò)大。在社群里,ChatGPT的prompts普遍使用場景是改簡歷,寫文案,做策劃等簡單的模塊,GPT4的prompts則包含文字冒險(xiǎn)劇本殺游戲,甚至有游戲引擎,prompt編程框架等。
Prompt能力提升來自于大模型本身的升級。比如GPT能聯(lián)網(wǎng)以后,所有的prompt都被賦予了實(shí)時(shí)獲取訊息和搜索的能力,復(fù)雜度又多了一個(gè)緯度。ChatGPT Plugin Store也是類似的,Prompt被賦予了能夠使用別的SaaS軟件來存取數(shù)據(jù)以及操作的能力。之后能進(jìn)一步鏈接思域數(shù)據(jù)甚至物理世界的能力。Prompt能做的事越變越多了。隨著模型本身能力變強(qiáng),模型種類變多,prompt能夠解決的問題體量也迅速增長。
Prompt是AI原生應(yīng)用的最簡形態(tài), 是一種全新的內(nèi)容。
我們認(rèn)為 AIGC 有兩種融入產(chǎn)業(yè)的形態(tài):
+AI | AI+ |
把之前以軟件主導(dǎo)的工作流加上 AIGC 的模塊來大幅度降本增效,比如 Notion AI,微軟的 Copilot,還有 Adobe 的 Firefly. | 通過多個(gè)大模型和 prompt 的協(xié)作組成的 AI 原生的工作流。前段時(shí)間 Twitter 有一個(gè)人用 ChatGPT 加 Midjourney 在一天內(nèi)創(chuàng)作了一本繪本故事,然后放到亞馬遜上賣。這就是一個(gè)最簡形態(tài)的 flow。 |
基于對prompt的進(jìn)階控制和能力拓展,會(huì)出現(xiàn)各種各樣形態(tài)的AI原生應(yīng)用比如把多個(gè)prompt連起來的prompt工作流(chain of prompts), 讓prompt根據(jù)目標(biāo)生成更多prompt來自動(dòng)完成任務(wù)的自治agents(AutoGPT), 給prompt提供私域數(shù)據(jù)(vector embeding)的context-aware聊天機(jī)器人. 這里舉一個(gè)prompt工作流的例子. 未來人們做AI+的繪本,只需給一個(gè)標(biāo)題, ChatGPT 的某個(gè) Prompt 就會(huì)以此生成故事大綱,而另一個(gè) Prompt 會(huì)根據(jù)大綱來生成給 Midjourney 用的圖片 Prompt , Midjourney 會(huì)以此生成一些插畫,后面可能會(huì)有圖生文的大模型,用插畫生成了環(huán)境描寫。最下面是一個(gè)多模態(tài)大模型,給所有生成的內(nèi)容排版潤色,最后輸出一個(gè)完整的繪本故事的PDF。
這里面的每一個(gè)模塊都是一個(gè)獨(dú)特的 「Prompt +大模型」 的一個(gè)組合,多個(gè)模塊之間的協(xié)作形成了一個(gè) AI 原生的工作流,也就是一個(gè) flow。要知道這個(gè) Twitter 上的小哥本身是一個(gè)軟件工程師,他沒有任何的插畫和寫作經(jīng)驗(yàn)。過去做這件事至少要3個(gè)人,他們可能分別會(huì)用 word、PS 和 Adobe ,現(xiàn)在你只需要會(huì)寫 Prompt ,會(huì)設(shè)計(jì) flow 。這樣的Flow未來會(huì)越來越多,并且越來越復(fù)雜。
Future LLM = Data Monopoly
如前幾周金融行業(yè)的巨頭 Bloomberg 用之前積累的金融領(lǐng)域獨(dú)特?cái)?shù)據(jù),訓(xùn)練了一個(gè)專用于金融任務(wù)的大模型。在金融相關(guān)的任務(wù)上,能力遠(yuǎn)超過現(xiàn)有的模型。我們覺得這樣的模型會(huì)非??斓匚⒘糇∫徊糠钟脩簦ㄟ^用戶的反饋能夠不斷去迭代模型的能力,再吸引更多用戶,形成一個(gè)正循環(huán)。這就是Sam說的數(shù)據(jù)飛輪。
我們現(xiàn)在看 OpenAI 能夠這么火,成為一個(gè)主要的玩家,我覺得有兩個(gè)原因:
第一是有非常好的人才,這些人才有非常好的技術(shù),做出了 GPT-3.5; 第二就是有足夠的資本,有能力去試驗(yàn),去訓(xùn)練大模型很多次。但是他們用的數(shù)據(jù)大部分是網(wǎng)上公開的數(shù)據(jù),加上一小部分他們自己雇人去標(biāo)注RLHF的數(shù)據(jù)。但是隨著開源的這種大模型的框架慢慢變多,再隨著大模型的訓(xùn)練成本迅速降低,其實(shí)很快每個(gè)人都可以有能力用開源數(shù)據(jù)訓(xùn)練一個(gè)自己的 GPT ,包括現(xiàn)在也已經(jīng)有很多這樣的開源框架能夠復(fù)現(xiàn) GPT 一部分的能力了。
那個(gè)時(shí)候拼的就是誰有別人沒有的數(shù)據(jù),誰有 數(shù)據(jù)壟斷 。 最先意識到這件事的機(jī)構(gòu)可以最先訓(xùn)練出一個(gè)特化大模型,就像 BloombergGPT 一樣,可以最先去面向用戶。此過程中會(huì)收集非常多的反饋數(shù)據(jù),能夠去迭代他自己的大模型,然后搭上一個(gè)飛輪,形成非常強(qiáng)的壁壘。
我們其實(shí)可以參考神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程。在剛出來的時(shí)候,去訓(xùn)練一個(gè)在ImageNet達(dá)到93%準(zhǔn)確率的分類模型需要1000多美元,但現(xiàn)在成本只有幾毛錢,這整個(gè)過程花了不到10年時(shí)間。現(xiàn)在隨便一個(gè)高中生都會(huì)訓(xùn)練神經(jīng)網(wǎng)絡(luò),而缺的是數(shù)據(jù)。同樣的情況會(huì)在大模型上出現(xiàn),它的成本一定會(huì)下降。 未來訓(xùn)練大模型的成本花費(fèi)一定不是問題,主要問題一定是有什么別人沒有的數(shù)據(jù), 有沒有數(shù)據(jù)上的壟斷。