♦ 若有侵害著作權,請速告知,我們將盡速移除 ♦
2024/2/29
Yi-Jing Lin 林宜敬 | 1987年畢業於台大資訊工程系,1995年取得美國布朗大學電腦科學博士學位。曾任台大棒球隊三壘手、美國IBM華生研究中心博士後研究員、趨勢科技新產品研發部協理。2002年創辦艾爾科技(MyET),目前擔任該公司執行長。
【一】
如果三年前有人跟我說,人工智慧將會變得比人類還聰明,那我一定會認為他在胡說。
但是隨著ChatGPT、MidJourney、DALL·E等大型類神經網路(Neural Net)的高速發展,現在我也開始擔心了。
也許幾年內人工智慧就會變得比人類還聰明,而我們將會是「最後一代」。
【二】
類神經網路的運作方式,跟以前傳統的電腦程式很不一樣。
傳統的程式,靠的是加減乘除以及邏輯運算,一切都是程式設計師「設計」出來的,所以對於傳統程式的運作原理,程式設計師們自己當然是一清二楚。
但類神經網路是模仿人類大腦而建造的,他的能力是「訓練」出來的,而不是「設計」出來的。
所以就像身為老師的人,往往搞不懂自己的學生是怎麼想的一樣,身為類神經網路訓練者的工程師們,往往也搞不懂自己做出來的類神經網路究竟是怎麼運作的。
【三】
人腦的思考能力,來自於一些透過突觸(Synapses)互相連結的腦神經元細胞(Neurons);
而人工智慧類神經網路的思考能力,也是來自於一些透過參數(Parameters)互相連結的人造類神經元。
人類在學習的時候,腦神經元的突觸連結方式會發生改變;而人造的類神經網路在學習的時候,參數的數值也會發生改變。
動物的腦,突觸的數量越大,思考學習能力越強;而同樣的,類神經網路的參數越多,思考學習的能力也越強。
【四】
早期的類神經網路所包含的類神經元數目,了不起也不過是幾萬個,恐怕比一隻蟑螂的腦神經元數量都還要少。
所以早期的類神經網路都只能專注於某種特殊功能,像是下圍棋、幫照片著色、或是將語音轉換成文字等等。
【五】
但是近幾年,許多大型的科技公司野心變大了,開始去訓練一些稱作 Foundation Models 的超大型類神經網路。
像是 ChatGPT 以及 DALL·E 背後的 GPT-3,就是一個擁有1750億個參數的超大型的類神經網路 。
而科學家們估計,人腦大約有100兆個突觸。GPT-3 的 1750億個參數跟人腦的100兆個突觸相比,只有五百分之一左右,所以GPT-3的思考記憶能力,終究還是比不上人腦。
【六】
但是GPT-3所受的訓練跟人腦所受的訓練一樣,已經是多方面的。
它閱讀過無數關於天文、地理、歷史、物理、化學、音樂、以及程式設計的網路文章,
所以它就像一個精通數十種語言,同時還上過天文、地理、歷史、物理、化學、音樂、程式設計等各種課程的傢伙一樣,什麼都能聊。
【七】
科學家們訓練 GPT-3 的方式,是讓GPT-3大量閱讀各種從網路上蒐集來的文章,然後叫 GPT-3 寫短文給真人老師批改。
然後科學家們為了省事,又去設計訓練出一個「人工智慧家教」(Reward Model),用他來替代真人,專門幫 GPT-3 批改作業,進行訓練。
【八】
而 GPT-3是個好學生,他不會死讀書,他會消化吸收,他會把它學到的知識內化(Internalize),轉化成類神經元上面的參數數值。
ChatGPT 很老實,當我們問 ChatGPT 問題的時候,它並不會臨時抱佛腳,偷偷上網去找資料,它也不會偷看小抄,把預先寫好的答案整段背給我們聽。
ChatGPT 的回答真的都是「GPT-3 自己想的」,「GPT-3 自己記得的」。
所以每當有些人埋怨,說ChatGPT 的回答往往不盡正確,我都會覺得他們是苛求了。
因為 GPT-3 的年紀還不到一歲,他已經算是個博聞強記的天才兒童了。一般人絕對記不得那麼多的事情。
【九】
而更厲害的是,像 GPT-3 這樣的類神經網路之所以被稱為 “Foundation Models” (基礎模型),
就是因為創造它們科學家們,把它們類比為受過基礎語文訓練及通識教育的「通才」。
只要我們把 GPT-3 複製一份,然後對它進行密集的天文學訓練,那它就會變成一個天文學家;
只要我們再把 GPT-3 複製一份,然後再對它進行密集的經濟學訓練,那它就會變成一個經濟學家;
只要我們再把 GPT-3 複製一份,然後再對它進行密集的物理學訓練,那它就會變成一個物理學家。
【十】
如果這還不夠讓你覺得驚恐的話,那科技界盛傳,繼GPT-3之後,下一代的 GPT-4 馬上就會在今年推出了。
據說 GPT-4 的參數數量會是 GPT-3 的 500 倍,也就是100兆個,跟人腦的突觸數量相當。
很顯然的,GPT-4 的設計者就是要做出一個跟人腦腦容量相當的人工腦,一個名副其實的「電腦」。
然後GPT-4絕對不會是人工智慧研究的終點站,接下來很可能會有人腦 500 倍容量的 GPT-5、人腦 25 萬倍容量的 GPT-6。
【十一】
所以順利的話,一年之後,研究所的學生都不用再自己寫論文了,因為論文可以交給 GPT-4 寫,而且寫的絕對比大部分的研究生都好;
同樣的,大學的教授們也不用再浪費時間上課、指導論文了,因為反正學生的作業跟論文都是 GPT-4 寫的,
教授們不如把 GPT-4 複製一份,直接去教 GPT-4 做研究、寫論文;
然後教授們訓練出來的 GPT-4、GPT-5、GPT-6會越來越厲害,厲害到他們青出於藍,總有一天會比當初訓練出他們的教授們還厲害,
可以自己做研究、自己訓練下一代的 GPT-7 、而且去跟 Google、百度訓練出來的類神經網路進行學術討論了。
【十二】
所以我們很可能是最後一代。
我們可能是最後一代的真人研究生、最後一代的真人指導教授、最後一代的真人學者。
至於人類接下來會怎麼樣?很抱歉,請不要問我,因為一年之後,我的臉書應該都是由 GPT-4 或是 GPT-5 代寫,
而且它們會是經過我特殊訓練過,寫作風格跟我完全一樣的類神經網路寫手。
而當然,各位也不用自己留言提問了。因為到時候,各位自己訓練出來的類神經網路網友們也會自動留言提問,自動幫我的臉書文章按讚。
我們是最後一代的真人臉友。
♦ 專文屬作者個人意見,文責歸屬作者,本報提供意見交流平台,不代