2023年顯然是無可爭議的AI大年,如果對ChatGPT、OpenAI、生成式AI、LLM(大語言模型)等概念一頭霧水,那你可能就OUT了。甚至自1956年達特茅斯會議上人工智能(AI)這一概念誕生以來,AI從未距離大眾如此之近。所以自然而然的,圍繞AI的一切也引發了大量的關注,特別是對于站在浪潮之巔的巨頭們關于AI的只言片語,也總能引發諸多的熱議。
被稱為“AI教父”的杰弗里·辛頓繼不久前從谷歌離職后,隨即就加入了“AI批評者”的行列,并大談AI未來可能會帶來的風險,甚至還表示,“我對畢生所研究的東西感到后悔”。
就在他態度180°大轉彎激起、由“不明真相吃瓜群眾”對AI危險性的討論尚未落幕之時,一個據稱是谷歌高級軟件工程師Luke Sernau所寫的內部信又激起波瀾。而這份被泄露的文件中其實只有一個核心主旨,那就是谷歌、OpenAI都沒有護城河,開源AI將會摘取這個賽道最后的勝利果實。
(相關資料圖)
在這一場生成式AI的“大戰”中,谷歌顯然只是不折不扣的追趕者。雖然作為阿爾法狗的創造者,多年來谷歌一直扮演著“AI布道者”的角色,但在生成式AI領域,ChatGPT無疑才是領路人。緊隨其后的Google Bard公開演示翻車、導致谷歌市值一度蒸發千億美元后,好不容易推出將生成式AI整合到工作場景的Workspace后,微軟融合了GPT-4的Microsoft 365 Copilot又很快把風頭搶走了。
所以在外界看來,如今焦慮一詞或許才是谷歌在面對生成式AI、LLM時,最為真實的寫照。
與此同時,領導谷歌前進的CEO皮查伊持有保守傾向、并且也受到了不少的掣肘,以至于谷歌的AI路線圖目前并不清晰。在這樣的情況下,公司內部的“有識之士”當然也就會心急如焚。
那么問題就來了,作為在生成式AI賽道落后的谷歌有危機感、內部傳出悲觀論調再正常不過,但為什么會扯上OpenAI呢,或者說為什么開源AI才是最終的勝利者?
鮮花著錦烈火烹油,無疑是當下OpenAI的境況。別看這家公司現在幾乎是最炙手可熱的投資標的,但據相關海外科技媒體在近期曝光的新一輪融資文件顯示,OpenAI的估值來到了290億美元。可要知道的是,目前在A股,僅僅寒武紀和昆侖萬維這兩家AI概念的市值,就已經接近這個數字。換而言之,一手點燃了生成式AI這把火的OpenAI,其實并沒有被投資者給出一個驚人的估值。
在許多業內人士看來,OpenAI目前的問題在于缺乏一個清晰的商業模式,他們現階段唯二可以確定的收入,是一個月20美元的ChatGPT Plus訂閱服務,以及1k tokens/0.002美元的ChatGPT API,但這兩者顯然還不足以讓OpenAI盈利。甚至有觀點認為,OpenAI現在像極了世紀之交的QQ,盡管同樣都是站在相關領域的最前沿,但也同樣缺乏一個明朗的商業化前景。但后來QQ等來了QQ秀,目前OpenAI卻暫時還看不到解決商業化難題的契機。
事實上,讓谷歌公司的內部人士對谷歌、OpenAI悲觀的核心,是生成式AI、或者說LLM本身其實并沒有太深的護城河。沒錯,別看ChatGPT、文心一言這類產品表現得如此智能,但實際上打造一個生成式AI并沒有大家想象的那么難。
LLM的理論其實非常簡單,即通過分析大量文本數據進行訓練,從而學習語言的結構和模式,其所使用的架構也是是長短時記憶網絡(Long Short-Term Memory,LSTM)或門控循環單元(Gated Recurrent Unit,GRU)等傳統的循環神經網絡結構。
LLM更像是“力大磚飛”的結果,然而在ChatGPT一鳴驚人前,業界更青睞的其實是谷歌的Transformer模型。而后者追求的卻是如何設計出更小、更快,但更準確的神經網絡,甚至于彼時OpenAI的GPT-3是被業界作為負面典型進行評價的。當時就有業內人士表示,“GPT-3在小樣本學習中表現出卓越的能力,但它需要使用數千個GPU進行數周的訓練,因此很難重新訓練或改進。”
ChatGPT的成功就成功在它提出了一個新的思路,畢竟加大參數、加高算力的大模型也是一個方向,并且真的讓大模型涌現出了智能。但顯而易見的是,這一模式并沒有護城河。君不見,即使OpenAI對自己基于人類反饋的強化學習(RLHF)技術秘而不宣,也阻攔不了百度文心一言、阿里通義千問、谷歌Bard等等一眾同類大模型的出現。
此前李彥宏就曾在百度的內部講話中提到,“算力不能保證我們能夠在通用人工智能技術上領先,因為算力是可以買來的,但創新的能力是買不來的,是需要自建的”,也就是說算力和參數都可以買、技術壁壘不高。所以也難怪短時間內國內市場的“百模大戰”就已開打,因此先發優勢在這里幾乎不值一提。
當然,如果沒有Meta的LLaMA模型“意外”在4chan上泄露,LLM的技術壁壘不高也只是相對大廠而言。但LLaMA模型的被迫開源,也讓開源社區主導了最近一段時間針對ChatGPT的“平替”熱潮。
比如說來自斯坦福的Alpaca,借助Llama的預訓練模型為基礎,僅使用來自GPT模型的一個小尺寸調優數據集(52000個樣本),就建立了一個具有對話功能的LLM。而基于LLaMA模型,以及LoRA (Low-Rank Adaptation of LLM,即插件式的微調)訓練,開源社區在不到兩個月的時間里已接連發布了ChatLLaMa、Alpaca、Vicuna、Koala等模型,并且“羊駝家族”們的實際效果還直追GPT-3.5、甚至不輸GPT-4。
借助社區的力量群策群力,并最終實現極低成本下的高速迭代,這無疑就是開源AI的優勢。就像谷歌這位員工所說的那樣,“如果存在一個沒有使用限制的免費高質量替代品,誰還會為帶有使用限制的谷歌產品買單呢?”
因此從某種意義上來說,谷歌在Android上的做法可能才是最佳范例,也就是讓開源社區不自覺地為自己的商業利益服務。
所以不得不說,LLaMA模型泄露更像是一個神來之筆,一下子就讓原本掉隊的Meta實現了超谷歌、趕OpenAI,畢竟“羊駝家族”就是在Meta的架構之上誕生的產物。
責任編輯:房家輝
分享到:版權聲明:凡注明來源“流媒體網”的文章,版權均屬流媒體網所有,轉載需注明出處。非本站出處的文章為轉載,觀點供業內參考,不代表本站觀點。文中圖片均來源于網絡收集整理,僅供學習交流,版權歸原作者所有。如涉及侵權,請及時聯系我們刪除!關鍵詞: