#島讀回顧 #人工智慧
今年島讀網站被搜尋最多次的關鍵字是「人工智慧」(AI)。
人工智慧近年的發展迅速,許多領域都能看到其應用。
島讀今年一篇《機器學習 — 知識工作者的未來》,以「文字產生器」GPT-3 討論人工智慧,獲得不少會員迴響。
---
寫論文很痛苦。有些人痛苦到整份照抄別人的論文。現在出現一線曙光,美國 OpenAI 公布機器學習模型 GPT-3(Generative Pretrained Transformer),堪稱是「萬用」的文字產生器。最近 GPT-3 開始封測,推出 API,更在矽谷引發轟動。目前已知有人用 GPT-3 寫程式、請牛頓解釋地心引力、回答醫學問題、摘要文章,甚至寫詩。
先說 OpenAI。OpenAI 是一個非營利組織,贊助者包括 PayPal 創辦人 Peter Thiel、Elon Musk 與 Salesforce 創辦人 Marc Benioff 等。其使命是確保通用人工智慧(Artificial General Intelligence)將用於服務人類,而非迫害人類。
GPT-3 則是其開發的語言生成模型,第三代的「文字產生器」(島讀去年討論過第二代)。使用者輸入一段文字,它就會生出下一個字,再繼續生出下一個字,不斷重複下去,直到人類喊停或是達到約 1,000 個英文字為止。例如我輸入:「天下分久必合,合久必 ___」,GPT-3 大概會預測下一個字是「分」。
如果我沒喊停,也沒有設定明確的任務,GPT-3 就會繼續生成下一個字,寫出一段故事或一篇文章。
或許你會問:「世界上文字千萬種,GPT-3 怎麼知道要寫論文或小說呢?」
這就是 GPT-3 驚人的地方:它是通用模型。只要使用者稍許提示,它就會自動調整輸出內容類型,不需要使用者另外精調(fine tune)。就像一個真的有用的 Siri,不管你丟什麼任務,只要是文字,它都接得下來。
例如有人簡短的提示(prompt) GPT-3「用 19 世紀作家 Jerome k. Jerome 的語氣寫一篇關於 Twitter 的文章」,GPT-3 就生出相當完整的作品。
只要是需要文字的任務,不論是回覆 email、寫新聞稿、翻譯外文、「翻譯」法律術語、編吉他和弦,甚至是寫程式,GPT-3 都能做得還不錯。一篇網路文章《GPT-3 可能是比特幣以來最重要的創新》更是格外轟動,因為讀者讀完才發現整篇都是 GPT-3 寫的。
相較於 GPT-2,GPT-3 效能是「暴力式」的飛越性成長。換言之,GPT-3 的基本架構與 GPT-2 幾乎一樣,只是參數由 15 億增加到 1,750 億(117 倍),但效果隨之大幅成長。這讓矽谷圈精神為之一振,因為代表機器學習仍可以透過擴大規模來成長。
雖說使用成本也等比增加 — 訓練一次 GPT-3 需要 460 萬美金 — 但能用錢解決的都是小問題。目前已知人類大腦的突觸約 1 百萬億個(100 trillion),是 GPT-3 的 1 萬倍。許多人不免幻想如果再來兩次升級 100 倍(共一萬倍),是不是就能逼近人類大腦了?
有成本就需要收入。OpenAI 現在提供 API,就是為將來商業化營運作準備。其他雲服務商如微軟、AWS、Google 也都開始提供機器學習「模型即服務」(Model as a Service, MaaS)。這大致可分三種應用:
● 垂直情境,簡單但量大的工作:如辨識異常、偵測錯字、回覆 email、回答客服基本問題等。這有點類似聘僱國中生實習,但聘雇的是無限個實習生。
● 垂直情境內,困難但狹隘的工作:以 AlphaGo 為代表。它打敗所有人,但只會下圍棋。
● 不限情境,多樣性比正確性重要的工作:以 GPT-3 為代表,如虛擬秘書、虛擬陪伴(《雲端情人》)、發想劇本、草擬程式碼、撰寫科技分析電子報(咦)等。
MaaS 固定成本高,因此會傾向集中於大型平台,特別是擁有資料的企業,如 Google。邊際成本現在也很高,但應該會逐漸降低,因此有利於擁有最多客戶(用量)的企業,如 AWS、微軟。
目前 GPT-3 率先大步起跑,將引發其他企業加大投資。其他企業需要差異化,因此會開發封閉的模型;GPT-3 則會是開放或開源的形式。同時,週邊的企業也需要開發工具,形成生態圈。例如目前運算的延遲嚴重,因此雲端的速度必須跟上。有更多相容的 app 提供更精準的提示,才能發揮 GPT-3 的價值。
⠀
想知道文章對 GPT-3 的原理、隱憂的討論,歡迎試用島讀的 1 元訂閱方案:https://bit.ly/3myOL0D
---
更多人工智慧內容:
[Podcast] 從邊緣挑戰雲上的人工智慧|特別來賓耐能智慧創辦人劉峻誠(公開)
https://apple.co/2WrmCgC
臉部辨識 — 30 億張照片的資料庫|執法機關熱烈採用|三條路線(會員限定)
https://bit.ly/3p791an
蛋白質的 50 年難題|AlphaFold 遙遙領先|諾貝爾獎在望(會員限定)
https://bit.ly/2LSzIBt
同時也有10000部Youtube影片,追蹤數超過2,910的網紅コバにゃんチャンネル,也在其Youtube影片中提到,...
「transformer論文」的推薦目錄:
- 關於transformer論文 在 Daodu Tech 科技島讀 Facebook 的精選貼文
- 關於transformer論文 在 Facebook 的最佳貼文
- 關於transformer論文 在 iThome Facebook 的最佳貼文
- 關於transformer論文 在 コバにゃんチャンネル Youtube 的最佳解答
- 關於transformer論文 在 大象中醫 Youtube 的精選貼文
- 關於transformer論文 在 大象中醫 Youtube 的最佳貼文
- 關於transformer論文 在 Vision Transformer论文解读 的評價
- 關於transformer論文 在 transformers/README_zh-hans.md at main 的評價
- 關於transformer論文 在 Hierarchical Vision Transformer using Shifted Windows 的評價
- 關於transformer論文 在 YC Note:資料科學技術部落格 的評價
transformer論文 在 Facebook 的最佳貼文
#天下專欄 昨天寫新聞、今天寫程式,GPT-3 什麼都學得會?
人工智慧模型 GPT-3 自從 5 月問世以來,關於她學會新技能的新聞,幾乎每一、兩週就會冒出來 — 一下子會寫論文,一下子可以發 Twitter、陪顧客聊天、解數學,最近甚至開始寫程式、設計使用者介面。
你一定會好奇,為何 GPT-3 什麼都學得會?
首先,GPT-3 並非獨生子,她之前有兩個哥哥 GPT-2 與 GPT,而後有 Image GPT,且勢必還有許多弟弟妹妹將要誕生。創造出 GPT 家族的 OpenAI 實驗室,之所以會做這系列的研發,從一開始,就是要訓練出一個泛用的人工智慧。所以,GPT 什麼都能做,這是設計者的原意。
GPT 是 Generative Pre-trained Transformer 的簡稱,翻成白話文,就是預先訓練好,可以用來產生資料的一種 Transformer 模型。所謂 Transformer 模型,並不是指模型本身會變化,而是指模型會對資料進行轉換,來產生所謂「關注度」,進而用關注度來產生預測的結果。
的確很難懂。沒關係,人類也不太了解大腦的實際運作方式,但這不影響你去了解它的功能、特性與限制。
GPT-3 所做的預先訓練,有點像我們考試前的準備一樣,先閱讀包括維基百科、書籍等在內,共 45TB 的海量人類文字資料,把其中所有上下文間的相關性,分析記錄成 1,750 億個參數,正如同我們做重點筆記一樣。
因此,當你給她一段文字,GPT-3 可以查找她的筆記,寫出後面「應該」要出現的文字。
換言之,GPT-3 從頭到尾沒有「學會」任何知識 [1],她只是把人類文字當作一個個的點,在一個極大維度的空間中,去標註它們的相對座標。因此,當你告訴她要從哪幾個維度去查找時,她可以很快告訴你陸續找到的文字。
因為她讀過的文字量太大了,所以即使是非常冷門的維度,都難不倒她。因此她表現出來的樣子,好像什麼領域都可以舉一反三的聰明學生。
更值得我們思考的是,如果 2020 年的 GPT-3 已有這個程度,那麼,2030 年的 GPT-13,會到達什麼樣的境界?
⨁ 創業者,歡迎加 AppWorks,跟我們一起抓住 AI/IoT 的黃金 10 年
[1] 所謂的「學會」,對人腦而言,事實上也就僅是建立連結,跟 GPT-3 的情況,其實是差不了多少的。但篇幅有限,就不做更深入的哲學探討,但大家可以想想,如果一個人對一個議題能舉一反三,正的問、反的問,怎麼問都問不倒,她到底有沒有「學會」?
transformer論文 在 iThome Facebook 的最佳貼文
卷積網路一直是影像辨識的首選,但近日一篇匿名論文(An Image Is Worth 16×16 Words)引起ML社群關注,指出直接用Transformer來處理影像Patch序列,其影像分類能力遠比CNN出色,連DeepMind、Tesla AI總監和發明AlexNet的OpenAI首席科學家都表示期待。該論文正接受AI頂級盛會ICLR 2021的評審,因此無法透露作者姓名。
transformer論文 在 コバにゃんチャンネル Youtube 的最佳解答
transformer論文 在 大象中醫 Youtube 的精選貼文
transformer論文 在 大象中醫 Youtube 的最佳貼文
transformer論文 在 transformers/README_zh-hans.md at main 的推薦與評價
Transformers : State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. ... Audio Spectrogram Transformer (来自MIT) 伴随论文AST: Audio Spectrogram ... ... <看更多>
transformer論文 在 Hierarchical Vision Transformer using Shifted Windows 的推薦與評價
【论文阅读】Swin Transformer:Hierarchical Vision Transformer ... Swin Transformer在图像分类、目标检测和语义分割等任务中都取得了很好的成绩。 ... <看更多>
transformer論文 在 Vision Transformer论文解读 的推薦與評價
发表于ICLR2021的Vision Transformer已经成为后续Transformer模型在CV领域进一步发展的基石,本文为初代Vision Transformer论文An Image is Worth ... ... <看更多>