卷首語
本週電子報僅以一篇內容為主,自己對於電子報選題也設立了一些原則,不會再一股腦的放上各種新聞工具。
簡單來說,內容應該要以 3 大面向為主:
讀者了解 AI 的發展程度(科普系列)
AI 工具如何使用(真的可以應用在自己的工作或閱讀學習上)
提升認知思考能力
深度閱讀的內容,用一週時間整理與撰寫時間剛剛好,過程中也能整理真正重要的新聞與工具應用,所以實驗看看一週深度閱讀、一週之前的形式來呈現。
〔 本週內容也把閱讀、寫作過程中如何搭配 AI 問問題一起截圖放入〕
希望你會喜歡,正文開始。
為什麼要達成 AI 變革如此困難?
原文連結:https://zhengdongwang.com/2023/06/27/why-transformative-ai-is-really-really-hard-to-achieve.html
本文由知識倉鼠深度閱讀後,重新撰寫並以白話的形式呈現,去除過於複雜繁瑣難懂的資訊,並加入語言模型輔助說明部分知識。
文章的主要目的是調整讀者的期望,縱使現在好像 AI 被無限看好,但發展上仍然會收到很大的限制。
原文還引用了多個來自不同內容及論述,真的非常精采。
本文透過 3 個思考連貫內容主軸:
AI的差異性:人工智慧是否真的與過去的技術有所不同,足以引發經濟的巨大變革?
技術障礙:儘管某些AI領域取得了迅速的進展,但是否仍存在主要的技術障礙,使得真正的轉型AI難以實現?
社會和經濟障礙:即使AI在技術上取得了進展,是否仍然存在社會和經濟障礙,限制了其影響?
這邊的「AI 變革」指的是當AI技術發展後,對整個社會、經濟、文化產生了顛覆性的影響。
文章分 3 個重點:
變革,受限於最困難的技術上
技術本身只是變革的一個因素,還需要社會制度、規範、重組等因素配合
不應該過度投注某一領域,而是各個領域的創新都要關注
1. 變革,受限於最困難的技術上
作者對於 AI 變革提出一個更具體的定義:
「一個在所有具有經濟價值的任務上,能夠達成或超越人類水平的系統」
作者用一個更具體的目標說明,那就是強大的 AI 有朝一日可以執行所有生產力相關的思考與物理勞動。
而且透過模型預測,每年的GDP 成長至少會大於 3%。
但潑冷水的時候到了,社會發展就像一個木桶能裝多少水一樣,取決於最短的那個板子,也就是經濟學家 William Baumol在1960年代首次指出的那樣,不平衡的生產力成長可能受到最弱行業的限制。
內文提到一個非常直白的例子就是,就算提高了 100 倍的寫作效率,可能也只會讓經濟成長 2 倍。
勞動密集型產業(例如醫療、建築等)的生產力無法大幅改變,才是整體社會總體經濟緩慢的原因,也就是剛剛說的木桶短板影響經濟。
但是部分行業生產力提升,帶動薪資的上漲,卻會影響這些勞動密集型產業的薪資及成本,這邊引出了另一個效應,叫做鮑莫爾現象(Baumol effect)。
簡單來說,鮑莫爾現象就是在描述即使某些行業的生產力沒有顯著增加,但是由於其他行業工資的上升(因為生產力上升),導致它們的工資和成本也必須增加的現象。
還有個專門的圖如下:
圖片來源:American Enterprise Institute (2022)
2. 技術障礙
縱使 AI 的某些領域看似快速發展,但仍然存在重大的技術障礙。
雖然現在語言模型進步的程度一度讓人覺得 AI 是不是有意識了,但是你知道嗎,要機器人繫好鞋帶都是一件非常困難的事情。
在 AI 這個領域,一直有一件很弔詭的事,那就是『困難的問題很容易,而容易的問題卻很困難』。
對於這件事,Moravec 與 Steven Pinker 不約而同的有相似的研究:
這說明我們不能過度樂觀地認為 AI 一定可以自動化所有任務,AI 領域中容易和困難的問題可能與直覺相反,我們不能假設所有問題都可以被輕鬆解決。
如果社會經濟要有極大幅度的成長,實體機器人操控這個領域一定要有足夠的進展。
而這僅僅只是其中一個技術障礙,文中還有提到其它的技術障礙:
而且,目前解決上述技術障礙的方法並不足夠用,硬體設備也將達到極限,要把計算能力再往上擴大一個數量級,就必須再花費數千億美元。
訓練資料這塊,Villalobos 等人也警告說,高品質的語言資料可能在 2026 年用盡。該團隊提出了資料效率和合成資料作為解決辦法,但到目前為止,這些解決方案都還遠遠不夠完善。
SemiAnalysis在《AI磚牆——對於擴大密集Transformer模型的實際限制,以及GPT 4如何突破》提到,每增加一個量級的參數,需要付出的成本。
另一方面,對齊問題也是一大頭痛點,白話文來說就是『人類限制自己』。
光是要統一人類共同的價值觀就是一件非常困難的事,所以在對齊問題解決之前,人類都不可能被完全取代,因為長期看來,最佳的 AI 技術仍是專家參與並提供主張人類的價值觀資料。
再來則是隱性知識。你會騎機車,但你知道機車的運作原理嗎?
人類知識很大一部分是隱性、未被記錄且分散的。很多時候我們在做判斷依賴的是多年經驗累積的直覺及感覺,這些直覺性的知識很可能是無法衡量的因素。
正因為隱性知識如此重要,所以需要讓 AI 在現實世界中來實踐學習!
補充說明:
AGI(通用人工智慧)在過去其實就是用 AI 來稱呼,但是AI這個詞逐漸被用來描述各種沒有關聯的電腦程式,像是搜尋引擎、聊天機器人等。
為了重新能提到真正的人工智慧,人們在「AI」中加了一個「G」(General,通用的)成為「AGI」。
但現在看來,AGI 反而只是暗示著一種更聰明的聊天機器人而已。
3. 社會和經濟障礙
即使技術上的 AI 持續進展,社會和經濟上的障礙仍可能會限制其影響力。
歷史上,經濟轉型幾乎是一個偶然性的過程。許多因素必須同時出現,而不是一個因素壓倒其他一切。
單一的技術,無論其多麼先進,只有在制度允許其被採納、鼓勵其廣泛應用,並允許社會大規模地圍繞新技術進行重組時,才真正具有意義。
換句話說,技術本身不足以帶來變革。它需要得到相應的制度和社會支持,才能真正發揮其潛力和帶來影響。例如,電動車技術再先進,如果沒有政府的政策支持和公眾的接受,它就難以在市場上得到廣泛的應用。
所以,AI 可能無法準確自動化最需要被自動化的領域。
Callum Williams 提供了具體直觀的例子:
儘管有技術可以部分或完全替代,但倫敦地鐵的司機的薪水仍接近國家中位數的兩倍。
政府機構一次又一次地要求你填寫紙質表格來提供個人信息。
在 AI 技術發展的全球中心——舊金山,高峰時段仍然有真人警察來指揮交通。
馬克·安德里森(美國最著名的科技投資人,樂觀看待科技發展)說道:
『我甚至認為標準的論點都不需要...人工智慧已經在大部分經濟領域是非法的,而且將在幾乎所有經濟領域都是非法的。』
當然這個非法並非違反法律的意思,而是類似上圖這個倫敦火車司機自動化受到的社會或經濟因素影響。
只要違反了社會風俗或政治走向,即 ”非法”。
雖然 AI 技術很厲害,但在很多行業裡,因為有一堆法律和規定,所以AI 沒辦法隨便用。
像是在醫療、開車或銀行業,因為涉及到人的安全和隱私,所以政府會特別小心,不讓新技術隨便上路。
另一方面來看,OpenAI 的經濟學家估計,大約有「19%的工作中至少有50%的任務會受到GPT-4及其可能建立的各種應用的影響」。
但我們可以從另一個角度來看這個問題。
這是不是意味著超過 80% 的工人只有不到 50% 的任務會受到影響呢?這距離完全自動化還有非常大的距離。
而且他們的研究方法還顯示,在那些需要高度可靠性的領域,這些任務在一段時間內仍然不會受到影響。
簡單來說,儘管 GPT-4 具有很大的潛力,但大多數工人的工作任務仍然不會受到太大的影響,尤其是在那些需要高度可靠性的領域。
現代經濟中,很多產品和服務都具有強烈的社會和文化屬性,它們不只是滿足我們的基本需求,還與我們的情感、價值觀和社會互動深深相連。
所以即使 AI 可以自動化全部生產,人類仍然必須積極參與商業、政治和社會,以確定人們希望社會走向何方。
人類在社會協作和決策中的作用仍舊不可或缺,AI 並無法獨立決定社會的發展方向。
結語:面對這些困難時,如何思考 AI
仍然對 AI 保持希望,畢竟它還是有非常大的潛力
正如本文概述的,要實現廣泛的經濟變革影響,有許多困難障礙。這些障礙需要視為整體一起考慮,只解決其中的一些問題可能不夠。
即使我們開發出高度智能的機器,也遠遠不足以實現整個研發甚至整個經濟的自動化。要建立能解決其他一切問題的智能,可能需要先解決那些其他一切問題。
AI 最明顯的風險可能是本身強大技術的風險。AI 如果成為一個自主、不受控制和難以理解的存在,在經濟變革實現將會更困難。請記得,AI最迫切的風險是那些已經存在或在不久的將來可能發生的問題,如偏見和誤用。
不要過度依賴某一領域的進步,應廣泛關注各領域的創新和社會難題