卷首語
一直以來都在想知識倉鼠的定位是什麼,想說編寫邊找,但一年過去了還是沒什麼頭緒,如果有什麼是身為讀者的你,第一時間想到跟知識倉鼠的連結,歡迎留言告訴我,非常需要!
閱讀天才寫的東西好燒腦,但是腦子會經歷許多大戰(讀了本文就會知道這種感覺XD),雖然燒腦但整個感覺非常爽,感覺像一種與天才對話的過程。
最近很常覺得自己身處一個程式編寫的世界裡,也常常在想自己是不是一旦死亡就消散,然後就會想到底生命是什麼,但都沒有答案,真滴難。
翻譯文:https://sheep-love-abm.craft.me/SuHgAFGL4Lcugi
天才 Stephen Wolfram 是誰
早年的學術成就:Wolfram 在非常年輕的時候就展現出了卓越的學術才能。他在 15 歲時就開始研究應用量子場理論和粒子物理學,並在 18 歲時獨立研究發表了一篇關於重夸克產生的論文,該論文後來被學術界廣泛引用;
極速完成學業:Wolfram 在 17 歲時進入牛津大學,僅用 3 年時間就完成了從本科到博士的學業,20 歲時獲得加州理工學院的理論物理博士學位;
獲得麥克阿瑟“天才獎”:1981 年,Wolfram 因其在物理學領域的卓越貢獻而獲得了麥克阿瑟基金會的“天才獎”,成為該獎項有史以來最年輕的獲得者;
建立 Mathematica 和 Wolfram Alpha:Wolfram 創立了 Wolfram Research 軟體公司,開發了 Mathematica 和 Wolfram Alpha,這兩款軟體在全球範圍內被廣泛使用,尤其是在科學計算和教育領域;
跨學科的創新思維:Wolfram 的工作不僅限於物理學,他還涉足電腦科學和數學,並提出了許多創新的理論和概念,如細胞自動機的研究和《一種新科學》一書中的思想。
計算不可約性(無法再簡化的複雜性)
簡單規則推導出複雜系統
讓我們先從一個遊戲開始:一張全部都是空白格子的圖紙,只有最上方中間有一格塗黑。
然後我們賦予這個圖紙一個遊戲規則,上面三格的顏色會決定下面那一格的顏色:
舉例來說,最上面只有一個,那適用的規則就會是第四、六、七,得出以下:
以此類推,最終會獲得:
非常有規律對吧,下面是另一種規則產生的分形結構:
那如果隨意改個規則,是否也都能在大尺度上看見不同的規律呢?
我們今天將規則改成以下:
按照這個遊戲規則,最終我們會獲得:
好像沒看出什麼規則,那如果把尺度拉得更大呢?
竟然發現一件奇怪的事:找不到固定的規律了。
用簡單規律,就能演化出複雜系統,而且這套複雜系統無法被任何公式或規則所簡化,這就是計算不可約性(Computational Irreducibility)。
以上面的圖來說,我如果想知道第 1 萬層的排列方式,我只能真的畫到第 1 萬層我才能知道如何排列。
Wolfram 認為,只要一套系統的複雜度超過了特定的閾值,那這套系統就具備計算不可約性。並且每個系統沒有誰比複雜,它們全部都是同等的複雜度,Wolfram 將其稱為計算等效原理(Principle of Computational Equivalence)。
『計算不可約性』跟『計算等效性』是貫串 Wolfram 內容的核心觀點,所以一定要先知道上面👆🏻這三行的核心思想,後面才有辦法繼續讀。
簡單的規則就能導向複雜的系統,任何系統只要超過了某種程度的複雜度,不論多複雜那個複雜度都是相同的。
預測天氣、股票走勢、交通車流分析的複雜度本質上是被看作相同的,沒有誰優誰劣。
但是複雜系統下,會有非常多可簡化的小系統。股票很多人會用 K 線、五日線,移動平均等工具來試圖簡化預測。同理,天氣預報也會使用氣象模型來預測未來的天氣變化。
這些都是尋找那些「計算可約的小系統」,在極度複雜的系統中尋找可預測的模式(例如上面那個格子圖中,最左邊的方塊可能都會是黑色的)。
計算宇宙
上面那個方塊的規則,有 256 種組合,而上圖的那個規則是第 30 號規則,符合計算不可約性,往下的任何一排都是無法用簡單公式算出來的。
但是剛剛說了,計算不可約的系統下會有無數可以約化的小系統,可以看到上面的三角形中,有許多小部分有它特定的規則存在。
對 Wolfram 來說,這個三角形中存在著『計算宇宙』,世間一切演算法都在裡面,包含如何預測股市、如何預測經濟、量子力學、甚麼鬼的預測都在裡面,老實說我第一次看到時是這樣:
天才真的是天才,它把整個宇宙都濃縮進這個三角形了,他認為格子上的黑跟白就代表電腦的 0 跟 1,宇宙的演化就像影片的那樣不斷產生新的 0 跟 1,直至現在仍然在演化。
這個三角形圖也有一個專有名詞,叫做『細胞自動機』,是 1950 年電腦之父馮諾依曼所提出的概念,他說只要給一個機器設定好程序給定初始值,它就能不斷演化迭代。所以被 Wolfram 拿來當做研究宇宙奧秘的工具。
要在腦中把這個三角形跟世間的演算法連結其實並不容易,因為真的很抽象。
但是 1988 年的 6 月,Wolfram 發明了一款世界級的數學軟體 Mathematica,可以用來進行各種複雜的數學運算,使用者超過數百萬人。
Apple 的 Siri 也是整合了 Wolfram 的技術 Wolfram Alpha 知識搜尋引擎(涵蓋數學、科學、工程、技術、商業、人文、地理和日常生活等多個領域)來回答問題。
這些技術背後許多的演算法,正是從這個『第 30 號規則』三角形中所找到的,有資料處理、圖片處理,還有一個是根據不同風格來產生音樂的演算法。
真的可以說,宇宙的秘密都放在裡面了(再度像上圖的 WOWWWW)。
沒有唬爛,Wolfram 用了 4000 多天、上萬頁的筆記、一千萬億次的電腦計算,最終出版了一本叫《一種新科學》(A New Kind Of Science),非常嚴謹的記錄自己的實驗及相關推導,歡迎有志之士看看。
人類與 AI 的未來
當你無敵時,你會做什麼?
想像一下:
如果有一天 Wolfram 真的破解了 30 號規則,人類掌握了世間宇宙的一切演算法,什麼都能預測、我們變成了神,我們會做什麼?
根據『計算等效原理』,只要系統超過了一定的複雜度,所有系統都是等價的。
所以不管你是一個人、一個細胞、一串 DNA,本質上都是一樣的沒有誰比較高級,也許都只是那個三角形中的其中一部分演算法所組成。
而對於人,Wolfram 的長篇大論其實都圍繞著一個核心:
人與 AI 的最大差異在於『歷史』,歷史即是人類存在的價值。
從計算上來看,我們和 ChatGPT 沒有什麼是比較特殊的。但有一些東西是“特別特殊”的:那就是我們經歷過的特定歷史,文明積累的特定知識等。
AI 算法可以是那個三角形中的某一部分算法,可是如果 AI 要類人,就意味著它在那個三角形中的位置會跟我們非常接近。
但是人類如何發展,卻是依賴著過去的歷史脈絡所定義,目前的 AI(像是 ChatGPT)頂多只是吸收過去幾十年的文字並形成的 AI,沒有參與人類發展歷史,它無法知道人類未來的目標該如何發展。
沒有參與歷史的 AI,只是個具備一定複雜度的系統,他可能跟一團運動中的空氣分子只是差不多的東西(兩個在三角形上不同位置的系統而已)。
歷史和知識賦予人類特定的文化、價值觀和情感背景,這是目前 AI 難以完全模擬的。
在未來的發展中,人類和 AI 在計算和認知上的界限可能會進一步模糊,但那些「特定的歷史和文化背景」將繼續是區分人類與 AI 的重要因素。
如果 AI 要成為類人,本質上它就需要體驗時間的流逝、必須有計算上的不可約性,並且它是在主動塑造自己的未來,而非被動接受未來的設定。
人類會被 AI 取代嗎?
對於思考的 AI 未來,以及 AI 和人類在未來可能扮演的角色等重大問題,計算不可約性是理解這些問題所需最重要的元素。
在計算不可約的系統下,會有無數個可以簡約的系統,這些系統在人類發展的過程中,就象徵一件事:自動化。
人類在科技發展中最擔心的一件事就是『我會不會被 AI(或機器)取代?』。
其實歷史已經告訴我們了,自動化總是會帶來更多的工作機會(不知道的話請問 ChatGPT,或是 Wolfram 文章最後一節的數據統計)。
然後因為計算不可約性的存在,某種程度意味著『總會有新的前沿需要人去探索』,會不斷不斷的湧現出新事物給人們去冒險。
探索的過程會發現新大陸、新的自動化及新機會,因此永遠會有 AI 無法取代人類的那塊。
人類與 AI 的共同發展
科幻作家艾西莫夫提出一個機器人三定律:
機器人不得傷害人類,或坐視人類受到傷害;
機器人必須服從人類命令,除非命令與第一法則發生衝突;
在不違背第一或第二法則之下,機器人可以保護自己。
但這幾個原則下總會有無數的漏洞,像是怎麼樣是傷害人類、機器保護自己的手段可以是什麼…等等的。
要設計出符合這三個規則的系統將會非常複雜,根據計算不可約性我們根本沒法窮盡這三條原則。
有一個思想實驗叫做『迴紋針問題』,就是一個人對 AI 下了一個指令說『請盡可能的生產多一點的迴紋針』,結果地球就毀滅了。
因為 AI 盡其所能將地球資源榨乾來做迴紋針了,這個思想實驗透過極端案例體現了對齊人類與 AI 價值觀的重要性。
就像是現在 LLM 公司不斷在做的,如何防止使用者越獄,使用者如何不斷破解越獄。這同樣是一套複雜系統,無法窮盡規則,所以對齊(Alignment)才會這麼重要。
要把人類高層次思維的語言轉換成可執行的計算語言,可能本身就是一套複雜系統。可預見的是,在計算不可約的情況下,很多時候我們可以設定好一條路徑。
但是無法確定會發生什麼事,只能靜待其發展,並在出事後改善。
複雜系統就像是自然界,人類與 AI 的發展也許也會像人類與自然界共存發展那樣,過度破壞地球資源導致大自然的反噬,也可以好好與自然共存。
AI 也可能演化出其專屬的『AI 文明』,這個文明下,AI 是否擁有像人類一樣的『獨立權利』,類似於人類或其他法律主體,但這涉及到一系列複雜的倫理和法律問題,包括但不限於:
法律主體性:在許多法律系統中,除了自然人(人類)外,其他實體如公司、組織甚至某些動物也被授予特定的權利和責任。例如,公司作為法人可以擁有財產、簽訂合約。類比到 AI,意味著可能需要決定是否將 AI 視為可以獨立擁有權利和承擔責任的「法人」。
自主與責任:賦予權利通常伴隨著責任。如果 AI 擁有獨立權利,它們也可能需要承擔相應的責任。這引發了關於 AI 是否能夠獨立作出決策、這些決策的道德和法律後果以及在出現錯誤或有害後果時誰應該負責的問題。
權利的範疇:如果確定將 AI 視為獨立的法律主體,接下來需要明確的是這些權利的範圍和性質。這可能包括但不限於所有權、隱私權、表達自由等。此外,這也涉及到 AI 的「感知」問題,AI 是否有感知能力,能否體驗到自身的權利被侵犯。
倫理和文化視角:不同文化和社會對於是否應該賦予 AI 獨立權利的看法可能差異很大。一些社會可能更重視技術創新和效率,願意探索賦予 AI 更多權利;而其他社會則可能因擔心失去人類控制或對 AI 的倫理後果感到擔憂而持保守態度。
小結
這篇確實過於燒腦,從電腦科學的角度切入了宇宙發展的奧秘,還一直圍繞在計算不可約性跟計算等價原理,對於離開學校一段時間的讀者應該回憶起當時的惡夢(普物、普化、電子學之類的🤣)。
但 Wolfram 從這兩個角度給了我們一個全新的視角去審視技術發展,燒腦但值得。
回歸個人,我們已經知道由於計算不可約性,未來一定會不斷有新事物發展起來,並且自動化也會不斷的出現。
我們應該記得一件事:
最大的槓桿效應來自於探索新的可能性,那些在過去不可能實現,但由於新技術能力的出現而變得可行的事物。
學習如何儘可能廣泛和深入地思考,吸收儘可能多的知識和理念,尤其是運用計算模型,以及與計算能夠輔助的相關的思考方式。
透過更多地使用自動化技術,使人們能夠在更高層次上操作和整合各項任務,而不僅僅專注於某一特定領域。
期許我們都能成為 AI 時代下,永遠不被取代的人才。
好有趣。雖然還找不到定位,但邊寫邊找就對了
你的自動化服務什麼時候要出來啦!