卷首語:
如果要說什麼樣的朋友是優質的朋友,那我認為可以激發靈感與深度思考的人絕對是優質的朋友。
上週六與
又進行了一次線上聊聊,他提供的想法總讓我有一種『我怎麼沒想過可以這樣想』、『對耶從這個角度切入好像不錯』的啟發。我們分別從三個面向進行了討論:
第一個是我身為 SEO 從業者,對 Google 搜尋及內容生產者之間的影響關係進行討論。
第二是延伸討論『有辦法做出一個內容生產的 LLM 機器人嗎?』。
最後是從中再延伸的第三個面向『原則對 LLM 機器人為什麼重要』。
正文開始。
1. Google 搜尋改變的核心
Google 如何引導使用者進行語句搜尋?
部分讀者應該知道我是 Perplexity 的愛用者,對我來說它是目前最接近未來『Google 搜尋 + LLM』的樣貌,只要輸入感興趣的關鍵字或語句,就能整理非常詳細的資訊,並結合 LLM 的能力返回結果。
我對未來的預測是這樣的:人們會從單一關鍵字搜尋逐漸轉變為完整的語句搜尋。
但關鍵在於『使用者行為能否隨之改變?』,所以我認為核心在於:
Google 是否能讓使用者更懶,但給出更好的資料
做過軟體的都知道要使用者改變自己的行為有時候比登天還難,有時候光要使用者打開那個軟體/app 都是一件難事,人性有時候是非常懶的、而且忠於舊有習慣做事。
但是 Google 不斷透過按鈕及篩選器引導使用者用更完整的語句搜尋,一旦返回的結果能像 Perplexity 那樣優質,那麼把單個關鍵字的搜尋變成語句話的搜尋,對使用者來說並不是什麼太複雜的改變。
目前由於語系的關係,Google 的測試版生成式搜尋體驗在英文問句上才會生成,所以大多數人才會對此無感。
推薦閱讀:
LLM 機器人:Google 的未來殺手還是新武器?
試想一下,『如果不用點擊進網頁就能獲得所有想要的答案,對誰影響最嚴重?』答案就是這些寫內容的人,看看下面這張圖,我如果都透過 LLM 的整理知道了我想知道的新聞,那我可能不太會點進去相關頁面了。
在我看來,這甚至大大的影響 SEO 的地位(還有我的生計🥹),但不只是我,Google 的生計才是一大打擊。
根據 Raptive 的研究,SGE 可能導致出版商的搜尋流量下降 20% 至 60%,這樣的流量下降可能會導致數位廣告收入大幅減少,潛在的損失可能高達 20 億美元。BrightEdge 的數據顯示,一旦 SGE 上線,可能會影響 Google 年度超過 400 億美元的廣告收入。
所以在跟團隊討論 SEO 未來趨勢的關鍵時,我會請團隊著眼在『Google 如何平衡廣告收入的策略』這件事上,要融合 LLM 在搜尋上 Google 勢必要花費更大的成本,如果沒有對應的收益,對於 Google 來說這件事反而是一件傷害公司的事。
可能會像 Perplexity 這樣採取訂閱制,也可能調整原本廣告版位模式。總之,留意調整廣告收入的策略將直接反應未來 Google 想怎麼改變搜尋的方向。
[↑ 這是 Skyline 的 Substack ↑]
2. 有辦法做出一個 SEO Agent 嗎?
Google 在意的內容是什麼?
聊了一下 Google Search 後,我們接著在聊『有辦法做出一個 SEO Agent 來產文章競爭排名嗎?』
註:SEO Agent 可以簡單理解為一個機器人,它能自己研究關鍵字策略,查看搜尋結果頁的內容,然後撰寫符合搜尋意圖的內容。稱它 Agent 是因為它處理不只單一專業項目,不過為了不複雜化可以將其看作一個 LLM 機器人即可。
過去幾年內,Google 對於排名的算法提出了一個概念叫 E-E-A-T,主要闡述內容及網站、作者需要具備專業、權威、經驗,才能構成足夠的信任度。
專業及權威吃重品牌及作者本身,但內容本身必須包含『經驗、深度及獨特的視角』才能獲得足夠的排名。
高同質性內容
Google Search 常常被開玩笑說已經玩壞了,因為懂 SEO 的人太多,大家都知道特定關鍵字要怎麼寫內容才能衝上首頁,結果導致一個不好的現象:
首頁內容同質性太高。
大家應該多少有這種感覺,在 Google 上搜尋首頁內容都會很像要找比較不同的敘事內容、或是深度的洞察很難找到。
那這件事回到 Google 融合 LLM 的搜尋 SGE(Search Generative Experience)上,當使用者向 Google 問了一個問題後,Google 一定參考多方資料來源來回答問題,所以相似的答案基本上是不會重複參考的。
所以首頁外的內容,二十幾、三十幾甚至是六十幾名的內容,只要具備足夠的深度、不同的視角、觀點,都可能成為 SGE 引用的來源之一。
LLM 機器人可以取代 SEO 專家嗎?
回到最開始的問題,我是這樣認為的,LLM 可以寫出基本架構的內容,甚至查看 Google 首頁的所有內容再寫出一篇文章,但它充其量可能也是寫跟首頁內容差不多的資訊而已,並不具備足夠的深度、獨特的視角及個人經驗的分享。
若要這個 LLM 機器人能夠寫出這樣的內容,就必須讓它搭載記憶的能力,透過一輪一輪的對談,讓它知道哪些東西是領域專家真正的核心觀點、哪些經驗是獨特但具備洞察的。
所以我向 Skyline 提了一個觀點:
語言模型機器人本身缺乏特定的立場或價值觀,所以答案往往特別空泛,所以需要專家讓 LLM 機器人學會『偏見』,這個詞並非貶抑,而是代表這個機器人開始擁有了特定的偏好及思考模式,這樣它寫出來的內容才會開始有特定的面向及特色。
背後影響的人是關鍵核心,決定機器的價值觀。
3. 如何讓 LLM 機器人做出更符合 SEO 要求的內容?『原則』
然後 Skyline 提了一個對我很有啟發的觀點:
如果讓 LLM 機器人安裝特定的『思維模型』,它會變得怎麼樣呢?
我頓時有一種被啟發的感覺,對耶之前怎麼從來沒想過。其實人類在成長的過程,就是不斷在迭代自己的思維模型來做事,思維模型可以理解為遇到不同事情的思考方式。
更實際一點來說,就是『透過原則邊界,來迫使自己走在正確的路上』。
這讓我想到以往出現的投資機器人,因為現實世界的變數太多,僅憑程式 if/else(如果...就...)的判斷難以確保好的投資。大多數好的投資老師會說,在投資時一定要有明確的投資原則,因為最怕我們受到情緒波動所影響。憑運氣得來的終究會憑運氣失去,所以投資時建立原則並不斷修正原則,是投資時最重要的觀念。
同樣我們也能讓 LLM 機器人深入理解一些投資原則,像是不要冒超過自己承受能力上線的風險、高風險投資僅限 15% 總資產、投資高潛力公司等等。其實很多觀念想法是 LLM 原本就有,或是上網就找得到,但因為它是被訓練出來迎合人需求的機器人,所以它不太會主動站在什麼立場來思考問題。
所以我們要賦予它思考立場與思維模型,讓它可以主動擁有價值觀,它也有了對事物判斷及決策的邊界。
原則只是一個核心價值觀,它可能也會有高低層級及模糊地帶,所以我們要加入案例。就像 Ray Dalio 在他的書《原則》中加入的那樣,指導性原則我們加入初始 prompt 給 LLM 並加入編號。
然後當 LLM 機器人調用某項原則時,它能依據原則找到資料庫相關的案例並返回一起參考,或是透過 RAG 找到資料庫中相關的內容一起來參考,這時它就不是一個傻乎乎的 LLM 機器人了,而是有我們所賦予價值觀的機器人。
它會有人主動選擇培養方向,說不定不同領域都需要一個這樣的機器人,到時候顧問服務也許不再是問人,而是問 LLM 機器人。
註:Moral Machine 是由麻省理工學院(MIT)媒體實驗室開發的線上平台,為了收集人類對由機器智慧(如自駕車)所做出的道德決策的看法。這個平台透過生成道德困境(例如:一輛無人駕駛的汽車必須在殺死兩名乘客或五名行人之間做出選擇)來探討這些決策。透過研究這些看法希望在 AI 倫理價值觀上能有進展。
以上與 Skyline 1.5 小時線上聊天收獲,想法激盪是一件很讓人快樂的事。
交流很快乐,一起学习成长的过程!很高质量的总结分享呀!
很有收穫!