隨意聊

有別於其他的長文,這裡都是比較隨意寫的短文。原本是發在臉書粉專,但都藏在臉書裡面有點可惜,索性搬一份到部落格來,對不用臉書的人也更友善。

共 102 篇 第 2 / 6 頁 RSS 訂閱

Closure 記憶體陷阱

今天 Bun 的作者 Jarred Sumner 在推特上發了個文,説對於跑很久的 Claude code session 來說,底下的改動可以省掉 1GB 的記憶體:

Before: => controller.abort
After:controller.abort.bind(controller)

從原本的 function 換成了 bind 的用法,為什麼這樣就可以呢?或是換個方式問,為什麼原本的寫法會吃比較多記憶體?

在原文附圖的註解裡就有寫原因了,說原本用 closure 的寫法,會把整個 scope 記住,而這個 scope 有 request body 跟其他大的物件,所以在結束以前,這些被包住的東西都沒辦法被 GC,就會一直佔空間。

而修改後的做法沒有 closure 了,所以不會記住那些無關的東西。

這個問題其實在我的書《JavaScript 重修就好》裡面就有提過了,有書的同學可以打開翻到 4-44,講 closure 可能造成的潛在問題,我給了這樣的案例:

function createWebSocketHandler {
  let socket = new WebSocket("wss://example.com/chat");
  let messages = [];
  socket.onmessage = function(event) {
    messages.push(event.data);
  };
  return {
    sendMessage: function(text) {
      socket.send(text);
    },
    closeConnection: function {
      socket.close;
      socket.onmessage = null;
      socket = null;
    }
  };
}
const chatHandler = createWebSocketHandler;
chatHandler.sendMessage("Hello, world!");
chatHandler.closeConnection;

在關閉連線時,我們將 socket close,然後把有用到 messages 的 onmessage 清掉,也把 socket 整個清掉,看起來沒人用到 messages 了,就想說安全,既然沒人用到那就可以被 GC 了。

但這是在使用 closure 時會產生的錯覺,那就是「只有我有用到的東西才會被記住」。事實上,closure 才沒有在管你使用與否,只要是同一個 scope 的東西就全部記了下來。

因此,儘管 sendMessage 與 closeConnection 這兩個函式沒有用到 messages, 它依然被引用了。所以就算把 socket.onmessage 給清除,messages 的記憶體空間還是沒辦法被回收。

重點只有一個,就是 closure 是整個 scope 都會記著,被記住的東西就不會被 GC 了。這恰巧也是 Claude code 碰到的問題,沒有察覺到那個被回傳的 function 會記住整個 scope。

然後這也跟 AI 寫 code 一點關係都沒有,一堆人類也會寫出這樣的 code,況且現在人跟 AI 誰寫得比較好還很難說呢,尤其是對那些非工程師來說。

這個案例是人是 AI 都有可能犯錯,但如果是其他案例,當有人責怪 AI 怎麼寫出這種爛 code 的時候,AI 說不定會想跳出來抱怨:「我才不會犯這種錯呢,這一定是人類寫的」。

補充文章:https://x.com/jarredsumner/status/2017825694731145388

滑板車預設金鑰漏洞

今天看到篇有趣的文章,來自愛沙尼亞的資安研究員 Rasmus Moorats,標題是:《Reverse engineering my cloud-connected e-scooter and finding the master key to unlock all scooters》,逆向工程我的電動滑板車,卻不小心找到了可以解鎖所有車車的 master key。

這位研究員他有一台 Äike 出的電動滑板車,但這間公司去年破產了,而電動滑板車附帶的 app 有些功能也跟著停用,雖然還是能夠解鎖,但由於這個 app 都是連到某個 server 去,他很擔心哪天這個 server 直接關掉,就可能再也用不了。

於是作者開始逆向這個 app,想看一下背後的原理,發現手機跟電動滑板車的溝通是透過藍芽以及自訂的傳輸格式,在一開始的身份驗證流程中,會先從車車那裡拿到一串字(給一個 challenge),要能產生正確的回答才會成功。

作者觀察一下發現這個回答有點像 SHA-1,於是就 hook 了一下,發現還真的是,先從車車那裡讀到一個字串,把字串跟 private key 拼在一起丟去 SHA-1 再送回去,就可以完成身份認證。

那這個 private key 是什麼呢?答案是 20 個 FF。

為什麼是 20 個 FF 呢?因為這是某個 IoT SDK 的預設值,只要沒有改的話,你預設的 private key 就是這個。

而 Äike 的開發人員可能是忘了改,每台車用的都是同一個 private key,都是同一組。因此呢,作者不只能解鎖自己的車,也能順便解鎖其他人的。

作者後來也把整組溝通協定都逆向出來了,寫了一個自己的 app 來控制他的電動滑板車,甚至可以透過智慧手錶來控制,做到以前做不到的事情,這就是逆向的厲害之處(?)

這種「沒改預設 key」其實也不少見,有些可以自己架的網站也會這樣,或甚至有些直接 hardcode 一個 secret key,這也一直在發生。

正確做法是每一次安裝都隨機產生一個 secret key 幫你存起來,而這個電動滑板車的案例,應該每一台的 key 都要不同才對,而且要是不可預測的。

原文有附更多技術細節,包含 Frida 的腳本以及如何逆向新版 React Native(看到這篇我才知道原來新版變成 bytecode 了,我的知識還停留在整包 JavaScript 的時代)。

補充文章:https://blog.nns.ee/2026/01/06/aike-ble/

AI 熱潮背後的代價

我不會否認 AI 很厲害,但我也不會一直無腦吹 AI,彷彿每一次的更新都會改變世界,每個新功能都重塑了整個產業。

比起分享 AI 的新功能又可以做哪些事情,我更喜歡分享那些只會一味吹捧的人沒去關心的後續,或是 AI 在增加生產力的同時,是如何同時造成另外一群人的負擔。

其一

Cursor 前幾天說他們在測試一堆 AI agent 全自動化能做到什麼地步,最後弄出了個瀏覽器,程式碼足足有 300 萬行以上,而且最重要的 rendering 引擎是從零開始的,原話是:

The rendering engine is from-scratch in Rust with HTML parsing, CSS cascade, layout, text shaping, paint, and a custom JS VM.

聽起來就超級猛,居然可以直接從零弄一套瀏覽器出來。

但沒多久就有人質疑這些所謂的「從零開始」其實依賴了很多現成套件,HTML parser、CSS parser 以及 JavaScript 引擎等等,都只是現有套件再往上包一層。

而 Cursor 的人也有出來回應,說確實有些地方用了套件,但他們覺得 agent 自己其實也做得出來,這個實驗性質的專案之後會慢慢遷移這些。

但總之,看來 Cursor 的「from-scratch」定義似乎跟想像中不一樣。我認知的 「from-scratch」也是從頭自己刻,就算依賴套件也不會到這種程度。

同我開頭所述,我很喜歡 Cursor 這些實驗性的專案,讓人可以窺探目前 AI coding 的上限大概到哪裡,成果很厲害沒錯,但稍嫌誇大了。就算沒這麼誇大,只說是把現有套件整合弄出個瀏覽器,我也會覺得很厲害的。

其二

拿來畫圖很好用的開源套件 tldraw 日前宣佈不再接受來自外部的 Pull Requets 了,理由是太多 AI 垃圾(AI slop),發了 PR 就跑,也不討論不改東西,原本提的東西可能也沒測過,就這樣發上來了。

這種 AI 垃圾一多讓維護者身心俱疲,畢竟每個垃圾都是一種雜訊,光是要篩選出哪些是真的可以用的,本身就是一個成本。

但作者有強調這是暫時的,之後 GitHub 似乎會上新功能來解決這問題,我猜可能是用魔法對付魔法,先弄個自動 AI 分類?或可能有辦法識別出這種 AI 帳號,或是某個帳號提出的 PR 品質之類的。

總之,到時候推出了再來寫一篇吧。

其三

同上,一直被 AI 垃圾深深困擾的 cURL 正式停止了 bug bounty program,理由是:

We have concluded the hard way that a bug bounty gives people too strong incentives to find and make up “problems” in bad faith that cause overload and
abuse.
漏洞懸賞計畫給了人們過於強烈的誘因,導致有人出於惡意,去尋找,甚至捏造所謂的「問題」,從而造成負擔過重與濫用。

簡單來講就是一堆 AI 仔隨便讓 AI 找些問題,自動寫報告交出去,自己也沒驗過(搞不好也不知道怎麼驗),讓維護者們收到一堆垃圾,心力交瘁。之前 cURL 就寫過這問題了,現在正式靠著把賞金拿掉,希望減少一點誘因。

AI 時代很多東西的成本變低,濫用也變得更加嚴重,我可以想像得到有些人寫個 AI agent 自動掃描所有 bug bounty target,自動找一些簡單的洞,自動寫報告然後送出。

是不是 false positive 不重要,反正有人會幫我驗,100 個裡面成功 1 個我就有錢拿,驗證的成本轉嫁到別人身上,錢是我在賺,好爽。

以上是三個,最近看到的與 AI 相關的新聞。AI 很厲害,很好用,我自己也很常用,但它絕對不是百利而無一害,這樣的方便性也造成另外一群人的困擾。

有許多人都還在找尋與 AI 共存的方式,我也還在找。看到臉書一堆 AI 垃圾也增加了我篩選的負擔,我通常看一個封鎖一個,還想過要不要自己寫一個貼文收集工具,AI 先幫我過濾一輪(但我懶,只是想想而已,我知道有類似工具,但我也懶得去用,結論是我就懶)。

,有興趣的可以看一下。

參考資料:https://x.com/wilsonzlin/status/2012404100298871048

Tailwind 營收下滑

差點忘記要來寫 Tailwind CSS 了。已經是幾天前的事了,應該不少人都有看到,但我還是稍微前情提要一下。

有個叫做 Tailwind CSS 的開源專案,由於 AI 的大量採用變得越來越多人使用,但是背後的公司 Tailwind Labs 的付費產品資訊是放在官方文件裡面的,現在大家都用 AI 寫 code 沒人看文件,導致流量大幅下降,營收掉了 80%,工程團隊裁了 75% 的員工。用的人變多,營收卻變少,看起來是件滿弔詭的事情。

但從我自己的觀點看,這並不是什麼新鮮事,在 AI 風行以前其實就這樣了,甚至對有些專案來說還更糟。

要解釋這個說法,我們要從頭開始看,先回答兩個問題:「Tailwind CSS 是什麼」以及「Tailwind Labs 的付費產品是什麼」。

Tailwind CSS 這東西在 2022 年的時候就已經在前端圈很紅了,那時 ChatGPT 都還沒出來。關於技術面以及歷史的探討,我當時就寫過一篇《淺談 Atomic CSS 的發展背景與 Tailwind CSS》。一言以蔽之,Tailwind CSS 是個實作「Atomic CSS」這個概念的 library。

「Atomic CSS」的概念從 2013 就存在了,是起源於 Yahoo! 的工程師 Thierry Koblentz,這個概念打破傳統 HTML 與 CSS 分開寫的最佳實踐,用實際案例說明 HTML 跟 CSS 寫在一起會更好。儘管這個概念在現代已經變成顯學,更是 AI 預設就會寫出來的東西,但是在約 2022 年之前,這其實被大部分工程師視為「邪魔歪道」,許多人聽到會覺得「你在跟我開玩笑嗎?這樣寫哪裡好?」。

太技術面的我們不談,可以簡單想成原本大家都是寫

跟 .block { color:red; },兩個分開的,但是 Atomic CSS 的概念告訴我們要寫成
,用 class 名稱直接表示樣式。

只要符合這個概念都叫做 Atomic CSS,就想成是個流派吧,而 Tailwind CSS 就是基於這個流派開發出來的 library。Tailwind CSS 並不是第一個,它是 2017 年出現的,還有其他更早的如 Atomizer 或是 Tachyons,都是基於同一個概念,所以用法其實都大同小異。

那這樣的一個 library,要怎麼賺錢呢?

Tailwind Labs 的主力產品是一個叫 Tailwind Plus 的產品,簡單來講就是一堆寫好的模板。無論是小的 component 或是可以直接拿來改的 template,都幫你準備好,買了以後你可以直接套用,節省開發時間。

價錢的話個人是美金 299 元,公司是美金 979 元,一次購買終身使用,這些模板會不斷更新。

這東西我很早就知道了(AI 出來之前),那時候的想法是:「原來現在這種模式還可行」,畢竟這種賣網站模板的,感覺應該是更久以前的商業模式,很像那種買一個電商網站或是遊戲,改一改之後你就可以變成自己的產品。

我可以理解某些公司可能需要,但沒想到這麼多,所以覺得他們滿厲害的。當時這產品的營收滿高的所以我很驚訝,剛剛查了一下,作者在 2020 年的時候有發文,說上線後的 5 個月內,營收是 200 萬美金,約 6000 萬台幣。

回答完「Tailwind CSS 是什麼」以及「Tailwind Labs 的付費產品是什麼」之後,我們再回頭來看這次事件。

首先,裁員 75% 指的是 3 個人,因為工程團隊本來就只有 4 個人,所以只剩創辦人一個。

再者,雖然營收下滑的理由被描述為「因為付費產品資訊只在文件上曝光,沒人看文件就沒人知道」,但我自己覺得主因更有可能是 AI 時代不需要這些了。

現在你如果想做 UI,直接 AI 起手給他一兩句話就幫你寫完,我想不太到需要那些模板的理由(就算要買,現在可能也是喂給 AI 而不是人看了)。換個方式問好了,現在大家知道了 Tailwind Plus 這個模板套裝組合,想購買的意願有多少?預估能節省到的開發時間又有多少?

因此,我自己會覺得 AI 的演進,本來就會使得這種賣模板或是程式碼的商業模式受到打擊,跟文件以及流量的關係可能沒這麼大。以前不會寫 code 的人或許會花錢買網站找人改,現在都自己用 AI 寫一個了。

而「東西越來越多人用,作者卻沒有獲得更多營收」這件事原本就一直都是開源生態必須面臨的挑戰,在沒有 AI 之前就是這樣了。甚至有更多時候是「作者根本沒有任何營收」,大部分開源專案都是用愛發電,作者沒有得到任何實質收入,就算有贊助功能,會贊助的人本來就偏少。

如 2019 的時候 core-js 作者在 postinstall 放捐款連結跟求職資訊,或是 2021 年 Parcel 也做了類似的事情,都是因為資金碰到一些困難因此不得不做。而目前又可以做開源專案又可以賺錢的方式,大概就兩種最多。

第一種是公司養你,你做開源。當公司大到一定程度,可能會專門找人來維護這些開源套件(畢竟自己也要用),或反過來,很多開源專案本來就都是大公司釋出的,所以內部有人專門在做這些。也有些公司直接把開源專案買走,如前陣子 Vercel 收購了 Nuxt,Anthropic 收購了 Bun,都是類似的。

第二種是開源的同時,也提供 SaaS 服務。如 GitLab 或是 WordPress,你可以完全免費自己架,也可以直接花錢跟他們買服務,只要用就好,其他都交給他們處理(話說我不太確定這兩個是先有開源專案才商業化,還是反過來。雖然結果一樣但有細微差別,不過這邊先不多談)。

但第二種可行的前提在於,這個開源專案必須是一個產品。那既然是產品,就必須產生這個產品該有的價值。我覺得 Tailwind CSS 很難走這條是因為,比起產品它更像個單一的 library,而且可取代性高,還記得我前面提過的那一堆 library 嗎?用法都很像的,畢竟都是遵從同個派系的教條,換一個需要的成本並不高。

總之呢,有些 library 走出了自己的路,如 React Router 一開始是透過提供 training,後來被 Shopify 買走(Remix 被買走,但都是同一套)。而 Vue.js 則是光靠企業與個人贊助就可以生存。但前提都是一樣的,就是這個產品有價值。

那 Tailwind CSS 有沒有這個價值呢?

有的,當這個裁員消息一出來之後,這幾天就有許多公司跑去贊助 Tailwind CSS 了。

不知不覺寫了好多,好像寫篇部落格會更好 😂

總之呢,我想表達的是,這整件事情的本質跟以前沒有不同,它一直在發生,不是什麼新鮮事。甚至更多的狀況下,作者一點營收都沒有,純粹用愛發電。而 Tailwind CSS 雖然找到了一種營利的模式,但這模式在 AI 時代下本來就會遭受打擊,與文件或流量的關係不大(我覺得啦)。

所以應該解決的問題還是一樣的,那就是開源與商業的共存,跟 AI 關係可能沒這麼大?這件事會跟 AI 有關,我覺得也只是因為剛好他們的商業模式受到 AI 衝擊的力度很大。

補充文章:https://adams-morning-walk.transistor.fm/episodes/we-had-six-months-left

AI 時代的真實焦慮

之前一直沒有寫篇文章聊聊我對 AI 的感想,主因是時間太早,變化太快,寫完之後隔一年用起來的感想就都不一樣了。

但最近至少在 coding 這塊看起來比較穩定了(我指的是,AI coding 已經是必然,回不去了),是個較為適當的時機。

文中講的內容不一定與 coding 有關,而且更多的是對 AI 發展後的一些擔憂,我在這邊簡單提一下好了,

第一個是時間與誠意,以往我們可能會用做某件事需要花費的時間推導出誠意,畢竟時間具有排他性以及稀缺性,在只能本人做的前提下,願意花時間其實是件很珍貴的事情。

但我們不會知道他到底花多少時間,只能從產出推估。AI 出現前,看到一篇文情並茂的 3000 字文章,可以想像背後大概花了幾個小時。但現在呢?有可能只是花三分鐘用 AI 寫的,原本的衡量標準失效了(不要覺得你一定看得出來某篇文章是 AI 寫的,就算現在可以,不遠的將來肯定也看不出來了,「AI 味」會慢慢消失)。

雖然時間少不一定代表沒有誠意,這我知道也可以理解。但仔細想想,有些事情還是得用時間來衡量對吧,那這些該怎麼辦呢?

第二個是 70 分的詛咒,當 AI 花 3 分鐘就可以做出 70 分的東西,那誰還會多花 300 分鐘去追求 80 分呢?

AI 快速做出可用的東西無人能敵,但要繼續在產品上進步需要人介入調整,告訴他哪些細節可以改進,這塊可能要花更多時間。在 AI 出現前,光是做到 70 分可能就要 300 分鐘或甚至更久,現在比例不同了,那這是否會成為追求 80 分的阻礙?

還是說想做到 80 分的人,不管怎樣都會做到 80 分,那些會止步於 70 分的人原本就會止步,其實是兩群人?

第三個是真實性越來越難判別。

無論出自於什麼目的,是純粹樂子人還是政治因素,假消息一直都存在。但 AI 讓造假的成本變得很低,以往我們可能會看某個帳號的過往紀錄,這個有本人照片、一直發貼文、以前 po 過很多言之有物的文章,所以像是真人。

但現在一堆 AI 人出現在各地,要照片有照片,有多真就多真,你根本不知道背後是個真人還是 AI。

有些人根本不在意是不是 AI,反正只要最後寫出來的東西合他胃口就行,是真是假根本不重要,重點是那個故事本身想傳達的東西。

但我沒辦法,我在意真實性,我在意某件事情是不是有真實發生過。就算是一個我認同的概念,只要搭配虛構的故事,我就不會買單。但判斷真實性這件事情變得越來越困難,我只能逐漸轉向「預設任何事都是假的」這個立場。

除非有經過可信任的第三方證實、證據夠明確或者是我信任的朋友所述說的事情,否則我都一概先認為那是網路假文章,而且不會轉傳。

造謠一張嘴,闢謠跑斷腿。最近的外送演算法也好,前陣子的 Slack 資料放中國也好,在得到足夠的資訊外加各方說法之前,我只會默默觀望,不會為了流量搶快就先分享再說。

我對 AI 還是又愛又恨的。

AI 在許多領域帶來的改變,說穿了就是讓生產力大幅提高,而且是以十倍百倍那樣子的速度。這個工具可以運用在好的地方,也可以運用在壞的地方。

當我原本就看不慣的東西,因為 AI 而變得更猖狂時,我就更看不慣了。例如說內容農場、AI 文、AI 假帳號或是透過 AI 販賣焦慮等等,AI 讓這些垃圾的產出變得更容易。但與此同時,我自己用 AI 翻譯部落格,用 AI 在工作上寫 code,平常查資料也是先問 AI,整理資料也是 AI 幫忙,也是著實的 AI 受益者。

AI 的進化能夠讓人反思自己在意的價值觀到底是什麼,要堅守哪些,又要犧牲哪些,需要找到一個能與它和平共處的方式,這個我還在努力。

MongoBleed 漏洞解析

有讀者私訊想看我寫上周爆的 MongoDB 漏洞 MongoBleed(正式編號為 CVE-2025-14847),之前其實就有關注到只是沒仔細看,看了一下發現這個名字取得不錯。

取 MongoBleed 這名字的人,參考的是 2014 年的 TLS 大漏洞 Heartbleed,這兩個漏洞的成因都滿類似的。Heartbeat 俗稱為心跳,是一個常見的網路機制,通常用於確認跟你連線的對象是不是還活著,常常都是固定每幾秒發一個封包過去,有東西回來就代表對方活著,形象一點可以想成心電圖那樣,每幾秒就一個波峰,就像心跳那樣,每幾秒跳一下。

而 Heartbleed 這漏洞是 TLS 中對於心跳機制的實作有問題,在心跳的封包裡面可以傳 payload 跟 payload 的 length,server 端應該要把 payload 原封不動回傳。

在正常狀況下,假設 payload 是 hello,payload length 是 5,server 就回傳 hello。但如果 payload 不變,payload length 改成 1005 呢?server 就會回傳 hello 外加 1000 個在記憶體裡面的隨機字元!

由於 server 直接相信了 payload length,因此多出來的這些地方都會是 server 記憶體的其他內容,有可能是剛解密的 request,或甚至是 server 使用的 private key 等等,每傳一個封包就洩漏出隨機的字串,資料像是流血那樣一點一點不斷流出,就成了 heartbleed。

這次的 MongoBleed 也很像,是 zlib 的壓縮功能有問題,一樣可以傳 payload 跟 length,而且 length 同樣沒檢查。於是我宣稱自己的 payload 有 1005 個字但實際只有 5 個,後面 1000 個字元就會是 memory 的隨機內容,再搭配 MongoDB 在解析 JSON 時的報錯,就可以從 response 的錯誤訊息中得到 memory 的內容。

雖然每次拿到的內容都是隨機的,但只要一直發請求就會一直拿到新的東西,如同我前面提的,像是出血那樣,一點一點流血,資料也一點一滴流出。

再者,MongoBleed 之所以嚴重,是因為這個功能是在 auth 之前的,根本不用登入就能打。所以只要你的 MongoDB 開放在外網就會被打,就算你帳號密碼強度超強也一樣,只要外網連得到就是被打。

下次有人跟你說:「資料庫直接對外沒差啦,我們有設帳號密碼啊而且強度很強」,你就丟 MongoBleed 這個漏洞到他臉上,讓他看看資料庫 public 的下場。

參考資料:

Email 比對與帳號接管

之前在 conf 講過的案例中,有一個滿值得特別拿出來講。

假設有個忘記密碼的功能,使用者輸入了 email,接著你拿去 DB 查,用了 select * from users where email = ?,去查有沒有這個 user,查到了之後直接拿使用者輸入的 email 寄重設密碼信給他,會有什麼問題?

答案是使用者輸入的 email 跟 DB 裡存的 email 不一定是相等的。

舉個最簡單的例子是大小寫,MySQL 有些 collation 是不區分大小寫的,所以 gmail 跟 GMAIL 相等,這倒是問題不大。

但在有些 collation 中,gmail 跟 gmaîĺ 是相等的,也就是說使用者輸入的是 huli@gmaîĺ,DB 查到了 huli@gmail 這個 user,但最後寄信給huli@gmaîĺ,而 gmaîĺ 這個網域是買得到也寄得到的,於是你的系統就把重設密碼信寄給了錯的人,出了一個 account takeover 的漏洞。

最早看到這個是在今年 6 月份 Voorivex 發的文章:Puny-Code, 0-Click Account Takeover,不確定更早有沒有人提過。

目前看來 PostgreSQL 基本上沒這問題,但 MySQL 的話你選常用的 utf8mb4_unicode_ci 或是 utf8mb4_general_ci 都有這問題。與其說是問題,不如說是 feature 就是這樣,只是很多人不知道有這 feature 而已 😅

至於修法的話,就是不要相信 user input 就對了,要寄信的時候拿 DB 查出來的 email 寄信,就不會有這問題。在實作上應該大部分都是拿 DB 內的 email 寄信啦,不過拿 user input 寄的其實也不少,畢竟你會覺得他們相等嘛,用哪個都一樣(並沒有)。

補充文章:https://dev.mysql.com/doc/refman/8.4/en/charset-collation-implementations.html

Vercel WAF 賞金大戰

話說有關 React2Shell 的那個漏洞,Next.js 背後的公司 Vercel 第一時間就上了 WAF,讓客戶在還來不及升級時,先幫他們擋著惡意攻擊,這是很常見的做法。

但 WAF 要做好是很難的,因此在推特上就漸漸有人找出 bypass 的方法。

而接下來 Vercel 做了件瘋狂的事情,為了表達他們對這個漏洞的重視程度,他們特別開了一個 bug bounty program 給 WAF bypass,而且獎金高達 5 萬美金!每找到一個繞過 WAF 的方法,就有 150 萬台幣可以拿!

而今天這個 program 正式告一段落,那些回報的 WAF bypass 都被修掉了,最後總共發出 85 萬美金(約 2500 萬台幣)的獎金,那些武功高強動作又快的白帽駭客們成了最大贏家。

拿到賞金的駭客有些我們以前也介紹過,如前陣子發現 Unity launcher 漏洞的 ryotak,或是最早釋出 1-day exploit 的 maple,以及打了很多個 AI 瀏覽器,在做 AI 輔助工具的 hacktron,這些都在榜上。

我以為只有幣圈會拿這麼多錢出來給 bug bounty,沒想到 Vercel 這次也這麼慷慨。

React 後續漏洞修補

React 剛剛又發布兩個跟上週有關的漏洞囉,但這次一個是 DoS 另一個是特定情境下可以洩漏 server function 的 source code,嚴重程度都遠低於之前的 React2Shell,編號如下:

  • Denial of Service (High): CVE-2025-55184
  • Source Code Exposure (Medium): CVE-2025-55183

然後 Next.js 也理所當然地受到影響,因此也推了一版 patch。

雖然說沒之前這麼嚴重,但有時間的話還是建議先修一修。話說 React 發布這個漏洞的部落格寫說:「It’s common for critical CVEs to uncover follow‑up vulnerabilities. 」,說這種嚴重的 CVE 公佈之後,可能會有更多類似的漏洞這很正常,拉了 Log4Shell 當作案例來解說。

是這樣沒錯,但好像又不是這樣(?)

我以為像 Meta 這種大公司,收到第一個 report 之後會找 security team 進來整個看一遍,把其他潛在該修的問題都修一修再上 patch,但看起來整個反序列化的機制一樣有問題,才出現這兩個洞。應該是我對這種大公司有什麼誤解,看來也是見一個修一個。

不過往好處想,現在一堆資安研究員都往這邊看了,看了一週後才出現這兩個漏洞,代表應該還算安全 😅

建議最近這一兩週還是密切關注一下 React 的新消息,有可能還會有更多小的漏洞出現。

React 漏洞利用鏈解析

看了某個中文講解 React 漏洞 CVE-2025-55182 的影片,看完只覺得他是不是根本沒有看懂整個漏洞在幹嘛 😅 (不想給流量,不會貼網址)

最重要的 constructor.constructor 直接被跳過了,講的好像 server 原本就來者不拒可以執行任意程式碼一樣,重點也完全不是什麼隨便相信外面的東西,這本來就是一個反序列化的 protocol…,你看最後的 patch 就知道成因根本不是那樣了

看得出來是直接從最後的 exploit 往回倒推在哪裡執行的,但卻根本沒看懂整個利用鏈,直接倒果為因,明明就有很多文章可以參考 😢

完整的利用鏈我還沒看,但我目前的理解是,React server 那邊有個反序列化的 protocol 支援一些 reference 的操作,例如說你可以把 $1 定義成 {“name”:”huli”},接著用 “$1:name” 就可以表示 obj.name 這個概念,在反序列化的時候變成 “huli”。

這樣的操作可能是為了做資料壓縮?可以用 reference 的方式去取得那些資料,有點資料正規化的感覺。所以正常使用下,我猜整包反序列化完以後應該還是個 JSON 物件

然而,在取值的時候沒有檢查 key 是不是在那個 object 上,因此你隨便定義一個 string,拿這個 string 的 constructor.constructor,就可以拿到 function constructor,這次 bug 的根因是這個。

接下來只要想辦法把參數傳進去然後執行,就可以執行任意程式碼了。而這一步應該是整個利用鏈最難的,儘管已經知道上面這些資訊,資安專家們還是花了半天到一天的時間才找到該怎麼利用這點(kudos to maple <(_ _)>)。

這段也是我還沒仔細看的部分,要花滿多時間理解的。但總之看起來是利用原本解析流程的一些邏輯,做出一個假的 chunk,而這個假 chunk 被丟下去解析完以後,最後會呼叫 response._formData.get(response._prefix + obj)

所以我們可以用前面提過的方式,把 response._formData.get 變成 function constructor,然後在 _prefix 裡面放程式碼,就會得到一個我們要的 function,然後丟到 { then } 裡面會因為 Promise 的特性被自動執行,流程應該是這樣,只是細節可能不太對。

最後的 patch 我記得是加個 hasOwnProperty 的檢查,確保在呼叫 obj[key] 的時候,那個 key 是真的存在於物件上的,就不會拿到奇怪的東西。

看完上面,你就會知道跟那個影片講的完完全全不一樣。

然後 SSR 跟 RSC 原本就是兩回事,雖然這概念確實滿容易混淆的,但寫前端的應該要知道他們的區別。

儘管我自己到現在也還是不喜歡 RSC(對我來說成本太高,效益太低),也早就沒寫 Next.js,甚至也很少寫 React 跳去 Vue 了,但看到有人在轉發的影片傳播部分錯誤資訊,還是想出來講一下。

React RSC 嚴重漏洞

一早醒來就看到 React server components 爆了個嚴重漏洞 CVE-2025-55182,給了滿分 10 分,官方描述是:There is an unauthenticated remote code execution vulnerability in React Server Components.

說是 RSC 的實作上有個 unauth 的 RCE,只要發個請求到 server 就能打下來,是最嚴重的那種。

而有用到 RSC 的下游都連帶受到影響,例如說 Next.js 也迅速標了個 CVE-2025-66478 然後出了 patch,目前在描述中也沒有給太多資訊。

現在駭客們正在想辦法從 patch 反推回 PoC,應該很快就會出來了(原始 RSC 的已經有部分了,但是 Next.js 的還沒看到),雖然看起來攻擊有些前提,但目前是謠傳你用預設設定也會出事,有不少資安公司也都發了初步公告了。

總之呢,有用到 Next.js 的都建議盡快升級修掉。等有人分享出完整 PoC 跟技術分析之後,再來寫一篇談談吧。

Pixnapping 側信道攻擊

前陣子看到一個叫做 Pixnapping 的攻擊方式滿有趣的,是一種針對 Android 硬體的 side channel attack。

在理解什麼是 Pixnapping 之前,先來看另一個兩年前就被公佈的攻擊方式 GPU zip。GPU 在渲染畫面的時候會做壓縮,所以在網頁上你可以用 iframe 把要攻擊的網站嵌入進來,然後利用一些 CSS 去改變它的顏色或是特別調整某個區塊。

舉例來說,可以用 CSS 獨立出某一個 pixel 然後放到很大,接著疊上一些隨機產生的點,如果畫面是白色就會難以壓縮,若畫面是黑色壓縮率就很好(背後跟 GPU 怎麼壓縮東西有關,總之結論是這樣)

再搭配 render 時間的測量,就可以反推回去原始的某個 pixel 是黑是白,重複這樣的操作就能 leak 出原本的畫面大概長什麼樣子。

而這個 Pixnapping 就是在 Android 上利用 App 可以 overlay 在別的 App 上的特性,先把 Authenticator App 開在後面,上面疊加自己的 App,然後自己的 App 變成半透明去改變顏色,就能利用類似手法,洩漏出底下 App 的某個 pixel 是黑是白。

簡單來講呢,最終結果等於是你可以對其他 App 做個 screenshot (只是需要點時間)。

針對 GPU 進行資料壓縮的特性來做 side channel attack,推斷出 pixel 顏色,進而推斷出畫面,就可以拿到上面的資料,滿有趣的。

AI 讓想像力變現

AI 出來以後一直讓我想到以前的一句廣告詞:「想像力就是你的超能力」,很多有想法卻礙於沒有該技能的人,有了能夠施展魔法的空間。

儘管有些東西在專業人士眼中還是不及格或勉強及格,但對於使用者來說,已經足夠好了,至少能有個 70 分。或是說,有些東西只要能滿足自己的需求就好,就已經是 100 分了。

產生畫面、影片如此,寫一個程式也是如此,我覺得很多人可以靠 AI coding 寫出自己想要的東西是件很讚的事情。

昨天試了一下 Nano Banana Pro 是真的厲害,雖然我功力不足,想產的東西有些細節沒有很完美,但出來的成果還是 ok 的。

感覺每個月可以找一天,或是每週一兩個小時定為 AI FOMO time,在那時間內專注來試試看目前 AI 的上限到底在哪,其他時間就別管那些 AI 的新消息了。

話說其實還有很多有趣的話題可以聯想,例如說 AI 可以讓你在 3 分鐘內做出一個 60 分的東西的話,那會不會想要花 300 分鐘做到 80 分的人就變少了?還是說那些人不會受影響?不過換個角度看,把平均分數從 40 分拉到 60 分,好像也是件幫助很大的事情

之後再找時間寫篇部落格文章聊聊吧,很多東西可以想像

別把密鑰貼上工具

你各位阿,不要輕易把敏感資料貼在網路上啊
有很多很方便的小工具網站如 json beautifer 或是 json formatter 之類的,可以美化你的 json,這些我自己也偶爾會用

昨天看了資安公司 watchTowr 的一份報告之後才發現,原來這些工具有個分享功能,會產生一個 URL 讓你可以分享你的 json 給別人
但是這個分享功能其實有個 public page 會直接顯示整個網站最近分享過的東西(這功能就是這樣設計的)

因此如果你把 key 貼在上面之後分享出去,就等於直接分享給整個網際網路了

那真的有人會這樣做嗎?有,而且還不少

文章中指出他們在歷史紀錄裡找到不少公司的敏感資料,各種 secret 跟 key 都在裡面😅

話說哪天如果幫你解析 JWT 的網頁被駭了,應該可以蒐集到一大堆的 token 😆

補充文章:https://labs.watchtowr.com/stop-putting-your-passwords-into-random-websites-yes-seriously-you-are-the-problem/

試用Antigravity後感

滑臉書看到一堆人狂吹猛吹 Google Antigravity,真的讓人很懷疑到底那些人有沒有真的用過,還是只是讓 AI 水了一篇幻想文。

昨天一早興奮地下載 Google Antigravity,想說免費的真香來玩玩看,用 Gemini 3 Pro(high) 做三四個 task 之後就報錯了,說 quota 已經用完,要再等半天才能繼續。

我本來就知道有 quota,只是我以為會比想像中更多,還是我用得太過頭了(?),不過後來換成 cluade 模型之後 quota 另外計算,還是可以再撐一陣子,體驗一下 IDE 的功能。

昨天短暫試用大概半小時沒 quota 之後,我就切回去用我的 Cursor + 超快的 composer-1 了,目前還是最喜歡用 composer-1,天下武功唯快不破。

可能需要等之後 quota 變多再來試試看到底 Google Antigravity 厲害在哪,我目前還沒看出什麼毀天滅地的差別。

從React學底層運作

從大型開源專案的發展歷程以及原始碼裡面,其實可以學到不少東西。最近把之前去 JSDC 線上前導活動分享的主題:「從 React 中學習 JavaScript 底層運作」寫成了文章,主要在談三件事情:

  1. React 早期版本(真的很早了,10 年前 2015 的時候)的 XSS 漏洞,以及如何從這個漏洞的 fix 中學習 Symbol 的使用方式

  2. React fiber 是把大任務切成多個非同步小任務,那這個「非同步」又是怎麼被執行的?文章會談到 React 如何從最早的 requestIdleCallback 切到自己做的 requestAnimationFrame + postMessage,再把後者換成 MessageChannel,這中間的考量是什麼,這些的觸發時機點又有什麼不一樣

  3. React profiler 碰過的 V8 bug,從這個 bug 學習 V8 底層的運作方式,例如說從規格來看 JavaScript 只有浮點數,但 V8 其實還是分成 small integer(簡稱 smi) 跟其他,才能保證性能是好的。
    以及 V8 中物件是怎麼被儲存的,shape 又是什麼,這些又是如何跟 React profiler 有所關聯。

以上大概就是文中會提到的內容,文章了,有興趣的可以看看,一次看 React 原始碼外加學習 JavaScript,一舉兩得。

補充文章:https://github.com/aszx87410/blog/issues/153

AI駭客攻防報告

話說 Anthropic 前幾天發佈了個報告:《Disrupting the first reported AI-orchestrated cyber espionage campaign》,主要在講他們偵測到中國國家級駭客組織發起的網路攻擊,其中大量使用了 AI,並且用 jailbreak 繞過了 Claude 模型的限制來讓他做一些壞壞的事。

攻擊主要分幾個階段,第一階段由人選出 target,第二階段由 AI 負責去做偵查(俗稱的 recon),搜集各種目標的資訊,接著由人去 review 結果之後,再由 AI 去發起攻擊。

從頭到尾真人都只負責監督,剩下的事情都由 AI 來幹,並且整合了各種 MCP tool,讓 AI 可以去做一堆事情甚至開瀏覽器自動化之類的,從偵察到寫 exploit 到橫向移動全部給 AI 自己做。

我自己看到這報告並不太意外就是了,我們現在寫 code 不就是這樣嗎,讓 AI 自己看 Figma 設計稿然後寫 code,寫完自己呼叫 Browser / DevTools MCP 看畫面然後自己改,改完給我 review,review 完自動產生 summary 跟 PR。

既然寫 code 都可以這樣了,攻擊也能如此也不太意外。而且前一兩年就有些公司開始做全 AI pentester 了,CTF 也開始用 AI 輔助甚至全自動,儘管還是有些細節會出錯(如幻覺),但技術面怎麼想都是有可能的。

不過現階段可能僅限於比較簡單且單點的漏洞?就像寫 code 一開始也只能改改單個檔案或是新專案,後來才進化成可以看整個 codebase 並融入現有風格。比起寫 code,感覺 AI security 還在相對偏早的階段,我能想像簡單的可以都交給 AI 打,困難的可能還需要點時間。

也就是說,看到 AI 在寫 code 上的進化,應該不會讓人懷疑他在資安這塊的潛力,只是現階段到底可以全自動化到什麼程度,這個就滿值得討論的。而這篇 Anthropic 的報告基本上是在講說自動化程度已經比很多人想像中的高了。

看了看推特上跟 hackernews 上的討論,有些人看到這報告則是覺得比較偏行銷用途,畢竟報告裡其實沒太多技術細節,就算有,也都是偏工程的細節,例如 AI 駭客的流程或是架構,但絲毫沒有提到任何資安面的東西,像是他們到底實際給什麼任務,產生了什麼結果。

相比之下,OpenAI 上個月出的報告就《Disrupting malicious uses of AI: an update》就專業多了,裡面就詳細寫到每一個駭客組織都拿他們的模型幹了些什麼,內容滿詳細的。

說不定在不遠的未來,主流就變成機器人對決了,攻擊方寫一個 AI 駭客組成 AI 紅隊 24 小時不間斷攻擊,防守方寫出一個 AI 藍隊不斷防守,碰到可疑流量就自行阻斷,24 小時監督,看誰的機器人比較厲害。

那要怎麼讓機器人變得更厲害呢?當然還是需要真人來教他了,就像目前的 AI coding 一樣,原本就沒料的人用了之後也還是沒料;本來就強的人,用了之後強強聯手,強強強強。

參考資料:https://cybermap.kaspersky.com/

localhost繞過權限

「(叩叩叩)你好」 『你是誰?』 「我是 localhost」 『請進』

今天早上看到了做檔案共享的系統 Triofox 的漏洞 CVE-2025-12480 的細節,差不多就是上面這樣 😆

有個 AdminDatabase.aspx 的頁面是拿來設置 DB 用的,有擋權限所以直接訪問會給你一個 access denied,但如果你把 Host header 改成 localhost,就可以直接繞過權限檢查。

設定完 DB 之後下一步是設定 admin account,於是用同樣方法就能繞過檢查,新增一個 admin account,有了 admin account 之後再透過其他功能就能在 server 上執行腳本,拿到 RCE,剩下想幹什麼就幹什麼了。

Google 發的技術細節文章裡面有給一些程式碼,有個叫做 CanRunCriticalPage 的函式,開頭就先檢查 base.Request.Url.Host 是不是 localhost,是的話就回傳 true,這就是漏洞的 root cause。

雖然看起來滿誇張的,但我自己還真的看過類似的系統,當偵測到來源是 localhost 或是內網時直接通過,就不檢查權限了。會有這種設計通常是懶得實作內網的驗證機制,覺得內網很安全,或者是讓工程師方便測試之類的。

但問題往往是這類的檢查很多都沒做好,導致外部可以竄改這些 header,讓外網偽裝成內網,就直接進來了。再者,若是系統本身被找到一個 SSRF 的話也直接沒救。總之,不管怎麼看都是個危險的機制。

Google 的,裡面有更多細節。

教學計畫學生近況

離上次開教學計畫已經是將近四年前的事了,前陣子突然心血來潮想調查一下學生們的狀況,做了個表單讓他們填,回收了 48 份。

有一半的人做前端,後端佔 10%,全端佔 15%,其他還有一些做手機 app 或是轉去做 PM 的。

在工作年資的部分,有八成的人是 3 年以上工作經驗,其他大多數是 1~3 年。

至於薪水的話,只看工作 3~5 年而且工作地點在台灣的,年薪 120 萬以上有 3%,100 萬以上有 35%,80 萬以上 79%(是算累積的比例)。由於沒有其他類似數字可以比較,我也不知道這樣客觀來看是好是壞。

完整的數字的寫在文章裡發到部落格了,有興趣的可以去看看,除了更詳細的數字以外,還稍微寫了一下沒有繼續開課程的理由。

F1系統權限漏洞

最近有三個資安研究員 Ian Carroll、Sam Curry 與 Gal Nagli 發布了與 F1 相關系統有關的漏洞系列文,第一篇是在講跟駕照分類系統有關的漏洞(還有二三篇但還沒出來)。

要參加 F1 的比賽,需要有個 FIA super licence,而 FIA 對於車手有分不同等級,需要透過一個系統提出資料並申請更新等級的狀態。

由於這個系統是 public 的,所以任何人都可以上去註冊一個帳號(這也滿合理)。

在更新資料的時候,會用一個 PUT 的 API 如 PUT /api/users/12345,body 裡面則是放你要更新的東西,如姓名等等,看起來也很正常。

但是呢,他們注意到在 response 中多了個 roles 的欄位,於是靈機一動想說:「會不會這個 API 有 mass assignment 漏洞呢…」。

所謂的 mass assignment 呢,就是後端在更新資料時偷懶沒指定欄位,直接把請求中所有的欄位都更新進去資料庫,以 JavaScript 來講就類似於 session.user.update(req.body) 這種感覺,你給我什麼我就更新什麼。

因此,儘管前端沒有提供更新 role 的功能,只要自己在後端傳入 roles 這個欄位,就會一併更新,並且取得相關權限。這種 mass assignment 的漏洞並不少見,而且在某些程式語言上滿常發生。

但要更新的話,要先知道 roles 裡面到底要傳什麼,於是他們就在前端程式碼裡找找看線索,由於前端原本就有檢查 roles 的程式碼,因此可以推測出 roles 的結構,並且反向構造出合法的 payload。

接著就只要在 PUT 請求裡面塞入符合格式的 roles,就拿到了 admin 權限,剩下就想幹嘛就幹嘛了。

要修這種 mass assignment 漏洞也很簡單,就是後端明確寫出到底有哪些欄位可以更新就沒事了,就不會更新到不該更新的東西。

這個漏洞的根本原因就是 mass assignment 而已,不是什麼「沒有金鑰就可以更新內容」,我剛登進去看過了,需要一個 cookie 才能 update 自己的資料。也不是什麼「權限只放在前端」,前端出現檢查 role 的程式碼再正常不過,但重點是不能只有前端檢查,後端也要檢查。

前端檢查權限本來就沒什麼問題,程式碼出現 role 相關字串如 admin 也是再正常不過,不然你前端怎麼知道哪些要顯示哪些不顯示。雖然也是有一派做法是後端先做處理,傳個支援的 feature 列表啦,不會在前端直接檢查 role,但我覺得兩種都行。

前端的檢查原本就只是拿來增進使用者體驗,真正防範的地方一定得做在後端。只看前端程式碼的話,你也不會知道後端有沒有做驗證,所以光看前端也看不出什麼端倪。

站在資訊洩漏的角度來講,當然是全部在後端處理最好,使用者不該看到的,連 HTML 都不要傳給他。但問題是在現在這個前後端分離的時代,基本上不太可能,前端的 codebase 都跟後端完全分開了,你要動態決定前端的 response 成本有點高,因此後端 API 做自己的檢查,前端也做檢查決定哪些顯示哪些不顯示,是很常見的做法(有講錯歡迎打臉)。