📐
AI-Ready Dashboard
管理員限定
v2
AI-Ready Optimizer
持續優化儀表板 · 更新 2026-04-05 16:41
— / 100
JSON-LD—/ 25
llms.txt—/ 25
MCP+A2A—/ 25
AI 理解度—/ 25
—總實驗
—成功評分
—保留
—回退
分數趨勢
子分數趨勢
結果分佈
實驗紀錄 0
🔬
外部 AI 交叉驗證(Layer 5a)
Perplexity Sonar 獨立搜尋 · 13 題基準測試 · 每日自動追蹤
這是什麼?
這個網站有一套自動優化系統:AI 自動修改網站 → 自動評分 → 決定保留或回退。但如果是自己考自己,永遠不知道真的有沒有進步。
所以我們引入「外部考官」:讓 Perplexity(一個獨立的 AI 搜尋引擎)回答 13 道關於 Paul Kuo 的問題,看它能找到多少正確資訊、會不會捏造假資料。這就是 Layer 5a。
完整設計思路 → 把 paulkuo.tw 變成一個自己進化的網站
—
External Score
— Positive Recall
— 幻覺抵抗
— Discovery
觀察期進度
— / 20 輪
觀察中
External Score 趨勢 校準均值 ± 噪音帶
分類表現
分類 vs 校準基線
附錄:詞彙表
- JSON-LD
- 嵌入網頁的結構化資料格式,幫助 AI 與搜尋引擎理解頁面內容的語意(如人物、文章、組織)。
- llms.txt
- 專為大型語言模型設計的網站摘要檔案,讓 AI 快速掌握網站的核心資訊,類似 robots.txt 之於搜尋引擎。
- MCP + A2A
- Model Context Protocol + Agent-to-Agent Protocol。兩種新興的 AI 互操作協議,讓 AI agent 能直接與網站交換結構化資訊。
- AI 理解度
- 內部評分指標:讓 Claude 閱讀 llms.txt 後回答關於網站的問題,衡量 AI 是否能正確理解網站內容。
- External Score
- 外部驗證分數:透過 Perplexity(獨立搜尋引擎)回答 13 道基準題,衡量外部 AI 對本站的認知準確度。
- Positive Recall
- 正面召回率:10 道事實題中,外部 AI 能正確找到並回答的比例。越高代表網站資訊越容易被 AI 發現。
- Hallucination Resistance(幻覺抵抗)
- 3 道反幻覺題中,外部 AI 正確拒絕捏造答案的比例。100% 代表 AI 不會編造關於你的虛假資訊。
- Discovery
- 發現性指標:外部 AI 回答時是否引用了 paulkuo.tw 作為來源,衡量網站在 AI 搜尋中的可見度。
- 校準基線 (Calibration Baseline)
- 優化前的 10 次重複測試結果,建立統計參考基準。均值 = 系統的自然表現,標準差 = 自然波動幅度。
- 噪音帶 (Noise Band)
- 校準均值 ± 2 倍標準差。分數變化落在此範圍內視為隨機波動,超出此範圍才是真正的改善或退步訊號。
- 觀察期
- Layer 5a 目前處於「只觀察、不決策」階段。累積 20 輪以上數據後,才考慮將外部分數納入自動 keep/revert 決策。
- Keep / Revert
- 優化迴圈的核心決策:每次自動修改後評分,分數提升則保留 (keep),下降則回退 (revert)。
- Mutation Agent
- 自動產生網站優化修改的 AI 代理,根據差距分析提出具體的程式碼或內容變更。