一个让人无语的发现

你已经做完前 4 课:内容质量 E-E-A-T 80 分、段落 Citability 80 分、Brand Authority 5 大平台都建好。

现在你打开 Perplexity,搜你品牌名 + 你最想被引用的查询,AI 给的答案里仍然没有你。

不是 AI 看到了选择不引用你,是 AI 根本没看到你

让我们做一次直接的检测。打开终端,跑一行命令:

curl -s "https://yoursite.com/your-best-page" | grep "你这一页里的核心句子"

3 种结果:

  • grep 命中 → 你的内容在原始 HTML 里,AI 爬虫能读到
  • grep 没命中、但浏览器能看到内容 → 你的内容是 JS 渲染出来的,AI 爬虫看到空白
  • 整个 curl 没返回 → 你的服务器在屏蔽爬虫 / 网络问题

第 2 种是最常见、也最隐蔽的状态:你的内容在浏览器里看着完美,但 AI 爬虫拿到的是一个空 div

这就是这一课的核心:Technical 维度只占 6 维体系的 15%,但它能让前面 70% 的努力归零

这一课讲清楚 4 件事:

  1. SSR(服务端渲染)是 GEO 时代的生死线:AI 爬虫不执行 JavaScript
  2. 14 个 AI 爬虫 user-agent 完整清单 + robots.txt 配置
  3. Core Web Vitals 三指标(LCP / INP / CLS)的实操阈值和修复
  4. Mobile-First Crawling:Google 2024 年 7 月起完全转移

6 维体系的 8 大类技术权重

Technical 维度的 15 分按 8 大类分配。下面这张图把 8 类权重摆出来,让你看清每类的相对重要性。

Technical 维度 8 大类权重分布
① Crawlability(15)
可爬性:robots.txt 校验 / AI 爬虫访问 / XML Sitemap / 爬取深度 / Noindex 管理。AI 爬虫被封 = 这一项 0 分,全维度归零。
GEO 第一道门
② Server-Side Rendering(15)
GEO 关键:AI 爬虫不执行 JavaScript。React/Vue/Angular 客户端渲染站点对 AI 爬虫看到的是空白页。整页 CSR = 0 分。
不可妥协的生死线
③ Page Speed & Server(15)
TTFB < 800ms / 总页重 < 2MB / 图片优化 / 代码拆分 / 缓存 / CDN。慢站让爬虫超时放弃,且影响用户体验。
性能直接影响爬取频率
④ Core Web Vitals(15)
LCP < 2.5s / INP < 200ms / CLS < 0.1。Google 直接排名信号;INP 已替代 FID(2024-3)。
用真实用户字段数据 75 百分位
⑤ Indexability(12)
Canonical / 重复内容 / 分页 / Hreflang / 索引膨胀。不被索引 = 不被引用。
可爬之后的下一道门
⑥ Security(10)
HTTPS 强制 / 安全头(HSTS / CSP / X-Content-Type-Options 等)。AI 倾向引用安全合格的站。
2026 年是基线,不是加分项
⑦ Mobile Optimization(10)
2024 年 7 月起 Google 完全用 mobile Googlebot 抓所有站。无 desktop 抓取。响应式 / 触控目标 ≥ 48px / 移动内容对等。
不工作 = 对 Google 不工作
⑧ URL Structure(8)
干净 URL / 逻辑层级 / 重定向链 ≤ 1 跳 / 参数处理。爬取效率与索引质量。
低权重但容易踩坑

关键观察:4 个 15 分的"最高权重项"(Crawlability / SSR / Page Speed / Core Web Vitals)任何一项不及格都会拖垮整个 Technical 维度。先把这 4 项做到 80+,再去优化剩下 4 项。