上一课你解决了什么

如果你做完了国际 §7 的"5 平台 baseline 部署 + 选定 #1 平台深耕",你的网站对 5 大 AI 引擎的基础可见性已建立。

但还有一件事:AI 怎么快速理解你的网站结构

打开 ChatGPT / Claude / Perplexity 任何一个,问"yoursite.com 是做什么的?最重要的 3 个页面是哪些?"

3 种结果:

  • AI 准确答出 → 你的网站对 AI 的"自我描述"足够清晰
  • AI 答得模糊或错误 → AI 只能从你的爬取数据推断,无显式信号
  • AI 说"找不到信息" → 你的网站对 AI 完全不可见(或被 robots.txt 封了)

多数小网站测出第 2 种或第 3 种结果。原因不是内容差,而是没有给 AI 一份"你最重要的内容是什么"的显式说明

llms.txt 就是这份显式说明:一份让 AI 30 秒内理解你网站的"机器可读 + 人类可读"摘要。

这一课讲清楚 5 件事:

  1. llms.txt 是什么 + 由谁提出 + 为什么重要
  2. 完整规范 + 4 个区块模板:直接拷过去改
  3. 11 项验证检查:部署前必跑
  4. llms.txt vs llms-full.txt 区别:什么时候只写简版,什么时候写完整版
  5. 30 分钟部署流程:从 0 到上线

学完你能用 30 分钟部署一份合规 llms.txt,做到这一步你已经在不到 5% 的网站之列。


llms.txt 是什么 + 由谁提出

llms.txtJeremy Howard(fast.ai 创始人)2024 年 9 月提出的标准。位于网站根目录:

https://yourdomain.com/llms.txt

它给 AI 系统提供站结构、内容、关键信息的结构化、机器可读、人类可读摘要。

和 robots.txt / sitemap.xml 三者关系

3 个根目录文件的分工
robots.txt
告诉爬虫:不能访问什么|内容:Allow / Disallow / User-agent 简单规则|历史:1994 年提出,Web 标准|AI 支持:所有 AI 爬虫强制遵守
访问控制
sitemap.xml
告诉爬虫:网站所有页面在哪|内容:XML 列表|历史:2005 年提出,Web 标准|AI 支持:所有 AI 爬虫读取
完整页面索引
llms.txt
告诉 AI:最有用的内容是什么|内容:Markdown 结构化文档(标题 + 描述 + 链接)|历史:2024 年 9 月提出,社区提案|AI 支持:Claude 公开支持,其他 AI 部分支持
AI 优先消费指南

3 个文件互补:robots.txt 限制访问 / sitemap.xml 列出所有页面 / llms.txt 显式告诉 AI 哪些页最重要。

截至 2026 年初的关键数据

  • 不到 5% 的网站部署了 llms.txt,是早期采用者差异化点
  • Claude 公开声明支持读取 llms.txt 做网站理解
  • ChatGPT / Perplexity / Gemini 没有公开承诺支持,但行业观察显示部分 llms.txt 内容被引用