上一篇你做了什么

如果你刚学完基础篇,应该已经做过"自我可见性测试",在 Google、百度、豆包、ChatGPT 各搜一下自己。

这一篇我们把"中文 AI 那一栏"展开。不是 1 次测试,是 6 次

为什么是 6 次?因为中文 AI 不是一个统一市场。


一个让人不舒服的事实

中文 LLM 之间的引用源重合度低于 50%

什么意思?同样一个问题,豆包给你引用 5 个网站、DeepSeek 给你引用 5 个网站,这两组 5 个网站可能只有 1-2 个重合,剩下的全是各家独有的信源池。

对比英文世界:ChatGPT 和 Perplexity 的引用源重合度通常超过 70%,因为它们都用 Bing 索引、都重度依赖 Wikipedia。在英文世界,一个品牌只要进入 Wikipedia + Reddit + 主流媒体,就能在多数英文 AI 里都有存在感。

中文世界没有这个"通用信源池"。每家中文 AI 都绑定自己的生态:

6 大中文 AI 信源生态
豆包(字节)
抖音 + 今日头条 + 番茄小说 + 字节系全家桶
视频内容引用率最高
DeepSeek
GitHub + 知乎 + 学术论文 + 通用网页
无生态绑定,最'原生'
文心一言(百度)
百家号 + 百度百科 + 百度健康 + 百度学术
百度生态封闭引用
通义千问(阿里)
淘宝商品 + 阿里系电商内容
商品类查询触发 AI 下单卡
腾讯元宝
微信公众号 36 亿文章池 + 视频号
可在 APP 内调起公众号
Kimi(月之暗面)
网页抓取(含长文档场景特殊优化)
生态绑定最弱

意味着:你想被 AI 引用,要么挑一家集中打,要么 6 家都做。没有"在 A 平台爆款,B 平台自然跟上"这种事。

这是中文 GEO 必须独立成一篇的根本原因。国际方法论里那套"做 schema、做 llms.txt、做 Wikipedia 实体",搬到中文几乎全部失效。中文 AI 的可见性逻辑根本不是这一套。

反话术 #1:做 schema 提升中文 AI 引用率 判定:❌ 大概率无效。 中文 LLM 对 schema.org 结构化数据的实际采纳极低。除了文心一言对百度系结构化数据有特殊处理外,其他中文 AI 的引用决策几乎不依赖 schema。如果服务商的方案核心是"做 schema 标记",你应该高度警惕。