什么是 llms.txt?怎么添加llms.txt??

很多企业以为做好了 SEO,配置了 robots.txt 和 sitemap.xml,AI 就能完美地看到自己的内容。
这是一个巨大的误区。
AI 爬虫面对海量页面,资源是有限的。它可能抓取了你几十篇无关痛痒的博客文章,却唯独漏掉了你精心打磨的核心产品页。或者,它抓取了产品页,但因为页面结构太复杂,它没能提取出最关键的卖点。
结果就是:AI 根本不知道你最想让它看什么。
在 AI 搜索时代,光有“准入证”(robots.txt)和“全家福”(sitemap)是不够的。你还需要一份“必读清单”。
这就是 llms.txt 的作用。
什么是 llms.txt?
简单说,它是专门写给 AI 爬虫看的“重点推荐菜单”。
- robots.txt:告诉爬虫哪些房间不能进。
- sitemap.xml:告诉爬虫房子里一共有哪些房间。
- llms.txt:告诉爬虫,这一间、那一间和这一间是最豪华的,请务必进去仔细看看。
它通常放在网站根目录(如 yourdomain.com/llms.txt),用最简单的 Markdown 格式,列出你认为最能代表品牌实力、最希望被 AI 引用的页面。
为什么现在就要加?
1. 90% 的竞争对手还没做 这是一个极低成本的“认知差”红利。绝大多数 B2B 网站连基本的移动端适配可能都没做好,更别提针对 AI 的优化了。现在加上这个文件,意味着在 AI 爬虫眼中,你的网站比竞争对手更“友好”、更“懂行”。
2. 主动管理 AI 的认知 如果不加,AI 随机抓取。加了,是你主动喂养。你可以把最新的案例、最全的产品手册、最清晰的 FAQ 放在清单第一位,确保 AI 获取的是你最想传达的信息。
3. 适应 AI 代理(Agent)的读取习惯 越来越多的 AI 代理(如 Perplexity, Claude 爬虫等)开始寻找这种结构化、无干扰的信息源。llms.txt 提供的是去除了 HTML 噪音的纯净链接,是 AI 最喜欢的“食物”。
怎么添加?(含最快方法)
不需要动复杂的代码,两种方法任选。
方法一:WordPress 插件(推荐,1 分钟搞定)
如果你用的是 WordPress,这是最简单的方案。
- 在后台搜索并安装 "Hostinger Tools" 或 "LLMS.txt" 相关插件。
- 进入插件设置,勾选你希望包含的页面类型(通常选 Pages 和 Posts)。
- 点击生成。插件会自动在根目录创建文件,并随着你发布新内容自动更新。
优势:零代码,自动化,不用担心忘记更新。
方法二:手动创建(适合所有网站)
如果你的网站是自建的,或者不想装插件,手动创建也非常简单。
步骤:
- 新建一个文本文件,命名为 llms.txt。
- 按照 Markdown 格式写入内容(见下方模板)。
- 上传到网站根目录。
- 访问 你的域名/llms.txt 确认能打开。
文件内容参考:
# 网站名称:[你的品牌名]> 简短描述:[一句话介绍你的核心业务]## 核心页面(必读)- [核心产品A介绍](https://yourdomain.com/product-a)- [核心产品B介绍](https://yourdomain.com/product-b)- [行业解决方案](https://yourdomain.com/solutions)## 信任背书- [客户案例库](https://yourdomain.com/cases)- [关于我们](https://yourdomain.com/about)## 常见问题- [FAQ](https://yourdomain.com/faq)写 llms.txt 的 3 个关键原则
别把这个文件当成另一个 Sitemap。它是“精选集”,不是“全集”。
- 只放干货:不要把几百篇过时的新闻稿放进去。只放那些能直接解答客户问题、展示产品实力的核心页面。
- 层级分明:用 H2 (##) 标题把内容分类,比如“核心产品”、“案例研究”、“技术文档”,帮助 AI 理解内容板块。
- 保持纯净:链接指向的页面最好结构清晰,如果能指向专门为 AI 优化的 Markdown 版本(如 llms-full.txt)则更佳,如果不行,普通的 HTML 页面也可以,但确保内容主体突出。
总结
AI 搜索时代,竞争的战场已经从“关键词排名”转移到了“被 AI 选中”。
llms.txt 不是什么高深的技术,它只是通过一个小小的文本文件,向 AI 释放一个巨大的善意信号:“嘿,看这里,这里有你最想要的数据。”
花 5 分钟加上它,成本几乎为零,但可能决定了下一次 AI 回答用户提问时,引用的是你的内容,还是你对手的内容。
本文内容仅供参考,不构成任何专业建议。使用本文提供的信息时,请自行判断并承担相应风险。



