原文地址:https://lilyray.nyc/tech-seo-connect-2025-summary-takeaways/
北卡罗来纳州罗利现场报道: 本周我有幸重返第二届Tech SEO Connect年度大会,这次经历更令人兴奋——我还在大会后的派对上担任了DJ。
(图片说明:Lily Ray在Tech SEO Connect担任DJ;鸣谢Oluwasegun Adeniyi提供照片)
一如既往,我飞速记录了台上各位杰出演讲者的每一条洞见,并迫不及待地想在此分享核心要点与个人思考。这些演讲包含了我在全年听到的最佳见解——而我职业生涯的大部分时间都在参加各类SEO与AI搜索会议。
得益于大会组织者的慷慨,所有演讲都进行了实时直播并发布了完整录像,如果您需要我下方摘要中任何内容的更多背景信息,可随时查阅。
注: 我在会上手动记录了约一万字的笔记,随后借助演讲者的文字稿,并使用AI辅助完成了此处的摘要整理。演讲者按姓氏字母顺序排列。
超越GSC:利用第一方日志文件在AI爬虫时代制胜 – Rachel Anderson
- 建议大型网站谨慎依赖GSC的“抓取统计信息”,因其对海量URL站点的数据可能不准确,应转向使用第一方服务器日志文件。
- 强调与站点可靠性工程(SRE)团队协作的重要性,将其定位为维护高级日志工具、追踪所有爬虫bot的抓取专家。
- 分享了一个成功案例:通过SRE构建的仪表盘,发现某第三方安全工具错误地屏蔽了Googlebot(返回406错误)及所有AI爬虫,最终导致该合同被终止。
- 指出AI爬虫通常不执行JavaScript,且讨论AI爬虫时,传统索引概念已“过时”,因为它们拥有自己的知识库。
- 总结称,目前没有证据表明提议的LLMs.txt协议正被主流AI智能体可靠抓取,建议不要在此浪费时间。
从猜测到增长:构建可复利的SEO策略 – Brie Anderson
- 倡导“永远在测试”的策略,制定战略决策时不依赖轶事证据或外部建议。
- 引入了BEAST循环(基准、探索、分析、战略、测试与跟踪)作为持续增长的严谨框架,与科学方法保持一致。
- 强调定义KPI的必要性,确保各方就衡量指标达成一致(例如,潜在客户 vs. 排名),并确认GA4跟踪设置正确。
- 表明数据分析应专注于发现趋势和异常值,而将GSC和GA4数据可视化是最好的发现方式。
- 展示了一个成功的测试案例:利用SEO Jobs数据,基于已识别的用户趋势优化远程工作页面,使该页面的自然流量申请量增长了6.5%。
电子商务网站的AI内部链接优化 – Serge Bezborodov
- 讨论了如何利用向量嵌入和余弦相似度进行大规模内部链接优化,以找到语义相似的页面。
- 指出海量的排列组合(1万个页面就有数百万种可能)使得计算内部链接变得困难,尤其是对于低内容的单薄页面。
- 建议通过按品类层级分割链接逻辑来解决规模问题,这既能加速过程,也能提高相关性。
- 核心概念是将链接权重从“供体页面”(强大、高抓取预算)传递至“受体页面”(薄弱、低抓取预算),以改善索引。
我们分析了2.5亿条AI搜索响应:这是我们的发现 – Josh Blyskal
- 提供的实证数据表明,传统SEO指标(外链、权威性)仅能预测4%到7%的AI答案引擎(AEO)引用行为。
- 发现优化内容结构以适应机器检索是关键;例如,使用自然语言URL(5-7个词)能带来11.4%的更多引用。
- 指出答案引擎在RAG流程中没有摘要功能,这意味着答案必须被压缩成语义块才能适配摘要或上下文窗口。
- 强调了AI搜索中强烈的时效性偏见:50%的被高频引用的内容发布不到13周。
- 观察到博客和观点性内容(超级观点内容)目前在引用类型中领先,因为AI“懒惰”,寻求既定的分析框架。
- 确认用户生成内容(UGC)是关键信息类别,Reddit是第一大引用来源,YouTube在所有聚合AI模型中位居第二。
从提案到开发:在企业级规模上推动SEO建议落地 – Bryan Casey
- 描述了IBM如何借鉴迪士尼协同地图,构建了相互强化的“入站计划”这一复利增长系统(包含SEO、视频、播客、新闻通讯)。
- 通过承诺实现相同的广告KPI但效率提升10倍,争取到了巨额付费媒体预算,并将此预算框定为可调用的“战争基金”。
- 强制执行仅开展完全自包含的项目,避免依赖临时的共享团队资源,后者的失败率曾高达100%。
- 展示将常青内容和教程分组为“中心站”后,使其成为持久的参考来源,回头客流量因此增加了50%。
- 证明对搜索的投资因对新闻通讯的互补性投资而增值40%。
- 利用内部沟通(博客)来掌控叙事,例如将删除IBM.com上80%的内容描述为“解决公司头号客户体验问题”。
利用GA4实时发现技术SEO问题 – Dana DiTomaso
- 建议SEO人员停止主动寻找问题,转而利用访客体验情报(GTM/GA4),让问题实时“弹出并呈现”给他们。
- 提供了一个具体的GA4技巧:为非关键事件添加一个值为1的自定义事件参数(计数指标),从而可以在Looker Studio中跟踪其发生频率。
- 展示了如何使用GTM通过检查DOM元素body类中是否包含error 404来跟踪404错误等技术问题。
- 演示了如何通过页面路径触发器和正则表达式来跟踪含有编码(例如%20)和大写字母的URL。
- 强调了基本规则:切勿在内部链接中添加UTM参数,因为这会在GA4中破坏归因,迫使会话归因于最后一个非直接来源。
超越Googlebot:基于证据的AI爬虫检索实验 – Jori Ford
- 强调SEO人员必须采用科学方法,选择对一切保持怀疑并测试一切。
- 她的微测试表明,结构化数据(Schema)是逻辑的API,能够为RAG机器人实现复杂的逻辑推理,而非结构化文本会使机器人变“笨”。
- 发现RAG爬虫的活动受限于“胃口”和会话节流,意味着机器人很懒惰,只会访问最佳内容一次;它们不愿意深入超过大约三页。
- 证明了上下文偏见是真实存在的:如果机器人先检索到非结构化(扁平)内容,它将在同一会话中使用该信息,而忽略后续的结构化内容。
- 可行的指令是:不要发布没有结构化数据的页面,因为结构化必须在首次接触时就存在才能生效。
我们该做这个了吗?关于5个高影响技术SEO决策的清晰建议 – Alex Halliday
- 建议不要实施新兴的AI策略,例如创建Markdown替代页面或采用LLMs.txt协议,因为社区测试显示没有证据表明这能改善检索,且没有主流爬虫可靠地使用LLMs.txt。
- 警告说,如果一个纯Markdown页面意外被索引,这本质上属于伪装/欺骗性做法。
- 强调LLMs.txt试图解决的问题并不存在,因为RAG流程已经可以高效地将结构良好的HTML转换为Markdown或等效格式。
- 建议专注于基础要素:强大、干净的HTML,并使用主要的优先级Schema类型来明确页面实体。
从提案到开发:在企业级规模上推动SEO建议落地 – Ross Hudgens
- 提供了关于公司选择的战略指导,指出这是营销人员必须掌握的头号技能,并建议寻找具有高变革速度(能快速实施变更)的公司。
- 建议询问潜在客户他们近期的SEO实施情况,以评估他们执行新策略的意愿。
- 强调利用竞争对手数据(如Ahrefs或Moz的流量价值)来构建商业案例,并创建结果模型来预测变更的ROI。
- 建议由于ChatGPT的影响,所有流量预测必须日益保守,2026年应将流量数字减半考虑。
- 建议为SEO提案提供执行摘要和TL;DR(太长不看版),让领导者能立即聚焦于高优先级行动。
Trashcat的黑箱指南:针对大语言模型的技术SEO策略 – Jamie Indigo
- 确认AI排名是概率性的,而非确定性的,这意味着两个用户可能得到两个不同的答案。
- 建议SEO人员停止依赖合成的AI排名追踪工具(她称之为“AI界的Lighthouse”),而应将资源集中于通过第一方日志文件获取真实用户数据。
- 建议与站点可靠性工程师(SRE)合作以获取日志访问权限和专业支持,他们是真正的抓取专家。
- 指出大多数LLM在检索期间无法渲染JavaScript,并且核心性能指标(如CWV和TTFB)对于实时RAG仍然重要。
- 强调了meta描述作为营销载体的重要性,用于告知爬虫页面内容,这与AI优先考虑新鲜度的理念相符。
关于查询扩展,你们这些家伙该知道的一切 – Michael King
- 预测检索增强生成(RAG)是未来,并解释RAG系统会接受一个提示,并扩展出各种合成查询(查询扩展,QFO)以拉取内容块。
- 分享了一个关键数据点:QFO中95%的查询没有月搜索量(MSV),表明这些是独特的、机器生成的长尾查询,在传统工具中无法找到。
- 指出AI系统根据对内容格式(索引、API、图片、视频)的预期来路由查询;胜负取决于你的内容是否符合预期格式。
- 表明成功是概率性的,建议SEO人员必须通过为多个合成子查询排名来最大化输入。
- 建议使用语义三元组(主语、谓语、宾语)优化内容——即结构化数据不仅仅是Schema——为语言模型提供清晰具体的数据点。
- 提供了开源工具替代方案,如Qforia(用于查询生成)和n8n(用于自定义工作流),以弥补尚未适应这些新机制的商业SEO软件的不足。
视频SEO:通往AIO能见度的捷径 – Cindy Krum
- 论证视频是有效品牌建设和AI能见度的捷径。
- 指出YouTube是AI平台中引用最多的来源之一,Google Discover现在也开始推送社交流和短视频,表明用户消费正转向注重多巴胺的快速内容。
- 强调基础的SEO只是入场券;成功依赖于针对参与度信号(点赞、评论、重复观看)进行优化,这是算法决定推送什么内容的方式。
- 建议在前三秒使用强大的“钩子”来最大化参与度,并指出Instagram会统计超过此点的观看数据。
- 展示了像Opus Clips这样的工具如何使用AI将长视频URL自动转换为多个优化后的短视频、竖版视频及文字稿,从而实现快速的多平台分发。
- 提醒依赖单一平台存在风险(援引了近期的YouTube频道取消案例);内容应分发到YouTube、Instagram、TikTok、LinkedIn和Facebook,以最大化投资并降低平台风险。
超越蓝色链接:新鲜度、控制与能见度 – Krishna Madhavan
- 陈述能见度属于那些AI能够信任、理解并“锚定”的内容,将“锚定”定义为LLM在生成答案前所依赖的可验证、可信源的锚点。
- 强调新鲜度是必要条件,因为AI系统经常在查询扩展中要求新鲜内容,过时的信息很可能不会被锚定模型选中。
- 建议通过使用IndexNow开放协议立即通知爬虫关于新增、更新或删除的内容,来平衡抓取效率和新鲜度。
- 主张使用data-no-snippet HTML属性进行精确控制,将页面的特定部分排除在AI摘要/片段之外,同时保持页面的排名资格。
信号叠加:国际SEO如何协同(与崩溃)– Max Prin
- 指出尽管hreflang已推出14年,其实施仍然困难,国际SEO的目标仍然是向正确用户发送正确的URL。
- 强调域名策略(ccTLD与gTLD)必须由“SERP的现实”决定;例如,Condé Nast被迫推出.de的ccTLD,因为德国SERP中78%的网站已是.de。
- 确认在同一语言/市场内结合使用noindex和canonical信号是可接受的,以防止联合内容与原始内容竞争,这是Condé Nast大量使用的策略。
- 指出hreflang标签对Google Discover流量没有影响,随着Discover流量增长,这成为一个日益严重的问题。
- 建议在特定情况下使用地理重定向,例如当姐妹品牌内容排名超过原始内容,且品牌希望确保用户被引导至正确的页面版本时。
当流量异常时:用于异常检测与预测的机器学习 – Sam Torres
- 警告LLM不适合分析结构化数据(表格、数值数据),因为它们处理数字时容易产生幻觉。
- 倡导使用机器学习(ML)模型进行数值数据分析,指出其透明度和数学严谨性使其在此任务上更优越。
- 推荐使用Google Colab——一个免费的、基于云的Jupyter笔记本环境——来运行ML模型,该环境对GSC/GA4客户数据安全且易于共享。
- 确定了三种用于异常检测和预测的关键ML模型:隔离森林(快速、多维)、局部离群因子(LOF,适用于A/B测试或寻找异常值)和预测残差法(最适合时间序列和季节性分析)。
为SEO构建可扩展数据产品的幕后 – Baruch Toledano
- 强调为了建立数据信任,SEO人员必须遵循“垃圾进,垃圾出”原则,并在模型使用不当时警惕LLM幻觉。
- 演示了使用三角验证法——建模GA搜索流量与GSC点击量之间的关系(绝对比率)——来处理不同数据源之间的数据不确定性。
- 对于高流量、可重复的任务(例如每天分类1亿个页面),他使用模型蒸馏,即由一个强大的LLM训练一个更小、更便宜的“学生”模型,以较低成本保持高准确率。
- 在优化LLM提示时,他使用少样本提示(给LLM一个期望输出的例子)以确保正确的格式和特定结果,而不是单纯依赖指令。
- 建议使用点击流数据作为“指南针”,以确定哪些AI模型被采用、用户返回AI搜索的频率以及用户如何与不同模态交互。
从Schema标记到知识图谱:用关联数据赋能AI – Martha van Berkel
- 聚焦于为“智能体网络”做准备,强调了结构化数据和知识图谱的关键作用。
- 定义AI就绪的实际标准是将Schema标记存储在高质量的知识图谱中,指出这能改进LLM锚定,可实现高达91%的准确率,而GPT4仅为43%。
- 建议SEO人员深入使用Schema属性定义实体以创建语义三元组(主语、谓语、宾语),而不仅仅是基本的Schema类型。
- 引用了一个例子:某公司使用了与其知识图谱连接的、健全的位置Schema标记,结果AI概览引用了正确的位置页面,而不是其他站点的过时信息。
- 确认LLM能够且确实将结构化数据用作其RAG流程的一部分。
企业SEO的决策智能 – Tyler Gargula
- 引入了决策智能作为一门学科,并提出了DECIDE模型框架,以帮助企业SEO人员从糟糕决策转向明智决策。
- 强调定义主要目标的必要性,并严格避免选择性偏见(仅分析成功数据)和近期偏见(过度看重近期数据峰值)等偏见。
- 展示了对“已抓取,未索引”页面的分析,识别出与索引呈正相关的内容属性——例如使用独特图片 vs. 占位图,以及库存状态。
- 倡导使用洛伦兹曲线(用于对高流量页面进行优先级抽样)和小提琴图/箱线图(用于可视化指标分布)等工具来可视化数据,以识别异常值和机会。
JavaScript渲染与搜索爬虫视窗 – Giacomo Zecchini
- 确认虽然Google可以渲染JavaScript,但大多数AI爬虫在内容检索期间不具备渲染JavaScript的能力。
- 详细说明了Google的非标准视窗扩展技术,该技术会将视窗高度一次性调整为与页面总高度匹配,以触发延迟加载的内容。
- 建议开发人员应使用Intersection Observer API进行延迟加载,因为自动化爬虫不会滚动或点击。
- 强调CSS伪元素(::before/::after)中的内容不属于DOM树,不会被索引。
- 推荐使用
visibility:hidden而非display:none来隐藏内容,因为display:none会移除元素的尺寸和位置,可能会降低其在搜索模型中的感知价值。 - 提醒使用视窗高度(vh)而未设置最大高度的页面,在Google扩展视窗时,关键内容有被推到首屏下方的风险,从而降低其感知价值。

Leave a Reply