AI 搜索架构深度剖析:主流平台拆解

via https://ipullrank.com/ai-search-manual/search-architecture

生成式 AI 搜索系统并非铁板一块。虽然它们共享一些共同的架构元素——基于嵌入的检索、重排序层和 LLM 综合——但每个平台实现方式不同,在速度、透明度和结果质量上各有取舍。对于 GEO 从业者来说,理解这些架构差异至关重要:在 Google AI 模式中有效的特定优化手段,在 Perplexity AI 中可能毫无作用,反之亦然。

本章将深入解析主流 AI 搜索系统的内部运作机制。我们将探讨它们的检索流程、索引策略、综合层和界面选择,然后总结每一点对于优化内容可见性和包含度的意义。

RAG —— 核心模式

大多数 AI 搜索平台的核心是检索增强生成(RAG)。RAG 解决了 LLM 的根本弱点:幻觉和知识截止。通过将生成过程建立在新鲜、外部检索到的数据之上,这些系统能够提供既流畅又符合事实的答案。

在 RAG 流程中,用户的查询首先被编码为一个(或多个,如果系统使用多向量模型)嵌入向量。然后,系统搜索预计算的内容嵌入索引(这些嵌入可能代表网页、视频、文档或多模态数据),以检索最相关的候选结果。接着,这些候选结果通常由一个计算成本更高的交叉编码器进行重排序,该编码器会联合处理查询和候选内容,生成精细化的相关性分数。最后,排名靠前的结果被输入到 LLM 中,作为答案综合的 grounding 上下文。

RAG 的强大之处在于,它将 LLM 变成了一个“即时”推理器,基于几秒前检索到的信息(而不是模型上次训练时的数月或数年前的信息)进行运算。这对 GEO 有着巨大的影响:如果你的内容既不可检索(通过强大的嵌入和元数据),又不易被 LLM 消化(通过清晰的结构和可提取的事实),那么你将在综合阶段变得不可见。

RAG 流程解剖图(此处为示意图标题)

基于嵌入的索引 —— 语义基础

基于嵌入的索引用向量数据库取代了经典搜索中的倒排索引。每个文档由一个或多个稠密向量表示,这些向量在高维空间中捕捉其含义。这使得系统即使在与查询没有任何关键词重叠的情况下,也能检索到语义相关的内容。

AI 搜索的索引通常是多模态的。文本段落、图像、音频片段甚至表格都可能被分别嵌入,然后在同一个文档 ID 下链接起来。你网站上的某张图片可能直接被作为生成式答案的证据检索出来,即使页面上的文本竞争力较弱。

对于 GEO 而言,基于嵌入的索引要求内容必须针对语义覆盖进行优化。这意味着要使用自然语言清晰表达你希望被检索到的概念,为图像添加描述性的替代文本和标题,并确保非文本内容的转录和元数据丰富且准确。

嵌入空间检索示意图(此处为示意图标题)

混合流水线 —— 词法 + 语义 + 重排序

尽管嵌入功能强大,但大多数 AI 搜索平台使用混合检索流程。词法搜索在精确匹配方面仍然表现出色,尤其是对于稀有词、产品代码和名称。语义检索在概念相关内容的召回方面表现出色。将两者结合——然后使用上下文模型进行重排序——能够两全其美。

这样一个混合系统可能首先在倒排索引上运行 BM25(词法)搜索,并在嵌入索引上运行最近邻(语义)搜索。然后它会合并结果集,对分数进行归一化,并将合并后的候选池传递给重排序器。在实践中,这增加了精确匹配和语义相关内容都被考虑用于综合的可能性。

从 GEO 的角度来看,混合检索意味着你不能放弃经典的 SEO 实践。关键词优化对词法召回仍然重要,而语义优化则决定了你是否存在于嵌入索引中。

“Google AI 概览与 AI 模式 —— 深度集成

Google 的 AI 搜索界面建立在其 LLM 堆栈(定制的 Gemini 模型)与其经过二十多年完善的成熟搜索基础设施之间的紧密集成之上。

当你发出一个查询时,系统会执行查询扇出,将你的输入扩展为针对不同意图维度的多个子查询。这些子查询针对各种数据源并行运行:网络索引、知识图谱、YouTube 转录文本、Google Shopping 数据源等等。

来自这些子查询的结果会被聚合、去重和排序。排名靠前的候选结果随后被送入基于 Gemini 的 LLM,后者综合出一个简洁的概览。AI 概览会将其显示在传统 SERP 的顶部,并附带内嵌引用。

相比之下,AI 模式是一个完全对话式的环境,专为多轮推理和探索性查询而设计。它可以在多轮对话中保持上下文,并在对话过程中动态获取更多证据。

从 GEO 角度看,其含义很明确:内容不仅需要针对标准网络排名进行优化,还需要针对多意图检索进行优化。你的内容能满足的查询维度越多,它就越有可能被包含在综合答案中。

AIO 和 AI 模式流程图(此处为示意图标题)

Google AI 概览与 AI 模式 —— 深度集成与取证级细节

Google 的 AI 概览和 AI 模式并非简单地附加在搜索上的独立产品。它们是直接构建在 Google 搜索堆栈中的、紧密集成的检索增强层。虽然表面上的用户体验是新的,但底层组件重用(在某些情况下扩展)了 Google 自通用搜索早期以来一直在完善的同一套基础设施。

基于观察到的行为、专利以及 Google 自身的披露,我们可以将这个过程建模为五个主要阶段:查询理解、查询扇出、从多数据源检索、聚合与过滤、以及 LLM 综合。

1. 查询理解

当用户在 AI 模式下提交查询或触发概览时,第一步是语义解析。这可能涉及经典的分词和基于 Transformer 的现代嵌入,以生成查询的多种表示形式:

  • 用于 BM25 风格精确匹配检索的词法形式
  • 用于在 Google 向量索引间进行语义检索的稠密嵌入形式
  • 用于匹配知识图谱的实体形式
  • 用于确定所需输出类型(例如,比较、分步说明、事实摘要)的任务形式

此阶段还会检测语言、应用拼写纠正,并确定该查询是否应触发 AI 概览。Google 承认并非所有查询都有资格。高风险(通常称为 YMYL,即“你的金钱或你的生命”)查询以及权威覆盖稀疏的查询可能会被排除或更保守地处理。

2. 查询扇出

如果查询符合条件,Google 会生成多个子查询以覆盖潜在意图并填补信息空白。

例如,查询“最佳半程马拉松训练计划”可能会扇出为:

  • “半程马拉松训练计划 12 周”
  • “半程马拉松初学者技巧”
  • “半程马拉松跑者营养计划”
  • “半程马拉松减量策略”

这些子查询在不同的源系统中并行运行:

  • 网络索引(词法和向量检索)
  • 用于实体事实的知识图谱
  • 用于视频来源的 YouTube 转录文本
  • 用于商业查询的 Google Shopping/产品数据源
  • 根据意图的不同,还包括 Scholar、Flights 或 Maps 等专业索引

扇出确保了比单个查询更广泛的召回能力。

3. 从多数据源检索

每个子查询被路由到相应的检索堆栈。对于网络索引,这可能意味着在倒排索引上运行 BM25,同时在 Google 内部嵌入空间上进行近似最近邻(ANN)搜索。在向量搜索中,Google 很可能使用多向量文档表示,意味着每个文档被拆分为多个语义片段,每个片段有自己的嵌入,以实现更高的检索准确性。

对于非网络来源,检索方法各不相同。知识图谱是一个由实体节点和边组成的结构化数据库;这里的检索是图遍历而非向量搜索。YouTube 转录文本和图像存储在其各自的多模态嵌入空间中,通常与知识图谱实体相链接,以实现跨模态召回。”

4. 聚合、去重与过滤

每个子查询返回结果后,Google 会将它们合并到一个候选池中。去重步骤会移除几乎相同的段落或 URL。

随后,过滤环节会应用质量和安全约束:

  • 基于 E-E-A-T 的可信度评分
  • 内容安全过滤器,排除有害或违反政策的内容
  • 针对时效性查询的新鲜度加权
  • 片段可提取性 —— 优先选择能够被干净地提取到综合答案中的段落

片段选择很大程度上受可提取性和清晰度的影响。如果系统无法提取出一个自包含、高质量的段落,该页面被引用的可能性就会降低。

  1. LLM 综合

最终的候选集(通常包含来自多个来源的数十个段落)作为 grounding 上下文传递给基于 Gemini 的 LLM。然后,LLM 综合出一个连贯的答案,并决定在何处插入引用。根据 UI 界面的不同,引用可以以内嵌、侧边栏或“更多来源”链接的形式出现。

AI 概览追求简洁和清晰,因此综合过程受到约束。可以将其视为具有固定词元预算的单次生成过程。相比之下,AI 模式是对话式且持久化的。它可以在会话中间运行额外的检索周期,融入后续问题,并动态调整综合风格。

从 GEO 的角度来看,被包含的路径是:

  • 匹配多个潜在意图,使你的内容能够被多个子查询拉取。
  • 通过清晰、自包含的段落确保片段可提取性。
  • 通过一致的主题覆盖和强大的 E-E-A-T 指标来传递权威性。

ChatGPT —— 非索引模型

基础 ChatGPT 模型并不维护自己的网络索引。它们在庞大的静态语料库上训练,但在搜索时会从索引中拉取 URL 并实时请求这些 URL。ChatGPT 生成搜索查询,将其发送给 Bing 的 API,并检索到一个简短的 URL 列表。然后,它在运行时获取选定 URL 的完整内容,并直接处理这些内容以进行综合。

这种架构意味着包含与否完全取决于实时的可检索性。如果你的网站被 robots.txt 屏蔽、加载缓慢、隐藏于客户端渲染之后、或者语义上不透明,它就不会被用于综合流程。

经典的 SEO 在这里占主导地位;策略是确保可访问性和清晰度:让页面在技术上可抓取、轻量级、语义透明,以便即时获取能够产生干净、可解析的文本。

Bing Copilot —— 搜索原生的生成式答案

Bing 的 Copilot 是最接近穿着生成式外衣的经典搜索引擎的存在。与 Perplexity 那种 API 优先、按需获取的方式,或者谷歌高度融合的 Gemini + 搜索堆栈不同,Copilot 继承了微软成熟的 Bing 排名基础设施,然后在其上叠加了 GPT 级别的综合层。其结果是形成了一个流程,在这个流程中,传统的 SEO 信号仍然非常重要,因为它们决定了哪些候选结果能够进入 grounding 集,而可提取性和清晰度则决定了这些候选结果是否能够成为最终对话式回复中的引用。

Copilot 的流程可以建模为五个阶段:查询理解、混合检索、上下文重排序、LLM 基础与综合,以及带有引用和操作选项的呈现。在这个核心循环之外,还有 Microsoft 365 集成层,使得答案能够直接流入 Word、Excel 和 Teams 等生产力上下文。

1. 查询理解

当用户向 Copilot 发出提示时,系统会对输入进行并行解析。为经典检索创建词法表示,为语义搜索生成稠密嵌入表示,并通过实体链接识别知识图谱节点以消除歧义。Copilot 还会为查询分配一个任务画像:用户是在寻求事实摘要、操作方法、比较、推荐还是计算?该任务分类会影响 Bing 接下来会命中哪些垂直领域或专业服务。例如,商业查询可能会对 Shopping 数据源赋予更高权重,而本地意图则会将更多信号传递给 Places 和 Maps 实体。与谷歌的大规模扇出相比,这第一步看起来相对保守,但它是带有倾向性的:Bing 依赖其成熟排序器的能力来进行早期剪枝,而不是扩展搜索空间。

2. 混合检索:索引规模的词法 + 语义

Bing 的检索是真正的混合模式。在倒排索引上运行 BM25 风格的搜索,返回高精度、精确匹配的候选结果——这对于稀有字符串、产品 SKU 和命名实体尤其有价值。同时,在 Bing 的稠密向量索引上进行最近邻搜索,检索与查询可能没有表面词项共享、但语义相关的段落。系统合并这些候选池,对其分数进行归一化,并强制执行新鲜度和站点质量约束。关键在于,Bing 的网络索引深度大且已经过质量过滤,因此进入候选池的内容往往是稳定、可抓取且已规范化的。这就是为什么相比仅通过 API 连接的引擎,经典的 SEO 基础工作(可抓取性、规范化信号、干净的 HTML、速度)在 Copilot 中仍然能带来不成比例的回报。

从 GEO 角度来看,这是你获得第一张门票的地方。如果你在词法或语义检索上没有竞争力,你就无法入选。那些将关键词清晰度与强大主题嵌入相结合的页面,最有希望在各种查询表述下进入候选集。

3. 上下文重排序与段落提取

合并后的候选池随后传递给一个经过段落级相关性调优的交叉编码器重排序器。Bing 越来越多地关注能够回答查询某个离散方面的段落,而不是对整个页面进行评分。重排序器联合编码查询和每个段落,以分配一个上下文感知的分数,捕捉简单向量相似度可能遗漏的细微差别。在此阶段,Bing 还会执行去重和多样性控制,以避免来自镜像网站或联合发布伙伴的近乎相同的段落挤掉独特的来源。

这里应用了两个不显眼但决定性的过滤器。首先是可提取性:具有清晰范围、列表、表格和定义式措辞的段落更容易在综合过程中作为 grounding,因此它们能够胜出。其次是权威性:站点级和实体级的信任信号会影响平局时的取舍。如果两个段落表述相同的内容,来自更知名域名或作者的那一个通常会胜出。这就是为什么 E-E-A-T 类型的信号(虽然不作为单一指标暴露出来)仍然影响着 Copilot 展示哪些来源。

4. LLM 基础与综合

排名靠前的段落被捆绑为 GPT 类模型的 grounding 上下文。Copilot 的提示词指示模型简洁地综合、注明出处,并避免超出所提供证据范围的推测。与自由形式的聊天模型不同,Copilot 的生成器与检索到的内容紧密耦合;它的任务是编排而非创造。如果答案需要广度,系统可以在生成过程中发起增量检索以获取缺失的方面,尽管在实践中,这在多轮对话(后续问题扩展范围)中最为常见。

Grounding 策略对 GEO 很重要。如果你的段落范围明确、以清晰的语言包含核心主张、并引用了日期、版本或条件,那么它更容易被安全地引用或转述。如果模型需要三个段落来拼凑出你的一个段落本可以清楚说明的内容,你就处于劣势。

5. 呈现、引用和 Microsoft 365 操作

Copilot 的用户界面显示综合后的响应,并带有显著的引用——通常是内嵌的上标数字,链接到来源卡片或列在答案下方。由于流程优先考虑段落级的 grounding,引用往往比较紧凑:少数几个来源,而非庞大的参考文献列表。在后续对话轮次中,随着对话转向和新的检索运行触发,来源可能会发生变化。

使 Copilot 与众不同的是跨越 Microsoft 365 的操作层。旅行推荐可以导出到 Word 文档模板,列表可以转换为 Excel 表格,或者摘要可以在 Teams 中共享,且引用保持完整。

对于 GEO 而言,这意味着易于被重新利用的内容(表格、清单、对 CSV 友好的结构)具有超越初始答案的杠杆作用,因为它们会流入下游的用户任务中,而在这些任务中引用是可见且持久的。

包含与排除:为什么一些好页面没有出现

如果你在蓝色链接中排名靠前,但未能作为 Copilot 的引用出现,通常的原因在于结构而非主题。延迟核心内容的客户端渲染、干扰提取的厚重插页、没有条件或日期的模糊范围、或者埋没要点的冗长叙述,这些都会降低段落质量。单薄的作者页面和薄弱的实体标记,在与来自具有更清晰 E-E-A-T 信号的站点的同样相关段落竞争时,也会在难分伯仲的情况下造成不利影响。”

你需要通过所有这四个阶段。

Bing Copilot 的 GEO 启示

可以将其理解为:经典 SEO 加上内容块工程。

  • 确保你在两条检索路径中至少赢得一条。使用精确的关键词和实体来获得词法召回;同时通过自然的、带有消歧上下文的内容来生成强大的嵌入。
  • 构建页面时,让关键主张以可提取的段落形式存在:简短、范围清晰的段落;定义块;项目符号列表;小巧、带标签的表格。
  • 强化实体信号:组织模式(Organization schema)、带有主题专业性的作者模式(Author schema),以及通过内部链接将相关概念聚类,以增强你网站级别的嵌入。
  • 保持内容有新鲜的日期和版本信息。Copilot 的排序器会降低时效性敏感话题上陈旧内容的权重,并且有日期的段落更容易被作为依据。
  • 同时,为答案之后的使用场景进行优化。提供可下载的表格、CSV 文件以及能够自然映射到 Word/Excel 的即用模块。这会增加用户点击你的引用以获取可复用成品的几率。

Bing Copilot 端到端流程图(此处为示意图标题)

Perplexity AI —— 透明的答案引擎

Perplexity AI 以其有意识的清晰度而著称,这使其区别于其他生成式搜索平台。与 AI 概览和 Copilot 不同(后两者将综合和来源归属交织在一起,可能会模糊检索过程),Perplexity 将引用放在显眼位置。来源通常展示在生成答案之前,让观察者能够清楚地看到究竟哪些页面为其综合提供了信息。这种透明度不仅使其成为用户强大的答案引擎,也为希望了解什么内容能获得可见性的 GEO 从业者提供了一个异常开放的实验室。

事实上,“生成式引擎优化”这个术语就源自一篇论文,该论文的研究人员正是使用 Perplexity 来进行实验,探究哪些因素会影响对话式 AI 平台的响应。

在功能层面,当查询发出时,Perplexity 会进行实时搜索,通常同时从 Google 和 Bing 的索引中获取结果。然后,它会根据词法和语义相关性、主题权威性以及答案可提取性等因素来评估候选结果。最近一项针对影响 Perplexity 排序行为的 59 个不同因素的分析显示,其检索系统奖励的不仅仅是相关性;它还奖励清晰度、上下文对齐和机器可读性。

一个明显的模式是对直接答案格式的优先考虑。那些明确重述了查询(通常是在子标题或开篇句中),并紧接着给出简洁、高信息密度答案的页面,在引用集中占比异常高。例如,对于“GPT-4 和 GPT-5 有什么区别?”这样的问题,更有可能从这样一个页面中提取:该页面将该确切短语作为标题,其后立即跟一个简短段落,清晰界定区别,没有多余细节。这类似于传统 SEO 中的片段优化——但这里赌注更高,因为 Perplexity 的输出会将这些段落直接整合到生成的文本中。

该因素研究还表明,实体的突出性和链接起着超常的作用。Perplexity 似乎偏爱那些关键实体(人物、公司、产品、地点)既被清晰命名,又与上下文中的其他相关概念相链接的段落。这可以通过结构化数据(schema.org 标记)、显式的括号解释或同位语短语来实现。对于 GEO 而言,这意味着实体链接不仅仅是知识图谱层面的策略——它在生成式 AI 搜索中也是一个检索策略。

权威性仍然很重要,但分析表明 Perplexity 对权威性的解读是多维的。除了域名级别的反向链接指标外,该系统似乎对感知到的专业性信号也很敏感。作者署名、资质证明、详细的“关于”页面或作者简介部分都有助于这一点,与同一引用集中可信赖来源的一致性同样重要。当 Perplexity 综合一个答案时,它常常会从多个域名中提取内容;如果与高可信度的来源并列,你品牌的感知可信度也会随之提升。

另一个有趣的发现是,视觉内容,特别是说明答案的行内图片,可能与更高的引用率相关。这可能不是由于直接的图像相关性算法,而是因为包含解释性视觉元素的结构化内容往往与其他值得引用的属性(如格式清晰度和覆盖全面性)相辅相成。在实践中,一篇用带标注图表解释技术概念的文章,比纯文本的同类文章(即使文本解释同样出色)更有可能被引用。

该平台似乎也奖励语义广度而不稀释内容。那些自然地包含相关术语和概念、覆盖查询多个方面但又不会偏离主题的页面,更容易浮现出来。这表明在单个页面内进行全面的主题覆盖非常重要,而不是将信息稀薄地分散在多个 URL 上。

对于 GEO 从业者来说,Perplexity 引用过程的透明度提供了一个近乎实时地闭环反馈的机会。如果你的内容未被引用,你可以观察哪些页面被引用了,识别它们在结构和语义上的优势,并进行相应调整。反之,当你被引用时,你可以分析自己满足了哪些因素——是精确的查询对齐、丰富的实体链接、权威的上下文,还是视觉支持——并将这些模式复制到其他目标查询上。

在更广泛的 GEO 格局中,Perplexity 可能是最具可衡量性的 AI 搜索引擎。它的开放性移除了一层阻碍其他环境优化的猜测,使其成为策略的理想试验场——这些策略随后可以(尽管可见性较低)移植到像 Google AI 模式这样不透明的系统中。

Perplexity 的 GEO 策略

尽管 Perplexity 高度透明,但它并非一个被动的索引。它是一个主动的、选择性的检索器,奖励内容的精确性、结构清晰度和语义信任。为其进行优化意味着将你的页面更多地视为模块化的答案单元,旨在被提取、引用和重新组合成一个 AI 综合的叙述。

  • 与查询框架对齐 – Perplexity 偏爱在结构上呼应问题的来源。
    • 将问题或其近似变体整合到标题中。
    • 紧随其后的段落使用平实、陈述性的语言作答。
    • 追求最佳的可提取性,使你的开篇句子无需修改即可插入生成的响应中。
  • 实体脚手架 – 检索受到定义良好的实体丰富性的影响。
    • 将实体嵌入到周围上下文中,使用 schema 标记,并与相关概念自然共现。
    • 当多个页面回答同样好时,语义画面更连贯的那个往往更受青睐。
  • 答案架构 – 避免迂回的叙述。分层构建内容。
    • 以一个锐利、可提取的答案开头。
    • 随后是中层扩展,提供细微差别。
    • 最后添加支持性内容,如图表、示例或事实框。
    • 这种分层结构为 Perplexity 根据综合需求提供了多种可提取的选项。
  • 信任信号 – 虽然 Perplexity 没有明确给 E-E-A-T 打分,但其行为表明这些特征很重要。
    • 包含作者简介、机构资质和明确的来源,以增加被引用的资格。
    • 与受信任品牌的共同引用可以将你置于系统偏好的可信集群中。
  • 迭代式可见性映射 – Perplexity 让你很容易看到自己是否被引用。
    • 通过改变答案结构、实体丰富度或视觉增强来进行结构化测试。
    • 追踪跨多次重复查询的表现,构建一个关于 Perplexity 检索层奖励什么的实时蓝图。
    • 将这些学习成果应用于透明度较低的 AI 搜索系统。

Perplexity 可能永远不会带来与 Google 同等的流量,但它充当了生成式搜索可见性的真值表。在其透明性中,你可以看到检索、排序和综合如何在 AI 搜索生态系统中融合的轮廓。在此优化,是为了训练你的内容在下一代搜索中脱颖而出——在那里,答案是被构建出来的,而非列表展示出来的。

按平台划分的 GEO 手册

正如我们所见,虽然每个 AI 搜索界面都共享从检索到综合的相同大致蓝图,但决定你的内容是否被检索、作为基础依据和被引用的杠杆,在不同平台之间差异巨大。因此,在不了解这些差异的情况下进行优化,就像试图仅使用 YouTube 策略在 Google 上排名:你可能会走运,但你的玩法是错的。

共同的主线是:可检索性是入场券,可提取性是成为依据的票证,而信任信号则敲定引用的交易。这个顺序是通用的,但每个因素的权重完全取决于平台的架构和理念。

  • AI 概览与 AI 模式 奖励覆盖广度和潜在意图匹配。要在扇出中存活,你的内容必须以可提取的方式处理查询的多个方面。
  • Copilot 是这组中最传统 SEO 的。如果你能主导词法和语义检索,并生成范围紧凑的段落,你就入了局。
  • Perplexity 关乎实时可访问性和精确性。快速加载、干净的 DOM、对爬虫开放以及简洁、随时可作答的写作,比建立长期索引权益更重要。
  • ChatGPT 是机会主义且短视的。它只拉取当下需要的内容。如果你的内容不能即时访问,并且在匹配用户措辞方面语义不明确,你将是不可见的。

下面的快速参考表提炼了这些特定平台的优化优先级:

平台检索模型索引类型主要 GEO 杠杆引用行为常见排除原因
Google AI 概览 & AI 模式查询扇出至多个子查询(词法+向量+实体)完整 Google 网络索引 + 知识图谱 + 垂直索引覆盖多个潜在意图、清晰的片段可提取性、主题权威性、实体级 E-E-A-T内嵌链接、侧边栏卡片、“更多来源”内容未能通过扇出子查询、段落边界不清、信任信号低
Bing Copilot双通道检索(BM25 + 稠密向量)+ 段落级交叉编码器重排序完整 Bing 网络索引赢得词法和语义通道、可提取段落、实体模式、新鲜度信号链接到来源卡的内嵌上标客户端渲染延迟、要点埋没、实体标记薄弱
Perplexity AI多引擎 API 调用(Google/Bing)、合并结果、选择性 URL 获取无原生索引;实时外部 API实时获取的可爬取性、简洁自包含段落、快速服务器响应答案前的来源列表 + 针对主张的内嵌引用robots.txt 屏蔽、加载缓慢、核心内容依赖重度 JS 渲染
ChatGPT(带浏览)LLM 生成搜索查询、Bing 搜索 API 调用、特定 URL 获取无持久索引表查询措辞匹配、即时可访问性、语义明确的标题/头部内嵌或末尾引用,有时不完整未请求你的 URL、因屏蔽或获取慢而解析失败

我们现在已经拆解了领先 AI 搜索平台的内部结构,看到了它们在平衡检索、依据和综合方面有多么不同。我们也了解到,你必须通过的门槛——从可检索性到可提取性再到信任——在概念上是一致的,但在执行上却极不一致。

不过,如果所有架构有一个共同点,那就是:第一步绝不仅仅是“你的查询”。从 Google 的扩展扇出,到 Bing 的双通道检索,到 Perplexity 的精确重述,再到 ChatGPT 的机会主义搜索提示,所有这些系统都始于将用户输入的内容转换为一组相关查询。而这些扩展和重写并非随机:它们旨在挖掘潜在意图——显性词语背后未说出的需求——然后将这些意图路由到正确的数据源。

这就是游戏从“我能为某个关键词排名吗?”转变为“我能为整个意图空间定位自己吗?”的关键所在。

在下一章中,我们将深入探讨生成式搜索流程中查询扇出、潜在意图挖掘和来源聚合的机制。我们将探索一个单一的输入如何分裂成数十个有针对性的检索路径,这些路径如何覆盖词法和语义两个领域,以及在一个句子生成之前,结果是如何被过滤的。

如果说第 7 章让我们剖析了身体的解剖结构,那么第 8 章我们将审视循环系统:滋养生成式大脑的查询与内容流。”

Leave a Reply

Your email address will not be published. Required fields are marked *

Leave a Reply

Your email address will not be published. Required fields are marked *