via https://ipullrank.com/ai-search-manual/search-behavior
生成式时代下的用户行为:从点击到对话
人们的搜索方式正在发生变化。谷歌仍然占据搜索市场的最大份额,但机器学习进步和自然语言理解能力提升所驱动的自然搜索的快速变革,正在从根本上改变我们执行搜索这一任务的方式。
像谷歌这样的搜索引擎在解读和回答复杂的、对话式的查询方面越来越得心应手——这类查询在过去需要多次搜索和多次点击才能完成。
谷歌搜索副总裁伊丽莎白·里德支持这一转变,她指出:“搜索中的AI让用户更容易向谷歌提出任何问题,并获得有用的回答以及指向网络内容的链接。”她还强调,AI概览是“过去十年中搜索领域最成功的发布之一”。
同样,在2024年底,Alphabet首席执行官桑达尔·皮查伊在《纽约时报》DealBook峰会上暗示了即将到来的更深刻的变化,他表示:“搜索本身在2025年将继续发生深刻变革。我们将能够处理比以往任何时候都更复杂的问题……你会感到惊讶,甚至在2025年初,搜索能做的事情与今天相比就会有新的进展。”
几个月后,谷歌推出了AI模式,皮查伊的预测得以实现。
这些进步正在从根本上重塑搜索行为。而且,与许多SEO从业者可能想让你相信的相反,对话式搜索平台的设计初衷是为了满足搜索意图——至少根据谷歌的说法是这样。
但与此同时,传统的关键词搜索正在逐渐被淘汰。我们需要包含深层上下文信息的丰富、细腻的提示词,才能获得更准确的答案。这正在将搜索的本质从快速的查查找转变为迭代式的对话探索。(不过,那些快速的查查找在合适的上下文中仍然具有价值。)
搜索行为正变得对话式、互动式和探索式,这在一定程度上类似于谷歌2020年提出的“混乱中间”概念——用户通过持续不断的来回交互来 navigating 复杂的决策过程。

但考虑到AI幻觉以及从发布商处窃取内容等问题,我们必须直面关于信任和依赖AI生成输出的关键疑问。
随着人们越来越习惯于接受AI生成的回答而不总是核实来源(部分出于惰性),品牌在编辑准则、隐性信任动态乃至对话偏见方面都面临着战略性的考量。提示词会无意或有意地引导回答,塑造搜索互动以及个人决策。如果每个人针对自己个性化且带有上下文的问题得到不同的答案,品牌又该怎么做?
然而,这里也有积极的一面:与生成式搜索结果互动后再访问网站的用户,往往具有很高的意向性,提供了更透明、更具可操作性的转化机会。
品牌需要认识到这一点并做出调整:在当下优化自身在AI生成内容环境中的可见度(尤其是谷歌的AI概览),同时在战略上为未来更深层次地融入对话式搜索行为做好准备。
本章将详细探讨这些行为变化,重点说明品牌如何预见对话偏见、利用迭代式发现旅程,并在AI驱动的搜索环境中培养信任,最终在这个生成式时代与人类价值观和用户期望保持一致。
更少的点击,更多的整合
我们不必粉饰现实:AI搜索的采用率正在飙升,而点击量正在消失。
人们不会为了避开AI搜索而费尽周折。(你无法关闭AI概览,所以即使你讨厌它,也无法回避。)而且,坦率地说,研究表明用户对谷歌直接在搜索结果中给出的答案越来越满意。
AI概览是经过整合、由AI生成的摘要,旨在满足查询需求而无需将用户引导到其他地方(除非他们要购买你的产品或服务)。如今,它们出现在谷歌搜索结果顶部的情况已变得司空见惯。
它们占据空间、提供直接答案,并将传统的自然搜索结果列表远远推到页面下方——有时需要滚动超过1500像素才能看到。这是一种彻底的注意力再分配。
实际情况如下:
- 热门排名页面的点击率大幅下降。 Ahrefs的数据显示,当存在AI概览时,排名第一的自然搜索结果点击率下降了34.5%。结论是:如果你习惯了占据那个顶级位置,你已不再能保证获得相应的流量。
- 零点击搜索正在激增。 Similarweb发现,对于新闻相关的查询,用户不点击任何链接的比例从2024年5月的56%跃升至2025年5月的67%——一年内增长了11个百分点。
- 发布商正受到冲击。 Press Gazette和Similarweb联合开展的一项研究发现,美国前100家新闻发布商中约有40家出现了可测量的流量下降,且这些下降与AI概览直接相关。
为什么会发生这种情况?因为人们正在调整。他们正在重新训练自己,不再进行浏览。相反,他们扫一眼AI输出,获取所需信息,然后就离开——很多时候甚至完全结束本次搜索会话。皮尤研究中心报告称,只有1%的用户会点击AI摘要中的链接,而有26%的用户在阅读摘要后完全放弃会话。
如果用户不点击但仍然感到满意,这告诉我们什么?
它告诉我们,搜索行为的变化已经发生。谷歌正在收集互动数据,观察放弃率的下降,并得出结论:生成式答案是有效的。这种模式给了人们想要的东西:即时、无摩擦的信息整合。
下一步呢?他们将在AI模式中引入广告。如果AI模式能产生与传统搜索一样多甚至更多的收入,那么不可避免的下一步就是让AI模式成为搜索的默认版本。
现在来说令人不安的部分。
如果用户更偏好AI生成的摘要而非访问实际来源,那么发布商就不再是价值链的一部分——他们只是原材料。这打破了数十年来支撑开放网络的隐性契约:你创作优质内容,谷歌给你导流。
但如果没有人强制执行这一社会契约(即没有立法、没有用户抵制、没有满意度下降),谷歌、OpenAI和Perplexity将继续推进。而人们也会随之跟进。
这是一场搜索行为的重新布线。
AI正在重塑你的搜索行为
如果你的品牌没有出现在答案中,那你在这次搜索会话中就不存在。
如果你的内容没有参与信息的整合,那它就没有在塑造用户的认知。
如果你不通过重新思考“可见度”意味着什么、用户在哪里找到你、以及你的信息如何存在于AI系统内部来适应这一转变,那么你已经落后了。
尽管TikTok和Reddit等其他发现平台的份额在增加,谷歌仍然是那扇大门。只不过,那扇门现在看起来更像一个聊天机器人了。
提示词(Prompts)就是新的查询词
搜索一直是一种自我表达的形式。但随着生成式AI的加入,你能否获得正确答案,取决于你能否清晰地表达问题。一个模糊的提示词只能返回泛泛的内容。一个精准、上下文丰富的提示词呢?那能给你带来“黄金”。
并非所有提示词都是平等的
关于AI搜索,有一个简单的事实:你输入什么,决定了你得到什么。垃圾进,垃圾出。然而,大多数人把AI提示词当成关键词搜索来用——这是他们习惯的方式。搜索引擎把他们训练成了使用“关键词式语言”。
我们来拆解一下:
| 提示词质量 | 示例 | 输出质量 |
|---|---|---|
| 随意型提示词 | “意大利旅游建议” | 泛泛的建议、最热门的城市、基本的注意事项。 |
| 中级提示词 | “夏天第一次去意大利旅游之前,我需要了解什么?” | 针对季节的旅游建议、文化礼仪、打包建议。 |
| 高级提示词 | “七月份带一个幼儿去意大利北部与南部旅游,主要区别是什么?哪个地区更适合亲子类的当地体验和公共交通?” | 基于明确优先级给出的个性化建议、更深入的分层、利弊权衡和理由说明。 |
在实践中,写出更长的提示词需要时间,这仍然存在一定的使用门槛。但更好的答案需要上下文:
- 你是谁?
- 你的意图是什么?
- 你尝试过或排除了什么?
- 你有什么限制条件?
一个强提示词的构成
一个结构良好的AI搜索提示词包括:
- 主题(Subject):用户正在询问的内容
→ “意大利旅游” - 上下文(Context):用户是谁或他们的处境
→ “……带一个幼儿” - 意图(Intent):用户希望从答案中获得什么
→ “……亲子友好的体验和便捷的交通” - 约束条件(Constraints):要求或限制
→ “……在七月,偏好公共交通”
随着AI搜索平台变得越来越智能,它们会越来越奖励具体的提示词。提示词提供的上下文越多,整合生成的答案就越准确、越具有针对性。这并不意味着大多数人会开始使用更长的提示词,但随着时间的推移,我们可以预期搜索行为会发生改变。
通过早期的AI模式数据,我们已经能看到这种行为变化的微妙迹象:
- 使用AI模式进行搜索的人,比使用传统谷歌搜索的人使用的词汇量略多,但比使用ChatGPT的人使用的词汇量明显要少。这很可能是由于用户对AI搜索功能还不够熟悉。
提示词质量如何影响输出结果
AI模式和可搜索的ChatGPT会根据你的提示词所设定的框架来过滤和权衡网络内容。对于一个模糊的查询,它们会推断你的意图;而对于一个强提示词,它们会精确地与之对齐。
这就是为什么有经验的用户(尤其是研究人员、分析师和SEO从业者)会使用更复杂的提示词来:
- 强调任务特定的语言(“对比”、“排序”、“总结优缺点”)
- 设定明确的角色(“扮演一位旅行规划师”、“以用户体验研究员的身份回答”)
- 指定输出格式(“用要点形式”、“用表格形式”、“给出来源”)
这就是我们正在走向的方向:提示词的熟练运用就是新的搜索素养。
随着时间的推移,AI搜索平台将通过从它们已经了解的关于搜索者的所有信息中提取上下文,来减少提示词的使用门槛。根据工具的不同,这些信息可能包括你的设备类型、位置、搜索历史、偏好、过往聊天记录,甚至行为模式。系统预先掌握的上下文越多,你在提示词本身中需要详细说明的内容就越少。
谷歌和ChatGPT都已经能够根据你的位置和搜索意图提供本地化的搜索结果。在谷歌上,从电脑端搜索和从手机端搜索,你会看到不同的结果。
这些工具从你那里收集的所有数据都将增强你的搜索体验,但这同时也引发了担忧……
迭代发现与多轮搜索行为
搜索曾经像是一场猜谜游戏。
你敲入几个关键词,扫一眼满屏的蓝色链接,可能点开一两个,当结果不太对时,再回到搜索框重新尝试。如此反复。这是一种笨拙的来回折腾。与其说是找到答案,不如说是弄明白如何用搜索引擎想要的方式来提问。
搜索不再是一次性的交易。它变成了一场对话,随着用户对原始查询进行澄清、细化和扩展,这场对话会在多轮交互中展开。这种向迭代发现的转变,正在悄然但根本性地重塑我们对搜索行为、内容表现和优化策略的理解。
什么是AI搜索中的“轮次”?
AI搜索中的轮次
“轮次”是指用户与AI之间的一次单次来回交互:
- 你提出一个问题。
- AI给你一个答案。
- 这一次完整的交换 = 1个轮次。
根据大语言模型监控软件Profound的数据,在2025年8月:
- ChatGPT对话中的平均轮次数:5.2
- ChatGPT对话中的中位轮次数:2
- 在ChatGPT中,49.4% 的对话是单轮次,而 50.6% 是多轮次。
目前,大多数人的交互还是比较简短的。
在多轮搜索中,上下文会不断累积。每一轮都建立在前一轮的基础上。这正是有趣之处。
背景洞察:我们的搜索方式已与过去不同
传统搜索依赖简短、割裂的查询(“最好的幼儿自行车”),而生成式平台则鼓励用户进行追问(“有没有容易收纳的?”……“有100美元以下的吗?”……“有哪些颜色可选?”)。每一轮新对话都会加深会话对你意图的理解。
这种行为与我们之前提到的谷歌2020年“混乱中间”研究中所观察到的一致:人们在采取行动之前,会循环进行信息收集、筛选和比较。AI搜索只是加速并将这个循环压缩到了一个界面中。
真实案例:Perplexity与迭代探索
Perplexity的CEO Aravind Srinivas最近表示,该平台的用户通常从宽泛的问题开始,然后逐步缩小到具体细节。
“(作为用户)你问一个问题,得到一个答案……但用户确实会追问——通常会根据他们看到的内容进行收窄或调整。”
用户不是用新的搜索重新开始,而是自然地迭代——每一个提示词都受到上一个回答的塑造。这种对话式、流畅的方式在认知上更接近人们学习或比较时的思维方式。
以下是一个示例性的三轮搜索流程,展示了一次典型的AI搜索之旅如何构建上下文并推动用户走向行动:
示例:计划去奥斯汀的周末旅行
第1轮 – 宽泛意图发现
- 用户提示词:“周末去奥斯汀旅行,最值得做的事情有哪些?”
- AI回答:
- 重点介绍8-10个顶级景点(巴顿泉、齐尔克公园、现场音乐场所、烧烤店)
- 提供一份高层次的行程建议
- 包含每个景点的官网链接
- 用户目标:了解整体可能性。
- 搜索行为变化:在传统搜索中,这需要多个独立的关键词查询(“奥斯汀景点”、“奥斯汀烧烤”、“奥斯汀音乐场所”)。AI搜索将其整合为一个宽泛而综合的答案。
第2轮 – 收窄与筛选
- 用户提示词:“如果我没有租车,这些里面哪些最合适?”
- AI回答:
- 将景点筛选为步行或公共交通可达的选项
- 推荐景点附近的市中心酒店
- 链接到谷歌地图的步行/公交路线
- 用户目标:根据约束条件进行筛选。
- 搜索行为变化:无需从头重新输入查询;第1轮的上下文被保留了下来。
第3轮 – 走向行动
- 用户提示词:“你能制定一个包含餐厅预订的每日行程吗?”
- AI回答:
- 生成一个为期2天的计划,将活动与餐厅时间对应起来
- 建议提前2周预订Franklin Barbecue,并提供预订链接
- 推荐Continental Club的晚间音乐会,附带购票链接
- 用户目标:创建一个可以直接使用的计划。
- 搜索行为变化:AI现在就像一个个性化的旅行规划师——在一个流程中整合了搜索、筛选和行动启动。
这是我们希望看到的结果,但当前的对话式搜索体验远非完美。在实际使用中,AI模式、ChatGPT或Perplexity的结果在准确性、来源或深度方面往往有所欠缺。
推荐结果仍然可能不一致、过时,或者受AI训练数据的影响,而非来自最新鲜或最权威的信息。
目前,对许多用户来说,它们“足够好”了:快速、自信、方便。而且随着每次模型更新,输出结果都在逐步改善,这通常就足以让人们继续使用它们,而不是点击进入更深层的内容。品牌面临的风险是:“足够好”最终可能意味着用户根本不会点击到你的网站——你的专业知识仍然存在于答案中,但AI获得了所有的功劳和客户关系。
那么,更个性化的结果会如何改善这种情况呢?
信任AI:生成式权威的无形之手
人们已经开始将AI驱动的答案视为具有权威性,往往不经核实就接受了。由于自动化偏见,人们倾向于“不加质疑地接受AI输出”,特别是当它以自信、自然的语言呈现时。这并不奇怪:人类天生重视效率,只要答案感觉完整,我们就会停止搜索。
麻省理工学院的Haiwen Li和Sinen Aral进行的一项大型随机实验测试了设计选择如何塑造对AI搜索的信任。研究发现:默认情况下,人们对AI搜索的信任度低于传统搜索,但链接和引用显著提高了信任度——即使这些链接是错误或虚构的。而展示不确定性和缺乏信心则会降低信任。简而言之,呈现方式的细节可能会引发错误的信任。
而且每个人都容易受影响,无论其教育水平如何。尽管人们假设受教育程度越高的人拥有更高水平的批判性思维,但研究发现,拥有更高学历(大学本科及以上)的参与者比没有大学学历的参与者更倾向于相信生成式AI信息,并且更愿意分享这些信息。
独立报道也印证了这一风险。Choice Mutual的一项审计发现,谷歌AI概览中关于人寿保险查询的错误率高达57%——但这些摘要对普通读者来说仍然看起来很有说服力。皮尤的一项分析显示,行为随着信任度一同变化:当AI摘要出现时,用户点击传统链接的频率大约减半(8% vs 15%)。
战略启示:
- 品牌风险 – 如果用户更相信AI结果而不是你自己的网站,你就有可能被取代,不再是你所在品类的“最终话语权”。
- 编辑偏见 – 你的可见度取决于每个平台如何策展和筛选来源;如果你的内容不符合平台的编辑信号,你可能会被完全排除在答案之外。
- 机会 – 平台会奖励那些明确展示可信度的品牌:作者资质、可靠的引用、透明的来源。这些信任信号可以增加被呈现和引用的可能性。
然而,重要的是要意识到新模型发布可能带来的影响:一个更新的大语言模型可以改变一切。因此,我们应该预期引用的质量会存在波动。
AirOps最近关于AI搜索状况的研究发现:
- 只有30%的品牌能从一个回答到下一个回答保持可见,仅20%的品牌能在连续五次运行中持续出现。
- 未按季度更新的页面,失去引用的可能性高出3倍。
- 同时获得提及和引用的品牌,在多个回答中重新出现的可能性高出40%,但只有28%的答案包含具有双重可见性的品牌。
- 约48%的引用来自Reddit、YouTube等社区平台,85%的品牌提及来自第三方页面而非自有域名。
- 大约60%的AI概览引用来自未在自然搜索前20名中排名的URL。
技术解释:上下文如何保持连贯
当与上下文保留结合时,AI搜索中的信任动态会变得更加强大。一旦平台认定你是可信来源,它在未来回答中回忆并重用这种信任的能力就会放大你的可见度。
像ChatGPT和谷歌AI模式这样的AI系统主要通过两种方式维持连续性:
- 用户嵌入向量:用户兴趣的向量表示,会随着交互而随时间演变。
- 会话记忆:对先前轮次的临时或持久存储,使模型能够回忆过去的输入并据此定制回答。
- Google AI模式:个人上下文
Google AI模式正在利用来自您账户中的个人上下文——搜索历史、Gmail、云端硬盘、YouTube观看习惯,甚至日历信息——来提供直观、个性化的回答。如果您搜索“本周末布鲁克林有什么好玩的”,它可以根据您的行程、过往预订记录以及您表明的兴趣(如现场音乐或当地美食)来推荐场所。AI模式还会基于过去的搜索记录和完整的搜索旅程来提供答案。
ChatGPT:记忆与类似记忆的行为
虽然OpenAI不会从您的Gmail或日历中提取信息,但ChatGPT确实会在会话中保留对话上下文。它会记住您之前问过什么,并据此做出回应——就像人与人之间的交谈。如果您一开始说“总结这篇关于电动汽车电池寿命的文章”,然后接着说“现在解释一下家庭充电的成本比较”,ChatGPT会根据您之前的提示词调整下一个回答,从而使整个会话保持连贯。
在开启了记忆功能的ChatGPT中,这种上下文可以跨越单个会话持续存在。您可以在几天后提出后续问题,它仍然“记得”背景信息。Google的AI模式目前似乎只在会话内实现这一点——但持久化的上下文很可能也会在那里出现。
这种信任与上下文的结合带来了新的战略问题:
如果AI遗忘得太快,导致您的品牌从整合答案中消失,怎么办?
如果它记住得太多,产生陈旧或过于重复的答案,怎么办?
无论哪种情况,您在AI“心智模型”中作为可信来源的位置,变得与以往任何关键词排名一样关键。
个人上下文和记忆的技术机制不仅仅是工程上的成就。一旦AI系统知道它在和谁对话,这些细节不仅帮助它记住您的行程或总结昨天的新闻——它们开始引导整个搜索体验。起初是为了便利,很快变成了一个定制化的信息循环,AI根据它已经了解到的关于您的信息,来决定突出什么、省略什么或以何种框架呈现。这就是对话从AI“如何”记忆转向这种记忆对您所看到的真相“做了什么”的地方。
您看不到的偏见
生成式搜索系统越了解您,就越增加对您的信任。您的偏好——您的位置、浏览习惯,甚至您所展现的人物形象——都会塑造AI推荐的内容。这形成了一个自我强化的循环:输出反映您的偏见,AI适应这些偏见,您变得更加依赖符合您世界观的答案。
Garrett Sussman在2025年SEO Week上的演讲“AI正在重新布线搜索”通过现场演示展示了这种反馈循环,显示了当使用不同的人物画像和位置上下文进行测试时,相同的提示词在Google AI模式、ChatGPT和Perplexity中产生了不同的结果。结论很明确:个性化不仅使答案适应您,而且重写了您的信息环境。
这些变化被平台层面的对齐策略所放大:
Anthropic 使用“宪法式”方法进行模型对齐,嵌入相互尊重、历史准确性等原则,然后通过真实世界的对话评估来验证。
OpenAI 应用基于人类反馈的强化学习(RLHF)和“审慎对齐”来优化ChatGPT的安全性、帮助性和对政策的遵守。
Google 将其Gemini模型集成到AI模式中,以生成快速、可访问的输出,同时整合您的个人上下文和数据。其对齐理念不那么透明,主要旨在维持熟悉的搜索用户体验。
每个系统的对齐方式都影响其偏见的表达。Claude的一致性反映其价值观宪章,ChatGPT的答案遵循人类偏好调优,而Google的输出则优化表面准确性和点击安全性。当个人细节或“上下文启动”发挥作用时,这些偏见会加深。这就是为什么两个用户输入相同的查询却收到完全不同的推荐——不仅在语气或格式上,而且在哪些品牌、来源和观点被呈现出来方面。
这就是“重新布线”的实际体现:您的身份和先前的行为成为查询架构本身的输入。搜索现在是一种模态化的、上下文驱动的体验,由AI对“您是谁”的解读所塑造。
从上下文到结果
一旦个人上下文和记忆嵌入到搜索体验中,偏见就从“显示什么”转变为“用户为何点击”。这种行为变化是Google为其AI概览辩护的核心。某些查询的点击量确实下降了,但Google表示,剩下的点击更具意图性,更有可能带来深度互动。在它看来,AI驱动的摘要过滤掉了快速跳出(Bounce)的访问,浮现出那些准备采取行动的用户。
(来源:Semrush AI搜索研究)
悖论浮现
Google的Elizabeth Reid将AI概览描述为搜索历史上“最重要的升级”,声称它们带来了更多的搜索和更有价值的点击。根据Google的数据,整体自然点击量同比保持稳定,而“高质量”点击(公司定义为用户点击后不会很快返回结果页面的点击)的比例已经增长。
Google将此增长归因于AI概览能够在线回答低意图问题(例如“下一次满月是什么时候”),同时仍然鼓励对更复杂或交易性主题进行进一步探索。
然而,SEO社区中的许多人仍然持怀疑态度。独立的流量数据往往讲述不同的故事,一些发布商报告了显著的损失。批评者指出,Google既在控制这一功能,又在决定其成功的衡量标准。这引发了对“高质量点击”叙事客观性的质疑。
为什么参与度悖论很重要
即使Google的数据是准确的,所描述的机制也为SEO和GEO从业者带来了结构性变化。
到达网站的访问者可能更少,但那些确实到来的访问者在决策过程中处于更靠后的阶段。
如果AI概览完全满足了用户的需求,即使高度相关的内容也可能不被看到。
被包含并引用在AI概览中的品牌,更有可能在剩余的高意图流量中占据更大份额。
(来源:Adobe Analytics报告)
对SEO和GEO的缓解策略
适应这一转变需要专注于出现在“AI概览结束、用户好奇心继续”的空间中。这意味着:
将内容结构化,使其不仅能在传统搜索中排名,还能被AI系统轻松检索。
创建能够回应用户在获得AI生成答案后可能提出的后续问题的资源。
跟踪查询如何扩展到子主题,并识别AI生成回答中留下的空白。
在实践中,这意味着从专注于为某个查询排名,转向确保在那些驱动点击并在这种竞争更激烈的注意力环境中建立信任的特定信息空白中的可见度。
平衡今天的SEO与明天的搜索
总而言之,AI驱动的搜索正在改变人们查找和使用信息的方式,直接提供答案,并常常减少了点击进入网站的需求。虽然这可能意味着许多网站的访问量减少,但有一种观点认为,那些确实到来的访问往往更具意图性,因此也更有价值。
无论哪种情况,由于生成式平台对人们认为可信的内容有着越来越大的影响力,品牌需要展示明确的专业知识,并让AI系统能够轻松识别和呈现其内容。关键在于:在关注当今AI概览中的可见度的同时,也要为未来AI优先搜索可能成为人们查找信息的主要方式做好准备。
