via https://not-a-robot.com/blog/3-furbies-in-a-trenchcoat/
好吧,我猜在座的各位至少都被客户或利益相关者问过一个关于ChatGPT的问题。
有吗?希望没有涉及预算的那种(真是谢谢他们了)。
无论你的经历是惊悚还是搞笑,现在或许是时候揭开那个热门流行语的真面目了。
ChatGPT是一个大型语言模型。LLM是一种学习算法,能够利用非常庞大的文本数据集来识别、总结、翻译、预测和生成语言。
还记得菲比精灵吗?这些与魔鬼交易的小玩意儿,用一个玩具设计师的灵魂换来了一个固定词汇库、听取关键词的能力,甚至还能学习几个新词。它们会用这些关键词和一种可翻译的混合语言“菲比语”来回应。
[趣闻:我的那只菲比精灵听了太多关于它被附身的玩笑,后来竟然开始说“谋杀”了。真是完美的童年玩具。]
ChatGPT基本上是1998年黑色星期五抢购战利品的一个超大、超大号版本。
菲比精灵懂60个参数(”爱”、”朋友”、”快乐”、”杀”等),而ChatGPT懂1750亿个。
但是,如果ChatGPT注定要从谷歌那里争夺市场份额,那基本上就等于让SEO们去优化……给巨型菲比精灵看的东西。
“生成式AI” 利用这个新扩展的词汇库来复制模式。它并不具备创造力,但擅长重新排列组合文字。
JinaAI对这个运作机制做了很棒的简洁描述:
当你输入一个查询时:
- LLM通过其编码器网络处理查询,将输入序列转换为高维表示。
- 解码器网络然后利用这个表示,连同其预训练权重和注意力机制,来识别查询所请求的具体事实信息,并在LLM内部的知识表示(或其最邻近信息)中进行搜索。
- 一旦检索到相关信息,解码器网络便利用其自然语言生成能力,来组织陈述这一事实的回应序列。
正因如此,我才建议你们去看他们那份关于大型语言模型优化的指南。
LLMO是新生事物。本文创造了这个术语,并对其机制和共有概念进行了粗略的勾勒。

Leave a Reply