AI知识篇
什么是大语言模型
0
学习进度0/60
什么是大语言模型
理解 ChatGPT 背后的技术。
ChatGPT、Claude、Gemini……这些 AI 都属于「大语言模型」(LLM)。它们本质上是一个巨大的神经网络,被海量文本训练后,学会了理解和生成语言。
大语言模型(LLM)= 参数量巨大(百亿到万亿)的语言模型,基于 Transformer 架构。它的核心能力是「预测下一个词」——给定前文,预测最可能出现的下一个 Token,一个接一个生成回答。
大语言模型生成文本的方式是?
- 从数据库查找现成答案
- 每次预测下一个最可能的 Token,逐词生成
- 把问题翻译成代码执行
- 随机组合词语
现在市面上有很多大模型,各有所长。来认识一下主流选手——
关键概念:参数量(模型大小,越大越强但越贵)、上下文窗口(一次能处理的文本长度)、Token(模型处理的最小单位,1个汉字约1-2个Token)、Temperature(控制输出的随机性,越高越有创意)。
大语言模型就是 AI 时代的「大脑」。你不需要训练它,只需要学会跟它沟通(写好 Prompt),就能让它为你工作。