人工智能术语
1. 基础大类
- AI(人工智能):让机器模拟人类智能(感知、推理、学习、决策)
- ML(机器学习):AI 的核心分支,让机器从数据中学习规律,而非硬编码规则
- DL(深度学习):机器学习的子集,用多层神经网络模拟人脑结构
- AGI(通用人工智能):具备人类水平通用智能(目前未实现)
- ANI(窄人工智能):只能做特定任务(现在所有 AI 都是这个)
2. 机器学习
- 模型(Model):学习后得到的 “函数 / 规则系统”
- 训练(Training):用数据让模型学习
- 推理(Inference):训练完后用模型做预测 / 回答
- 数据集(Dataset):训练用的数据集合
- 特征(Feature):输入给模型的信息(如图片像素、文本词)
- 标签(Label):监督学习里的 “标准答案”
- 过拟合(Overfitting):模型只记住训练数据,泛化差
- 欠拟合(Underfitting):模型太简单,学不到规律
- 泛化(Generalization):模型对新数据的表现能力
- 准确率(Accuracy):预测正确的比例
- 损失函数(Loss Function):衡量预测误差
- 优化器(Optimizer):调整模型参数减少误差
3. 深度学习/神经网络
- 神经网络(Neural Network):多层节点组成的学习结构
- 神经元 / 节点(Neuron/Unit):网络最小单元
- 层(Layer):输入层、隐藏层、输出层
- 权重(Weight):模型学到的参数
- 偏置(Bias):调整激活阈值
- 激活函数(Activation):ReLU、Sigmoid、Tanh 等,引入非线性
- CNN(卷积神经网络):主要用于图像(CV)
- RNN(循环神经网络):处理序列数据(文本、语音)
- Transformer:当前大模型基础架构(Attention 机制)
- 注意力机制(Attention):重点关注输入中重要部分
4. 大模型/LLM 专用
- LLM(大语言模型):GPT、Llama、文心一言、通义千问等
- 预训练(Pre-training):在海量文本上先学通用语言能力
- 微调(Fine-tuning):在特定任务数据上再训练
- SFT(监督微调):用标注数据微调
- RLHF(基于人类反馈的强化学习):让模型更符合人类偏好
- 上下文窗口(Context Window):模型能记住的输入长度
- Token:文本切分后的最小单位(词 / 子词)
- hallucination(幻觉):模型编造事实
- Prompt(提示词):给模型的指令 / 问题
- Few-shot/Zero-shot:少量示例 / 无示例直接做任务
5. NLP(自然语言处理)
- NLP:让机器理解 / 生成人类语言
- NLG(自然语言生成):写文案、对话、摘要
- NLU(自然语言理解):意图识别、情感分析
- Embedding(词向量 / 嵌入):把词变成数字向量
- 向量数据库(Vector DB):存储 Embedding 做检索
- RAG(检索增强生成):先检索资料再生成答案(防幻觉)
6. CV(计算机视觉)
- CV:让机器看懂图像 / 视频
- 目标检测(Object Detection):框出物体 + 分类
- 图像分类(Classification):判断图片类别
- 分割(Segmentation):像素级区分区域
- OCR(光学字符识别):图片转文字
- AIGC(AI 生成内容):文生图、文生视频(Stable Diffusion、Sora 等)
7. 工程/部署
- 推理引擎:ONNX Runtime、TensorRT、Triton
- 量化(Quantization):降低模型精度(FP16/INT8)提速省显存
- 蒸馏(Distillation):大模型教小模型
- 端侧 AI:手机 / 设备本地运行 AI
- 云 AI:云端 API 调用(如 GPT API)
8. 伦理/安全
- 对齐(Alignment):让 AI 行为符合人类意图
- 偏见(Bias):模型学到数据中的不公平倾向
版权 / 数据合规:训练数据版权问题