38个AI领域的专业词汇名词解释
AI领域的专业词汇非常丰富,涵盖基础理论、技术方法、应用场景等多个层面。
以下按类别整理一些常用词汇,方便系统学习:
一、基础概念与模型类型
机器学习(Machine Learning, ML):让计算机通过数据“学习”规律,无需明确编程即可完成任务的技术。
深度学习(Deep Learning, DL):机器学习的分支,基于多层神经网络(如深度神经网络)处理复杂数据(如图像、语言)。
神经网络(Neural Network):模拟人脑神经元连接结构的数学模型,由输入层、隐藏层、输出层组成,是深度学习的核心。
卷积神经网络(Convolutional Neural Network, CNN):擅长处理图像、视频的神经网络,通过“卷积操作”提取局部特征(如边缘、纹理)。
循环神经网络(Recurrent Neural Network, RNN):处理序列数据(如文本、语音)的神经网络,能记忆上下文信息(但存在“梯度消失”问题)。
Transformer模型:基于“自注意力机制”的神经网络,擅长处理长序列数据(如文本),是 BERT、GPT等大模型的基础。
生成式模型(Generative Model):能生成新数据的模型(如GAN、GPT),例如生成逼真图像、文本。
判别式模型(Discriminative Model):用于分类或预测的模型(如SVM、逻辑回归),专注于区分不同类别。
二、训练与优化相关
数据集( Dataset) :用于训练、验证、测试模型的数据集合(如图片集、文本库)。
过拟合(Overfitting):模型“死记硬背”训练数据,导致在新数据上表现差(类似学生只背题不理解,换题就错)。
欠拟合(Underfitting):模型太简单,无法捕捉数据规律(类似学生没学懂,简单题也做不对)。
梯度下降(Gradient Descent):训练模型时优化参数的核心算法,通过“沿梯度方向调整参数”最小化误差。
反向传播(Backpropagation):神经网络训练的关键步骤,通过计算输出误差反向调整各层参数。
Epoch:模型完整遍历一次训练数据集的过程(如“训练10个Epoch”即把数据学10遍)。
Batch Size:每次训练时输入模型的数据样本量(如一次喂128张图片给模型)。
学习率(Learning Rate):梯度下降时参数调整的“步长”,过大可能错过最优解,过小则训练慢。
损失函数(Loss Function):衡量模型预测结果与真实结果差距的函数(如交叉熵、均方误差),目标是最小化损失。
三、自然语言处理( NLP)相关
自然语言处理(Natural Language Processing, NLP):让计算机理解、处理人类语言的技术(如翻译、聊天机器人)。
大语言模型(Large Language Model, LLM):基于海量文本训练的大型语言模型(如GPT、LLaMA),能生成类人文本、回答问题等。
词嵌入(Word Embedding):将文字转化为数值向量的技术(如Word2Vec、BERT嵌入),让计算机“理解”词语含义(如“国王 - 男人 + 女人 = 女王”)。
注意力机制(Attention Mechanism):让模型处理数据时“聚焦重点”(如翻译“猫追狗”时,“猫”对应“追”的主语),是Transformer的核心。
提示词(Prompt):用户输入给大模型的指令或问题(如“写一首关于春天的诗”),引导模型生成特定输出。
少样本学习(Few-Shot Learning):通过少量示例(如给3个例子)让模型学会新任务(如“根据例子总结规律”)。
零样本学习(Zero-Shot Learning):无需示例,让模型直接完成从未训练过的任务(如“用日语翻译这句话”,即使没专门学过日语数据)。
四、计算机视觉(CV)相关
图像分割(Image Segmentation):将图像按像素级划分成不同区域(如“把图中猫的毛发、眼睛、爪子分开标注”)。
生成对抗网络(Generative Adversarial Network, GAN):由“生成器”和“判别器”组成的模型,生成器造“假数据”(如假人脸),判别器负责分辨真假,两者对抗优化,最终生成逼真数据。
五、部署与工程相关
模型部署(Model Deployment):将训练好的模型集成到实际应用中(如手机APP、服务器),让用户能使用(如手机拍照识物)。
轻量化(Model Lightweighting):减小模型大小和计算量(如压缩参数、简化结构),使其能在手机等设备上运行(否则太卡)。
边缘计算(Edge Computing):模型在本地设备(如手机、摄像头)上运行,而非依赖 云端服务器(优点:速度快、隐私保护好)。
API( Application Programming Interface) :应用程序接口,大模型通过API提供服务(如开发者调用GPT的API让自己的APP拥有聊天功能)。
六、其他重要术语
强化学习(Reinforcement Learning, RL):让模型通过“试错”学习最优行为(如AlphaGo下棋,通过赢棋“奖励”、输棋“惩罚”优化策略)。
联邦学习(Federated Learning):多设备联合训练模型,但数据不共享(如多个医院联合训练疾病预测模型,各自数据留在本地,只传模型参数,保护隐私)。
hallucination(幻觉):大模型生成看似合理但错误的内容(如编造不存在的论文、事件),是当前LLM的常见问题。
对齐(Alignment):让模型的目标与人类价值观一致(如避免生成有害内容,确保“说真话”)。
多模态(Multimodal):模型能处理多种类型数据(如图像+文本+语音),例如“根据图片描述内容,再把描述转成语音”。
©本文由 艾奇先生 友情整理。