简体中文
关闭
AI新闻中心

这些AI术语你听过却可能只是点头附和?我们来帮你理清楚

#AI热点与创业 时间2026-05-11 03:31:36


人工智能正在深刻改变世界,同时也在创造一套全新的语言来描述它的运作方式。花五分钟阅读AI相关内容,你就会遇到LLM、RAG、RLHF等一大堆术语,这些术语甚至会让科技界的聪明人也感到困惑。这份术语指南就是我们试图解决这个问题的尝试。我们会根据领域的发展定期更新,所以可以把它看作一份活文档,就像它所描述的AI系统一样。

AGI(人工通用智能)

人工通用智能(AGI)是一个相对模糊的概念。它通常指在许多甚至大多数任务上能力超过普通人类的AI。OpenAI CEO Sam Altman曾将其描述为相当于一个你可以聘请为同事的普通人水平。同时,OpenAI的章程将其定义为“高度自主的系统,在大多数经济价值工作上超越人类”。Google DeepMind的理解略有不同,他们认为AGI是“在大多数认知任务上至少与人类相当的AI”。感到困惑?不用担心——即使是AI研究前沿的专家们也对此有不同看法。

AI代理(AI agent)

AI代理指的是使用AI技术来代表你执行一系列任务的工具——超越了基本AI聊天机器人所能做的事情,比如报销费用、预订机票或餐厅座位,甚至编写和维护代码。然而,这个新兴领域有很多变量,所以“AI代理”对不同的人可能意味着不同的东西。支持其预期能力的基础设施仍在建设中。但基本概念是指一个自主系统,可能利用多个AI系统来执行多步骤任务。

API端点(API endpoints)

可以把API端点想象成软件背后的“按钮”,其他程序可以按下这些按钮来让软件执行操作。开发者使用这些接口来构建集成——例如,允许一个应用从另一个应用拉取数据,或者让AI代理直接控制第三方服务,而无需人工手动操作每个接口。大多数智能家居设备和连接平台都有这些隐藏的按钮,即使普通用户从未见过或与之交互。随着AI代理变得更加强大,它们越来越能够自己找到并使用这些端点,为自动化打开了强大——有时是意想不到——的可能性。

思维链(Chain of thought)

对于一个简单的问题,人类大脑可以不假思索地回答——比如“长颈鹿和猫哪个更高?”但在许多情况下,你往往需要纸和笔来得出正确答案,因为有中间步骤。例如,如果一个农民有鸡和牛,它们总共有40个头和120条腿,你可能需要写下一个简单的方程来得出答案(20只鸡和20头牛)。

在AI语境中,大型语言模型的思维链推理意味着将问题分解成更小的中间步骤,以提高最终结果的质量。这通常需要更长时间才能得到答案,但答案更可能是正确的,尤其是在逻辑或编码上下文中。推理模型是从传统大型语言模型发展而来,并通过强化学习优化了思维链思考。

(参见:大型语言模型)

编码代理(Coding agents)

这是一个比“AI代理”更具体的概念,后者指的是一个可以自主、一步步采取行动来完成目标的程序。编码代理是应用于软件开发的专门版本。它不是简单地为人类建议代码让人类审查和粘贴,而是可以自主编写、测试和调试代码,处理通常消耗开发者一整天的迭代、试错工作。这些代理可以在整个代码库中运行,找出错误、运行测试并推送修复,人类只需最少的监督。可以把它想象成聘请一个非常快速、从不睡觉、从不失去专注的实习生——不过,和任何实习生一样,人类仍然需要审查工作。

计算(Compute)

虽然是一个有点多义的术语,但计算通常指允许AI模型运行的关键计算能力。这种处理能力为AI行业提供动力,使其能够训练和部署强大的模型。该术语通常是硬件的简称,这些硬件提供计算能力——如GPU、CPU、TPU以及构成现代AI行业基石的其他形式的基础设施。

深度学习(Deep learning)

深度学习是自改进机器学习的一个子集,其中AI算法被设计成具有多层人工神经网络(ANN)结构。这使得它们能够比更简单的基于机器学习的系统(如线性模型或决策树)做出更复杂的关联。深度学习算法的结构灵感来自人脑中相互连接的神经元路径。

深度学习AI模型能够自己识别数据中的重要特征,而不需要人类工程师来定义这些特征。该结构还支持算法从错误中学习,并通过重复和调整的过程改进自己的输出。然而,深度学习系统需要大量数据点(数百万或更多)才能产生好的结果。它们通常比更简单的机器学习算法需要更长的训练时间——所以开发成本往往更高。

(参见:神经网络)

扩散(Diffusion)

扩散是许多艺术、音乐和文本生成AI模型的核心技术。受物理学启发,扩散系统通过添加噪声慢慢“破坏”数据的结构——例如照片、歌曲等——直到什么都不剩。在物理学中,扩散是自发的且不可逆的——糖在咖啡中扩散后无法恢复到立方体形式。但AI中的扩散系统旨在学习一种“反向扩散”过程来恢复被破坏的数据,从而获得从噪声中恢复数据的能力。

蒸馏(Distillation)

蒸馏是一种用于从大型AI模型中提取知识的“教师-学生”模型技术。开发者向教师模型发送请求并记录输出。有时会将答案与数据集进行比较以查看其准确性。然后这些输出用于训练学生模型,学生模型被训练成近似教师的行为。

蒸馏可用于基于较大模型创建更小、更高效的模型,同时将蒸馏损失降至最低。这可能是OpenAI开发GPT-4 Turbo(GPT-4的更快版本)的方式。

虽然所有AI公司都在内部使用蒸馏,但它也可能被一些AI公司用来追赶前沿模型。从竞争对手那里进行蒸馏通常违反AI API和聊天助手的服务条款。

微调(Fine-tuning)

这指的是对AI模型进行进一步训练,以优化其在特定任务或领域的性能,而不是之前训练的重点——通常通过输入新的、专门的(即面向任务的)数据。

许多AI初创公司以大型语言模型为起点来构建商业产品,但他们试图通过基于自己的领域特定知识和专业知识进行微调来增强针对目标行业或任务的实用性。

(参见:大型语言模型)

GAN(生成对抗网络)

GAN,即生成对抗网络,是一种机器学习框架,它支撑了生成式AI在生成真实数据方面的一些重要发展——包括(但不限于)深度假工具。GAN涉及使用一对神经网络,其中一个从其训练数据中生成输出,然后传递给另一个模型进行评估。

这两个模型本质上被编程为相互超越。生成器试图让其输出通过判别器,而判别器则努力发现人为生成的数据。这种结构化的竞赛可以优化AI输出,使其更加真实,而无需额外的人工干预。虽然GAN在较窄的应用(如生成真实照片或视频)中效果最好,而不是通用AI。

幻觉(Hallucination)

幻觉是AI行业用来描述AI模型“胡编乱造”的首选术语——即生成不正确的信息。显然,这是AI质量的一大问题。幻觉会导致生成式AI的输出具有误导性,甚至可能引发现实生活中的风险——想想一个健康查询返回有害医疗建议的情况。AI编造信息的问题被认为源于训练数据中的空白。这也推动了行业向越来越专业化或垂直的AI模型发展,即需要更窄专业知识的领域特定AI,以减少知识空白和降低虚假信息风险。

推理(Inference)

推理是运行AI模型的过程。它是让模型根据之前见过的数据做出预测或得出结论。要明确的是,推理离不开训练;模型必须先从一组数据中学习模式,然后才能有效地从这些训练数据中推断。

许多类型的硬件都可以执行推理,从智能手机处理器到强大的GPU再到定制设计的AI加速器。但并非所有硬件都能同样好地运行模型。非常大的模型在笔记本电脑上进行预测会花很长时间,而在配备高端AI芯片的云服务器上则快得多。

大型语言模型(LLM)

大型语言模型(LLM)是流行AI助手(如ChatGPT、Claude、Google的Gemini、Meta的AI Llama、Microsoft Copilot或Mistral的Le Chat)所使用的AI模型。当你与AI助手聊天时,你是在与一个大型语言模型交互,它直接处理你的请求,或借助不同的可用工具,如网页浏览或代码解释器。

LLM是由数十亿数值参数(或权重)组成的深度神经网络,这些参数学习单词和短语之间的关系,并创建语言的表示,一种单词的多维地图。

这些模型是通过编码在数十亿本书籍、文章和转录本中发现的模式而创建的。当你提示LLM时,模型会生成最符合提示的可能模式。

内存缓存(Memory cache)

内存缓存是指一个重要的过程,它可以提升推理(即AI生成对用户查询响应的过程)的效率。本质上,缓存是一种优化技术,旨在使推理更高效。AI显然由高强度的数学计算驱动,而每次进行这些计算时,都会消耗更多电力。缓存旨在通过保存特定计算以供未来用户查询和操作使用来减少模型可能需要运行的计算次数。有不同类型的内存缓存,尽管其中一种较为知名的是KV(键值)缓存。KV缓存在基于Transformer的模型中工作,通过减少生成用户问题答案所需的时间(和算法工作量)来提高效率,从而带来更快的结果。

神经网络(Neural network)

神经网络是指支撑深度学习——以及更广泛地说,继大型语言模型出现之后生成式AI工具的整个繁荣——的多层算法结构。

虽然从人脑密集互联的神经元路径中汲取灵感作为数据处理算法的设计结构的想法可以追溯到20世纪40年代,但真正解锁这一理论力量的是图形处理硬件(GPU)——通过视频游戏行业——的更近期兴起。这些芯片非常适合训练比早期时代多得多的层的算法——使基于神经网络的AI系统能够在包括语音识别、自主导航和药物发现在内的许多领域实现远更好的性能。

开源(Open source)

开源指的是软件——或者越来越常见的是AI模型——其底层代码公开发布,任何人都可以使用、检查或修改。在AI世界中,Meta的Llama系列模型是一个突出的例子;Linux是操作系统领域著名的历史类比。开源方法允许世界各地的研究人员、开发者和公司相互借鉴工作,加速进步,并使封闭系统无法轻易提供的独立安全审计成为可能。闭源意味着代码是私有的——你可以使用产品但看不到它是如何工作的,就像OpenAI的GPT模型的情况一样——这一区别已成为AI行业中定义性的辩论之一。

并行化(Parallelization)

并行化意味着同时做许多事情,而不是一个接一个——就像让10名员工同时处理项目的不同部分,而不是一个员工按顺序做所有事情。在AI中,并行化对于训练和推理都是基本的:现代GPU专门设计为并行执行数千次计算,这也是它们成为行业硬件基石的主要原因之一。随着AI系统变得更加复杂,模型变得更大,在许多芯片和许多机器上并行化工作的能力已成为决定模型构建和部署速度和成本效益的最重要因素之一。对更好并行化策略的研究现在已成为一个独立的研究领域。

RAMageddon(内存灾难)

RAMageddon是一个有趣的新术语,用来描述一个不太有趣的趋势,这个趋势正在席卷科技行业:随机存取内存(RAM芯片)的日益短缺,这些芯片为我们日常使用的几乎所有科技产品提供动力。随着AI行业的蓬勃发展,最大的科技公司和AI实验室——都在争夺最强大和最高效的AI——正在购买大量RAM来为他们的数据中心提供动力,以至于我们其他人所剩无几。这种供应瓶颈意味着剩下的RAM越来越昂贵。

这包括游戏行业(主要公司不得不提高游戏机的价格,因为更难为他们的设备找到内存芯片)、消费电子产品(内存短缺可能导致智能手机出货量在十多年来出现最大幅度的下降),以及一般企业计算(因为这些公司无法为自己的数据中心获得足够的RAM)。价格上涨预计只有在可怕的短缺结束后才会停止,但不幸的是,目前没有迹象表明这种情况会很快发生。

强化学习(Reinforcement learning)

强化学习是一种训练AI的方式,系统通过尝试事情并为正确答案获得奖励来学习——就像用零食训练你心爱的宠物一样,只不过这个场景中的“宠物”是一个神经网络,“零食”是一个表明成功的数学信号。与监督学习不同,后者是在固定数据集的标记示例上训练模型,强化学习让模型探索其环境,采取行动,并根据收到的反馈不断更新其行为。这种方法已被证明特别强大,用于训练AI玩游戏、控制机器人,以及最近提高大型语言模型的推理能力。像从人类反馈中进行强化学习(RLHF)这样的技术现在是领先AI实验室微调模型以使其更有帮助、准确和安全的核心方法。

令牌(Token)

当涉及到人机通信时,有一些明显的挑战——人们使用人类语言进行交流,而AI程序通过复杂的数据驱动算法过程执行任务。令牌弥合了这一差距:它们是人机通信的基本构建块,代表已被LLM处理或产生的数据的离散片段。它们是通过一个称为分词的过程创建的,该过程将原始文本分解成语言模型可以消化的小块单元,类似于编译器将人类语言翻译成计算机可以理解的二进制代码。在企业环境中,令牌还决定成本——大多数AI公司按每令牌收费LLM使用,这意味着企业使用得越多,支付得越多。

令牌吞吐量(Token throughput)

再次强调,令牌是AI语言模型在处理语言之前将其分解成的小文本块——通常是词的一部分而不是整个词——它们大致类似于“词”,用于理解AI工作负载。吞吐量指的是在给定时间内可以处理多少,所以令牌吞吐量本质上是对系统在一次可以处理多少AI工作的衡量。高令牌吞吐量是AI基础设施团队的关键目标,因为它决定了模型可以同时服务多少用户以及他们中的每个人能多快收到响应。AI研究员Andrej Karpathy曾描述当他的AI订阅闲置时感到焦虑——这呼应了他作为研究生时昂贵的计算机硬件没有被充分利用时的感觉——这种情绪捕捉了为什么最大化令牌吞吐量已成为该领域某种痴迷的原因。

训练(Training)

开发机器学习AI涉及一个称为训练的过程。简单来说,这指的是数据被输入,以便模型可以从模式中学习并生成有用的输出。本质上,这是系统响应数据中的特征使输出适应所寻求目标的过程——无论是识别猫的图像还是按需生成俳句。

训练可能很昂贵,因为它需要大量输入,而且所需的数量一直在上升——这就是为什么混合方法,如用针对性数据微调基于规则的AI,可以帮助管理成本,而不必从头开始。

迁移学习(Transfer learning)

迁移学习是一种技术,其中先前训练的AI模型被用作开发新模型的起点,用于不同但通常相关的任务——允许将先前训练周期中获得的知识重新应用。

迁移学习可以通过缩短模型开发来实现效率节省。当模型正在开发的任务的数据 somewhat 有限时,它也可能有用。但重要的是要注意,这种方法有局限性。依赖迁移学习获得泛化能力的模型很可能需要在额外数据上进行训练,以便在其重点领域表现良好。

(参见:微调)

权重(Weights)

权重是AI训练的核心,因为它们决定在用于训练系统的数据中,不同特征(或输入变量)被赋予多少重要性(或权重)——从而塑造AI模型的输出。

换句话说,权重是数值参数,它们定义在给定训练任务中,数据集中什么是最突出的。它们通过对输入应用乘法来实现其功能。模型训练通常从随机分配的权重开始,但随着过程的展开,权重会调整,因为模型寻求得出更接近目标的输出。

例如,一个训练用于预测房价的AI模型,基于目标位置的历史房地产数据,可能包括卧室和浴室数量、房产是独立还是半独立、是否有停车位、车库等特征的权重。

最终,模型附加到每个这些输入的权重反映了基于给定数据集,它们对房产价值的影响程度。

验证损失(Validation Loss)

验证损失是一个数字,它告诉你AI模型在训练期间学习得如何——越低越好。研究人员密切跟踪它,作为一种实时成绩单,用它来决定何时停止训练、何时调整超参数,或者是否调查潜在问题。它帮助标记的关键问题之一是过拟合,即模型记住其训练数据而不是真正学习可以推广到新情况的模式。可以把它想象成一个真正理解材料的学生和一个只是死记硬背去年考试的学生之间的区别——验证损失有助于揭示你的模型正在成为哪一种。

相关标签:

分享本文
这些AI术语你听过却可能只是点头附和?我们来帮你理清楚

这些AI术语你听过却可能只是点头附和?我们来帮你理清楚

人工智能正在深刻改变世界,同时也在创造一套全新的语言来描述它的运作方式。花五分钟阅读AI相关内容,你就会遇到LLM、RAG、RLHF等一大堆术语,这些术语甚至会让科技界的聪明人也感到困惑。这份术语指南...

评论

0 条
暂无评论,快来抢沙发。

Copyright © 2026 IAICA 版权所有  隐私政策 用户协议 Cookie说明 备案号:沪ICP备11018632号-8

18351659883