常见名词
【人工智能】AI
- 释义:Al 是人工智能 (Artificial Intelligence)的缩写。它涵盖了各种技术和方法,旨在使计算机系统具备感知、理解、学习、推理、决策和交互等能力。
【人工智能生成内容】AIGC
- 释义: 生成式 Al (Generative Al) 是一种人工智能技术,旨在通过模型学习和生成新的数据、因像、音频或文本等内容。生成式 Al 在许多领域有广泛的应用,例如图像生成、图像修复、自然语言生成、音乐合成等。它可以用于艺术创作、内容生成、虚拟现实等领域。
【通用人工智能】AGI
- 释义:AG1即 Artificial general intelligence 的简写,与狭义人工智能(专注于特定任务)不同,它的目标是实现全面性的智能,具备自主决策和创造性思维。
【OpenAI】
- 释义:这是一家人工智能公司,开发了ChatGPT等生成式AI模型。
【ChatGPT】
- 释义:这是一种由OpenAI训练和开发的生成式AI模型,可以用于生成文本、图像、声音和视频等内容。
【提示词/提示语】Prompt
- 释义:在AIGC中,Prompt通常指的是用于引导模型生成内容的文本或其他形式的提示。
【Midjourney】
- 释义:一款由人工智能驱动的绘画工具,可以根据用户的输入快速生成高质量的图像。
【Stable Diffusion】SD
- 释义:一种基于扩散模型的图像生成技术,可以快速生成具有细节和逼真度的图像。
【DeepMind】
- 介绍:DeepMind是谷歌google旗下的人工智能研究公司,专注于深度学习、强化学习和其他人工智能技术的研究和开发。
【英伟达】NVIDIA
- 介绍 :一家知名的显卡和计算机硬件制造商,也是人工智能领域的重要参与者。他们开发了一系列高性能的GPU和计算平台,用于支持深度学习和其他人工智能应用。
【微软】Microsoft
- 介绍:微软在人工智能领域也有很大的投入,他们开发了一系列的人工智能产品和服务,包括Azure云平台上的人工智能工具和服务,以及与其他公司合作开发的人工智能应用。
【百度】
- 介绍:百度是中国最大的人工智能公司之一,他们在自然语言处理、语音识别、图像识别等领域都有深入的研究和应用。百度还推出了文心一言等AIGC相关的应用和产品。
【阿里巴巴】
- 介绍:推出了通义千问大模型,这是一个超大规模的语言模型,能够理解和生成自然语言文本,并且具有广泛的知识和推理能力。
【京东】
- 介绍:推出了言犀大模型,这是一个融合70%通用数据与30%数智供应链原生数据的大模型,致力于深入零售、物流、金融、健康、政务等知识密集型、任务型产业场景,解决真实产业问题。
【算力】computing power
- 释义:算力通常指的是计算机的计算能力,是人工智能应用中非常关键的因素。在AIGC领域中,需要大量的算力来训练和优化模型。
【大语言模型低阶自适应】LoRA
- 释义:LORA 的全称是 Low-Rank Adaptation,即大型语言模型的低阶自适应。LORA 大大降低了适用于特定任务的大型语言模型的存储需求,并在部署期间实现了高效的任务切换,而不会带来推导延迟的问题。
【狭义人工智能】ANI
- 释义:狭义人工智能 (Artitical Narrow intelligence),即专注于一件事的 Al,比如下围棋的 AlphaGO,又称为弱人工智能。
【多模态】Multimodal
- 释义:多模态 (Multimodal)指的是涉及多种感知模式或数据类型的任务或系统。在多模态任务中,系统需要同时处理和整合来自不同感知模态的信息,例如图像、文本、语音等。
网络用语
【炼丹】
- 释义:炼丹一词源于我国古代对炼制丹药的称呼。在AIGC领域,炼丹特指训练神经网络模型的过程。这个过程需要耗费大量的时间和计算资源,就像古代炼丹师耗费时间和精力炼制丹药一样。
【挖矿】
- 释义:在机器学习中,”挖矿”通常指的是数据挖掘,即从大量的、未经过处理的数据中提取有用信息和知识的过程。这个过程包括数据清洗、数据转换、数据分析、模式识别等步骤。在深度学习中,”挖矿”也可以指硬件的使用,比如使用GPU进行模型的训练,这个过程因为其高能耗和高计算需求,被比喻为”挖矿”。从大量的无标注数据中挖掘出有用的信息或知识,例如构建知识图谱、生成对话数据等。这个过程需要利用自然语言处理、机器学习等方法,就像开采矿藏一样。
【蒸馏】
- 释义:模型蒸馏是一种模型压缩技术,它的目标是将一个大型、复杂的模型(被称为教师模型)的知识转移到一个小型、简单的模型(被称为学生模型)中。这个过程就像蒸馏一样,通过提取教师模型的关键信息(例如,它对数据的预测概率分布),并将这些信息用于训练学生模型,从而使学生模型能够模仿教师模型的行为,达到减小模型大小和计算复杂度的目的,同时保持较高的性能。
【调参侠】
- 释义:调参侠是指在训练神经网络模型时,通过不断调整模型的参数来优化模型性能的人。这个过程需要丰富的经验和技巧,就像侠士一样勇猛和技巧娴熟。
【模型崩溃】
- 释义:模型崩溃是指在训练神经网络模型时,由于某些原因导致模型性能急剧下降的现象。这通常是由于模型过于复杂、训练数据不足或训练过程中出现问题导致的。
技术术语
【目标函数】Objective Function
- 释义:目标函数的作用是量化模型的预测结果与实际观测值之问的差异或误差。通过最小化目标函数,可以得到最优的模型参数或优化结果,以使模型的预测结果与实际值尽可能接近。
【神经网络】Neural Network
- 释义:神经网络 (Neural Network)是一种基于生物神经系统启发的计算模型,用于解决机器学习和人工智能问题。它由多个神经元 (或称为节点) 组成,通过神经元之间的连接进行信息传递和处理。
【大语言模型】LLM
- 释义:大语言模型 (Large Language Model) 是指具有庞大规模的参数和训练数据的语言模型。可以用于自然语言处理任务,如文本生成、机器翻译、对话系统等。
【机器学习】Machine Learning
- 释义:机器学习(Machine Learning)是一种人工智能 (Artificial Intelligence) 的分支领域,旨在使计算机系统能够从数据中学习和提高性能,而无需明确地编程规则。机器学习通过从大量数据中自动学习模式、规律和知识,使计算机能够自主地做出预测、决策和推断。
【自然语言处理】NLP
- 释义:自然语言处理 (Natural Language Processing)是人工智能领域的一个分支,专注手让计算机理解、处理和生成人类自然语言的能力。自然语言处理旨在让计算机能够处理文本、语音等形式的自然语言数据,实现对文本内容、语义和情感的理解与处理。
【端到端学习】End-to-End Learning
- 释义:端到端学习 (End-to-End Learning)是一种机器学习的方法,旨在通过一个统一的模型或系统直接从原始输入数据中学习端到端的映射或任务,
【小样本学习】Few-Shot
- 释义:小样本学习 (Few-Shot Learning)是一种机器学习任务,旨在从非常有限的标记数据中学习新的类别或任务。常见的小样本学习方法包括元学习、迁移学习和生成模型等。
【数据增强】Data Augmentation
- 释义:数据增强 (Data Augmentation)是一种在机器学习和深度学习中常用的技术,旨在通过对训练数据进行有限的变换和扩充,从而增加数据的多样性和数量,改善模型的泛化能力。通过数据增强,可以帮助模型更好地泛化到未见过的数据,减少过拟合的风险。
【深度学习】Deep Learning
- 释义:深度学习 (Deep Learning)是一种机器学习方法,通过构建和训练多层神经网络来模拟和学习复杂的数据表达和特征。深度学习的优势在于它能够自动学习特征表示,并从大规模数据中发现复杂的模式和关系。
【拟合】Fitting
- 释义:在机器学习和统计学中,拟合 (Fitting)是指根据给定的数据和模型,通过调整模型的参数或函数形式,使模型能够最好地适应数据。
【无监督学习】Unsupervised Learning
- 释义:无监督学习 (Unsupervised Learning)是机器学习的一种学习范式,与监督学习不同,它不依赖于标签或目标值进行训练,而是从未标记的数据中自动发现模式、结构和关联性。
【验证数据】Validation Data
- 释义:验证数据 (Validation Data)是在机器学习和模型评估中使用的一部分数据集,用于评估和验证训练好的模型的性能和泛化能力。
【迁移学习】Transfer Learning
- 释义:迁移学习 (Transfer Learning)是机器学习领域中的一种技术,旨在将在一个任务上学习到的知识和经验迁移到另一个相关任务上,以提高新任务的性能和效果。迁移学习通过利用先前学习的知识,可以在新任务上利用较少的数据和计算资源来获得更好的结果。
【零样本学习】Zero-shot Learning
- 释义:零样本学习 (Zero-shot Learning)是一种机器学习方法,旨在解决在没有标记样本的情况下进行分类或识别任务的问题。与传统的监督学习不同,零样本学习允许模型在面对未见过的类别时进行推理和预测。
【向量】Vector
- 释义:向量(Vector)是线性代数中的基本概念,用于表示具有大小和方向的量。它由一组有序的数值组成,并在数学上常用列向量或行向量的形式表示。
【过拟合】Overfitting
- 释义:过拟合 (Overfitting)是指机器学习模型在训练阶段过度学习了训练数据的细节和噪声,导致在新数据上的泛化能力下降。简单来说,过拟合就是模型过于复杂或过度拟合了训练数据,而在未见过的数据上表现不佳。
【范式】Paradigm
- 释义:“范式”(Paradigm)是指在特定领域或学科中被广泛接受和采用的理论、方法或模式。它代表了该领域的典范、典型或基本框架,用于指导和影响相关研究和实践。
【损失函数】Loss function
- 释义:损失函数 (Loss function) 是机器学习和深度学习中的一个关键组成部分,用于衡量模型预测值与真实值之间的差异或误差。
【模态】Modality
- 释义:在机器学习和人 工智能领域中,模态(Modality)指的是不同的数据类型或感知方式。它描述了不同类型的信息如何被感知、表达和处理。
【向前传播】Forward Propagation
- 释义:向前传播 (Forward Propagation) 是神经网络中的一种计算过程,用于将输入信号通过网络的各个层传递,最终得到输出结果。
【图形处理单元】GPU
- 释义:图形处理单元 (Graphics Processing Unit)是一种专门用于图形渲染和图形计算的处理器。它是计算机中的一种硬件设备,用于加速图形和图像处理任务。
【通用对抗网络】GAN
- 释义:通用对抗网络 (Generative Adversarial Networks) 是一种深度学习模型,由生成器 (Generator)和判别器 (Discriminator)两个部分组成,通过对抗训练的方式进行学习。GAN 的核心思想是通过生成器和判别器之间的竞争和博弈来提高生成模型的性能。
【微调】Fine-tuning
- 释义:微调 (Fine-tuning)是指在预训练模型的基础上,使用少量的新标记数据对模型进行进一步训练的过程。在微调过程中,预训练模型的权 重会根据新数据进行调整,以适应新任务或新领域的特定需求。
【梯度下降】Gradient Descent
- 释义:梯度下降 (Gradient Descent)是一种常用的优化算法,用于调整模型参数以最小化损失西数。它是机器学习和深度学习中常用的参数优化方法。
【神经辐射场】NeRF
- 释义:是一种用于生成逼真的三维场景的方法。它是一种基于神经网络的体素渲染技术,能够从有限的视角图像中重建出完整的三维场景,
【代理】Agents
- 释义:代理 (Agent)在人工智能领域中指的是一个能够感知环境、做出决策并执行动作的实体。代理可以是物理实体(如机器人)或虛拟实体(如计算机程序)。
【注意力】Attention
- 释义:注意力 (Attention)在人工智能领域中是指模型或系统对输入数据中不同部分的关注程度或重要性。注意力机制可以帮助模型在处理复杂任务时,集中于关键信息。
【对齐】Alignment
- 释义:对齐 (Alignment)在人工智能领域中指的是确保人工智能系统的目标与人类价值和意图保持一致的过程。在开发和部署人工智能系统时,对齐的目标是确保系统的行为和决策符合人类的期望,并符合道德、法律和社会规范。
【反向传播】Backpropagation
- 释义:反向传播 (Backpropagation)是一种在神经网络中训练模型的常用方法。它是通过计算模型预测与实际标签之间的误差,并將误差反向传播回网络的每一层,以更新权重和偏置的过程。
【偏见】BIAS
- 释义:偏见(Bias)在人工智能领域中,偏见可以指在机器学习和数据分析中出现的系统性错误或不公平性。解决偏见的方法包括数据清洗、样本平衡、特征选择、模型调整等。
【对比语言-图像预训练】CLIP
- 释义:对比语言 一图像预训练 (Contrastive Language-lmage Pretraining)是一种先对语言和图像数据进行预训练,然后将两者结合以提高多模态任务性能的方法。
【计算机视觉】CV
- 释义:计算机视觉(Computer Vision)是人工智能领域的一个分支,研究如何使计算机系统能够理解和解释图像和视频数据。
【联结主义】Connectionism
- 释义:联结主义 (Connectionism)是一种认知科学和心理学的理论框架,强调神经网络在认知过程中的作用。它试图通过模拟大脑中神经元之间的连接和交互来解释人类认知的基本原理。在计算机科学中,联结主义也指代一类基于神经网络的机器学习方法。
【跨模态泛化】Cross-Modal Generalization
- 释义:跨模态泛化 (Cross-Modal Generalization)是指在机器学习和人工智能中,将从一个模态(如图像、文本或声音) 学到的知识和模型应用到另一个不同模态的任务上的能力。跨模态泛化具有广泛的应用,如图像字幕生成、图像问答、多模态情感分析等。
【卷积神经网络】CNN
- 释义:卷积神经网络 (Convolutional Neural Network)是一种深度学习的神经网络架构,专门设计用于处理和分析具有网格结构数据的任务,如图像和视频。
【预训练】Pretraining
- 释义:预训练 (Pretraining)是一种在机器学习和深度学习中常用的技术,旨在使用大规模的无监督数据来初始化模型的参数,从而提高模型在特定任务上的性能。
【提示工程】Prompt Engineering
- 释义:提示工程 (Prompt Engineering)是指在使用语言模型或生成模型时,设计和优化输入的提示或指导文本,以获得更准确、一致或符合预期的输出结果。
【循环神经网络】RNN
- 释义:循环神经网络 (Recurrent Neural Network)是一种神经网络结构,专门用于处理序列数据或具有时间相关性的数据。与传统的前馈神经网络不同,RNN 具有一种循环的连接方式,使其能够保留并利用先前的信息状态。
【正则化】Regularization
- 释义:正则化是一种用于减少机器学习模型过拟合的技术。当模型过度拟合训练数据时,它可能过度适应训练样本的细节和噪声,而在新数据上的泛化能力下降。正则化通过对模型参数或模型复杂度施加约束,来平衡模型对训练数据的拟合程度和泛化能力。
【奇点】Singularity
- 释义:在人工智能背景下,奇 (Singularity))是指一个假设。
【张量处理单元】TPU
- 释义:张量处理单元 (Tensor Processing Unit)是一种专门设计用于加速人工智能计算的处理器。它由谷歌公司开发,旨在高效地执行深度学习和机器学习任务。
【TensorFlow】
- 释义:TensorFlow 是一种开源的机器学习框架,由谷歌开发和维护。它提供了丰富的工具和库,用于构建、 训练和部署各种机器学习和深度学习模型。
【图灵测试】Turing Test
- 释义:图灵测试(Turing Test)是由英国数学家和计算机科学家艾伦图灵 (Alan Turing)于 1950 年提出的一种测试人工智能的方法。它旨在评估机器是否能够表现出与人类相仪的智能。提问者与机器通过对话交流,提问者的目标是通过提问来判断回答者是机器还是人类。
【欠拟合】Underfitting
- 释义:欠拟合 (Underfitting)是指机器学习模型在训练数据上的表现不佳,无法很好地拟合数据的真实模式和关系。当模型出现欠拟合时,其预测能力较弱,无法很好地捕捉数据中的复杂性和变化。
【训练数据】Training Data
- 释义:训练数据是指在机器学习和深度学习中用于训练模型的数据集合。它包含输入样本和对应的标签或目标值,用于模型学习和参数调整。
【超参数调优】Hyperparameter Tuning
- 释义:超参数调优 (Hyperparameter Tuning) 是在机器学习和深度学习中的一项重要任务旨在找到最佳的超参数组合,以优化模型的性能和泛化能力,
【隐藏层】Hidden Layer
- 释义:在神经网络中,隐藏层 (Hidden Layer)是介于输入层和输出层之间的一层或多层神经元組成的层。它的名称“隐藏“意味着隐藏层的输出不直接对外部观察者可见,只在网络内部传递信息。
【推理】Inference
- 释义:在机器学习和人 工智能领域中,推理 (Inference)是指使用训练好的模型对新的输入数据进行预测、分类或生成结果的过程。推理是模型应用阶段的重要环节,它基于已经训综好的模型参数和学习到的知识,对未见过的数据进行预测和推断。
【长短期记忆】LSTM
- 释义:长短期记忆 (Long Short-Term Memory) 是一种常用的循环神经网络 (RecurrentNeural Network, RNN)架构,用于处理序列数据和解决序列建模的问题。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则