当前位置:首页 > 学习资源 > 讲师博文 > 构建 AI大模型应用技术栈有哪些

构建 AI大模型应用技术栈有哪些 时间:2024-09-23      来源:华清远见

AI大模型是指拥有超大规模参数(通常在十亿个以上)、复杂计算结构的深度学习模型,能够处理海量数据,完成各种复杂任务,如自然语言处理、图像识别等。

大模型包含如下一些技术:

Prompt

Prompt提示是模型接收以生成响应或完成任务的初始文本输入。我们给AI一组Prompt输入,用于指导模型生成响应以执行任务。这个输入可以是一个问题、一段描述、一组关键词,或任何其他形式的文本,用于引导模型产生特定内容的响应。

Transformer

Transformer是一种用于自然语言处理(NLP)和其他序列到序列(sequence-to-sequence)任务的深度学习模型架构,它在2017年由Vaswani等人首次提出。Transformer架构引入了自注意力机制(self-attention mechanism),这是一个关键的创新,使其在处理序列数据时表现出色。

结构如下:

预训练

预训练(Pre-training)通常是指对模型进行无监督或自监督学习的过程,在大规模未标注数据上先训练模型,以便为后续任务提供一个高质量的初始权重。这个过程对于许多复杂模型尤其是 transformer 架构(比如BERT、GPT系列等)来说极其重要。

Function calling

Function Calling 是一个允许大型语言模型(如 GPT)在生成文本的过程中调用外部函数或服务的功能。

Function Calling允许我们以 JSON 格式向 LLM 模型描述函数,并使用模型的固有推理能力来决定在生成响应之前是否调用该函数。模型本身不执行函数,而是生成包含函数名称和执行函数所需的参数的JSON

Rag

RAG(中文为检索增强生成) = 检索技术 + LLM 提示。例如,我们向 LLM 提问一个问题(answer),RAG 从各种数据源检索相关的信息,并将检索到的信息和问题(answer)注入到 LLM 提示中,LLM 最后给出答案。

Gpts

GPTs其实就是一个模板,把你的需求告诉GPTs,它会按照你的想法去生成新的ChatGPT,相当于把你的想法写成了一个模板,供你个性化使用。每次使用的时候直接输入你的话题或者部分内容,这时候的ChatGPT就会按照你设定的使用规则跟你对话,直接输出你需要的内容,而不需要你每次都输入一定的提示指令去引导。

Langchain

LangChain 就是一个 LLM 编程框架,你想开发一个基于 LLM 应用,需要什么组件它都有,直接使用就行;甚至针对常规的应用流程,它利用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。

Agent

智能体的英文是 Agent,AI 业界对智能体提出了各种定义。个人理解,智能体是一种通用问题解决器。从软件工程的角度看来,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。

Fine-tuning

微调是指在预训练模型(Pre-trained model)的基础上,针对特定任务或数据领域,对部分或全部模型参数进行进一步的训练和调整(Fine Tune)。预训练模型通常是在大规模数据集上训练得到的,具有一定的通用性和泛化能力。微调的目标是在较小的目标数据集上,通过有限的训练数据,使模型更好地适应特定任务,从而提高模型在该任务上的性能。

上一篇:大模型的数据处理特点

下一篇:一文弄懂RS-485串口标准

戳我查看2020年嵌入式每月就业风云榜

点我了解华清远见高校学霸学习秘籍

猜你关心企业是如何评价华清学员的

干货分享
相关新闻
前台专线:010-82525158 企业培训洽谈专线:010-82525379 院校合作洽谈专线:010-82525379 Copyright © 2004-2024 北京华清远见科技发展有限公司 版权所有 ,京ICP备16055225号-5京公海网安备11010802025203号

回到顶部