每日更新
指令集工程
Dify 技术流
工作流
gpt 配置认知
type
status
date
slug
summary
tags
category
icon
password
一、GPT认知
ChatGPT 是指网页版本对话,跟GPT 模型调用是不同的关系,账号也不通用。
ChatGPT plus 是网页版GPT 会员,能有更多的对话次数,和del3 的使用。
简单来说:
- ChatGPT 网页版GPT,对话聊天、Dell3 图片生成、语音返回;
- GPT 模型 ,是需要 platform 平台调用,按照使用的模型,输入、输出的token 量来计费
二、GPT接口配置
指令集工程配置,绕不开 LLM 先祖 openai 的接口, 他最开始统一了 LLM 调用接口结构,后续的LLM api 都遵循这个结构,以便能更好的复用;
- 首先看看openai 官网的 api 文档,Create chat completion 这个接口,现在已经有【default、image input、Streaming 、functions、Logprobs】功能
- 最基础的 Default:
request:
- 着重讲讲 message 的参数
- role分为三个角色
- system :系统指令集,也就是指令工程地方
- user:用户输入
- assiatant:模型回复
response:
config:
这里抽取最常用的几个配置说明
- template : 越低,确定性越高,越高,随机性越强,标准 0.7 (0~1)
- top_p: 温度采样技术,核采样。例如,0.1表示只有10%会考虑之前的token。默认为1 。
template 和top_p 只改动一个
- max_tokens:停止生成之前,生成的最大 token 数。跟选择的模型相关
- stop :让模型停止生成的 4 字符
- frequency_penalty:频繁生成令牌惩罚,正值会根据新生成的token跟新频率惩罚,降低模型逐字重复的可能性(-2.0~2.0)
这些是api 接口调用的常用配置,但通常已经分装好的可以直接配置
三、token 是什么
- 由于机器理解不了自然语言,例如中文。所有我们创作了utf-8 这种字符规则,token也是这样,模型理解内容的格式为向量(embedding),所以需要把输入的文本分割成单个元素,通常是单词、子词、符号。
- 例如:我爱学习,可以分割成三个tokens : “我”,“爱”,“学习”;
- 在处理文本时候,分词工具会把连续的文本转换为tokens ,这个过程称为向量化,具体可参考 Openai Tokenize
- LLM 可以读取上下文中tokens 的内容,顺序和组合对模型理解和生成能力具有影响
token 就是人工智能中的基础单位
四、指令集工程
提示词(Prompt)是用户发送给大语言模型的问题、指令或请求,来明确地告诉模型用户想要解决的问题或完成的任务,是大语言模型理解用户需求并据此生成相关、准确回答或内容的基础。对于大语言模型来说,提示词就是用户输入给大语言模型的文本信息
- 通常 prompt 会写在,system_prompt 中,也就是上文接口中system 角色
以上就是就是指令集工程,相关的概念和配置介绍,后面会展开讲解,指令集工程相关内容:
- 指令集工程
- 基础规则
- 额外功能
- 进阶能力
- markdown 语法结构
- 指令集框架
- 指令集骇客
- 减少偏差
Loading...
Last update: 2021-11-05
🎉Wellcome AIGC world🎉
-- RongYe.Liu ---
👏进步路上,一路通行👏