本文来自《AI 应用开发课程》月份 1 课程文档,已整理为网站文章版本。
Python 与工程化
uv
一个现代 Python 项目管理工具,可以负责创建项目、安装依赖、管理虚拟环境和锁定依赖版本。
虚拟环境
让不同项目使用各自独立依赖的隔离环境,避免全局 Python 包互相污染。
pyproject.toml
Python 项目的核心配置文件,通常用于描述项目元信息、依赖和工具配置。
类型注解
给函数参数、返回值和变量加上类型信息,用于提升可读性、工具检查能力和维护性。
Pydantic
一个常用的数据建模与校验库,在 FastAPI 和 AI 应用开发中非常常见。
pytest
Python 社区最常见的测试框架。
LLM 与 Prompt
LLM
Large Language Model,大语言模型。可以根据输入文本生成输出文本,也能进行结构化输出和工具调用。
Token
模型处理文本时使用的最小计量单位。成本、上下文长度和输出长度通常都和 token 有关。
Context Window
模型一次请求中能够处理的最大上下文容量。
Prompt
发给模型的输入指令和上下文集合,不只是“一句话提问”。
System Prompt
系统级提示,用于定义模型角色、行为边界和输出规则。
Few-shot
在 Prompt 中给模型提供几个输入输出示例,帮助它学习目标格式或行为。
Structured Output
要求模型按指定结构返回内容,例如 JSON 或符合 Schema 的对象。
Tool Calling
Tool
供模型选择调用的程序能力,例如“读取文件摘要”“获取当前时间”“搜索函数说明”等。
Tool Calling
模型决定应该调用哪个工具,并生成工具参数;程序负责真正执行工具并把结果返回给模型。
Tool Loop
一次完整的工具调用循环:用户输入 -> 模型判断 -> 选择工具 -> 程序执行 -> 返回结果 -> 模型生成最终回答。
FastAPI 与服务化
Endpoint
一个可被客户端访问的 HTTP 接口。
Request Model
描述请求体结构的数据模型。
Response Model
描述响应体结构的数据模型。
StreamingResponse
FastAPI 中用于流式返回内容的响应类型。
Health Check
用于检查服务是否正常运行的轻量接口,通常是 /health。
LangChain
PromptTemplate
用模板方式构建 Prompt 的组件。
Runnable
LangChain 中可以被组合、串联、执行的核心抽象。
LCEL
LangChain Expression Language,用于声明式组合 Prompt、模型和解析器。
OutputParser
把模型输出解析成目标结构的组件。
LangGraph
更偏工作流和状态图编排的框架。它建立在 LangChain 能力之上,但关注点比 LangChain 更高一层。