使用指南
这些使用指南通过实用的解决方案回答“如何做...?”的问题,解决特定问题。
注意: 许多指南仍在编写中。想要帮忙吗?请参阅我们的文档贡献指南!
大型语言模型和聊天模型
基本配置
高级功能
- 如何处理API速率限制和重试
- 如何从大型语言模型流式传输响应
- 如何使用OpenAI的函数调用
- 如何实现自定义大型语言模型提供商
提示词和模板
模板创建
- 如何创建动态提示词模板
- 如何实现少量样本提示
输出处理
- 如何解析来自大型语言模型的结构化输出
- 如何验证和清理大型语言模型输出
记忆与对话
记忆管理
- 如何实现对话记忆
- 如何持久存储对话历史记录
- 如何实现上下文窗口
- 如何处理长对话
代理和工具
工具开发
- 如何为代理创建自定义工具
- 如何处理工具执行错误
代理优化
- 如何实现多步推理
- 如何优化代理性能
生产与部署
项目结构
- 如何构建LangChainGo项目
- 如何处理密钥和配置
监控与扩展
- 如何实施日志记录和监控
- 如何使用Docker部署
- 如何实现健康检查
- 如何扩展LangChainGo应用程序
测试与调试
测试策略
- 如何为LangChainGo组件编写测试
- 如何在测试中模拟大型语言模型响应
性能
- 如何调试链执行
- 如何基准测试性能
集成模式
Web应用
- 如何与Web框架(Gin、Echo)集成
- 如何实现后台处理
数据集成
- 如何与数据库集成
- 如何实施缓存策略