跳到主要内容

使用指南

这些使用指南通过实用的解决方案回答“如何做...?”的问题,解决特定问题。

注意: 许多指南仍在编写中。想要帮忙吗?请参阅我们的文档贡献指南

大型语言模型和聊天模型

基本配置

高级功能

  • 如何处理API速率限制和重试
  • 如何从大型语言模型流式传输响应
  • 如何使用OpenAI的函数调用
  • 如何实现自定义大型语言模型提供商

提示词和模板

模板创建

  • 如何创建动态提示词模板
  • 如何实现少量样本提示

输出处理

  • 如何解析来自大型语言模型的结构化输出
  • 如何验证和清理大型语言模型输出

记忆与对话

记忆管理

  • 如何实现对话记忆
  • 如何持久存储对话历史记录
  • 如何实现上下文窗口
  • 如何处理长对话

代理和工具

工具开发

  • 如何为代理创建自定义工具
  • 如何处理工具执行错误

代理优化

  • 如何实现多步推理
  • 如何优化代理性能

生产与部署

项目结构

  • 如何构建LangChainGo项目
  • 如何处理密钥和配置

监控与扩展

  • 如何实施日志记录和监控
  • 如何使用Docker部署
  • 如何实现健康检查
  • 如何扩展LangChainGo应用程序

测试与调试

测试策略

  • 如何为LangChainGo组件编写测试
  • 如何在测试中模拟大型语言模型响应

性能

  • 如何调试链执行
  • 如何基准测试性能

集成模式

Web应用

  • 如何与Web框架(Gin、Echo)集成
  • 如何实现后台处理

数据集成

  • 如何与数据库集成
  • 如何实施缓存策略