Streamlit + LangChain 1.0 简单实现智能问答前后端
概述
Streamlit 是一款专为数据科学家和机器学习工程师设计的 Python 库,可快速将数据脚本转换为交互式 Web 应用,无需前端开发经验,所以最近研究了一下,结合LangChain 1.0 实现了简单的智能问答前后端应用,大模型使用DeepSeek。
依赖库
streamlit:用于构建Web交互界面langchain及相关组件:处理LLM交互逻辑python-dotenv:加载环境变量,比如加载存储在配置文件中的API KEY。
Highlight code
1. 初始化配置
# 加载环境变量load_dotenv()# 配置页面st.set_page_config(page_title="DeepSeek 问答应用",page_icon="🤖",layout="wide",initial_sidebar_state="expanded")- 使用
load_dotenv()加载.env文件中的环境变量 st.set_page_config()配置页面基本属性,包括标题、图标和布局
2. 页面UI构建
# 设置页面标题和说明st.title("🤖 DeepSeek 智能问答应用")st.markdown("使用 LangChain 1.0 和 Streamlit 构建的对话系统")- 通过
st.title()和st.markdown()设置页面标题和说明文字
3. 侧边栏配置
withst.sidebar:st.header("配置选项")# API 密钥配置deepseek_api_key=st.text_input("DeepSeek API Key",value=os.getenv("DEEPSEEK_API_KEY",""),type="password",help="请输入您的 DeepSeek API Key")# 清除对话历史按钮ifst.button("清除对话历史",type="secondary"):st.session_state["messages"]=[]st.rerun()- 使用
st.sidebar创建侧边栏配置区域 - 提供API密钥输入框(密码类型),默认从环境变量获取
- 实现清除对话历史功能,通过操作
st.session_state实现
4. 对话历史管理
# 初始化对话历史if"messages"notinst.session_state:st.session_state["messages"]=[]# 显示对话历史formessageinst.session_state["messages"]:ifisinstance(message,HumanMessage):withst.chat_message("user"):st.markdown(message.content)elifisinstance(message,AIMessage):withst.chat_message("assistant"):st.markdown(message.content)- 使用
st.session_state存储对话历史,实现页面刷新后数据保留 - 区分用户消息(HumanMessage)和助手消息(AIMessage)并分别显示
5. 用户输入处理
user_input=st.chat_input("请输入您的问题...")ifuser_input:# 验证API密钥ifnotdeepseek_api_key:st.error("请在侧边栏配置您的 DeepSeek API Key")st.stop()# 添加用户消息到会话历史st.session_state["messages"].append(HumanMessage(content=user_input))# 显示用户消息withst.chat_message("user"):st.markdown(user_input)- 使用
st.chat_input()获取用户输入 - 进行API密钥验证,确保调用模型前密钥已配置
- 将用户消息添加到历史记录并显示
6. AI响应生成
# 显示助手思考中状态withst.chat_message("assistant"):withst.spinner("正在思考..."):chat_model=init_chat_model(model="deepseek:deepseek-chat")# 创建提示模板prompt=ChatPromptTemplate.from_messages([("system","你是一个智能助手,使用中文回答用户问题,保持友好和专业。"),*st.session_state["messages"]])# 创建链chain=prompt|chat_model|StrOutputParser()try:# 生成回答response=chain.invoke({})# 显示回答st.markdown(response)# 添加助手消息到会话历史st.session_state["messages"].append(AIMessage(content=response))exceptExceptionase:st.error(f"请求失败:{str(e)}")st.error("请检查您的API密钥或网络连接")- 使用
st.spinner()显示加载状态,提升用户体验 - 通过
init_chat_model()初始化DeepSeek模型 - 使用LangChain 1.0的链(Chain)语法:
prompt | chat_model | StrOutputParser() - 异常处理确保错误时能友好提示用户
关键技术点
- Streamlit 会话状态:利用
st.session_state保存对话历史,实现状态管理 - LangChain 1.0 链语法:采用新的管道运算符
|构建处理流程 - 消息类型区分:使用
HumanMessage和AIMessage区分不同角色的消息 - API 密钥管理:支持环境变量和手动输入两种方式配置API密钥
- 错误处理:完善的异常捕获和用户提示
运行
streamlit run LC_RAG_07a_Streamlit.pyrun后面替换成自己的文件名就可以启动运行。
完整版本的代码可以在如下位置找到:
https://github.com/microsoftbi/Langchain_DEMO/blob/main/RAG/LC_RAG_07a_Streamlit.py
后记
相对Vue,steamlit的学习成本更低一些。适合独立的开发和学习。但是在生产中主流还是更推荐Vue等前端框架,尤其在细节的前端定制化开发中。
后续可以扩充下比如streamlit如何响应langchain的middleware等功能,比如HITL。