LangGraph 入门:从零实现大模型智能决策工作流(极简实战)

在大模型应用开发中,我们经常需要让模型具备自主决策能力—— 判断用户问题是否需要调用工具、是否需要补充信息,而 LangGraph 正是实现这类结构化大模型工作流的核心框架。
今天给大家分享一个极简入门级实战案例:基于 LangGraph 搭建第一个大模型智能决策工作流,无需复杂配置,快速实现「大模型 + 流程编排」的基础能力,非常适合 LangGraph 新手上手。

一、案例核心亮点

这个极简案例完美贴合 LangGraph 入门需求,核心特点一目了然:
  1. 纯基础依赖:仅使用 LangGraph + 大模型接口,无额外复杂组件,新手零门槛运行;
  2. 核心功能落地:实现大模型自主决策核心能力 —— 自动判断用户问题,输出对应结果;
  3. 标准工作流结构:严格遵循 LangGraph 官方规范,代码结构清晰,可直接扩展为复杂工作流;
  4. 低代码易理解:剥离冗余逻辑,聚焦「状态定义→节点编写→流程编排」核心流程。

二、适用场景

这个基础决策工作流,是所有大模型工具调用、多步骤任务的基石
  • 日常问答:无需搜索的常识问题,直接返回答案;
  • 信息查询:需要实时数据的问题(天气、新闻、实时数据等),输出搜索关键词;
  • 作为复杂应用的前置模块:后续可无缝对接搜索工具、数据库、API 接口等。

三、核心实现思路 

整个案例的实现逻辑非常清晰,分为四大核心步骤,完全贴合 LangGraph 的设计理念:

1. 大模型初始化

对接本地 / 远程大模型接口,完成基础配置(API 密钥、请求地址、模型参数),为决策能力提供底层支持,确保模型能稳定响应指令。

2. 决策逻辑定义

给大模型设定明确的决策规则:
  • 接收用户输入的问题;
  • 自主判断是否需要调用搜索工具
  • 输出标准化结果:需要搜索则返回关键词,无需搜索则直接返回答案。

3. LangGraph 状态与节点设计

这是 LangGraph 的核心:
  • 定义工作流状态:存储用户输入、模型输出等核心数据,贯穿整个流程;
  • 编写决策节点:将大模型决策逻辑封装为节点,作为工作流的核心执行单元;
  • 节点遵循 LangGraph 标准规范,接收状态数据、处理后返回新状态,保证流程可流转。

4. 工作流编排与运行

  • 基于 StateGraph 构建工作流,连接「起始节点→决策节点→结束节点」;
  • 编译工作流为可运行对象,直接传入用户问题即可触发全流程;
  • 最终输出模型的决策结果,完成整个智能决策闭环。

四、案例价值

这是你踏入大模型智能体开发的第一步:
  1. 掌握 LangGraph 最核心的「状态管理 + 节点编排」思想;
  2. 理解大模型从「单纯问答」到「自主决策」的升级逻辑;
  3. 代码可直接复用,快速扩展为带工具调用、多步骤处理的复杂应用;
  4. 完全适配 LangGraph 稳定版本,生产环境也可平滑迁移。

五、总结

这个案例是 LangGraph 与大模型结合的最佳入门示例,没有复杂的概念和冗余的代码,只保留核心逻辑:用 LangGraph 编排流程,让大模型做决策
对于刚接触大模型应用开发的朋友,先跑通这个基础工作流,再逐步添加工具调用、分支判断、循环执行等功能,就能快速搭建出专业的大模型智能应用。
后续我会继续分享 LangGraph 进阶实战:工具调用、多节点分支工作流、长流程任务编排等内容,带你一步步玩转大模型工作流开发~


代码实现:
from langgraph.graph import StateGraph, START, END  
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser


import os

 
# ==================== 1. 初始化 LLM ====================
DEEPSEEK_API_KEY = "123"  # 替换为实际的 API Key
llm = ChatOpenAI(
    api_key=DEEPSEEK_API_KEY,
    base_url="http://192.168.0.100:8087/v1",
    model="qwen3.5-35b-gptq",
    temperature=0.3,
    max_tokens=1024,
)
output_parser = StrOutputParser()

# ==================== 2. 定义决策链路 ====================
decision_prompt = ChatPromptTemplate.from_template("""
你需要判断回答用户问题是否需要调用搜索工具:
1. 如果需要,直接返回搜索关键词(仅返回关键词,无其他内容)
2. 如果不需要,直接返回最终答案(仅返回答案,无其他内容)

用户问题:{input}
""")
chain1 = decision_prompt | llm | output_parser


# ==================== 3. 定义状态和节点函数(适配 langgraph 0.0.29) ====================
# 定义图的状态结构(简单字典,包含 input 和 output)
def initial_state():
    return {"input": "", "output": ""}


# 决策节点函数(langgraph 0.0.29 要求节点函数接收 state 参数并返回新 state)
def decision_node(state):
    # 提取用户输入并调用决策链
    user_input = state["input"]
    result = chain1.invoke({"input": user_input})
    # 更新状态
    state["output"] = result
    return state


# ==================== 4. 构建 StateGraph(langgraph 0.0.29 兼容) ====================
# 创建 StateGraph,指定状态类型为 dict
graph = StateGraph(dict)

# 添加节点和边
graph.add_node("decision", decision_node)  # 添加决策节点
graph.add_edge(START, "decision")  # 起始点 → 决策节点
graph.add_edge("decision", END)  # 决策节点 → 结束点

# 编译图
runnable = graph.compile()
print(runnable.get_graph().draw_ascii())


# ==================== 6. 测试运行 ====================
if __name__ == "__main__":
    # 调用图(传入初始状态,包含用户输入)
    input_state = {
        "input": "今天北京天气怎么样?",
        "output": ""
    }
    result = runnable.invoke(input_state)

    # 输出结果
    print("\n===== 运行结果 =====")
    print(f"用户输入:{result['input']}")
    print(f"LLM 输出:{result['output']}")

 

结果输出:

+-----------+  
| __start__ |  
+-----------+  
      *        
      *        
      *        
+----------+   
| decision |   
+----------+   
      *        
      *        
      *        
 +---------+   
 | __end__ |   
 +---------+   

===== 运行结果 =====
用户输入:今天北京天气怎么样?
LLM 输出:

北京今天天气

 

更多学习资料尽在 老虎网盘资源

原文地址: https://www.cveoy.top/t/topic/qGsg 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录