Tong Zeyun
Results
2
comments of
Tong Zeyun
> 已经解决了,运行openai_api.py之后,采用langchain的ChatOpenAI调用: `llm_chatglm2 = ChatOpenAI( openai_api_base="http://localhost:8000/v1", openai_api_key="none", streaming=True, temperature=0.7 )` 能让Chatglm无缝对接langchain的ChatModel,可以配合ChatPromptTemplate一起使用。 > > language model直接from langchain.llms import ChatGLM即可 想请教一下用from langchain.llms import ChatGLM之后还需要配置什么吗? 我用命令行POST测试有正确回应 ```bash curl -X POST "http://127.0.0.1:8000/v1/chat/completions" \ -H...
感谢,用from langchain.chat_models import ChatOpenAI可以运行