使用chainlit快速构建类似OPEN AI一样的对话网页
创始人
2025-02-10 16:32:12
0

快速开始

创建一个文件,例如“chainlit_chat”

mkdir chainlit_chat 

进入 chainlit_chat文件夹下,执行命令创建python 虚拟环境空间(需要提前安装好python sdkChainlit 需要python>=3.8。,具体操作,由于文章长度问题就不在叙述,自行百度),命令如下:

python -m venv .venv 
  • 这一步是避免python第三方库冲突,省事版可以跳过
  • .venv是创建的虚拟空间文件夹可以自定义

接下来激活你创建虚拟空间,命令如下:

#linux or mac source .venv/bin/activate #windows .venv\Scripts\activate 

在项目根目录下创建requirements.txt,内容如下:

chainlit~=1.1.306 openai~=1.37.0 

在项目根目录下创建app.py文件,代码如下:

import base64 import time from io import BytesIO  import chainlit as cl from chainlit.element import ElementBased from chainlit.input_widget import Select, Slider, Switch from openai import AsyncOpenAI  client = AsyncOpenAI()   @cl.on_settings_update async def on_settings_update(settings: cl.chat_settings):     print("settings", settings)     cl.user_session.set("settings", settings)   @cl.on_chat_start async def start_chat1():     settings = await cl.ChatSettings(         [             Select(                 id="Model",                 label="Model",                 values=["qwen-turbo", "qwen-plus", "qwen-max", "qwen-vl-v1", "qwen-vl-chat-v1"],                 initial_index=0,             ),             Slider(                 id="Temperature",                 label="Temperature",                 initial=1,                 min=0,                 max=2,                 step=0.1,             ),             Slider(                 id="MaxTokens",                 label="MaxTokens",                 initial=1000,                 min=1000,                 max=3000,                 step=100,             ),             Switch(id="Streaming", label="Stream Tokens", initial=True),         ]     ).send()     cl.user_session.set("settings", settings)     content = "你好,我是泰山AI智能客服,有什么可以帮助您吗?"     msg = cl.Message(content="")     for token in content:         time.sleep(0.1)         await msg.stream_token(token)     await msg.send()   @cl.on_message async def main(message: cl.Message):     msg = cl.Message(content="", author="tarzan")     await msg.send()     settings = cl.user_session.get("settings")     print('settings', settings)     streaming = settings['Streaming']     response = await client.chat.completions.create(         model=settings['Model'],         messages=cl.chat_context.to_openai(),         temperature=settings['Temperature'],         max_tokens=int(settings['MaxTokens']),         stream=streaming     )     if streaming:         async for part in response:             #print('part', part)             if token := part.choices[0].delta.content or "":                 await msg.stream_token(token)     else:         #print('response', response)         if token := response.choices[0].message.content or "":             await msg.stream_token(token)     await msg.update()  
  • 由于国内open ai 的限制使用,代码中使用的oneapi代理的通义千问的api

在项目根目录下创建.env环境变量,配置如下:

OPENAI_BASE_URL="http://203.176.92.154:3001/v1" OPENAI_API_KEY="" 
  • 由于国内open ai 的限制使用,代码中使用的oneapi代理的通义千问的api
  • OPENAI_BASE_URL是oneapi的代理地址OPENAI_API_KEY是oneapi的令牌

执行以下命令安装依赖:

pip install -r .\requirements.txt 
  • 安装后,项目根目录下会多出.chainlit.files文件夹和chainlit.md文件

运行应用程序
要启动 Chainlit 应用程序,请打开终端并导航到包含的目录app.py。然后运行以下命令:

 chainlit run app.py -w    
  • -w标志告知 Chainlit 启用自动重新加载,因此您无需在每次更改应用程序时重新启动服务器。您的聊天机器人 UI 现在应该可以通过http://localhost:8000访问。

命令行选项

Chainlit CLI(命令行界面)是一种允许您通过命令行与 Chainlit 系统交互的工具。它提供了几个命令来管理您的 Chainlit 应用程序。

init 命令

该init命令通过创建位于以下位置的配置文件来初始化 Chainlit 项目.chainlit/config.toml

chainlit init 

run 命令

该run命令启动 Chainlit 应用程序。

chainlit run [OPTIONS] TARGET 

选项:

  • -w, --watch :模块更改时重新加载应用程序。指定此选项后,将启动文件监视程序,对文件的任何更改都会导致服务器重新加载应用程序,从而实现更快的迭代。
  • -h, --headless:阻止应用程序在浏览器中打开。
  • -d, --debug :将日志级别设置为调试。默认日志级别为错误。
  • -c, --ci :以 CI 模式运行。
  • --no-cache :禁用第三方缓存,例如 langchain。
  • --host :指定运行服务器的其他主机。
  • --port :指定运行服务器的不同端口。
  • --root-path :指定运行服务器的子路径。

启动后界面如下:
在这里插入图片描述

相关文章推荐

《使用 Xinference 部署本地模型》
《Fastgpt接入Whisper本地模型实现语音输入》
《Fastgpt部署和接入使用重排模型bge-reranker》
《Fastgpt部署接入 M3E和chatglm2-m3e文本向量模型》
《Fastgpt 无法启动或启动后无法正常使用的讨论(启动失败、用户未注册等问题这里)》
《vllm推理服务兼容openai服务API》
《vLLM模型推理引擎参数大全》
《解决vllm推理框架内在开启多显卡时报错问题》
《Ollama 在本地快速部署大型语言模型,可进行定制并创建属于您自己的模型》

相关内容

热门资讯

4分钟开挂!心悦手游辅助,拱趴... 4分钟开挂!心悦手游辅助,拱趴大菠萝辅助,揭秘教程-2026最新版本暗藏猫腻,小编详细说明拱趴大菠萝...
第五分钟教程!浙江宝宝游戏透视... 第五分钟教程!浙江宝宝游戏透视辅助器,情怀娱乐辅助器,原来有挂(有挂总结)-哔哩哔哩暗藏猫腻,小编详...
两分钟详情!樱花之盛辅助器下载... 两分钟详情!樱花之盛辅助器下载(辅助挂)果然真的是有挂,玩家教程(存在有挂)-哔哩哔哩1、樱花之盛辅...
第十分钟开挂!奇迹脚本辅助,指... 第十分钟开挂!奇迹脚本辅助,指尖四川辅助破解版,攻略教程-2026最新版本1、完成指尖四川辅助破解版...
第十分钟方法!爱玩联盟有没有挂... 第十分钟方法!爱玩联盟有没有挂,新上游通用挂是真的吗,本来有挂(详细教程)-哔哩哔哩1、新上游通用挂...
九分钟外挂!吉祥填大坑有插件吗... 九分钟外挂!吉祥填大坑有插件吗(辅助挂)其实存在有挂,系统教程(有挂细节)-哔哩哔哩1、在吉祥填大坑...
第五分钟开挂!微信小程序家乡大... 第五分钟开挂!微信小程序家乡大二解码,腾威互娱辅助工具,德州教程-2026最新版本1、微信小程序家乡...
9分钟app!佛手在线辅助,赣... 9分钟app!佛手在线辅助,赣牌圈挂怎么安装,一贯有挂(有挂功能)-哔哩哔哩所有人都在同一条线上,像...
三分钟关于!闲逸辅助正版免费下... 三分钟关于!闲逸辅助正版免费下载(辅助挂)好像真的有挂,力荐教程(有挂透明挂)-哔哩哔哩1、在闲逸辅...
第十分钟开挂!微信多乐跑胡子辅... 第十分钟开挂!微信多乐跑胡子辅助,赣湘互娱辅助,玩家教程-2026最新版本微信多乐跑胡子辅助辅助器中...