当前位置: 首页 > news >正文

上传网站到百度上海搜索引擎优化1

上传网站到百度,上海搜索引擎优化1,邯郸做小程序的网络公司,html网站 怎么做seoollamaFastAPI部署后端大模型调用接口 记录一下开源大模型的后端调用接口过程 一、ollama下载及运行 1. ollama安装 ollama是一个本地部署开源大模型的软件,可以运行llama、gemma、qwen等国内外开源大模型,也可以部署自己训练的大模型 ollama国内地…

ollama+FastAPI部署后端大模型调用接口

记录一下开源大模型的后端调用接口过程

一、ollama下载及运行

1. ollama安装

ollama是一个本地部署开源大模型的软件,可以运行llama、gemma、qwen等国内外开源大模型,也可以部署自己训练的大模型

ollama国内地址

下载安装,并运行

PixPin_2025-01-06_10-53-53

ollama图标出现在折叠的任务栏中,就算安装成功了

2. 下载并运行大模型

在ollama管理的模型中,找到自己想要部署的大模型,以qwen2.5-7B大模型为例

ollama启动状态下,终端执行如下命令:

ollama run qwen2.5

image-20250106105916762

如果是首次运行,会先下载,下载之后,就可以运行起来了

PixPin_2025-01-06_11-01-29

此时,已经可以在终端访问大模型了

二、后端接口调用

ollama运行的本地大模型端口号为11434,可以在线调用

有多种方式可以实现大模型的后端调用,只要是后端语言,都可以

因为我的后端有其他深度学习模型要调用,所以我选用的后端语言是python,调用大模型时,自然也选择了python,接口框架使用的是fastapi

后端调用程序如下:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# author:HP
# datetime:2024/11/11 8:43
from fastapi import HTTPException, APIRouter
import requests
import json
from .inputData import GenerateRequestbig_model_api = APIRouter()# 定义 Ollama API 的 URL
OLLAMA_API_URL = "http://localhost:11434/v1/completions"  # Ollama 默认运行在本地 11434 端口@big_model_api.post('/llama')
async def generate_text(request: GenerateRequest):# 设置请求头和请求数据headers = {"Content-Type": "application/json"}data = {"model": request.model,"prompt": request.prompt,"temperature": request.temperature,"max_tokens": request.max_tokens,}# 发送请求给 Ollama APIresponse = requests.post(OLLAMA_API_URL, headers=headers, data=json.dumps(data))# 检查响应状态并处理结果if response.status_code == 200:result = response.json()return {"generated_text": result.get("choices")[0].get("text")}else:raise HTTPException(status_code=response.status_code, detail=response.text)

这里使用的是分布式路由接口,在fastapi的主程序中加入这个名为big_model_api的APIRouter实例,就可以在前端访问这个接口了

当然,需要配合pydantic定义好请求数据的结构,GenerateRequest类定义如下:

# 数据模型,用于接收请求数据
class GenerateRequest(BaseModel):model: str = "qwen2.5"  # 模型名称prompt: str  # 输入的 prompttemperature: float = 0.7  # 温度参数,默认为 0.7max_tokens: int = 1000  # 最大生成的 token 数,默认为 200

解释一下:

  • 默认调用的模型是qwen2.5,如果传递其他参数,就可以调用其他模型
  • prompt也就是提示词,就是前端传给后端的问题
  • temperature不知道有啥用
  • max_token其实就是支持返回多长的字符,这个值越大,消耗的资源越大

后端服务启动后,前端正常传递对话内容,请求后端接口,就可以调用大模型进行对话了

C4B46D06-F606-4e7b-BA44-DC491515A708

image-20250106112304865

如果有自己训练的模型,也可以参考这种方式部署上线,但是ollama如何来调用,还需要单独研究

http://www.ds6.com.cn/news/55861.html

相关文章:

  • 网站群建设进度google框架一键安装
  • 食品网站建设策划seo性能优化
  • sql2005做网站如何给自己的公司建网站
  • 福州网站建设网站设计网站推广哈尔滨seo网站管理
  • 政府大型网站建设哪里做网站便宜
  • wordpress用了cdn和缓存插件搜seo
  • wordpress 设置端口网站搜索引擎优化主要方法
  • 网上做兼职的网站 靠谱的腾讯广告投放平台
  • 做教育网站还挣钱吗深圳seo优化培训
  • 日本软银集团股价网站建设排名优化
  • 网站设计公司上海国内营销推广渠道
  • 网站备案查询工信部官网seo优化网站推广全域营销获客公司
  • 做网站域名不备案会怎么样晋中网络推广
  • 电商专员是做什么的上海网站seo策划
  • 临安区做网站的公司微信crm管理系统
  • 网站的文件夹泉州全网营销推广
  • 做搜狗手机网站优化快落实20条优化措施
  • 南通专业网站制作交换链接的作用
  • 蒙阴网站建设代发关键词排名包收录
  • 公司网站营销二级子域名ip地址查询
  • 企业网站建设 属于什么费用企业培训课程开发
  • 网站风格下载seo优缺点
  • wordpress 电话插件网络搜索引擎优化
  • 怎么做健康咨询网站百度关键词推广条件
  • 武汉网址建站网络营销推广方式包括哪几种
  • 专题类的网站营销广告网站
  • 音乐网站用什么语言做外链网盘下载
  • 人民日报新闻客户端长沙seo推广
  • 新疆正能量免费下载杭州百度优化
  • 哪个网站做海报好东莞做网络推广的公司