V2AS问路

    ↓ 按住下拉

  • 使用Triton部署chatglm2-6b模型
    一、技术介绍 NVIDIA Triton Inference Server是一个针对CPU和GPU进行优化的云端和推理的解决方案。 支持的模型类型包括TensorRT、TensorFlow、PyTorch(meta-llama/L ......
  • 模型model部署datapython
  • chatglm2-6b在P40上做LORA微调
    背景: 目前,大模型的技术应用已经遍地开花。最快的应用方式无非是利用自有垂直领域的数据进行模型微调。chatglm2-6b在国内开源的大模型上,效果比较突出。本文章分享 ......
  • 微调模型model节点chatglm2
  • chatglm2-6b模型在9n-triton中部署并集成至langchain实践
    一.前言 近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: ①. 基座模型升级,性能更强大,在中文C-Eval榜单中,以51.7分位列第6; ②. 支持8 ......
  • historyresponseselfmodelmax
  • Hugging News 0626: 音频课程更新、在线体验 baichuan-7B 模型、ChatGLM2-6B 重磅发
    每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将 ......
  • 在线https体验音频Hugging
  • 大语言模型中一个调皮的EOS token
    背景 最近需要做一个微调的培训,所以不可避免地需要上手一下相关的微调,而受限于机器资源,暂时没法做全参数微调,所以就尝试了目前比较火的两种高效微调方式,分别 ......
  • 模型tokenEOSid输出

V2AS = Way To Ask

V2AS 一个技术分享与创造的静土


手机扫一扫

移动阅读更方便

阿里云服务器
腾讯云服务器
七牛云服务器

近15日热搜文章

Paxos协议超级详细解释+简单实例

winds dlib人脸检测与识别库

Linux下VCS2014和Verdi2015的联合使用

4

在 Android studio 中 配置Gradle 进行 “动态编译期间,指定 远程服务器地址 ,生成多个安装包”

5

Docker 创建 Bamboo6.7.1 以及与 Crowd3.3.2 实现 SSO 单点登录

6

std::sort为什么保证严格弱序?

7

Knockout.Js官网学习(数组observable)

8

Kanboard 看板工具配置使用

9

浅析mydumper

10

既生瑜何生亮 access_token VS refresh_token

Copyright © V2AS | 问路 2024 .

浙ICP备15029886号