V2AS
问路
意见反馈
↓ 按住下拉
chatglm2-6b在P40上做LORA微调
背景: 目前,大模型的技术应用已经遍地开花。最快的应用方式无非是利用自有垂直领域的数据进行模型微调。chatglm2-6b在国内开源的大模型上,效果比较突出。本文章分享 ......
微调
模型
model
节点
chatglm2
MindSponge分子动力学模拟——Constraint约束
技术背景 在前面的几篇博客中,我们已经介绍了MindSponge的基本使用方法,比如定义一个分子系统、计算分子的单点能以及迭代器的使用等。有了这些基础的教程,用户以及 ......
MindSPONGE
pot
Step
kin
Pressure
torch-1 tensor & optim
开个新坑, pytorch源码阅读…从python代码开始读起. torch/ 1.tensor.py 继承自torch._C._TensorBase , 包括各种操作,TODO:随后看cpp代码 __abs__, __iter__之类 ......
torch
Tensor
import
numpy
hook
Andrew Ng 机器学习&深度学习课程 代码作业解答 集合
写在最前 2018年是对自己来说是崭新的一年,在过去的3个多月里,从最基础的lr, 学到现在的LSTM, GAN..感觉第一次追上了计算机科学飞速发展的浪潮。虽然很多地方都 ......
Ng
Andrew
学习
机器
课程
MindSponge分子动力学模拟——使用迭代器进行系统演化(2023.09)
技术背景 在前面几篇博客中,我们已经介绍过使用MindSponge去定义一个系统以及使用MindSponge计算一个分子系统的单点能。这篇文章我们将介绍一下在MindSponge中定 ......
MindSPONGE
Step
pot
ATOM
模拟
为什么创建 Redis 集群时会自动错开主从节点?
哈喽大家好,我是咸鱼 在《一台服务器上部署 Redis 伪集群》这篇文章中,咸鱼在创建 Redis 集群时并没有明确指定哪个 Redis 实例将担任 master,哪个将担任 slave /us ......
节点
NULL
offending
master
score
自然语言处理 Paddle NLP - 快递单信息抽取 (ERNIE 1.0)
文档检索:需要把业务问题拆解成子任务。文本分类 -> 文本匹配 -> 等任务 -> Panddle API 完成子任务 -> 子任务再拼起来 在2017年之前,工业界和学术界对文本处理 ......
IA4
IT
label
模型
抽取
大模型微调技术LoRA与QLoRA
LoRA: Low-Rank Adaptation of Large Language Models 大模型的参数量都在100B级别,由于算力的吃紧,在这个基础上进行所有参数的微调变得不可能。LoRA正是在这个 ......
self
lora
模型
LoRA
fan
鸟类识别系统Python+Django+TensorFlow+卷积神经网络算法【完整代码】
鸟类识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Dj ......
TensorFlow
卷积
validation
size
神经网络
CMU15445 (Fall 2020) 数据库系统 Project3 - Query Execution 详解
前言 经过前两个实验的铺垫,终于到了执行 SQL 语句的时候了。这篇博客将会介绍 SQL 执行计划实验的实现过程,下面进入正题。 总体架构 一条 SQL 语句的处理流程可以 ......
table
tuple
index
plan
executor
V2AS = Way To Ask
V2AS 一个技术分享与创造的静土
手机扫一扫
移动阅读更方便
近15日热搜文章
Paxos协议超级详细解释+简单实例
winds dlib人脸检测与识别库
DevStack部署OpenStack开发环境 - 问题总结
4
C++20初体验——concepts
5
Linux下安装ffmpeg,视频格式转换
6
std::sort为什么保证严格弱序?
7
UPX源码分析——加壳篇
8
Knockout.Js官网学习(数组observable)
9
卷积及理解图像卷积操作的意义
10
查看显卡报错:NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running.