V2AS
问路
意见反馈
↓ 按住下拉
【短道速滑十】非局部均值滤波的指令集优化和加速(针对5*5的搜索特例,可达到单核1080P灰度图 28ms/帧的速度)。
非局部均值滤波(Non Local Means)作为三大最常提起来的去燥和滤波算法之一(双边滤波、非局部均值、BM3D),也是有着很多的论文作为研究和比较的对象,但是也是有着致 ......
int
PatchRadius
SearchRadius
滤波
算法
tensorflow按需分配
GPU
问题
使用tensorflow,如果不加设置,即使是很小的模型也会占用整块
GPU
,造成资源浪费。 所以我们需要设置,使程序按需使用
GPU
。 具体设置方法:
gpu
_options = tf.
GPU
Opti ......
GPU
gpu
options
tf
安装
使用Triton部署chatglm2-6b模型
一、技术介绍 NVIDIA Triton Inference Server是一个针对CPU和
GPU
进行优化的云端和推理的解决方案。 支持的模型类型包括TensorRT、TensorFlow、PyTorch(meta-llama/L ......
模型
model
部署
data
python
从驾考科目二到自动驾驶,聊聊
GPU
为什么对自动驾驶很重要
“下一个项目,坡道起步。” …… “考试不合格,请将车子开到起点,重新验证考试。你的扣分项是:起步时间超30秒:扣100分。行驶过程中车轮轧到边线:扣100分。” 想必经历过驾 ......
自动
驾驶
GPU
驾考
技术
重磅| Falcon 180B 正式在 Hugging Face Hub 上发布!
我们很高兴地宣布由 Technology Innovation Institute (TII) 训练的开源大模型 Falcon 180B 登陆 Hugging Face! Falcon 180B 为开源大模型树立了全新的标杆。作为 ......
Falcon
180
Docker
镜像
模型
chatglm2-6b在P40上做LORA微调
背景: 目前,大模型的技术应用已经遍地开花。最快的应用方式无非是利用自有垂直领域的数据进行模型微调。chatglm2-6b在国内开源的大模型上,效果比较突出。本文章分享 ......
微调
模型
model
节点
chatglm2
MindSponge分子动力学模拟——Constraint约束
技术背景 在前面的几篇博客中,我们已经介绍了MindSponge的基本使用方法,比如定义一个分子系统、计算分子的单点能以及迭代器的使用等。有了这些基础的教程,用户以及 ......
MindSPONGE
pot
Step
kin
Pressure
cpu分布式训练论文阅读
Downpour SGD: 模型的副本采用异步方式从参数服务器(Parameter Server)中获取参数w和上传Δw到参数服务器 模型副本之间运行独立 参数服务器组各节点之间同样是独 ......
分布式
训练
源码
模型
参数
Paddle图神经网络训练-PGLBox代码阅读笔记
图存储部分 paddle/fluid/framework/fleet/heter_ps graph_
gpu
_wrapper.h
GPU
图主入口 graph_
gpu
_ps_table.h
GPU
图的主要存储结构,neighbor采样等都在 ......
node
size
游走
walk
int
聊透
GPU
通信技术——
GPU
Direct、NVLink、RDMA 审核中
最近人工智能大火,AI 应用所涉及的技术能力包括语音、图像、视频、NLP 等多方面,而这些都需要强大的计算资源支持。AI 技术对算力的需求是非常庞大的,虽然
GPU
的计算 ......
GPU
RDMA
GPUDirect
CPU
内存
V2AS = Way To Ask
V2AS 一个技术分享与创造的静土
手机扫一扫
移动阅读更方便
近15日热搜文章
ASPNET-ASPNETCORE 认证
oslab oranges 一个操作系统的实现 实验三 认识保护模式(二):分页
note03-计算机网络
4
为什么说 Gradle 是 Android 进阶绕不去的坎 —— Gradle 系列(1)
5
Oracle学习笔记七 锁
6
海康威视摄像头入侵+fofa(CVE-2017-7921)
7
SpringBoot获取树状结构数据-SQL处理
8
【Azure K8S | AKS】在不丢失文件/不影响POD运行的情况下增加PVC的大小
9
pandas: 设置列名&获取所有列名
10
Git使用方法(精心整理,基本够用)