微软交流社区

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
123
返回列表 发新帖
楼主: 彭文华

开源ChatGPT、Stable Diffusion本地部署,及关于国产AI ...

[复制链接]

0

主题

2

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-4-10 16:59:10 | 显示全部楼层
你的想法是用内存替代显存,有两种实现方法:
1、把一部分模型放在内存里用cpu计算;
2、把模型切成好几块,把暂时用不到的块放在内存,需要的时候再把内存里的块加载到显存里用gpu计算。

第一种方法慢是因为cpu不适合拿来计算模型,第二种方法慢是因为需要反复移动模型。不如直接买个显存足够的计算卡。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|微软交流社区

GMT+8, 2025-1-11 14:49 , Processed in 0.067323 second(s), 17 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表