AI모델을 CPU / GPU 에서 돌리는 경우, 속도 차이.

속도를 측정해 보았습니다.

1. CPU 를 사용하는 경우

 
2. GPU 를 사용하는 경우

 

좋은 AI를 돌리려면 GPU RAM 큰 그래픽 카드가 필요합니다.
불행인 것은 nvidia가 VRAM 큰 모델은 잘 만들지 않는다는 것입니다. 또한 VRAM이 커질 수록 가격이 어마어마하게 올라갑니다.

다행인 것은, 우리에겐 Apple Mac 이 있습니다. Apple은 CPU, GPU, RAM을 하나의 통합칩으로 설계해서 사용합니다.

즉, Apple 48GB는 공유메모리 이기 때문에, CPU 48GB 일 수도 있지만 GPU 48GB도 되기 때문에, 고사양 AI 모델을 로드하여 GPU로 구동할 수 있게 됩니다.
AI시대에, 애플 컴퓨터를 사용하는 것은 좋은 선택일지도?
2명이 반응했습니다
|

댓글 3개

전 고물 컴터로 만족합니다.
장비 따지지 않는 스타일이라서요 ^^ 하지만, 부럽네요. 
지금 컴터는 아들녀석이 50만원주고 산 AMD 컴터인데, 안드로이드 스튜디오 셋팅 맞출때 죽는 줄 알았습니다.
그래도, 지금은 그럭저럭 잘 돌아가네요.
지금 돌리시는것이 로컬 LLM 인가요? AI 모델의 가장 큰 약점이 보안이슈인데 로컬LLM 만 사용하면 좋을까요?
로컬 LLM 이며 Gemma 3 모델입니다. 어떤 환경을 구축할지는, 프로젝트 거버넌스에 맞춰서 하는게 좋겠죠.
댓글을 작성하시려면 로그인이 필요합니다.

자유게시판

+
제목 글쓴이 날짜 조회
3주 전 조회 3,311
3시간 전 조회 26
4시간 전 조회 23
6시간 전 조회 51
9시간 전 조회 68
10시간 전 조회 52
12시간 전 조회 61
12시간 전 조회 53
12시간 전 조회 55
12시간 전 조회 56
13시간 전 조회 73
13시간 전 조회 60
14시간 전 조회 51
16시간 전 조회 130
16시간 전 조회 104
17시간 전 조회 97
18시간 전 조회 100
18시간 전 조회 157
19시간 전 조회 80
19시간 전 조회 92
19시간 전 조회 70
21시간 전 조회 81
21시간 전 조회 75
어제 조회 206
어제 조회 70
어제 조회 104
어제 조회 97
어제 조회 77
어제 조회 121
어제 조회 87
어제 조회 86
🐛 버그신고