AI모델을 CPU / GPU 에서 돌리는 경우, 속도 차이.

속도를 측정해 보았습니다.

1. CPU 를 사용하는 경우

   
2. GPU 를 사용하는 경우

   

좋은 AI를 돌리려면 GPU RAM 큰 그래픽 카드가 필요합니다.
불행인 것은 nvidia가 VRAM 큰 모델은 잘 만들지 않는다는 것입니다. 또한 VRAM이 커질 수록 가격이 어마어마하게 올라갑니다.

다행인 것은, 우리에겐 Apple Mac 이 있습니다. Apple은 CPU, GPU, RAM을 하나의 통합칩으로 설계해서 사용합니다.

즉, Apple 48GB는 공유메모리 이기 때문에, CPU 48GB 일 수도 있지만 GPU 48GB도 되기 때문에, 고사양 AI 모델을 로드하여 GPU로 구동할 수 있게 됩니다.
AI시대에, 애플 컴퓨터를 사용하는 것은 좋은 선택일지도?
2명이 반응했습니다
|

댓글 5개

전 고물 컴터로 만족합니다.
장비 따지지 않는 스타일이라서요 ^^ 하지만, 부럽네요. 
지금 컴터는 아들녀석이 50만원주고 산 AMD 컴터인데, 안드로이드 스튜디오 셋팅 맞출때 죽는 줄 알았습니다.
그래도, 지금은 그럭저럭 잘 돌아가네요.
지금 돌리시는것이 로컬 LLM 인가요? AI 모델의 가장 큰 약점이 보안이슈인데 로컬LLM 만 사용하면 좋을까요?
로컬 LLM 이며 Gemma 3 모델입니다. 어떤 환경을 구축할지는, 프로젝트 거버넌스에 맞춰서 하는게 좋겠죠.
요즘 NPU도 등급이 있던데... NPU도 CPU에 속하는거겠지요? 
 
찾아봤더니 AI 연산에 조금 더 최적화된 CPU라고 하네요. 하지만 GPU 성능에는 미치지 못한다고 합니다.
댓글을 작성하시려면 로그인이 필요합니다.

자유게시판

+
제목 글쓴이 날짜 조회
3주 전 조회 1,914
3주 전 조회 1,987
3주 전 조회 1,882
3주 전 조회 2,013
3주 전 조회 2,028
3주 전 조회 1,930
3주 전 조회 2,419
3주 전 조회 2,019
3주 전 조회 1,946
3주 전 조회 1,940
3주 전 조회 1,860
3주 전 조회 1,845
3주 전 조회 1,835
3주 전 조회 1,878
3주 전 조회 1,785
3주 전 조회 1,735
3주 전 조회 1,991
3주 전 조회 1,743
3주 전 조회 1,733
3주 전 조회 1,693
3주 전 조회 1,960
3주 전 조회 1,755
3주 전 조회 1,721
3주 전 조회 1,610
3주 전 조회 1,590
3주 전 조회 1,536
3주 전 조회 1,720
3주 전 조회 1,304
3주 전 조회 1,410
3주 전 조회 1,448