맥북이 갑자기 가성비가 된 이유, 개발 머신으로 맥미니 사는 게 이제 진짜 이유가 생겼다

반응형

 

맥북을 개발 머신으로 쓰기 시작한 건 대략 10년 전이다. 당시 주변에서 말렸다. "게임도 안 되고 윈도우 앱 못 쓰는데 왜?" 그때는 나도 반신반의였다. 근데 지금은 완전히 다른 이유로 맥북을 못 놓겠다.

메모리 때문이다.


AI가 터뜨린 반도체 수요

2023년부터 상황이 달라졌다. AI 추론 워크로드가 데이터센터를 넘어 엣지 디바이스로 내려오면서 HBM부터 LPDDR까지 전 메모리 시장이 공급 압박을 받기 시작했다. 여기에 AI PC 마케팅이 불을 질렀고, 스마트폰·태블릿까지 온디바이스 AI 경쟁에 뛰어들면서 DRAM/NAND 수요가 전방위적으로 폭발했다.

결과는 단순하다. 작년에 32GB 노트북 살 돈으로 올해는 16GB밖에 못 산다. M.2 NVMe SSD도 마찬가지다. "반도체 가격 사이클이 있으니 기다리면 내려간다"는 말이 통하던 시절은 AI 수요가 구조적으로 바꿔버렸다. 일시적 수급 불균형이 아니라 수요 자체가 올라간 거다.


이 국면에서 애플이 한 것

애플은 Mac 라인업 가격을 건드리지 않았다.

M4 Pro 맥미니 기본형이 여전히 100만원대 초반, M3/M4 맥북 프로 베이스도 작년 출시가 그대로다. x86 진영이 같은 사양을 유지하려다 보니 가격을 올리는 동안, 애플은 동결했다.

근데 가격만이 이유가 아니다. 여기에 구조적 차이가 있다.

Unified Memory(통합 메모리). x86 노트북은 CPU·GPU가 각자 메모리 풀을 따로 쓰거나, GPU에 할당 가능한 VRAM이 제한된다. 32GB 노트북이라도 GPU가 실제로 쓸 수 있는 건 절반 이하인 경우가 많다. 반면 Apple Silicon은 CPU, GPU, Neural Engine이 같은 메모리 풀을 나눠 쓴다.

AI 워크로드에서 이게 어떤 의미냐면 — LLM 추론 시 모델 웨이트를 메모리에 올릴 때, M3 Pro 36GB는 실질적으로 36GB 전부를 모델에 쓸 수 있다. x86 32GB 노트북에서 VRAM 할당이 16GB라면 올릴 수 있는 모델 사이즈가 절반 이하로 줄어든다.


Ollama가 완성시킨 그림

오픈소스 로컬 LLM 생태계가 완성도를 올리면서 상황이 급격히 바뀌었다.

Ollama 기준으로 말하자면, ollama run llama3.1:70b 한 줄이면 70B 모델을 로컬에서 돌릴 수 있다. 이걸 실용적인 속도로 돌리려면 메모리가 핵심인데, M3 Pro 36GB에서 Llama 3.1 70B Q4 양자화 기준으로 4~6 tok/s 수준이 나온다.

x86 진영에서 비슷한 환경을 구성하려면? 70B Q4가 대략 35~40GB라 VRAM 24GB 단일 GPU 구성으로는 올라가지도 않는다. RTX 4090을 두 장 연결하거나, VRAM 48GB 이상 워크스테이션 GPU를 써야 한다. 가격은 맥북 프로 고사양 몇 대 수준이다.

소비자 시장에서 로컬 AI 개발 환경의 실용적 선택지가 애플 실리콘 맥으로 수렴하고 있는 게 현실이다.


지금 시점 정리

개발 머신으로서 맥이 "가성비"가 된 건 처음이다. 예전엔 맥 쓰는 이유가 "유닉스 환경이 편해서", "트랙패드가 좋아서" 같은 감성적 이유였다. 지금은 숫자가 말한다.

  • 동급 x86 대비 가격 동결
  • AI 워크로드에서 실질 가용 메모리가 사실상 2배 이상
  • 로컬 LLM 실용 구동의 소비자 시장 내 유일한 합리적 선택지

브라우저 + IDE + 도커 다 켜두면서 거기에 로컬 AI 환경까지 돌려야 하는 요즘 개발 스타일이라면, 지금 맥을 안 쓰는 게 오히려 설명이 필요한 상황이 됐다.

다음 글에선 Ollama + Continue.dev 조합으로 완전 로컬 AI 코딩 환경을 구성하는 실제 세팅을 다룬다.

 

반응형