아이테크 어른경제
정보
로컬LLM
Gemma 4 26B, 빠르다더니 실제 속도가 다른 이유
Foundry Local, 직접 써보니 3가지가 막혔습니다
Gemma 4, 31B보다 26B가 빠른 이유 있습니다
Mistral Small 4, 오픈소스인데 이 조건이면 못 씁니다
Qwen3.5 무료라서 설치했더니 이게 막혔습니다
Llama 4 Scout 로컬 실행 직접 해봤습니다 — RTX 3090도 막힌 이유
GPT-OSS, 8GB VRAM으로 된다고요?
Qwen 3.5, 397B인데 왜 이렇게 빠를까요?
LM Studio 0.4, 병렬 처리가 빠를 거라는 착각
Qwen 3.5, 클수록 좋다는 말이 맞을까요?
다음 페이지
→
댓글 로드중...
댓글 달기...
이메일 (필수)
이름 (필수)
웹사이트