“ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด”
ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว
เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4
Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่:
Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT
LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย
เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล
นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง
Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น”
แนวคิดการใช้ LLM แบบ local บน macOS
ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก
ปลอดภัยกว่าและควบคุมข้อมูลได้เอง
ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB
เครื่องมือที่ใช้
Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF
LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX
LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง
โมเดลที่แนะนำ
Gemma 3 4B QAT: เร็วและคุณภาพดี
Qwen3 4B Thinking: มี reasoning และขนาดเล็ก
GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง
Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS
ฟีเจอร์พิเศษใน LM Studio
MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory
Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้
Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า
Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้
ข้อมูลเสริมจากภายนอก
LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2
GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple
โมเดล reasoning ใช้เวลานานและกิน context window มาก
Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น
https://blog.6nok.org/experimenting-with-local-llms-on-macos/
ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว
เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4
Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่:
Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT
LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย
เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล
นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง
Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น”
แนวคิดการใช้ LLM แบบ local บน macOS
ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก
ปลอดภัยกว่าและควบคุมข้อมูลได้เอง
ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB
เครื่องมือที่ใช้
Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF
LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX
LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง
โมเดลที่แนะนำ
Gemma 3 4B QAT: เร็วและคุณภาพดี
Qwen3 4B Thinking: มี reasoning และขนาดเล็ก
GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง
Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS
ฟีเจอร์พิเศษใน LM Studio
MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory
Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้
Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า
Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้
ข้อมูลเสริมจากภายนอก
LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2
GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple
โมเดล reasoning ใช้เวลานานและกิน context window มาก
Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น
https://blog.6nok.org/experimenting-with-local-llms-on-macos/
🧠 “ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด”
ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว
เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4
Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่:
Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT
LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย
เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล
นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง
Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น”
✅ แนวคิดการใช้ LLM แบบ local บน macOS
➡️ ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก
➡️ ปลอดภัยกว่าและควบคุมข้อมูลได้เอง
➡️ ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB
✅ เครื่องมือที่ใช้
➡️ Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF
➡️ LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX
➡️ LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง
✅ โมเดลที่แนะนำ
➡️ Gemma 3 4B QAT: เร็วและคุณภาพดี
➡️ Qwen3 4B Thinking: มี reasoning และขนาดเล็ก
➡️ GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง
➡️ Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS
✅ ฟีเจอร์พิเศษใน LM Studio
➡️ MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory
➡️ Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้
➡️ Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า
➡️ Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้
✅ ข้อมูลเสริมจากภายนอก
➡️ LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2
➡️ GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple
➡️ โมเดล reasoning ใช้เวลานานและกิน context window มาก
➡️ Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น
https://blog.6nok.org/experimenting-with-local-llms-on-macos/
0 ความคิดเห็น
0 การแบ่งปัน
64 มุมมอง
0 รีวิว