เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง
ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว
แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ
AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50%
แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี
AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน
AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023
หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก
เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3
มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่
เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50%
พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร
AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI
ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง
MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน
โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่
AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน
ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024
MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว
ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU
AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA
เน้นความยืดหยุ่นและลดการผูกขาด
NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม
ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD
AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี
ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด
การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป
แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์
https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว
แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ
AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50%
แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี
AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน
AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023
หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก
เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3
มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่
เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50%
พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร
AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI
ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง
MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน
โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่
AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน
ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024
MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว
ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU
AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA
เน้นความยืดหยุ่นและลดการผูกขาด
NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม
ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD
AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี
ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด
การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป
แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์
https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
🚀🧠 เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง
ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว
แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ
AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50%
แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี
AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน
✅ AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023
➡️ หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก
✅ เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3
➡️ มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่
✅ เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50%
➡️ พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร
✅ AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI
➡️ ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง
✅ MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน
➡️ โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่
✅ AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน
➡️ ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024
✅ MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว
➡️ ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU
✅ AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA
➡️ เน้นความยืดหยุ่นและลดการผูกขาด
‼️ NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม
⛔ ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD
‼️ AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี
⛔ ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด
‼️ การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป
⛔ แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์
https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
0 Comments
0 Shares
26 Views
0 Reviews