• เรื่องเล่าจาก MLIR ถึง MI300X: เมื่อ Chris Lattner กลับมาอีกครั้ง พร้อมภาษาที่อาจแทนที่ CUDA ได้ในอนาคต

    Chris Lattner ผู้สร้าง LLVM, Clang และ Swift กลับมาอีกครั้งในฐานะผู้ก่อตั้ง Modular Inc. พร้อมเปิดตัว Mojo ซึ่งเป็นภาษาโปรแกรมใหม่ที่ออกแบบมาเพื่อแก้ปัญหาหลักของการพัฒนา AI: ความซับซ้อนของการเขียนโค้ดที่ต้องควบคุมฮาร์ดแวร์โดยตรง

    Mojo ถูกสร้างขึ้นบน MLIR (Multi-Level Intermediate Representation) ซึ่งเป็นระบบที่ Lattner เคยออกแบบให้ Google ใช้ใน TensorFlow และตอนนี้กลายเป็นแกนกลางของการแปลงโค้ด Mojo ให้ทำงานได้ทั้งบน CPU, GPU, DSP, FPGA และแม้แต่ MCU

    สิ่งที่ทำให้ Mojo น่าสนใจคือการรวมความง่ายของ Python เข้ากับประสิทธิภาพของ C++ และความปลอดภัยของ Rust โดยสามารถเขียนโค้ดแบบ metaprogramming ได้เต็มรูปแบบ และยังรองรับการ compile แบบ static เพื่อให้ได้ performance สูงสุด

    ในงาน Advancing AI 2025 Lattner สาธิตการใช้ Mojo กับ ROCm และ CUDA เพื่อรันโมเดลบน GPU ของ AMD และ NVIDIA โดยไม่ต้องเขียนโค้ดเฉพาะ vendor และยังสามารถใช้ Mojo สร้าง graph compiler ที่ปรับแต่งได้ตาม workload

    เขายังโชว์การรันโมเดลบนคลัสเตอร์ MI300X ของ AMD ซึ่งเป็น GPU ระดับสูงสำหรับงาน AI โดยใช้ Mojo ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction—สิ่งที่ก่อนหน้านี้ต้องใช้ CUDA หรือ HIP เท่านั้น

    เป้าหมายของ Mojo คือการเป็น “ภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack” ตั้งแต่การเขียน preprocessing pipeline ไปจนถึงการ optimize kernel บน GPU โดยไม่ต้องสลับภาษาไปมา

    จุดเด่นของ Mojo
    สร้างบน MLIR เพื่อรองรับหลายสถาปัตยกรรม
    รวมความง่ายของ Python กับประสิทธิภาพของ C++ และความปลอดภัยของ Rust
    รองรับ metaprogramming และ static compilation

    การใช้งานกับ GPU
    ใช้ Mojo กับ ROCm และ CUDA ได้โดยไม่ต้องเขียนโค้ดเฉพาะ vendor
    ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction
    รันโมเดลบนคลัสเตอร์ MI300X ของ AMD ได้อย่างมีประสิทธิภาพ

    เป้าหมายของ Mojo
    เป็นภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack
    ลดความซับซ้อนของการพัฒนา AI infrastructure
    สร้าง graph compiler ที่ปรับแต่งได้ตาม workload

    ความเชื่อมโยงกับ MLIR
    MLIR เป็นระบบกลางที่ช่วยให้ Mojo แปลงโค้ดไปยังฮาร์ดแวร์ต่าง ๆ ได้
    เคยใช้ใน TensorFlow และตอนนี้กลายเป็นแกนของ Mojo
    ช่วยให้การ optimize compiler เป็นเรื่องที่ทำได้แบบ modular

    https://signalsandthreads.com/why-ml-needs-a-new-programming-language/
    🎙️ เรื่องเล่าจาก MLIR ถึง MI300X: เมื่อ Chris Lattner กลับมาอีกครั้ง พร้อมภาษาที่อาจแทนที่ CUDA ได้ในอนาคต Chris Lattner ผู้สร้าง LLVM, Clang และ Swift กลับมาอีกครั้งในฐานะผู้ก่อตั้ง Modular Inc. พร้อมเปิดตัว Mojo ซึ่งเป็นภาษาโปรแกรมใหม่ที่ออกแบบมาเพื่อแก้ปัญหาหลักของการพัฒนา AI: ความซับซ้อนของการเขียนโค้ดที่ต้องควบคุมฮาร์ดแวร์โดยตรง Mojo ถูกสร้างขึ้นบน MLIR (Multi-Level Intermediate Representation) ซึ่งเป็นระบบที่ Lattner เคยออกแบบให้ Google ใช้ใน TensorFlow และตอนนี้กลายเป็นแกนกลางของการแปลงโค้ด Mojo ให้ทำงานได้ทั้งบน CPU, GPU, DSP, FPGA และแม้แต่ MCU สิ่งที่ทำให้ Mojo น่าสนใจคือการรวมความง่ายของ Python เข้ากับประสิทธิภาพของ C++ และความปลอดภัยของ Rust โดยสามารถเขียนโค้ดแบบ metaprogramming ได้เต็มรูปแบบ และยังรองรับการ compile แบบ static เพื่อให้ได้ performance สูงสุด ในงาน Advancing AI 2025 Lattner สาธิตการใช้ Mojo กับ ROCm และ CUDA เพื่อรันโมเดลบน GPU ของ AMD และ NVIDIA โดยไม่ต้องเขียนโค้ดเฉพาะ vendor และยังสามารถใช้ Mojo สร้าง graph compiler ที่ปรับแต่งได้ตาม workload เขายังโชว์การรันโมเดลบนคลัสเตอร์ MI300X ของ AMD ซึ่งเป็น GPU ระดับสูงสำหรับงาน AI โดยใช้ Mojo ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction—สิ่งที่ก่อนหน้านี้ต้องใช้ CUDA หรือ HIP เท่านั้น เป้าหมายของ Mojo คือการเป็น “ภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack” ตั้งแต่การเขียน preprocessing pipeline ไปจนถึงการ optimize kernel บน GPU โดยไม่ต้องสลับภาษาไปมา ✅ จุดเด่นของ Mojo ➡️ สร้างบน MLIR เพื่อรองรับหลายสถาปัตยกรรม ➡️ รวมความง่ายของ Python กับประสิทธิภาพของ C++ และความปลอดภัยของ Rust ➡️ รองรับ metaprogramming และ static compilation ✅ การใช้งานกับ GPU ➡️ ใช้ Mojo กับ ROCm และ CUDA ได้โดยไม่ต้องเขียนโค้ดเฉพาะ vendor ➡️ ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction ➡️ รันโมเดลบนคลัสเตอร์ MI300X ของ AMD ได้อย่างมีประสิทธิภาพ ✅ เป้าหมายของ Mojo ➡️ เป็นภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack ➡️ ลดความซับซ้อนของการพัฒนา AI infrastructure ➡️ สร้าง graph compiler ที่ปรับแต่งได้ตาม workload ✅ ความเชื่อมโยงกับ MLIR ➡️ MLIR เป็นระบบกลางที่ช่วยให้ Mojo แปลงโค้ดไปยังฮาร์ดแวร์ต่าง ๆ ได้ ➡️ เคยใช้ใน TensorFlow และตอนนี้กลายเป็นแกนของ Mojo ➡️ ช่วยให้การ optimize compiler เป็นเรื่องที่ทำได้แบบ modular https://signalsandthreads.com/why-ml-needs-a-new-programming-language/
    SIGNALSANDTHREADS.COM
    Signals and Threads Podcast
    Listen in on Jane Street’s Ron Minsky as he has conversations with engineers working on everything from clock synchronization to reliable multicast, build systems to reconfigurable hardware. Get a peek at how Jane Street approaches problems, and how those ideas relate to tech more broadly.
    0 Comments 0 Shares 13 Views 0 Reviews
  • เรื่องเล่าจาก Snapdragon X ถึง 18A: เมื่อ Intel ถูกปฏิเสธกลางเวที foundry และ Qualcomm เลือก TSMC อย่างเด็ดขาด

    Cristiano Amon ซีอีโอของ Qualcomm ให้สัมภาษณ์กับ Bloomberg เมื่อวันที่ 5 กันยายน 2025 โดยกล่าวว่า “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิตชิป Snapdragon X ที่ใช้ในโน้ตบุ๊กแบบบางเบา แม้จะเสริมว่า “เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต” แต่คำพูดนี้ก็สะเทือนแผนการพลิกโฉมธุรกิจของ Intel อย่างจัง

    Snapdragon X ถูกผลิตโดย TSMC บนเทคโนโลยี N4 ซึ่งเป็นกระบวนการระดับ 4 นาโนเมตรที่มีประสิทธิภาพด้านพลังงานสูง และเหมาะกับชิปที่มี GPU และ NPU ขนาดใหญ่ โดย Qualcomm ใช้ชิปนี้ในโน้ตบุ๊กสถาปัตยกรรม Arm ที่สามารถแข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี

    Intel กำลังพยายามเปลี่ยนบทบาทจากผู้ผลิตชิปสำหรับตนเอง ไปสู่การเป็นผู้ผลิตให้กับบริษัทอื่น (foundry) โดยหวังว่าจะมีลูกค้ารายใหญ่จากภายนอกมาใช้เทคโนโลยี 18A ซึ่งเป็น node ที่ Intel วางไว้เป็นจุดกลับสู่ความเป็นผู้นำในอุตสาหกรรม

    แต่ Qualcomm กลับเลือก TSMC อย่างชัดเจน และคำพูดของ Amon ก็ทำให้ Intel สูญเสียหนึ่งในโอกาสที่ดีที่สุดในการสร้างชื่อเสียงในฐานะ foundry ระดับสูง โดยเฉพาะเมื่อ Apple, Nvidia และ AMD ต่างก็ใช้ TSMC สำหรับชิประดับเรือธงของตน

    ที่น่าสนใจคือ Intel เองก็ยังต้องพึ่ง TSMC ในการผลิตบางส่วนของ Nova Lake ซึ่งเป็นแพลตฟอร์มใหม่ของ Intel โดยใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง—สะท้อนถึงความย้อนแย้งในแผนการของบริษัท

    คำพูดของ CEO Qualcomm
    “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิต Snapdragon X
    “แต่เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต”
    สะท้อนถึงความไม่พร้อมของ Intel ในการเป็น foundry ระดับสูง

    การเลือกใช้ TSMC ของ Qualcomm
    Snapdragon X ผลิตบน TSMC N4 ซึ่งเหมาะกับ mobile SoC
    ใช้ในโน้ตบุ๊ก Arm ที่มีประสิทธิภาพด้านพลังงานสูง
    แข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี

    สถานการณ์ของ Intel
    พยายามเปลี่ยนบทบาทเป็นผู้ผลิตชิปให้บริษัทอื่น
    หวังให้ 18A เป็น node ที่นำกลับสู่ความเป็นผู้นำ
    Nova Lake ใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง

    บริบทของตลาด foundry
    Apple, Nvidia, AMD ใช้ TSMC สำหรับชิประดับเรือธง
    TSMC ครองตลาด node ขั้นสูงอย่างต่อเนื่อง
    Intel ยังไม่สามารถดึงลูกค้ารายใหญ่เข้ามาได้

    https://www.tomshardware.com/tech-industry/qualcomm-ceo-says-intel-not-an-option-for-chip-production
    🎙️ เรื่องเล่าจาก Snapdragon X ถึง 18A: เมื่อ Intel ถูกปฏิเสธกลางเวที foundry และ Qualcomm เลือก TSMC อย่างเด็ดขาด Cristiano Amon ซีอีโอของ Qualcomm ให้สัมภาษณ์กับ Bloomberg เมื่อวันที่ 5 กันยายน 2025 โดยกล่าวว่า “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิตชิป Snapdragon X ที่ใช้ในโน้ตบุ๊กแบบบางเบา แม้จะเสริมว่า “เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต” แต่คำพูดนี้ก็สะเทือนแผนการพลิกโฉมธุรกิจของ Intel อย่างจัง Snapdragon X ถูกผลิตโดย TSMC บนเทคโนโลยี N4 ซึ่งเป็นกระบวนการระดับ 4 นาโนเมตรที่มีประสิทธิภาพด้านพลังงานสูง และเหมาะกับชิปที่มี GPU และ NPU ขนาดใหญ่ โดย Qualcomm ใช้ชิปนี้ในโน้ตบุ๊กสถาปัตยกรรม Arm ที่สามารถแข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี Intel กำลังพยายามเปลี่ยนบทบาทจากผู้ผลิตชิปสำหรับตนเอง ไปสู่การเป็นผู้ผลิตให้กับบริษัทอื่น (foundry) โดยหวังว่าจะมีลูกค้ารายใหญ่จากภายนอกมาใช้เทคโนโลยี 18A ซึ่งเป็น node ที่ Intel วางไว้เป็นจุดกลับสู่ความเป็นผู้นำในอุตสาหกรรม แต่ Qualcomm กลับเลือก TSMC อย่างชัดเจน และคำพูดของ Amon ก็ทำให้ Intel สูญเสียหนึ่งในโอกาสที่ดีที่สุดในการสร้างชื่อเสียงในฐานะ foundry ระดับสูง โดยเฉพาะเมื่อ Apple, Nvidia และ AMD ต่างก็ใช้ TSMC สำหรับชิประดับเรือธงของตน ที่น่าสนใจคือ Intel เองก็ยังต้องพึ่ง TSMC ในการผลิตบางส่วนของ Nova Lake ซึ่งเป็นแพลตฟอร์มใหม่ของ Intel โดยใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง—สะท้อนถึงความย้อนแย้งในแผนการของบริษัท ✅ คำพูดของ CEO Qualcomm ➡️ “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิต Snapdragon X ➡️ “แต่เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต” ➡️ สะท้อนถึงความไม่พร้อมของ Intel ในการเป็น foundry ระดับสูง ✅ การเลือกใช้ TSMC ของ Qualcomm ➡️ Snapdragon X ผลิตบน TSMC N4 ซึ่งเหมาะกับ mobile SoC ➡️ ใช้ในโน้ตบุ๊ก Arm ที่มีประสิทธิภาพด้านพลังงานสูง ➡️ แข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี ✅ สถานการณ์ของ Intel ➡️ พยายามเปลี่ยนบทบาทเป็นผู้ผลิตชิปให้บริษัทอื่น ➡️ หวังให้ 18A เป็น node ที่นำกลับสู่ความเป็นผู้นำ ➡️ Nova Lake ใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง ✅ บริบทของตลาด foundry ➡️ Apple, Nvidia, AMD ใช้ TSMC สำหรับชิประดับเรือธง ➡️ TSMC ครองตลาด node ขั้นสูงอย่างต่อเนื่อง ➡️ Intel ยังไม่สามารถดึงลูกค้ารายใหญ่เข้ามาได้ https://www.tomshardware.com/tech-industry/qualcomm-ceo-says-intel-not-an-option-for-chip-production
    WWW.TOMSHARDWARE.COM
    Qualcomm CEO says Intel ‘not an option’ for chip production — yet
    Cristiano Amon’s remarks underscore the gap between Intel’s ambitious foundry roadmap and reality.
    0 Comments 0 Shares 134 Views 0 Reviews
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 Comments 0 Shares 124 Views 0 Reviews
  • เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น

    ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว

    แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน

    Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้

    ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023

    การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน

    ข้อตกลงระหว่าง Nvidia กับ Lambda
    มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว
    แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว
    Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda

    จุดแข็งของ Lambda และแผนการเติบโต
    ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน
    คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026
    ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030

    กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ
    เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO
    เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน
    หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร

    การใช้งาน GPU ที่เช่ากลับ
    ใช้สำหรับงานวิจัยภายในของ Nvidia
    สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI
    ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    🎙️ เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้ ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023 การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน ✅ ข้อตกลงระหว่าง Nvidia กับ Lambda ➡️ มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว ➡️ แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว ➡️ Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda ✅ จุดแข็งของ Lambda และแผนการเติบโต ➡️ ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน ➡️ คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026 ➡️ ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030 ✅ กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ ➡️ เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO ➡️ เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน ➡️ หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร ✅ การใช้งาน GPU ที่เช่ากลับ ➡️ ใช้สำหรับงานวิจัยภายในของ Nvidia ➡️ สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI ➡️ ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่ https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    0 Comments 0 Shares 108 Views 0 Reviews
  • เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว

    Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ

    ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime

    ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น

    ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7

    นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที

    สเปกหลักของ GIGABYTE XL44-SX2-AAS1
    ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
    แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
    ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว

    ความสามารถด้านการเชื่อมต่อและประมวลผล
    รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
    มี 2×400GbE external connections สำหรับ data center traffic
    รองรับ GPU-to-GPU direct communication สำหรับ distributed AI

    ฮาร์ดแวร์ระดับ data center
    Dual Intel Xeon 6700/6500 series CPU
    รองรับ DDR5 DIMM สูงสุด 32 แถว
    พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium

    ซอฟต์แวร์และการใช้งาน
    มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
    รองรับงาน AI inference, physical AI, 3D simulation, video processing
    ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization

    การใช้งานในอุตสาหกรรม
    เหมาะกับ smart manufacturing, financial modeling, medical research
    รองรับ LLM inference และการสร้าง digital twins
    พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025

    https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    🎙️ เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7 นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที ✅ สเปกหลักของ GIGABYTE XL44-SX2-AAS1 ➡️ ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว ➡️ แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32 ➡️ ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว ✅ ความสามารถด้านการเชื่อมต่อและประมวลผล ➡️ รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU ➡️ มี 2×400GbE external connections สำหรับ data center traffic ➡️ รองรับ GPU-to-GPU direct communication สำหรับ distributed AI ✅ ฮาร์ดแวร์ระดับ data center ➡️ Dual Intel Xeon 6700/6500 series CPU ➡️ รองรับ DDR5 DIMM สูงสุด 32 แถว ➡️ พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium ✅ ซอฟต์แวร์และการใช้งาน ➡️ มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos ➡️ รองรับงาน AI inference, physical AI, 3D simulation, video processing ➡️ ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization ✅ การใช้งานในอุตสาหกรรม ➡️ เหมาะกับ smart manufacturing, financial modeling, medical research ➡️ รองรับ LLM inference และการสร้าง digital twins ➡️ พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025 https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    WWW.TECHPOWERUP.COM
    Giga Computing Expands NVIDIA RTX PRO Server Portfolio
    Giga Computing, a subsidiary of GIGABYTE Group, today announced the availability of the XL44-SX2-AAS1 server, integrating NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs with the NVIDIA BlueField-3 DPU and NVIDIA ConnectX-8 SuperNICs, this breakthrough platform unifies computing and high-speed dat...
    0 Comments 0 Shares 112 Views 0 Reviews
  • เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด

    AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง

    ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%

    แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น

    AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference

    สเปกของ AMD MI500 MegaPod
    ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU
    แบ่งเป็น 64 compute tray และ 18 UALink switch tray
    ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน

    เทคโนโลยีที่ใช้ใน MI500 และ Verano
    MI500 ใช้ TSMC N2P node และ CoWoS-L packaging
    Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง
    รองรับ ROCm 7, FP8, Flash Attention 3

    การเปรียบเทียบกับ Nvidia NVL576
    NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS
    AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%
    ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ

    การออกแบบเพื่อประสิทธิภาพและความเย็น
    ใช้ liquid cooling ทั้ง compute และ networking tray
    ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่
    เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่

    https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    🎙️ เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference ✅ สเปกของ AMD MI500 MegaPod ➡️ ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU ➡️ แบ่งเป็น 64 compute tray และ 18 UALink switch tray ➡️ ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน ✅ เทคโนโลยีที่ใช้ใน MI500 และ Verano ➡️ MI500 ใช้ TSMC N2P node และ CoWoS-L packaging ➡️ Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง ➡️ รองรับ ROCm 7, FP8, Flash Attention 3 ✅ การเปรียบเทียบกับ Nvidia NVL576 ➡️ NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS ➡️ AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% ➡️ ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ ✅ การออกแบบเพื่อประสิทธิภาพและความเย็น ➡️ ใช้ liquid cooling ทั้ง compute และ networking tray ➡️ ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่ ➡️ เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่ https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    0 Comments 0 Shares 93 Views 0 Reviews
  • เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า

    Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี

    B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32

    แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ

    ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ

    การเปิดตัวและคุณสมบัติของ B30A
    เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน
    ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300
    ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก

    ราคาของ B30A และความต้องการในจีน
    ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20
    บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า
    ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ

    สถานการณ์การส่งออกและการอนุมัติ
    Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ
    เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี
    Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A

    บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม
    การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน
    รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที
    Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    🎙️ เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32 แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ ✅ การเปิดตัวและคุณสมบัติของ B30A ➡️ เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน ➡️ ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300 ➡️ ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก ✅ ราคาของ B30A และความต้องการในจีน ➡️ ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20 ➡️ บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า ➡️ ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ ✅ สถานการณ์การส่งออกและการอนุมัติ ➡️ Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ ➡️ เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี ➡️ Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A ✅ บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม ➡️ การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน ➡️ รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที ➡️ Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    0 Comments 0 Shares 123 Views 0 Reviews
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก H100/H200: เมื่อคำพูดของ CEO กลายเป็นกระแสที่บริษัทต้องรีบดับไฟ

    ในช่วงต้นกันยายน 2025 เกิดกระแสข่าวว่า GPU รุ่น H100 และ H200 ของ Nvidia ขายหมดเกลี้ยงทั่วโลก โดยเฉพาะในกลุ่ม AI startup และ cloud provider ที่กำลังเร่งเทรนโมเดล reasoning ขนาดใหญ่ ซึ่งกระแสนี้เริ่มต้นจากคำพูดของ Jensen Huang CEO ของ Nvidia ที่กล่าวใน earnings call ว่า “ทุกอย่างขายหมดแล้ว” และ “AI native startups กำลังแย่งกันหาความจุเพื่อเทรนโมเดล”

    แต่หลังจากข่าวแพร่กระจาย Nvidia ต้องรีบออกแถลงการณ์ผ่านหลายช่องทางว่า “ไม่จริง” โดยระบุว่า “เรามีมากพอที่จะรองรับทุกคำสั่งซื้อ” และ “การที่ cloud provider ให้เช่า GPU ทั้งหมดที่มี ไม่ได้แปลว่าเราขาดแคลน”

    บริษัทยังชี้แจงเพิ่มเติมว่า GPU รุ่น H20 ซึ่งผลิตเฉพาะสำหรับจีนตามข้อจำกัดการส่งออกของสหรัฐฯ ไม่ได้ส่งผลกระทบต่อสายการผลิตของ H100/H200 หรือ Blackwell รุ่นใหม่แต่อย่างใด

    นักวิเคราะห์มองว่า ความสับสนนี้เกิดจากการที่ Jensen ใช้คำว่า “sold out” เพื่อสะท้อน demand ที่สูงมาก แต่ไม่ได้หมายถึง “ไม่มีของเหลือ” จริง ๆ และการที่ cloud provider ต้องเช่าความจุจากกันเอง ก็เป็นเรื่องปกติในช่วงที่ AI workload พุ่งขึ้นแบบไม่หยุด

    https://www.tomshardware.com/pc-components/gpus/nvidia-says-its-h100-h200-gpus-are-not-sold-out-despite-jensen-alluding-otherwise-during-earnings-call-company-clarifies-it-has-plenty-of-gpu-supply
    🎙️ เรื่องเล่าจาก H100/H200: เมื่อคำพูดของ CEO กลายเป็นกระแสที่บริษัทต้องรีบดับไฟ ในช่วงต้นกันยายน 2025 เกิดกระแสข่าวว่า GPU รุ่น H100 และ H200 ของ Nvidia ขายหมดเกลี้ยงทั่วโลก โดยเฉพาะในกลุ่ม AI startup และ cloud provider ที่กำลังเร่งเทรนโมเดล reasoning ขนาดใหญ่ ซึ่งกระแสนี้เริ่มต้นจากคำพูดของ Jensen Huang CEO ของ Nvidia ที่กล่าวใน earnings call ว่า “ทุกอย่างขายหมดแล้ว” และ “AI native startups กำลังแย่งกันหาความจุเพื่อเทรนโมเดล” แต่หลังจากข่าวแพร่กระจาย Nvidia ต้องรีบออกแถลงการณ์ผ่านหลายช่องทางว่า “ไม่จริง” โดยระบุว่า “เรามีมากพอที่จะรองรับทุกคำสั่งซื้อ” และ “การที่ cloud provider ให้เช่า GPU ทั้งหมดที่มี ไม่ได้แปลว่าเราขาดแคลน” บริษัทยังชี้แจงเพิ่มเติมว่า GPU รุ่น H20 ซึ่งผลิตเฉพาะสำหรับจีนตามข้อจำกัดการส่งออกของสหรัฐฯ ไม่ได้ส่งผลกระทบต่อสายการผลิตของ H100/H200 หรือ Blackwell รุ่นใหม่แต่อย่างใด นักวิเคราะห์มองว่า ความสับสนนี้เกิดจากการที่ Jensen ใช้คำว่า “sold out” เพื่อสะท้อน demand ที่สูงมาก แต่ไม่ได้หมายถึง “ไม่มีของเหลือ” จริง ๆ และการที่ cloud provider ต้องเช่าความจุจากกันเอง ก็เป็นเรื่องปกติในช่วงที่ AI workload พุ่งขึ้นแบบไม่หยุด https://www.tomshardware.com/pc-components/gpus/nvidia-says-its-h100-h200-gpus-are-not-sold-out-despite-jensen-alluding-otherwise-during-earnings-call-company-clarifies-it-has-plenty-of-gpu-supply
    0 Comments 0 Shares 97 Views 0 Reviews
  • เรื่องเล่าจาก Helios 18P AI: เมื่อแล็ปท็อปเกมมิ่งกลายเป็นเครื่องมือของนักวิจัยและนักสร้างสรรค์

    ในงาน IFA 2025 ที่เบอร์ลิน Acer เปิดตัว Predator Helios 18P AI ซึ่งดูเผิน ๆ เหมือนเกมมิ่งแล็ปท็อปทั่วไป—มีโลโก้ Predator, ไฟ RGB, และดีไซน์ดุดัน แต่เมื่อดูสเปกแล้ว มันคือ “AI workstation แบบพกพา” ที่ออกแบบมาเพื่อคนทำงานจริงจัง ไม่ใช่แค่เล่นเกม

    หัวใจของเครื่องคือ Intel Core Ultra 9 285HX พร้อม vPro ซึ่งให้ความสามารถด้านการจัดการระดับองค์กร และความเสถียรแบบ workstation ส่วน RAM ก็ไม่ธรรมดา เพราะรองรับ ECC (Error-Correcting Code) สูงสุดถึง 192GB—เทคโนโลยีที่ใช้ในเซิร์ฟเวอร์เพื่อป้องกันข้อมูลเสียหายระหว่างการประมวลผล

    GPU ใช้ NVIDIA GeForce RTX 5090 Laptop ที่มีพลัง AI TOPS สูงถึง 1824 พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5 ซึ่งเหมาะกับทั้งการเล่นเกมระดับสูงและการประมวลผล AI เช่นการเทรนโมเดล, การเรนเดอร์ภาพ 3D, หรือการจำลองทางวิทยาศาสตร์

    หน้าจอ Mini LED ขนาด 18 นิ้ว ความละเอียด 3840 × 2400 รองรับ HDR 1000 nits และ DCI-P3 เต็มช่วงสี พร้อม refresh rate 120Hz ทำให้เหมาะกับงานที่ต้องการความแม่นยำด้านสี เช่นการตัดต่อวิดีโอหรือการทำงานด้านภาพยนตร์

    ระบบระบายความร้อนใช้พัดลม AeroBlade รุ่นที่ 6 ที่บางเพียง 0.05 มม. พร้อม liquid metal และ heat pipe แบบ vector เพื่อให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป

    สเปกระดับ workstation ที่ใส่ในแล็ปท็อปเกมมิ่ง
    ใช้ Intel Core Ultra 9 285HX พร้อม vPro สำหรับการจัดการระดับองค์กร
    รองรับ ECC RAM สูงสุด 192GB เพื่อป้องกันข้อมูลเสียหาย
    GPU เป็น RTX 5090 Laptop พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5

    ความสามารถด้าน AI และการประมวลผลหนัก
    รองรับ AI workload ด้วย NPU และ GPU ที่มี AI TOPS สูง
    เหมาะกับงานเทรนโมเดล, simulation, และการเรนเดอร์ระดับสูง
    ใช้ PCIe Gen 5 SSD สูงสุด 6TB สำหรับการเข้าถึงข้อมูลเร็ว

    หน้าจอและการเชื่อมต่อสำหรับ creator
    Mini LED 18 นิ้ว ความละเอียด 3840 × 2400, HDR 1000 nits, DCI-P3 เต็มช่วงสี
    มี Thunderbolt 5, HDMI 2.1, SD card reader, Wi-Fi 7 และ Killer Ethernet
    เหมาะกับงานตัดต่อวิดีโอ, color grading, และการทำงานแบบมืออาชีพ

    ระบบระบายความร้อนระดับสูง
    ใช้พัดลม AeroBlade รุ่นที่ 6 บางเพียง 0.05 มม.
    มี liquid metal thermal grease และ vector heat pipe
    ช่วยให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่เกิด thermal throttling

    https://www.tomshardware.com/laptops/gaming-laptops/acer-hedges-its-hardware-bets-puts-vpro-and-ecc-memory-in-new-high-end-gaming-laptop
    🎙️ เรื่องเล่าจาก Helios 18P AI: เมื่อแล็ปท็อปเกมมิ่งกลายเป็นเครื่องมือของนักวิจัยและนักสร้างสรรค์ ในงาน IFA 2025 ที่เบอร์ลิน Acer เปิดตัว Predator Helios 18P AI ซึ่งดูเผิน ๆ เหมือนเกมมิ่งแล็ปท็อปทั่วไป—มีโลโก้ Predator, ไฟ RGB, และดีไซน์ดุดัน แต่เมื่อดูสเปกแล้ว มันคือ “AI workstation แบบพกพา” ที่ออกแบบมาเพื่อคนทำงานจริงจัง ไม่ใช่แค่เล่นเกม หัวใจของเครื่องคือ Intel Core Ultra 9 285HX พร้อม vPro ซึ่งให้ความสามารถด้านการจัดการระดับองค์กร และความเสถียรแบบ workstation ส่วน RAM ก็ไม่ธรรมดา เพราะรองรับ ECC (Error-Correcting Code) สูงสุดถึง 192GB—เทคโนโลยีที่ใช้ในเซิร์ฟเวอร์เพื่อป้องกันข้อมูลเสียหายระหว่างการประมวลผล GPU ใช้ NVIDIA GeForce RTX 5090 Laptop ที่มีพลัง AI TOPS สูงถึง 1824 พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5 ซึ่งเหมาะกับทั้งการเล่นเกมระดับสูงและการประมวลผล AI เช่นการเทรนโมเดล, การเรนเดอร์ภาพ 3D, หรือการจำลองทางวิทยาศาสตร์ หน้าจอ Mini LED ขนาด 18 นิ้ว ความละเอียด 3840 × 2400 รองรับ HDR 1000 nits และ DCI-P3 เต็มช่วงสี พร้อม refresh rate 120Hz ทำให้เหมาะกับงานที่ต้องการความแม่นยำด้านสี เช่นการตัดต่อวิดีโอหรือการทำงานด้านภาพยนตร์ ระบบระบายความร้อนใช้พัดลม AeroBlade รุ่นที่ 6 ที่บางเพียง 0.05 มม. พร้อม liquid metal และ heat pipe แบบ vector เพื่อให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป ✅ สเปกระดับ workstation ที่ใส่ในแล็ปท็อปเกมมิ่ง ➡️ ใช้ Intel Core Ultra 9 285HX พร้อม vPro สำหรับการจัดการระดับองค์กร ➡️ รองรับ ECC RAM สูงสุด 192GB เพื่อป้องกันข้อมูลเสียหาย ➡️ GPU เป็น RTX 5090 Laptop พร้อม DLSS 4 และ Tensor Core รุ่นที่ 5 ✅ ความสามารถด้าน AI และการประมวลผลหนัก ➡️ รองรับ AI workload ด้วย NPU และ GPU ที่มี AI TOPS สูง ➡️ เหมาะกับงานเทรนโมเดล, simulation, และการเรนเดอร์ระดับสูง ➡️ ใช้ PCIe Gen 5 SSD สูงสุด 6TB สำหรับการเข้าถึงข้อมูลเร็ว ✅ หน้าจอและการเชื่อมต่อสำหรับ creator ➡️ Mini LED 18 นิ้ว ความละเอียด 3840 × 2400, HDR 1000 nits, DCI-P3 เต็มช่วงสี ➡️ มี Thunderbolt 5, HDMI 2.1, SD card reader, Wi-Fi 7 และ Killer Ethernet ➡️ เหมาะกับงานตัดต่อวิดีโอ, color grading, และการทำงานแบบมืออาชีพ ✅ ระบบระบายความร้อนระดับสูง ➡️ ใช้พัดลม AeroBlade รุ่นที่ 6 บางเพียง 0.05 มม. ➡️ มี liquid metal thermal grease และ vector heat pipe ➡️ ช่วยให้เครื่องทำงานเต็มประสิทธิภาพโดยไม่เกิด thermal throttling https://www.tomshardware.com/laptops/gaming-laptops/acer-hedges-its-hardware-bets-puts-vpro-and-ecc-memory-in-new-high-end-gaming-laptop
    WWW.TOMSHARDWARE.COM
    Acer hedges its hardware bets, puts vPro and ECC memory in new high-end gaming laptop
    The company says the Predator Helios 18P AI is also a local AI workstation.
    0 Comments 0 Shares 101 Views 0 Reviews
  • เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป

    ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป

    CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง

    การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300

    นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ

    https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    🎙️ เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300 นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    WCCFTECH.COM
    China's YMTC Reportedly Set to Enter the DRAM Segment by Partnering with Domestic Expert CXMT, Collaborating on HBM Technologies
    Chinese memory manufacturers are teaming up for HBM production, as the prominent NAND firm YMTC partners up with CXMT in a push towards HBM3.
    0 Comments 0 Shares 93 Views 0 Reviews
  • เรื่องเล่าจาก Peoria: เมื่อ Amkor สร้างโรงงานแพ็กชิปมูลค่า 2 พันล้าน เพื่ออุดช่องโหว่ของอเมริกา

    ในขณะที่สหรัฐฯ ทุ่มงบมหาศาลเพื่อดึงการผลิตชิปกลับสู่ประเทศผ่าน CHIPS Act โรงงานผลิตเวเฟอร์ของ TSMC และ Intel ก็เริ่มตั้งหลักในแอริโซนาแล้ว แต่ปัญหาคือ “หลังบ้าน” อย่างการประกอบ ทดสอบ และแพ็กเกจชิปยังต้องส่งกลับไปทำที่ไต้หวันหรือเกาหลีใต้ ทำให้เกิดคอขวดที่กระทบต่อทั้ง AI server และ GPU ระดับสูง

    Amkor Technology จึงประกาศสร้างโรงงานใหม่ใน Peoria, Arizona บนพื้นที่ 104 เอเคอร์ ด้วยงบลงทุนกว่า 2 พันล้านดอลลาร์ โดยมี Apple เป็นลูกค้ารายแรก และ TSMC เซ็น MOU เพื่อส่งเวเฟอร์จากโรงงานในฟีนิกซ์มาประกอบที่นี่โดยตรง ลดเวลารอจากหลายสัปดาห์เหลือไม่กี่วัน

    โรงงานนี้จะรองรับเทคโนโลยีแพ็กเกจระดับสูง เช่น CoWoS และ InFO ซึ่งเป็นหัวใจของชิป AI อย่าง Nvidia H100/H200 และ AMD MI300 รวมถึงชิป Apple M-series ที่ใช้ใน Mac และ iPad โดยได้รับเงินสนับสนุนจาก CHIPS Act กว่า 407 ล้านดอลลาร์ และสิทธิประโยชน์ทางภาษีจากรัฐบาลกลาง

    แต่แม้จะเป็นก้าวใหญ่ของอุตสาหกรรม โรงงานนี้จะเริ่มผลิตจริงในปี 2028 ซึ่งหมายความว่าคอขวดของการแพ็กชิปจะยังคงอยู่ไปอีกหลายปี และที่น่าห่วงกว่าคือปัญหาขาดแคลนแรงงาน—คาดว่าจะขาดคนงานถึง 70,000–90,000 คนทั่วสหรัฐฯ แม้จะมีระบบอัตโนมัติช่วยก็ตาม

    https://www.tomshardware.com/tech-industry/semiconductors/amkor-arizona-plant-plans-approved
    🎙️ เรื่องเล่าจาก Peoria: เมื่อ Amkor สร้างโรงงานแพ็กชิปมูลค่า 2 พันล้าน เพื่ออุดช่องโหว่ของอเมริกา ในขณะที่สหรัฐฯ ทุ่มงบมหาศาลเพื่อดึงการผลิตชิปกลับสู่ประเทศผ่าน CHIPS Act โรงงานผลิตเวเฟอร์ของ TSMC และ Intel ก็เริ่มตั้งหลักในแอริโซนาแล้ว แต่ปัญหาคือ “หลังบ้าน” อย่างการประกอบ ทดสอบ และแพ็กเกจชิปยังต้องส่งกลับไปทำที่ไต้หวันหรือเกาหลีใต้ ทำให้เกิดคอขวดที่กระทบต่อทั้ง AI server และ GPU ระดับสูง Amkor Technology จึงประกาศสร้างโรงงานใหม่ใน Peoria, Arizona บนพื้นที่ 104 เอเคอร์ ด้วยงบลงทุนกว่า 2 พันล้านดอลลาร์ โดยมี Apple เป็นลูกค้ารายแรก และ TSMC เซ็น MOU เพื่อส่งเวเฟอร์จากโรงงานในฟีนิกซ์มาประกอบที่นี่โดยตรง ลดเวลารอจากหลายสัปดาห์เหลือไม่กี่วัน โรงงานนี้จะรองรับเทคโนโลยีแพ็กเกจระดับสูง เช่น CoWoS และ InFO ซึ่งเป็นหัวใจของชิป AI อย่าง Nvidia H100/H200 และ AMD MI300 รวมถึงชิป Apple M-series ที่ใช้ใน Mac และ iPad โดยได้รับเงินสนับสนุนจาก CHIPS Act กว่า 407 ล้านดอลลาร์ และสิทธิประโยชน์ทางภาษีจากรัฐบาลกลาง แต่แม้จะเป็นก้าวใหญ่ของอุตสาหกรรม โรงงานนี้จะเริ่มผลิตจริงในปี 2028 ซึ่งหมายความว่าคอขวดของการแพ็กชิปจะยังคงอยู่ไปอีกหลายปี และที่น่าห่วงกว่าคือปัญหาขาดแคลนแรงงาน—คาดว่าจะขาดคนงานถึง 70,000–90,000 คนทั่วสหรัฐฯ แม้จะมีระบบอัตโนมัติช่วยก็ตาม https://www.tomshardware.com/tech-industry/semiconductors/amkor-arizona-plant-plans-approved
    0 Comments 0 Shares 108 Views 0 Reviews
  • เรื่องเล่าจาก Kazeta: เมื่อ Linux กลายเป็นคอนโซลยุค 90 ที่ไม่ต้องต่อเน็ต ไม่ต้องล็อกอิน แค่เสียบแล้วเล่น

    ในยุคที่เกมพีซีเต็มไปด้วย launcher, DRM, cloud save, subscription และ UI ที่ซับซ้อน Kazeta OS กลับเลือกเดินทางย้อนยุค—พัฒนา Linux OS ที่ให้ประสบการณ์แบบ “เสียบตลับ กดเปิด แล้วเล่น” เหมือนเครื่องเกมในยุค 1990s โดยไม่ต้องต่ออินเทอร์เน็ต ไม่ต้องล็อกอิน และไม่ต้องอัปเดตอะไรทั้งสิ้น

    Kazeta พัฒนาโดย Alesh Slovak ผู้สร้าง ChimeraOS มาก่อน โดยมีเป้าหมายเพื่อผู้เล่นที่เบื่อความซับซ้อนของ SteamOS หรือ digital storefronts และอยากเก็บเกมแบบ physical media ที่จับต้องได้ Kazeta จึงอนุญาตให้ผู้ใช้แปลงเกม DRM-free เช่นจาก GOG หรือ itch.io ให้กลายเป็น “ตลับเกม” บน SD card ที่เสียบแล้วเล่นได้ทันที

    เมื่อไม่มีตลับเสียบ เครื่องจะบูตเข้าสู่ BIOS สไตล์เรโทรที่ให้ผู้เล่นจัดการเซฟเกมได้อย่างง่ายดาย โดยเซฟจะเก็บไว้ในเครื่อง ส่วนตลับเกมจะเป็น read-only เพื่อรักษาความบริสุทธิ์ของไฟล์เกม

    แม้จะฟังดูเรียบง่าย แต่ Kazeta รองรับทั้งเกมใหม่และเกมเก่าผ่าน emulator และสามารถใช้กับพีซีทั่วไปที่มี GPU ระดับกลางขึ้นไป โดยมีข้อจำกัดบางอย่าง เช่น ไม่รองรับ dual boot, VM, hybrid graphics หรือ Bluetooth controller (แต่จะรองรับในอนาคต)

    แนวคิดหลักของ Kazeta OS
    สร้างประสบการณ์ “เสียบตลับแล้วเล่น” แบบคอนโซลยุค 90
    ไม่ต้องล็อกอิน, ไม่ต้องต่อเน็ต, ไม่มี launcher หรือ subscription
    รองรับเกม DRM-free จาก GOG, itch.io และ emulator

    วิธีใช้งาน
    ติดตั้ง Kazeta OS บนพีซีที่มีสเปกพอประมาณ
    เตรียม SD card เป็น “ตลับเกม” โดยใส่เกม DRM-free ทีละเกม
    เสียบ SD card แล้วเปิดเครื่องเพื่อเข้าเกมทันที
    หากไม่มีตลับ จะเข้าสู่ BIOS สไตล์เรโทรเพื่อจัดการเซฟเกม

    จุดเด่นด้านการเก็บเกม
    ตลับเกมเป็น read-only เพื่อรักษาไฟล์เกม
    เซฟเกมเก็บไว้ในเครื่อง และสามารถแบ็กอัปออกไปได้
    เหมาะสำหรับผู้ที่ต้องการเก็บเกมแบบ physical media

    ความเข้ากันได้ของระบบ
    รองรับ GPU: AMD RX 400+, NVIDIA GTX 1600+, Intel Gen 9+ (แต่ไม่แนะนำ)
    รองรับ controller: 8Bitdo Ultimate 2C (ผ่าน dongle หรือสาย)
    ไม่รองรับ VM, dual boot, hybrid graphics, Bluetooth controller (ยังไม่พร้อม)

    https://www.tomshardware.com/software/linux/linux-gaming-os-kazeta-promises-console-gaming-experience-of-the-1990s-for-pc-users-supports-almost-any-drm-free-game-past-or-present
    🎙️ เรื่องเล่าจาก Kazeta: เมื่อ Linux กลายเป็นคอนโซลยุค 90 ที่ไม่ต้องต่อเน็ต ไม่ต้องล็อกอิน แค่เสียบแล้วเล่น ในยุคที่เกมพีซีเต็มไปด้วย launcher, DRM, cloud save, subscription และ UI ที่ซับซ้อน Kazeta OS กลับเลือกเดินทางย้อนยุค—พัฒนา Linux OS ที่ให้ประสบการณ์แบบ “เสียบตลับ กดเปิด แล้วเล่น” เหมือนเครื่องเกมในยุค 1990s โดยไม่ต้องต่ออินเทอร์เน็ต ไม่ต้องล็อกอิน และไม่ต้องอัปเดตอะไรทั้งสิ้น Kazeta พัฒนาโดย Alesh Slovak ผู้สร้าง ChimeraOS มาก่อน โดยมีเป้าหมายเพื่อผู้เล่นที่เบื่อความซับซ้อนของ SteamOS หรือ digital storefronts และอยากเก็บเกมแบบ physical media ที่จับต้องได้ Kazeta จึงอนุญาตให้ผู้ใช้แปลงเกม DRM-free เช่นจาก GOG หรือ itch.io ให้กลายเป็น “ตลับเกม” บน SD card ที่เสียบแล้วเล่นได้ทันที เมื่อไม่มีตลับเสียบ เครื่องจะบูตเข้าสู่ BIOS สไตล์เรโทรที่ให้ผู้เล่นจัดการเซฟเกมได้อย่างง่ายดาย โดยเซฟจะเก็บไว้ในเครื่อง ส่วนตลับเกมจะเป็น read-only เพื่อรักษาความบริสุทธิ์ของไฟล์เกม แม้จะฟังดูเรียบง่าย แต่ Kazeta รองรับทั้งเกมใหม่และเกมเก่าผ่าน emulator และสามารถใช้กับพีซีทั่วไปที่มี GPU ระดับกลางขึ้นไป โดยมีข้อจำกัดบางอย่าง เช่น ไม่รองรับ dual boot, VM, hybrid graphics หรือ Bluetooth controller (แต่จะรองรับในอนาคต) ✅ แนวคิดหลักของ Kazeta OS ➡️ สร้างประสบการณ์ “เสียบตลับแล้วเล่น” แบบคอนโซลยุค 90 ➡️ ไม่ต้องล็อกอิน, ไม่ต้องต่อเน็ต, ไม่มี launcher หรือ subscription ➡️ รองรับเกม DRM-free จาก GOG, itch.io และ emulator ✅ วิธีใช้งาน ➡️ ติดตั้ง Kazeta OS บนพีซีที่มีสเปกพอประมาณ ➡️ เตรียม SD card เป็น “ตลับเกม” โดยใส่เกม DRM-free ทีละเกม ➡️ เสียบ SD card แล้วเปิดเครื่องเพื่อเข้าเกมทันที ➡️ หากไม่มีตลับ จะเข้าสู่ BIOS สไตล์เรโทรเพื่อจัดการเซฟเกม ✅ จุดเด่นด้านการเก็บเกม ➡️ ตลับเกมเป็น read-only เพื่อรักษาไฟล์เกม ➡️ เซฟเกมเก็บไว้ในเครื่อง และสามารถแบ็กอัปออกไปได้ ➡️ เหมาะสำหรับผู้ที่ต้องการเก็บเกมแบบ physical media ✅ ความเข้ากันได้ของระบบ ➡️ รองรับ GPU: AMD RX 400+, NVIDIA GTX 1600+, Intel Gen 9+ (แต่ไม่แนะนำ) ➡️ รองรับ controller: 8Bitdo Ultimate 2C (ผ่าน dongle หรือสาย) ➡️ ไม่รองรับ VM, dual boot, hybrid graphics, Bluetooth controller (ยังไม่พร้อม) https://www.tomshardware.com/software/linux/linux-gaming-os-kazeta-promises-console-gaming-experience-of-the-1990s-for-pc-users-supports-almost-any-drm-free-game-past-or-present
    0 Comments 0 Shares 105 Views 0 Reviews
  • Framework Laptop 16 ปี 2025 — โน้ตบุ๊กที่ไม่แค่แรง แต่ “ปรับแต่งได้ทุกส่วน”

    Framework Laptop 16 รุ่นใหม่ปี 2025 ไม่ใช่แค่การอัปเกรดสเปกธรรมดา แต่เป็นการยกระดับแนวคิด “โน้ตบุ๊กที่คุณประกอบเองได้” ไปอีกขั้น ด้วยการเปลี่ยนแปลงแทบทุกส่วน ตั้งแต่กราฟิก ซีพียู ระบบระบายความร้อน ไปจนถึงที่ชาร์จ

    หัวใจของการอัปเกรดคือกราฟิกโมดูลใหม่ — NVIDIA GeForce RTX 5070 Laptop GPU ที่ใช้สถาปัตยกรรม Blackwell พร้อมแรม GDDR7 ขนาด 8GB ให้ประสิทธิภาพเพิ่มขึ้น 30–40% จากรุ่นเดิม RX 7700S โดยยังคงใช้พลังงานเท่าเดิมที่ 100W TGP

    Framework ยังปรับปรุงระบบระบายความร้อนด้วยแผ่น Honeywell phase change และพัดลมที่ออกแบบใบพัดใหม่ พร้อม IC ควบคุมที่ลดเสียงรบกวน และยังรองรับการส่งสัญญาณภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง

    ที่น่าตื่นเต้นคือกราฟิกโมดูล RTX 5070 นี้สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ด้วย ทำให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องซื้อเครื่องใหม่ทั้งหมด

    ด้านซีพียู Framework เลือกใช้ AMD Ryzen AI 300 Series รุ่นใหม่ ได้แก่ Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้สถาปัตยกรรม Zen 5 พร้อมรองรับการทำงานที่ TDP 45W อย่างต่อเนื่อง

    และเพื่อรองรับพลังงานที่เพิ่มขึ้น Framework ได้เปิดตัวอะแดปเตอร์ชาร์จ USB-C แบบ 240W ซึ่งถือเป็นรุ่นแรกของโลกที่รองรับมาตรฐาน USB-PD 3.1 ในระดับนี้

    นอกจากนี้ยังมีการอัปเกรดจอภาพให้รองรับ G-Sync, เพิ่มความแข็งแรงของฝาเครื่องด้วยอะลูมิเนียมใหม่, ปรับปรุงกล้องเว็บแคม และออกแบบลายคีย์บอร์ดใหม่ทั้งหมด

    สรุปเนื้อหาเป็นหัวข้อ
    Framework Laptop 16 รุ่นปี 2025 ได้รับการอัปเกรดครั้งใหญ่ในทุกส่วนของเครื่อง
    ใช้กราฟิกโมดูล RTX 5070 Laptop GPU พร้อมแรม GDDR7 ขนาด 8GB
    ประสิทธิภาพกราฟิกเพิ่มขึ้น 30–40% จาก RX 7700S โดยใช้พลังงานเท่าเดิม
    ระบบระบายความร้อนใหม่ใช้แผ่น Honeywell phase change และพัดลมใบพัดใหม่
    รองรับการส่งภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง
    กราฟิกโมดูล RTX 5070 สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้
    มีตัวเลือกซีพียู Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้ Zen 5
    เปิดตัวอะแดปเตอร์ชาร์จ USB-C 240W รองรับ USB-PD 3.1
    จอภาพ 165Hz 2560x1600 รองรับ G-Sync ผ่าน mux switch
    ฝาเครื่องอะลูมิเนียมใหม่เพิ่มความแข็งแรง และกล้องเว็บแคมรุ่นที่สองให้ภาพชัดขึ้น

    ข้อมูลเสริมจากภายนอก
    RTX 5070 Laptop GPU ใช้สถาปัตยกรรม Blackwell ซึ่งเป็นรุ่นล่าสุดจาก NVIDIA
    Ryzen AI 300 Series มี NPU สำหรับงาน AI และรองรับการประมวลผลแบบ local
    USB-PD 3.1 รองรับการชาร์จสูงสุดถึง 240W ผ่านสาย Type-C เส้นเดียว
    Framework เป็นแบรนด์เดียวที่ให้ผู้ใช้เปลี่ยนกราฟิกโมดูลได้เองในโน้ตบุ๊ก
    ระบบ Expansion Bay ของ Framework ช่วยให้ผู้ใช้เลือกใช้ GPU หรือ shell เปล่าได้ตามต้องการ

    https://www.tomshardware.com/laptops/framework-laptop-16-gets-a-2025-upgrade-modular-notebook-gets-rtx-5070-graphics-zen-5-cpu-options-and-240w-type-c-charger
    💻 Framework Laptop 16 ปี 2025 — โน้ตบุ๊กที่ไม่แค่แรง แต่ “ปรับแต่งได้ทุกส่วน” Framework Laptop 16 รุ่นใหม่ปี 2025 ไม่ใช่แค่การอัปเกรดสเปกธรรมดา แต่เป็นการยกระดับแนวคิด “โน้ตบุ๊กที่คุณประกอบเองได้” ไปอีกขั้น ด้วยการเปลี่ยนแปลงแทบทุกส่วน ตั้งแต่กราฟิก ซีพียู ระบบระบายความร้อน ไปจนถึงที่ชาร์จ หัวใจของการอัปเกรดคือกราฟิกโมดูลใหม่ — NVIDIA GeForce RTX 5070 Laptop GPU ที่ใช้สถาปัตยกรรม Blackwell พร้อมแรม GDDR7 ขนาด 8GB ให้ประสิทธิภาพเพิ่มขึ้น 30–40% จากรุ่นเดิม RX 7700S โดยยังคงใช้พลังงานเท่าเดิมที่ 100W TGP Framework ยังปรับปรุงระบบระบายความร้อนด้วยแผ่น Honeywell phase change และพัดลมที่ออกแบบใบพัดใหม่ พร้อม IC ควบคุมที่ลดเสียงรบกวน และยังรองรับการส่งสัญญาณภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง ที่น่าตื่นเต้นคือกราฟิกโมดูล RTX 5070 นี้สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ด้วย ทำให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องซื้อเครื่องใหม่ทั้งหมด ด้านซีพียู Framework เลือกใช้ AMD Ryzen AI 300 Series รุ่นใหม่ ได้แก่ Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้สถาปัตยกรรม Zen 5 พร้อมรองรับการทำงานที่ TDP 45W อย่างต่อเนื่อง และเพื่อรองรับพลังงานที่เพิ่มขึ้น Framework ได้เปิดตัวอะแดปเตอร์ชาร์จ USB-C แบบ 240W ซึ่งถือเป็นรุ่นแรกของโลกที่รองรับมาตรฐาน USB-PD 3.1 ในระดับนี้ นอกจากนี้ยังมีการอัปเกรดจอภาพให้รองรับ G-Sync, เพิ่มความแข็งแรงของฝาเครื่องด้วยอะลูมิเนียมใหม่, ปรับปรุงกล้องเว็บแคม และออกแบบลายคีย์บอร์ดใหม่ทั้งหมด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Framework Laptop 16 รุ่นปี 2025 ได้รับการอัปเกรดครั้งใหญ่ในทุกส่วนของเครื่อง ➡️ ใช้กราฟิกโมดูล RTX 5070 Laptop GPU พร้อมแรม GDDR7 ขนาด 8GB ➡️ ประสิทธิภาพกราฟิกเพิ่มขึ้น 30–40% จาก RX 7700S โดยใช้พลังงานเท่าเดิม ➡️ ระบบระบายความร้อนใหม่ใช้แผ่น Honeywell phase change และพัดลมใบพัดใหม่ ➡️ รองรับการส่งภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง ➡️ กราฟิกโมดูล RTX 5070 สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ ➡️ มีตัวเลือกซีพียู Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้ Zen 5 ➡️ เปิดตัวอะแดปเตอร์ชาร์จ USB-C 240W รองรับ USB-PD 3.1 ➡️ จอภาพ 165Hz 2560x1600 รองรับ G-Sync ผ่าน mux switch ➡️ ฝาเครื่องอะลูมิเนียมใหม่เพิ่มความแข็งแรง และกล้องเว็บแคมรุ่นที่สองให้ภาพชัดขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 Laptop GPU ใช้สถาปัตยกรรม Blackwell ซึ่งเป็นรุ่นล่าสุดจาก NVIDIA ➡️ Ryzen AI 300 Series มี NPU สำหรับงาน AI และรองรับการประมวลผลแบบ local ➡️ USB-PD 3.1 รองรับการชาร์จสูงสุดถึง 240W ผ่านสาย Type-C เส้นเดียว ➡️ Framework เป็นแบรนด์เดียวที่ให้ผู้ใช้เปลี่ยนกราฟิกโมดูลได้เองในโน้ตบุ๊ก ➡️ ระบบ Expansion Bay ของ Framework ช่วยให้ผู้ใช้เลือกใช้ GPU หรือ shell เปล่าได้ตามต้องการ https://www.tomshardware.com/laptops/framework-laptop-16-gets-a-2025-upgrade-modular-notebook-gets-rtx-5070-graphics-zen-5-cpu-options-and-240w-type-c-charger
    0 Comments 0 Shares 175 Views 0 Reviews
  • เมื่อความร้อนจาก AI กลายเป็นศัตรูตัวฉกาจ Google จึงตอบโต้ด้วย “น้ำ”

    ในยุคที่ AI กลายเป็นตัวขับเคลื่อนหลักของดาต้าเซ็นเตอร์ ความร้อนจากชิปประมวลผลก็พุ่งทะยานตามไปด้วย โดยเฉพาะ TPU ของ Google ที่ใช้พลังงานมหาศาลในการฝึกโมเดลขนาดใหญ่ Google จึงเปิดตัวระบบระบายความร้อนด้วยน้ำแบบเต็มรูปแบบในงาน Hot Chips 2025 ซึ่งไม่ใช่แค่ “ติดตั้งหม้อน้ำ” แต่เป็นการออกแบบใหม่ทั้งระบบตั้งแต่ระดับแร็ค

    ระบบนี้ใช้ CDU (Coolant Distribution Unit) จำนวน 6 ตัวต่อแร็ค โดย 5 ตัวทำงาน และอีก 1 ตัวเป็นสำรองเพื่อให้สามารถซ่อมบำรุงได้โดยไม่ต้องหยุดระบบ CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร โดยไม่ให้ของเหลวทั้งสองฝั่งผสมกัน

    น้ำหล่อเย็นจะถูกส่งผ่านท่อไปยังเซิร์ฟเวอร์ TPU โดยไหลผ่านชิปแบบต่อเนื่อง (series loop) ซึ่งหมายความว่าชิปตัวท้ายจะได้รับน้ำที่ร้อนกว่าชิปตัวแรก Google จึงออกแบบระบบให้รองรับความร้อนของชิปตัวสุดท้ายเป็นหลัก และใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน

    ที่น่าสนใจคือ TPUv4 ของ Google ใช้การระบายความร้อนแบบ bare-die ซึ่งคล้ายกับการ “delid” ในวงการ PC enthusiast เพื่อให้ความร้อนถ่ายเทได้ดีขึ้น เพราะ TPUv4 มีการใช้พลังงานมากกว่า TPUv3 ถึง 1.6 เท่า

    Google ยังพบว่า การใช้ปั๊มน้ำกินไฟน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศแบบเดิม ซึ่งช่วยลดภาระด้านพลังงานของดาต้าเซ็นเตอร์ได้อย่างมหาศาล

    สรุปเนื้อหาเป็นหัวข้อ
    Google เปิดตัวระบบระบายความร้อนด้วยน้ำระดับดาต้าเซ็นเตอร์ในงาน Hot Chips 2025
    ใช้ CDU จำนวน 6 ตัวต่อแร็ค โดยมี 1 ตัวเป็นสำรองเพื่อซ่อมบำรุงโดยไม่ต้องหยุดระบบ
    CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร
    น้ำหล่อเย็นไหลผ่านชิป TPU แบบต่อเนื่อง โดยออกแบบให้รองรับความร้อนของชิปตัวท้าย
    ใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน
    TPUv4 ใช้การระบายความร้อนแบบ bare-die เพื่อรองรับพลังงานที่สูงขึ้น 1.6 เท่า
    ปั๊มน้ำใช้พลังงานน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศ
    ระบบใช้ quick-disconnect fittings เพื่อให้ง่ายต่อการบำรุงรักษา
    มีระบบตรวจจับการรั่ว ระบบแจ้งเตือน และการบำรุงรักษาแบบมีแผนเพื่อป้องกันปัญหา
    Google ใช้การทดสอบรั่วและการตรวจสอบคุณภาพอย่างเข้มงวดก่อนใช้งานจริง

    ข้อมูลเสริมจากภายนอก
    Google เตรียมเปิดตัว CDU รุ่นที่ 5 ชื่อ Project Deschutes ในงาน OCP Summit เพื่อใช้ในแร็คระดับ 1MW
    NVIDIA GB300 และ Rebellions AI ก็ใช้ระบบระบายความร้อนด้วยน้ำในงาน Hot Chips เช่นกัน
    ระบบของ Rebellions AI ใช้ chiller และ water block สำหรับการสาธิต ML accelerator
    การระบายความร้อนด้วยน้ำมีประสิทธิภาพสูงกว่าการใช้อากาศถึง 4,000 เท่าในด้านการนำความร้อน
    ดาต้าเซ็นเตอร์ยุคใหม่ต้องออกแบบระบบระบายความร้อนควบคู่กับการจัดการพลังงานอย่างแม่นยำ

    https://chipsandcheese.com/p/googles-liquid-cooling-at-hot-chips
    💧 เมื่อความร้อนจาก AI กลายเป็นศัตรูตัวฉกาจ Google จึงตอบโต้ด้วย “น้ำ” ในยุคที่ AI กลายเป็นตัวขับเคลื่อนหลักของดาต้าเซ็นเตอร์ ความร้อนจากชิปประมวลผลก็พุ่งทะยานตามไปด้วย โดยเฉพาะ TPU ของ Google ที่ใช้พลังงานมหาศาลในการฝึกโมเดลขนาดใหญ่ Google จึงเปิดตัวระบบระบายความร้อนด้วยน้ำแบบเต็มรูปแบบในงาน Hot Chips 2025 ซึ่งไม่ใช่แค่ “ติดตั้งหม้อน้ำ” แต่เป็นการออกแบบใหม่ทั้งระบบตั้งแต่ระดับแร็ค ระบบนี้ใช้ CDU (Coolant Distribution Unit) จำนวน 6 ตัวต่อแร็ค โดย 5 ตัวทำงาน และอีก 1 ตัวเป็นสำรองเพื่อให้สามารถซ่อมบำรุงได้โดยไม่ต้องหยุดระบบ CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร โดยไม่ให้ของเหลวทั้งสองฝั่งผสมกัน น้ำหล่อเย็นจะถูกส่งผ่านท่อไปยังเซิร์ฟเวอร์ TPU โดยไหลผ่านชิปแบบต่อเนื่อง (series loop) ซึ่งหมายความว่าชิปตัวท้ายจะได้รับน้ำที่ร้อนกว่าชิปตัวแรก Google จึงออกแบบระบบให้รองรับความร้อนของชิปตัวสุดท้ายเป็นหลัก และใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน ที่น่าสนใจคือ TPUv4 ของ Google ใช้การระบายความร้อนแบบ bare-die ซึ่งคล้ายกับการ “delid” ในวงการ PC enthusiast เพื่อให้ความร้อนถ่ายเทได้ดีขึ้น เพราะ TPUv4 มีการใช้พลังงานมากกว่า TPUv3 ถึง 1.6 เท่า Google ยังพบว่า การใช้ปั๊มน้ำกินไฟน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศแบบเดิม ซึ่งช่วยลดภาระด้านพลังงานของดาต้าเซ็นเตอร์ได้อย่างมหาศาล 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Google เปิดตัวระบบระบายความร้อนด้วยน้ำระดับดาต้าเซ็นเตอร์ในงาน Hot Chips 2025 ➡️ ใช้ CDU จำนวน 6 ตัวต่อแร็ค โดยมี 1 ตัวเป็นสำรองเพื่อซ่อมบำรุงโดยไม่ต้องหยุดระบบ ➡️ CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร ➡️ น้ำหล่อเย็นไหลผ่านชิป TPU แบบต่อเนื่อง โดยออกแบบให้รองรับความร้อนของชิปตัวท้าย ➡️ ใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน ➡️ TPUv4 ใช้การระบายความร้อนแบบ bare-die เพื่อรองรับพลังงานที่สูงขึ้น 1.6 เท่า ➡️ ปั๊มน้ำใช้พลังงานน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศ ➡️ ระบบใช้ quick-disconnect fittings เพื่อให้ง่ายต่อการบำรุงรักษา ➡️ มีระบบตรวจจับการรั่ว ระบบแจ้งเตือน และการบำรุงรักษาแบบมีแผนเพื่อป้องกันปัญหา ➡️ Google ใช้การทดสอบรั่วและการตรวจสอบคุณภาพอย่างเข้มงวดก่อนใช้งานจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Google เตรียมเปิดตัว CDU รุ่นที่ 5 ชื่อ Project Deschutes ในงาน OCP Summit เพื่อใช้ในแร็คระดับ 1MW ➡️ NVIDIA GB300 และ Rebellions AI ก็ใช้ระบบระบายความร้อนด้วยน้ำในงาน Hot Chips เช่นกัน ➡️ ระบบของ Rebellions AI ใช้ chiller และ water block สำหรับการสาธิต ML accelerator ➡️ การระบายความร้อนด้วยน้ำมีประสิทธิภาพสูงกว่าการใช้อากาศถึง 4,000 เท่าในด้านการนำความร้อน ➡️ ดาต้าเซ็นเตอร์ยุคใหม่ต้องออกแบบระบบระบายความร้อนควบคู่กับการจัดการพลังงานอย่างแม่นยำ https://chipsandcheese.com/p/googles-liquid-cooling-at-hot-chips
    0 Comments 0 Shares 169 Views 0 Reviews
  • GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC

    ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm

    GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว

    หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C

    DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5

    สรุปเนื้อหาเป็นหัวข้อ
    NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก
    ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว
    CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB
    GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing
    ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32)
    รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA
    แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C
    มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU
    รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ
    ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM
    TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป
    DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่
    รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos

    ข้อมูลเสริมจากภายนอก
    DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud
    ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน
    NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก
    DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan
    ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency

    https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    🧠 GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก ➡️ ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว ➡️ CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB ➡️ GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing ➡️ ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32) ➡️ รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA ➡️ แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C ➡️ มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU ➡️ รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ ➡️ ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM ➡️ TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป ➡️ DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่ ➡️ รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos ✅ ข้อมูลเสริมจากภายนอก ➡️ DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud ➡️ ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน ➡️ NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก ➡️ DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan ➡️ ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    WCCFTECH.COM
    NVIDIA Dissects Its GB10 Superchip For DGX AI PCs: 3nm With 20 ARM v9.2 CPU Cores, 1000 TOPS NVFP4 Blackwell GPU, LPDDR5x-9400 Memory Support, 140W TDP
    NVIDIA has just detailed its GB10 Superchip with Blackwell GPU, which is being used to power several DGX AI Mini supercomputers.
    0 Comments 0 Shares 199 Views 0 Reviews
  • Elon Musk กับภารกิจสร้างจักรวาล AI ด้วย GPU หลายพันล้านตัว

    ในยุคที่ AI กลายเป็นหัวใจของนวัตกรรมระดับโลก Elon Musk ก็ไม่ยอมตกขบวน เขาออกมาประกาศเป้าหมายที่ฟังดูเกินจริงแต่เต็มไปด้วยความทะเยอทะยาน: xAI บริษัทของเขาจะใช้ GPU ที่มีพลังเทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี และในอนาคตอาจขยายไปถึง “พันล้านตัว”

    GPU เหล่านี้จะถูกใช้ในศูนย์ข้อมูลขนาดมหึมา เช่น Colossus ที่ตั้งอยู่ในเมมฟิส ซึ่งปัจจุบันมีอยู่ประมาณ 200,000 ตัว และกำลังสร้าง Colossus II เพื่อรองรับการขยายตัว

    ในขณะเดียวกัน Musk ก็เปิดโมเดล Grok 2.5 ให้เป็นโอเพ่นซอร์สผ่านแพลตฟอร์ม Hugging Face เพื่อให้ชุมชนนักพัฒนาเข้าถึงโค้ดและ weights ได้อย่างอิสระ โดยมีแผนจะเปิด Grok 3 ภายใน 6 เดือนข้างหน้า

    เป้าหมายของ Musk คือการสร้างระบบ AI ที่ “แสวงหาความจริงสูงสุด” และสามารถแข่งขันกับบริษัทใหญ่อย่าง OpenAI, Meta และ Google ซึ่งต่างก็เร่งสะสม GPU และพัฒนาโมเดลของตัวเองเช่นกัน

    แต่เบื้องหลังความทะเยอทะยานนี้ ก็มีคำถามตามมา: การใช้พลังงานมหาศาลในศูนย์ข้อมูลจะส่งผลต่อสิ่งแวดล้อมอย่างไร? และการเปิดโมเดลให้สาธารณะจะนำไปสู่การใช้งานในทางที่ไม่พึงประสงค์หรือไม่?

    สรุปเนื้อหาเป็นหัวข้อ
    Elon Musk ตั้งเป้าให้ xAI ใช้ GPU เทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี
    ปัจจุบัน xAI มี GPU ประมาณ 200,000 ตัวในศูนย์ข้อมูล Colossus ที่เมมฟิส
    กำลังสร้าง Colossus II เพื่อขยายขีดความสามารถด้าน AI
    Musk กล่าวว่าต้องการขยายไปถึง “พันล้าน GPU” ในอนาคต
    Grok 2.5 ถูกเปิดให้เป็นโอเพ่นซอร์สผ่าน Hugging Face
    Grok 3 จะเปิดโอเพ่นซอร์สภายใน 6 เดือน
    Grok 4 ยังไม่เปิดให้สาธารณะใช้งาน และมีข้อถกเถียงเกี่ยวกับเนื้อหาภายใน
    xAI ต้องการสร้าง AI ที่ “แสวงหาความจริงสูงสุด”
    คู่แข่งอย่าง Meta และ OpenAI ก็มีแผนสะสม GPU หลายล้านตัวเช่นกัน
    Meta กำลังสร้างศูนย์ข้อมูล Hyperion ที่ใช้พลังงานถึง 5GW เทียบเท่าฐานโหลดของ NYC

    ข้อมูลเสริมจากภายนอก
    Nvidia H100 เป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีความสามารถในการประมวลผลสูงมาก
    ราคาต่อหน่วยของ H100 อยู่ที่ประมาณ $30,000 ทำให้การสะสม GPU จำนวนมากเป็นการลงทุนมหาศาล
    Hugging Face เป็นแพลตฟอร์มโอเพ่นซอร์สที่นิยมใช้ในวงการ AI สำหรับการแชร์โมเดลและ weights
    การเปิดโมเดลให้สาธารณะสามารถช่วยให้เกิดการพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงด้านความปลอดภัย
    การแข่งขันด้าน AI ระหว่างบริษัทใหญ่กำลังผลักดันให้เกิดการพัฒนา hardware เฉพาะทาง เช่น ASIC และ custom chips

    https://www.tomshardware.com/tech-industry/elon-musk-doubles-down-on-goal-of-50-million-h100-equivalent-gpus-in-the-next-5-years-envisions-billions-of-gpus-in-the-future-as-grok-2-5-goes-open-source
    🎙️ Elon Musk กับภารกิจสร้างจักรวาล AI ด้วย GPU หลายพันล้านตัว ในยุคที่ AI กลายเป็นหัวใจของนวัตกรรมระดับโลก Elon Musk ก็ไม่ยอมตกขบวน เขาออกมาประกาศเป้าหมายที่ฟังดูเกินจริงแต่เต็มไปด้วยความทะเยอทะยาน: xAI บริษัทของเขาจะใช้ GPU ที่มีพลังเทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี และในอนาคตอาจขยายไปถึง “พันล้านตัว” GPU เหล่านี้จะถูกใช้ในศูนย์ข้อมูลขนาดมหึมา เช่น Colossus ที่ตั้งอยู่ในเมมฟิส ซึ่งปัจจุบันมีอยู่ประมาณ 200,000 ตัว และกำลังสร้าง Colossus II เพื่อรองรับการขยายตัว ในขณะเดียวกัน Musk ก็เปิดโมเดล Grok 2.5 ให้เป็นโอเพ่นซอร์สผ่านแพลตฟอร์ม Hugging Face เพื่อให้ชุมชนนักพัฒนาเข้าถึงโค้ดและ weights ได้อย่างอิสระ โดยมีแผนจะเปิด Grok 3 ภายใน 6 เดือนข้างหน้า เป้าหมายของ Musk คือการสร้างระบบ AI ที่ “แสวงหาความจริงสูงสุด” และสามารถแข่งขันกับบริษัทใหญ่อย่าง OpenAI, Meta และ Google ซึ่งต่างก็เร่งสะสม GPU และพัฒนาโมเดลของตัวเองเช่นกัน แต่เบื้องหลังความทะเยอทะยานนี้ ก็มีคำถามตามมา: การใช้พลังงานมหาศาลในศูนย์ข้อมูลจะส่งผลต่อสิ่งแวดล้อมอย่างไร? และการเปิดโมเดลให้สาธารณะจะนำไปสู่การใช้งานในทางที่ไม่พึงประสงค์หรือไม่? 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Elon Musk ตั้งเป้าให้ xAI ใช้ GPU เทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี ➡️ ปัจจุบัน xAI มี GPU ประมาณ 200,000 ตัวในศูนย์ข้อมูล Colossus ที่เมมฟิส ➡️ กำลังสร้าง Colossus II เพื่อขยายขีดความสามารถด้าน AI ➡️ Musk กล่าวว่าต้องการขยายไปถึง “พันล้าน GPU” ในอนาคต ➡️ Grok 2.5 ถูกเปิดให้เป็นโอเพ่นซอร์สผ่าน Hugging Face ➡️ Grok 3 จะเปิดโอเพ่นซอร์สภายใน 6 เดือน ➡️ Grok 4 ยังไม่เปิดให้สาธารณะใช้งาน และมีข้อถกเถียงเกี่ยวกับเนื้อหาภายใน ➡️ xAI ต้องการสร้าง AI ที่ “แสวงหาความจริงสูงสุด” ➡️ คู่แข่งอย่าง Meta และ OpenAI ก็มีแผนสะสม GPU หลายล้านตัวเช่นกัน ➡️ Meta กำลังสร้างศูนย์ข้อมูล Hyperion ที่ใช้พลังงานถึง 5GW เทียบเท่าฐานโหลดของ NYC ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia H100 เป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีความสามารถในการประมวลผลสูงมาก ➡️ ราคาต่อหน่วยของ H100 อยู่ที่ประมาณ $30,000 ทำให้การสะสม GPU จำนวนมากเป็นการลงทุนมหาศาล ➡️ Hugging Face เป็นแพลตฟอร์มโอเพ่นซอร์สที่นิยมใช้ในวงการ AI สำหรับการแชร์โมเดลและ weights ➡️ การเปิดโมเดลให้สาธารณะสามารถช่วยให้เกิดการพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงด้านความปลอดภัย ➡️ การแข่งขันด้าน AI ระหว่างบริษัทใหญ่กำลังผลักดันให้เกิดการพัฒนา hardware เฉพาะทาง เช่น ASIC และ custom chips https://www.tomshardware.com/tech-industry/elon-musk-doubles-down-on-goal-of-50-million-h100-equivalent-gpus-in-the-next-5-years-envisions-billions-of-gpus-in-the-future-as-grok-2-5-goes-open-source
    0 Comments 0 Shares 179 Views 0 Reviews
  • Humain กับภารกิจเปลี่ยนซาอุฯ ให้เป็นมหาอำนาจ AI ด้วยชิปจากสหรัฐฯ

    กลางปี 2025 ซาอุดีอาระเบียเปิดตัวบริษัทใหม่ชื่อว่า “Humain” ภายใต้การสนับสนุนจากกองทุนความมั่งคั่งแห่งชาติ (Public Investment Fund) โดยมีเป้าหมายชัดเจน: เปลี่ยนประเทศให้กลายเป็นศูนย์กลางด้านปัญญาประดิษฐ์ของภูมิภาค

    Humain เริ่มต้นด้วยการสร้างศูนย์ข้อมูล (data centers) ขนาดใหญ่ในสองเมืองหลักคือ ริยาดและดัมมาม โดยแต่ละแห่งจะมีความสามารถในการใช้พลังงานสูงถึง 100 เมกะวัตต์ และมีกำหนดเปิดใช้งานในช่วงไตรมาสที่สองของปี 2026

    สิ่งที่น่าสนใจคือ Humain เลือกใช้ชิป AI จากบริษัทสหรัฐฯ เช่น NVIDIA และ AMD โดยได้รับอนุมัติให้นำเข้า “Blackwell” chips รุ่นล่าสุดจำนวน 18,000 ชิ้น ซึ่งถือเป็นการลงทุนเชิงกลยุทธ์ที่สะท้อนถึงความร่วมมือระหว่างซาอุฯ กับสหรัฐฯ ที่ลึกซึ้งขึ้นเรื่อยๆ

    นอกจากนี้ Humain ยังมีแผนขยายศูนย์ข้อมูลให้มีขนาดรวมถึง 1.9 กิกะวัตต์ภายในปี 2030 และร่วมมือกับบริษัทเทคโนโลยีระดับโลกอย่าง Qualcomm, Cisco และแม้แต่ xAI ของ Elon Musk เพื่อสร้างโครงสร้างพื้นฐานด้าน AI ที่ครอบคลุมทั้งฮาร์ดแวร์และซอฟต์แวร์

    เบื้องหลังทั้งหมดนี้คือวิสัยทัศน์ของมกุฎราชกุมาร Mohammed bin Salman ที่ต้องการผลักดันประเทศให้พ้นจากการพึ่งพาน้ำมัน และเข้าสู่เศรษฐกิจแห่งอนาคตผ่าน “Vision 2030”

    สรุปเนื้อหาเป็นหัวข้อ
    Humain เป็นบริษัท AI ใหม่ของซาอุดีอาระเบีย เปิดตัวในเดือนพฤษภาคม 2025
    เริ่มสร้างศูนย์ข้อมูลในริยาดและดัมมาม กำหนดเปิดใช้งานต้นปี 2026
    แต่ละแห่งมีความสามารถเริ่มต้นที่ 100 เมกะวัตต์
    ใช้ชิป AI จากสหรัฐฯ เช่น NVIDIA และ AMD
    ได้รับอนุมัติให้นำเข้า Blackwell chips จำนวน 18,000 ชิ้น
    มีแผนขยายศูนย์ข้อมูลรวมถึง 1.9 กิกะวัตต์ภายในปี 2030
    ร่วมมือกับบริษัทเทคโนโลยีระดับโลก เช่น Qualcomm, Cisco และ xAI
    Humain อยู่ภายใต้การดูแลของกองทุน PIF และมกุฎราชกุมาร Mohammed bin Salman
    เป้าหมายคือสร้างโครงสร้างพื้นฐาน AI และโมเดลขั้นสูงในภูมิภาค
    การเปิดตัว Humain เกิดขึ้นพร้อมกับการเยือนของประธานาธิบดีทรัมป์ ซึ่งมีการตกลงมูลค่า 600 พันล้านดอลลาร์กับบริษัทสหรัฐฯ

    ข้อมูลเสริมจากภายนอก
    Blackwell chips ของ NVIDIA เป็นชิป AI รุ่นใหม่ที่ออกแบบมาเพื่องานประมวลผลขนาดใหญ่ เช่น LLM และการฝึกโมเดล deep learning
    การใช้ชิปจากสหรัฐฯ สะท้อนถึงการพึ่งพาเทคโนโลยีตะวันตกในช่วงเปลี่ยนผ่านของซาอุฯ
    Vision 2030 เป็นแผนยุทธศาสตร์ของซาอุฯ ที่มุ่งเน้นการลดการพึ่งพาน้ำมันและส่งเสริมเทคโนโลยี
    การลงทุนใน AI ยังรวมถึงการฝึกอบรมบุคลากร 20,000 คนภายในปี 2030
    การสร้างศูนย์ข้อมูลขนาดใหญ่ช่วยให้ซาอุฯ มีอำนาจในการประมวลผลข้อมูลในระดับภูมิภาค

    https://www.thestar.com.my/tech/tech-news/2025/08/26/saudi039s-humain-to-launch-data-centers-with-us-chips-in-early-2026-bloomberg-news-reports
    🎙️ Humain กับภารกิจเปลี่ยนซาอุฯ ให้เป็นมหาอำนาจ AI ด้วยชิปจากสหรัฐฯ กลางปี 2025 ซาอุดีอาระเบียเปิดตัวบริษัทใหม่ชื่อว่า “Humain” ภายใต้การสนับสนุนจากกองทุนความมั่งคั่งแห่งชาติ (Public Investment Fund) โดยมีเป้าหมายชัดเจน: เปลี่ยนประเทศให้กลายเป็นศูนย์กลางด้านปัญญาประดิษฐ์ของภูมิภาค Humain เริ่มต้นด้วยการสร้างศูนย์ข้อมูล (data centers) ขนาดใหญ่ในสองเมืองหลักคือ ริยาดและดัมมาม โดยแต่ละแห่งจะมีความสามารถในการใช้พลังงานสูงถึง 100 เมกะวัตต์ และมีกำหนดเปิดใช้งานในช่วงไตรมาสที่สองของปี 2026 สิ่งที่น่าสนใจคือ Humain เลือกใช้ชิป AI จากบริษัทสหรัฐฯ เช่น NVIDIA และ AMD โดยได้รับอนุมัติให้นำเข้า “Blackwell” chips รุ่นล่าสุดจำนวน 18,000 ชิ้น ซึ่งถือเป็นการลงทุนเชิงกลยุทธ์ที่สะท้อนถึงความร่วมมือระหว่างซาอุฯ กับสหรัฐฯ ที่ลึกซึ้งขึ้นเรื่อยๆ นอกจากนี้ Humain ยังมีแผนขยายศูนย์ข้อมูลให้มีขนาดรวมถึง 1.9 กิกะวัตต์ภายในปี 2030 และร่วมมือกับบริษัทเทคโนโลยีระดับโลกอย่าง Qualcomm, Cisco และแม้แต่ xAI ของ Elon Musk เพื่อสร้างโครงสร้างพื้นฐานด้าน AI ที่ครอบคลุมทั้งฮาร์ดแวร์และซอฟต์แวร์ เบื้องหลังทั้งหมดนี้คือวิสัยทัศน์ของมกุฎราชกุมาร Mohammed bin Salman ที่ต้องการผลักดันประเทศให้พ้นจากการพึ่งพาน้ำมัน และเข้าสู่เศรษฐกิจแห่งอนาคตผ่าน “Vision 2030” 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Humain เป็นบริษัท AI ใหม่ของซาอุดีอาระเบีย เปิดตัวในเดือนพฤษภาคม 2025 ➡️ เริ่มสร้างศูนย์ข้อมูลในริยาดและดัมมาม กำหนดเปิดใช้งานต้นปี 2026 ➡️ แต่ละแห่งมีความสามารถเริ่มต้นที่ 100 เมกะวัตต์ ➡️ ใช้ชิป AI จากสหรัฐฯ เช่น NVIDIA และ AMD ➡️ ได้รับอนุมัติให้นำเข้า Blackwell chips จำนวน 18,000 ชิ้น ➡️ มีแผนขยายศูนย์ข้อมูลรวมถึง 1.9 กิกะวัตต์ภายในปี 2030 ➡️ ร่วมมือกับบริษัทเทคโนโลยีระดับโลก เช่น Qualcomm, Cisco และ xAI ➡️ Humain อยู่ภายใต้การดูแลของกองทุน PIF และมกุฎราชกุมาร Mohammed bin Salman ➡️ เป้าหมายคือสร้างโครงสร้างพื้นฐาน AI และโมเดลขั้นสูงในภูมิภาค ➡️ การเปิดตัว Humain เกิดขึ้นพร้อมกับการเยือนของประธานาธิบดีทรัมป์ ซึ่งมีการตกลงมูลค่า 600 พันล้านดอลลาร์กับบริษัทสหรัฐฯ ✅ ข้อมูลเสริมจากภายนอก ➡️ Blackwell chips ของ NVIDIA เป็นชิป AI รุ่นใหม่ที่ออกแบบมาเพื่องานประมวลผลขนาดใหญ่ เช่น LLM และการฝึกโมเดล deep learning ➡️ การใช้ชิปจากสหรัฐฯ สะท้อนถึงการพึ่งพาเทคโนโลยีตะวันตกในช่วงเปลี่ยนผ่านของซาอุฯ ➡️ Vision 2030 เป็นแผนยุทธศาสตร์ของซาอุฯ ที่มุ่งเน้นการลดการพึ่งพาน้ำมันและส่งเสริมเทคโนโลยี ➡️ การลงทุนใน AI ยังรวมถึงการฝึกอบรมบุคลากร 20,000 คนภายในปี 2030 ➡️ การสร้างศูนย์ข้อมูลขนาดใหญ่ช่วยให้ซาอุฯ มีอำนาจในการประมวลผลข้อมูลในระดับภูมิภาค https://www.thestar.com.my/tech/tech-news/2025/08/26/saudi039s-humain-to-launch-data-centers-with-us-chips-in-early-2026-bloomberg-news-reports
    WWW.THESTAR.COM.MY
    Saudi's Humain to launch data centers with US chips in early 2026, Bloomberg News reports
    (Reuters) -Humain, Saudi Arabia's new artificial intelligence company, has begun construction of its first data centers in the kingdom, and plans to bring them online in early 2026 using semiconductors imported from the U.S., Bloomberg News reported on Monday.
    0 Comments 0 Shares 182 Views 0 Reviews
  • Lisuan G100 – การ์ดจอเกมจากจีนที่กลายเป็นเครื่องมือ AI อย่างไม่คาดคิด

    ในอดีต GPU จากจีนมักถูกมองว่าเป็นของเล่นที่ยังไม่พร้อมแข่งกับแบรนด์ระดับโลกอย่าง NVIDIA หรือ AMD แต่วันนี้ Lisuan G100 ได้เปลี่ยนภาพนั้นไปอย่างสิ้นเชิง

    Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology โดยใช้สถาปัตยกรรมที่เรียกว่า “TrueGPU Tiantu” ซึ่งเป็นการออกแบบภายในทั้งหมด ไม่พึ่งพา IP จากต่างประเทศ และมีซอฟต์แวร์ของตัวเองที่รองรับ DirectX 12, Vulkan 1.3 และ OpenCL 3.0

    ในด้านเกม G100 ทำคะแนน Geekbench OpenCL ได้ถึง 111,290 คะแนน ซึ่งใกล้เคียงกับ RTX 4060 และเหนือกว่า RX 9060 XT และ Intel Arc A770 โดยมี 48 Compute Units, VRAM 12GB และความเร็วสัญญาณนาฬิกา 2000 MHz

    แต่สิ่งที่ทำให้ G100 น่าสนใจยิ่งกว่าคือการรองรับ INT8 operations ซึ่งเป็นฟีเจอร์สำคัญสำหรับงาน AI โดยเฉพาะการ inferencing และ edge computing ทำให้ G100 ไม่ใช่แค่การ์ดจอเกม แต่เป็นเครื่องมือสำหรับงาน AI ระดับผู้ใช้ทั่วไป

    Lisuan ยังมีแผนพัฒนาอัลกอริธึม upscaling ของตัวเองชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ซึ่งเป็นสิ่งจำเป็นในตลาดเกมยุคใหม่ และมีแนวโน้มจะเข้าสู่ตลาด accelerator สำหรับงาน AI หากการเปิดตัว G100 ประสบความสำเร็จ

    สรุปเนื้อหาเป็นหัวข้อ
    Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology
    ใช้สถาปัตยกรรม TrueGPU Tiantu และซอฟต์แวร์ของตัวเอง
    รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 และ OpenCL 3.0
    ทำคะแนน Geekbench OpenCL ได้ 111,290 ใกล้เคียง RTX 4060
    มี 48 Compute Units, VRAM 12GB และความเร็ว 2000 MHz
    รองรับ INT8 operations สำหรับงาน AI inferencing และ edge computing
    เป็น GPU จีนรุ่นแรกที่รองรับ INT8 อย่างเป็นทางการ
    มีแผนพัฒนาอัลกอริธึม upscaling ชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR
    อาจเข้าสู่ตลาด accelerator หาก G100 เปิดตัวได้สำเร็จ
    การผลิตจำนวนมากเริ่มแล้ว และคาดว่าจะวางขายปลายปี 2025

    ข้อมูลเสริมจากภายนอก
    INT8 เป็นรูปแบบการคำนวณที่ใช้ในงาน AI inferencing เพื่อประหยัดพลังงานและเพิ่มความเร็ว
    GPU ที่รองรับ INT8 มักใช้ใน edge devices เช่นกล้องอัจฉริยะหรือหุ่นยนต์
    การพัฒนา GPU ภายในประเทศช่วยลดการพึ่งพาเทคโนโลยีต่างชาติ
    สถาปัตยกรรม TrueGPU อาจเป็นก้าวแรกของจีนในการสร้าง GPU แบบ fully independent
    การรองรับ OpenCL 3.0 ช่วยให้สามารถใช้งานกับซอฟต์แวร์ AI ได้หลากหลาย
    การแข่งขันกับ RTX 4060 แสดงถึงความก้าวหน้าของอุตสาหกรรม GPU ในจีน

    https://wccftech.com/chinas-most-capable-gaming-gpu-the-lisuan-g100-becomes-the-first-domestic-offering-to-support-fp8-operations/
    🎙️ Lisuan G100 – การ์ดจอเกมจากจีนที่กลายเป็นเครื่องมือ AI อย่างไม่คาดคิด ในอดีต GPU จากจีนมักถูกมองว่าเป็นของเล่นที่ยังไม่พร้อมแข่งกับแบรนด์ระดับโลกอย่าง NVIDIA หรือ AMD แต่วันนี้ Lisuan G100 ได้เปลี่ยนภาพนั้นไปอย่างสิ้นเชิง Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology โดยใช้สถาปัตยกรรมที่เรียกว่า “TrueGPU Tiantu” ซึ่งเป็นการออกแบบภายในทั้งหมด ไม่พึ่งพา IP จากต่างประเทศ และมีซอฟต์แวร์ของตัวเองที่รองรับ DirectX 12, Vulkan 1.3 และ OpenCL 3.0 ในด้านเกม G100 ทำคะแนน Geekbench OpenCL ได้ถึง 111,290 คะแนน ซึ่งใกล้เคียงกับ RTX 4060 และเหนือกว่า RX 9060 XT และ Intel Arc A770 โดยมี 48 Compute Units, VRAM 12GB และความเร็วสัญญาณนาฬิกา 2000 MHz แต่สิ่งที่ทำให้ G100 น่าสนใจยิ่งกว่าคือการรองรับ INT8 operations ซึ่งเป็นฟีเจอร์สำคัญสำหรับงาน AI โดยเฉพาะการ inferencing และ edge computing ทำให้ G100 ไม่ใช่แค่การ์ดจอเกม แต่เป็นเครื่องมือสำหรับงาน AI ระดับผู้ใช้ทั่วไป Lisuan ยังมีแผนพัฒนาอัลกอริธึม upscaling ของตัวเองชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ซึ่งเป็นสิ่งจำเป็นในตลาดเกมยุคใหม่ และมีแนวโน้มจะเข้าสู่ตลาด accelerator สำหรับงาน AI หากการเปิดตัว G100 ประสบความสำเร็จ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology ➡️ ใช้สถาปัตยกรรม TrueGPU Tiantu และซอฟต์แวร์ของตัวเอง ➡️ รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 และ OpenCL 3.0 ➡️ ทำคะแนน Geekbench OpenCL ได้ 111,290 ใกล้เคียง RTX 4060 ➡️ มี 48 Compute Units, VRAM 12GB และความเร็ว 2000 MHz ➡️ รองรับ INT8 operations สำหรับงาน AI inferencing และ edge computing ➡️ เป็น GPU จีนรุ่นแรกที่รองรับ INT8 อย่างเป็นทางการ ➡️ มีแผนพัฒนาอัลกอริธึม upscaling ชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ➡️ อาจเข้าสู่ตลาด accelerator หาก G100 เปิดตัวได้สำเร็จ ➡️ การผลิตจำนวนมากเริ่มแล้ว และคาดว่าจะวางขายปลายปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ INT8 เป็นรูปแบบการคำนวณที่ใช้ในงาน AI inferencing เพื่อประหยัดพลังงานและเพิ่มความเร็ว ➡️ GPU ที่รองรับ INT8 มักใช้ใน edge devices เช่นกล้องอัจฉริยะหรือหุ่นยนต์ ➡️ การพัฒนา GPU ภายในประเทศช่วยลดการพึ่งพาเทคโนโลยีต่างชาติ ➡️ สถาปัตยกรรม TrueGPU อาจเป็นก้าวแรกของจีนในการสร้าง GPU แบบ fully independent ➡️ การรองรับ OpenCL 3.0 ช่วยให้สามารถใช้งานกับซอฟต์แวร์ AI ได้หลากหลาย ➡️ การแข่งขันกับ RTX 4060 แสดงถึงความก้าวหน้าของอุตสาหกรรม GPU ในจีน https://wccftech.com/chinas-most-capable-gaming-gpu-the-lisuan-g100-becomes-the-first-domestic-offering-to-support-fp8-operations/
    WCCFTECH.COM
    China's Most Capable Gaming GPU, the Lisuan G100, Now Also Supports INT8 Operations, Becoming Ideal For AI Workloads
    The Chinese GPU Lisuan G100, which recently made headlines for its competitive performance, is now claimed to support INT8 operations.
    0 Comments 0 Shares 199 Views 0 Reviews
  • Jetson AGX Thor – mini PC ที่แรงเกินตัวสำหรับยุค AI

    ถ้าคุณเห็นเจ้าเครื่องเล็ก ๆ นี้วางอยู่บนโต๊ะ คุณอาจคิดว่ามันคือการ์ดจอ RTX รุ่นใหม่ แต่จริง ๆ แล้วมันคือ Jetson AGX Thor — mini PC ที่ Nvidia ออกแบบมาเพื่อรองรับงาน AI ระดับสูงในรูปแบบ edge computing โดยเฉพาะ

    หัวใจของมันคือ Jetson T5000 system-on-module ที่ใช้ GPU สถาปัตยกรรม Blackwell พร้อม 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ให้พลังประมวลผลสูงถึง 2070 TFLOPS (FP4, Sparse) ซึ่งเทียบเท่ากับระบบ data center ขนาดใหญ่

    นอกจาก GPU ยังมี CPU แบบ 14-core Arm Neoverse-V3AE และแรม LPDDR5X ขนาด 128GB พร้อมระบบเชื่อมต่อระดับสูง เช่น 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB และพอร์ต HDMI/DisplayPort สำหรับงานวิดีโอ 4K และ 8K แบบหลายสตรีม

    แม้จะมีขนาดเพียง 24 x 11 x 5.6 ซม. แต่ Jetson AGX Thor ถูกออกแบบมาเพื่อใช้งานในหุ่นยนต์, ระบบ AI ด้านภาพ, และการประมวลผลเซนเซอร์จำนวนมาก โดยรองรับซอฟต์แวร์จากแพลตฟอร์ม Isaac, Metropolis และ Holoscan ของ Nvidia

    สำหรับผู้ที่ต้องการรุ่นเล็กลง ยังมี Jetson T4000 ที่อยู่ระหว่างการพัฒนา ซึ่งให้พลัง 1200 TFLOPS และใช้ GPU 1536 คอร์ พร้อมแรม 64GB — เหมาะสำหรับงานที่ต้องการประสิทธิภาพแต่มีข้อจำกัดด้านพลังงาน

    สรุปเนื้อหาเป็นหัวข้อ
    Nvidia เปิดตัว Jetson AGX Thor Developer Kit พร้อมโมดูล Jetson T5000
    ใช้ GPU Blackwell 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว
    ให้พลังประมวลผลสูงสุด 2070 TFLOPS (FP4, Sparse)
    มี CPU Arm Neoverse-V3AE 14 คอร์ และแรม LPDDR5X ขนาด 128GB
    รองรับการเชื่อมต่อ 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB
    รองรับวิดีโอ 4K และ 8K แบบหลายสตรีมพร้อมพอร์ต HDMI 2.0b และ DisplayPort 1.4a
    ขนาดเครื่อง 243.19 x 112.4 x 56.88 มม. ใหญ่กว่าพีซีธุรกิจทั่วไปแต่ยังถือว่าเล็ก
    รองรับซอฟต์แวร์ Isaac, Metropolis และ Holoscan สำหรับงาน AI
    มีรุ่นเล็ก Jetson T4000 อยู่ระหว่างพัฒนา ให้พลัง 1200 TFLOPS และแรม 64GB
    เปิดให้พรีออเดอร์แล้วในราคา $3,499 โดยจะเริ่มส่งมอบวันที่ 20 พฤศจิกายน 2025

    ข้อมูลเสริมจากภายนอก
    สถาปัตยกรรม Blackwell ถูกออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ
    Jetson AGX Thor ใช้เทคโนโลยี Multi-Instance GPU เพื่อแบ่งงานได้หลายส่วนพร้อมกัน
    Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยออกแบบชิประดับนี้
    การใช้ LPDDR5X ช่วยลด latency และเพิ่ม bandwidth สำหรับงาน AI
    Jetson AGX Thor เหมาะกับงาน edge robotics, autonomous systems และการประมวลผลภาพทางการแพทย์
    Nvidia วางตำแหน่ง Thor ไว้คู่กับ DGX Spark สำหรับงาน AI แบบ desktop และ edge

    https://www.techradar.com/pro/nvidia-quietly-unveiled-its-fastest-mini-pc-ever-capable-of-topping-2070-tflops-and-if-you-squint-enough-you-might-even-think-it-looks-like-an-rtx-5090
    🎙️ Jetson AGX Thor – mini PC ที่แรงเกินตัวสำหรับยุค AI ถ้าคุณเห็นเจ้าเครื่องเล็ก ๆ นี้วางอยู่บนโต๊ะ คุณอาจคิดว่ามันคือการ์ดจอ RTX รุ่นใหม่ แต่จริง ๆ แล้วมันคือ Jetson AGX Thor — mini PC ที่ Nvidia ออกแบบมาเพื่อรองรับงาน AI ระดับสูงในรูปแบบ edge computing โดยเฉพาะ หัวใจของมันคือ Jetson T5000 system-on-module ที่ใช้ GPU สถาปัตยกรรม Blackwell พร้อม 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ให้พลังประมวลผลสูงถึง 2070 TFLOPS (FP4, Sparse) ซึ่งเทียบเท่ากับระบบ data center ขนาดใหญ่ นอกจาก GPU ยังมี CPU แบบ 14-core Arm Neoverse-V3AE และแรม LPDDR5X ขนาด 128GB พร้อมระบบเชื่อมต่อระดับสูง เช่น 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB และพอร์ต HDMI/DisplayPort สำหรับงานวิดีโอ 4K และ 8K แบบหลายสตรีม แม้จะมีขนาดเพียง 24 x 11 x 5.6 ซม. แต่ Jetson AGX Thor ถูกออกแบบมาเพื่อใช้งานในหุ่นยนต์, ระบบ AI ด้านภาพ, และการประมวลผลเซนเซอร์จำนวนมาก โดยรองรับซอฟต์แวร์จากแพลตฟอร์ม Isaac, Metropolis และ Holoscan ของ Nvidia สำหรับผู้ที่ต้องการรุ่นเล็กลง ยังมี Jetson T4000 ที่อยู่ระหว่างการพัฒนา ซึ่งให้พลัง 1200 TFLOPS และใช้ GPU 1536 คอร์ พร้อมแรม 64GB — เหมาะสำหรับงานที่ต้องการประสิทธิภาพแต่มีข้อจำกัดด้านพลังงาน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Nvidia เปิดตัว Jetson AGX Thor Developer Kit พร้อมโมดูล Jetson T5000 ➡️ ใช้ GPU Blackwell 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ➡️ ให้พลังประมวลผลสูงสุด 2070 TFLOPS (FP4, Sparse) ➡️ มี CPU Arm Neoverse-V3AE 14 คอร์ และแรม LPDDR5X ขนาด 128GB ➡️ รองรับการเชื่อมต่อ 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB ➡️ รองรับวิดีโอ 4K และ 8K แบบหลายสตรีมพร้อมพอร์ต HDMI 2.0b และ DisplayPort 1.4a ➡️ ขนาดเครื่อง 243.19 x 112.4 x 56.88 มม. ใหญ่กว่าพีซีธุรกิจทั่วไปแต่ยังถือว่าเล็ก ➡️ รองรับซอฟต์แวร์ Isaac, Metropolis และ Holoscan สำหรับงาน AI ➡️ มีรุ่นเล็ก Jetson T4000 อยู่ระหว่างพัฒนา ให้พลัง 1200 TFLOPS และแรม 64GB ➡️ เปิดให้พรีออเดอร์แล้วในราคา $3,499 โดยจะเริ่มส่งมอบวันที่ 20 พฤศจิกายน 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ สถาปัตยกรรม Blackwell ถูกออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ ➡️ Jetson AGX Thor ใช้เทคโนโลยี Multi-Instance GPU เพื่อแบ่งงานได้หลายส่วนพร้อมกัน ➡️ Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยออกแบบชิประดับนี้ ➡️ การใช้ LPDDR5X ช่วยลด latency และเพิ่ม bandwidth สำหรับงาน AI ➡️ Jetson AGX Thor เหมาะกับงาน edge robotics, autonomous systems และการประมวลผลภาพทางการแพทย์ ➡️ Nvidia วางตำแหน่ง Thor ไว้คู่กับ DGX Spark สำหรับงาน AI แบบ desktop และ edge https://www.techradar.com/pro/nvidia-quietly-unveiled-its-fastest-mini-pc-ever-capable-of-topping-2070-tflops-and-if-you-squint-enough-you-might-even-think-it-looks-like-an-rtx-5090
    0 Comments 0 Shares 196 Views 0 Reviews
  • Rubin – GPU ที่แรงที่สุดของ Nvidia เกิดจากการร่วมมือที่ไม่คาดคิด

    ในโลกของการออกแบบชิปที่ซับซ้อนระดับพันล้านเกต การจำลองพลังงานและประสิทธิภาพไม่ใช่เรื่องง่าย และนั่นคือเหตุผลที่ Nvidia หันไปใช้เครื่องมือจาก Cadence เพื่อช่วยออกแบบ GPU รุ่นใหม่ที่ชื่อว่า “Rubin” ซึ่งคาดว่าจะเป็น GPU ที่แรงที่สุดเท่าที่เคยมีมา

    Rubin ถูกออกแบบให้รองรับงาน AI ที่มีความซับซ้อนสูง โดยมีจำนวนเกตมากกว่า 40 พันล้าน และอาจใช้พลังงานถึง 700W ต่อ die หรือสูงถึง 3.6kW ในระบบแบบหลายชิป ซึ่งถือว่าเป็นระดับ “megawatt-class” สำหรับ data center

    Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยวิเคราะห์พลังงานแบบละเอียดในระดับ cycle ต่อ cycle โดย Palladium Z3 ใช้ DPU จาก Nvidia และระบบเครือข่าย Quantum Infiniband ในขณะที่ Protium X3 ใช้ FPGA จาก AMD Ultrascale เพื่อจำลอง RTL และทดสอบซอฟต์แวร์ก่อนผลิตจริง

    การใช้เครื่องมือเหล่านี้ช่วยให้ทีมออกแบบสามารถตรวจสอบ bottleneck และปรับขนาดเครือข่ายให้เหมาะสมก่อน tape-out ซึ่ง Rubin ได้ tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P แต่มีรายงานว่าอาจต้อง respin เพื่อเพิ่มประสิทธิภาพก่อนเปิดตัวจริงในปี 2026

    ที่น่าสนใจคือ แม้ AMD จะเป็นคู่แข่งโดยตรงในตลาด GPU แต่ฮาร์ดแวร์ของ AMD ก็มีบทบาทสำคัญในการช่วย Nvidia สร้าง GPU ที่จะมาแข่งกับ MI450 ของ AMD เอง — เป็นความร่วมมือที่สะท้อนถึงความซับซ้อนของอุตสาหกรรมชิปในยุค AI

    สรุปเนื้อหาเป็นหัวข้อ
    Nvidia พัฒนา GPU รุ่นใหม่ชื่อ “Rubin” โดยใช้เครื่องมือจาก Cadence
    Rubin มีจำนวนเกตมากกว่า 40 พันล้าน และใช้พลังงานสูงถึง 700W ต่อ die
    ระบบแบบหลายชิปอาจใช้พลังงานรวมถึง 3.6kW
    ใช้ Palladium Z3 emulator และ Protium X3 FPGA prototyping จาก Cadence
    Palladium Z3 ใช้ DPU จาก Nvidia และเครือข่าย Quantum Infiniband
    Protium X3 ใช้ AMD Ultrascale FPGA เพื่อจำลอง RTL และทดสอบซอฟต์แวร์
    การจำลองช่วยตรวจสอบ bottleneck และปรับขนาดเครือข่ายก่อนผลิตจริง
    Rubin tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P
    มีรายงานว่า Rubin อาจต้อง respin เพื่อเพิ่มประสิทธิภาพ
    คาดว่า Rubin จะเริ่มส่งมอบช่วงปลายปี 2026

    ข้อมูลเสริมจากภายนอก
    Cadence เปิดตัว Palladium Z3 และ Protium X3 ในปี 2024 ด้วยความสามารถสูงกว่าเดิม 2 เท่า
    ระบบสามารถจำลองได้ถึง 48 พันล้านเกต และวิเคราะห์พลังงานได้ในระดับ cycle
    DPA (Dynamic Power Analysis) ของ Cadence เริ่มใช้ตั้งแต่ปี 2016 และกลายเป็นเครื่องมือหลักในยุค AI
    Rubin ถูกออกแบบมาเพื่อแข่งกับ AMD MI450 ซึ่งเป็น GPU ระดับสูงในกลุ่ม AI
    การใช้ฮาร์ดแวร์จากคู่แข่งอย่าง AMD สะท้อนถึงความร่วมมือข้ามแบรนด์ในอุตสาหกรรม
    บทเรียนจาก Rubin จะถูกนำไปใช้กับผลิตภัณฑ์ consumer ในอนาคต

    https://www.techradar.com/pro/heres-how-nvidia-and-amd-hardware-are-being-used-in-surprising-ways-to-build-nvidias-fastest-gpu-ever
    🎙️ Rubin – GPU ที่แรงที่สุดของ Nvidia เกิดจากการร่วมมือที่ไม่คาดคิด ในโลกของการออกแบบชิปที่ซับซ้อนระดับพันล้านเกต การจำลองพลังงานและประสิทธิภาพไม่ใช่เรื่องง่าย และนั่นคือเหตุผลที่ Nvidia หันไปใช้เครื่องมือจาก Cadence เพื่อช่วยออกแบบ GPU รุ่นใหม่ที่ชื่อว่า “Rubin” ซึ่งคาดว่าจะเป็น GPU ที่แรงที่สุดเท่าที่เคยมีมา Rubin ถูกออกแบบให้รองรับงาน AI ที่มีความซับซ้อนสูง โดยมีจำนวนเกตมากกว่า 40 พันล้าน และอาจใช้พลังงานถึง 700W ต่อ die หรือสูงถึง 3.6kW ในระบบแบบหลายชิป ซึ่งถือว่าเป็นระดับ “megawatt-class” สำหรับ data center Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยวิเคราะห์พลังงานแบบละเอียดในระดับ cycle ต่อ cycle โดย Palladium Z3 ใช้ DPU จาก Nvidia และระบบเครือข่าย Quantum Infiniband ในขณะที่ Protium X3 ใช้ FPGA จาก AMD Ultrascale เพื่อจำลอง RTL และทดสอบซอฟต์แวร์ก่อนผลิตจริง การใช้เครื่องมือเหล่านี้ช่วยให้ทีมออกแบบสามารถตรวจสอบ bottleneck และปรับขนาดเครือข่ายให้เหมาะสมก่อน tape-out ซึ่ง Rubin ได้ tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P แต่มีรายงานว่าอาจต้อง respin เพื่อเพิ่มประสิทธิภาพก่อนเปิดตัวจริงในปี 2026 ที่น่าสนใจคือ แม้ AMD จะเป็นคู่แข่งโดยตรงในตลาด GPU แต่ฮาร์ดแวร์ของ AMD ก็มีบทบาทสำคัญในการช่วย Nvidia สร้าง GPU ที่จะมาแข่งกับ MI450 ของ AMD เอง — เป็นความร่วมมือที่สะท้อนถึงความซับซ้อนของอุตสาหกรรมชิปในยุค AI 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Nvidia พัฒนา GPU รุ่นใหม่ชื่อ “Rubin” โดยใช้เครื่องมือจาก Cadence ➡️ Rubin มีจำนวนเกตมากกว่า 40 พันล้าน และใช้พลังงานสูงถึง 700W ต่อ die ➡️ ระบบแบบหลายชิปอาจใช้พลังงานรวมถึง 3.6kW ➡️ ใช้ Palladium Z3 emulator และ Protium X3 FPGA prototyping จาก Cadence ➡️ Palladium Z3 ใช้ DPU จาก Nvidia และเครือข่าย Quantum Infiniband ➡️ Protium X3 ใช้ AMD Ultrascale FPGA เพื่อจำลอง RTL และทดสอบซอฟต์แวร์ ➡️ การจำลองช่วยตรวจสอบ bottleneck และปรับขนาดเครือข่ายก่อนผลิตจริง ➡️ Rubin tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P ➡️ มีรายงานว่า Rubin อาจต้อง respin เพื่อเพิ่มประสิทธิภาพ ➡️ คาดว่า Rubin จะเริ่มส่งมอบช่วงปลายปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Cadence เปิดตัว Palladium Z3 และ Protium X3 ในปี 2024 ด้วยความสามารถสูงกว่าเดิม 2 เท่า ➡️ ระบบสามารถจำลองได้ถึง 48 พันล้านเกต และวิเคราะห์พลังงานได้ในระดับ cycle ➡️ DPA (Dynamic Power Analysis) ของ Cadence เริ่มใช้ตั้งแต่ปี 2016 และกลายเป็นเครื่องมือหลักในยุค AI ➡️ Rubin ถูกออกแบบมาเพื่อแข่งกับ AMD MI450 ซึ่งเป็น GPU ระดับสูงในกลุ่ม AI ➡️ การใช้ฮาร์ดแวร์จากคู่แข่งอย่าง AMD สะท้อนถึงความร่วมมือข้ามแบรนด์ในอุตสาหกรรม ➡️ บทเรียนจาก Rubin จะถูกนำไปใช้กับผลิตภัณฑ์ consumer ในอนาคต https://www.techradar.com/pro/heres-how-nvidia-and-amd-hardware-are-being-used-in-surprising-ways-to-build-nvidias-fastest-gpu-ever
    WWW.TECHRADAR.COM
    How Cadence, along with Nvidia and AMD hardware, is shaping the creation of Nvidia's fastest GPU ever
    Cadence's power modelling tool can address bottlenecks early in a chip's design
    0 Comments 0 Shares 204 Views 0 Reviews
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 Comments 0 Shares 205 Views 0 Reviews
  • เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้”

    ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง

    หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ”

    ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล

    แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090

    แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป

    สรุปเนื้อหาเป็นหัวข้อ
    Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202
    Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด
    Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070
    RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ
    Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090
    การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง
    ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้”
    ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน
    การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป

    ข้อมูลเสริมจากภายนอก
    GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC
    การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย
    Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling
    Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม
    ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์

    https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    🎙️ เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้” ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ” ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090 แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202 ➡️ Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด ➡️ Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070 ➡️ RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ ➡️ Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090 ➡️ การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง ➡️ ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 ➡️ Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้” ➡️ ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน ➡️ การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป ✅ ข้อมูลเสริมจากภายนอก ➡️ GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC ➡️ การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย ➡️ Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling ➡️ Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม ➡️ ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์ https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    0 Comments 0 Shares 173 Views 0 Reviews
  • เมื่อการ์ดจอเกมกลายร่างเป็นเครื่องมือ AI ระดับมืออาชีพ

    ในโลกที่กราฟิกการ์ดไม่ได้มีไว้แค่เล่นเกมอีกต่อไป AFOX ได้เปิดตัว GeForce RTX 5090 32GB Professional ซึ่งเป็นการ์ดจอแบบ blower-style ที่ออกแบบมาเพื่อใช้งานในเซิร์ฟเวอร์ AI และเวิร์กสเตชันระดับสูง โดยวางขายในสหรัฐฯ ด้วยราคาสูงถึง $5,999

    แม้จะไม่ใช่พันธมิตรอย่างเป็นทางการของ Nvidia แต่ AFOX ก็มีประสบการณ์ผลิตการ์ด blower-style มาตั้งแต่ยุค GTX 10-series และยังคงเดินหน้าต่อแม้ Nvidia เคยพยายามห้ามการผลิตรุ่น blower ของ RTX 3090

    การ์ดรุ่นนี้มีดีไซน์แบบ dual-slot ทำให้สามารถติดตั้งได้ถึง 4 ใบในเมนบอร์ดระดับ HEDT หรือเวิร์กสเตชัน ซึ่งเหมาะกับงาน AI ที่ต้องการประสิทธิภาพแบบขนานหลายชุด

    แม้จะใช้ชิปเดียวกับ RTX 5090 Founders Edition แต่ AFOX ปรับตำแหน่งหัวต่อไฟ 16-pin ไปไว้ด้านหลังเหมือนการ์ดระดับมืออาชีพ และยังคงความแรงไว้ที่ base clock 2,017 MHz และ boost clock 2,407 MHz

    ราคานี้อาจดูสูงเกินไปสำหรับเกมเมอร์ทั่วไป แต่สำหรับบริษัทด้าน AI ที่ต้องการการ์ดที่เชื่อถือได้จากแบรนด์ที่มีการรับประกัน ก็ถือเป็นทางเลือกที่น่าสนใจมากกว่าการซื้อจากโรงงานจีนที่ไม่มีชื่อเสียง

    สรุปเนื้อหาเป็นหัวข้อ
    AFOX เปิดตัว GeForce RTX 5090 32GB Professional แบบ blower-style
    วางขายในสหรัฐฯ ที่ราคา $5,999 ผ่านร้าน HydraCluster Tech
    ดีไซน์ dual-slot รองรับการติดตั้งหลายใบในระบบเวิร์กสเตชัน
    ใช้ชิปเดียวกับ RTX 5090 Founders Edition พร้อม base clock 2,017 MHz และ boost clock 2,407 MHz
    หัวต่อไฟ 16-pin ถูกย้ายไปด้านหลังเหมือนการ์ดระดับมืออาชีพ
    เหมาะสำหรับงาน AI มากกว่าการเล่นเกมหรือสร้างคอนเทนต์
    AFOX มีประสบการณ์ผลิตการ์ด blower-style มาตั้งแต่ GTX 10-series
    Nvidia ยังไม่ออกการ์ด blower-style อย่างเป็นทางการในรุ่น RTX 5090
    การ์ดนี้มีการรับประกันจาก AFOX ต่างจากการ์ดที่ผลิตจากโรงงานจีน
    ราคาปกติอยู่ที่ $6,500 แต่ลดเหลือ $5,999 ในช่วงเปิดตัว

    https://www.tomshardware.com/pc-components/gpus/rtx-5090-blower-gpu-sells-for-usd5-999-at-u-s-retailer-dual-slot-design-converts-blackwell-gaming-flagship-into-an-ai-workhorse
    🎙️ เมื่อการ์ดจอเกมกลายร่างเป็นเครื่องมือ AI ระดับมืออาชีพ ในโลกที่กราฟิกการ์ดไม่ได้มีไว้แค่เล่นเกมอีกต่อไป AFOX ได้เปิดตัว GeForce RTX 5090 32GB Professional ซึ่งเป็นการ์ดจอแบบ blower-style ที่ออกแบบมาเพื่อใช้งานในเซิร์ฟเวอร์ AI และเวิร์กสเตชันระดับสูง โดยวางขายในสหรัฐฯ ด้วยราคาสูงถึง $5,999 แม้จะไม่ใช่พันธมิตรอย่างเป็นทางการของ Nvidia แต่ AFOX ก็มีประสบการณ์ผลิตการ์ด blower-style มาตั้งแต่ยุค GTX 10-series และยังคงเดินหน้าต่อแม้ Nvidia เคยพยายามห้ามการผลิตรุ่น blower ของ RTX 3090 การ์ดรุ่นนี้มีดีไซน์แบบ dual-slot ทำให้สามารถติดตั้งได้ถึง 4 ใบในเมนบอร์ดระดับ HEDT หรือเวิร์กสเตชัน ซึ่งเหมาะกับงาน AI ที่ต้องการประสิทธิภาพแบบขนานหลายชุด แม้จะใช้ชิปเดียวกับ RTX 5090 Founders Edition แต่ AFOX ปรับตำแหน่งหัวต่อไฟ 16-pin ไปไว้ด้านหลังเหมือนการ์ดระดับมืออาชีพ และยังคงความแรงไว้ที่ base clock 2,017 MHz และ boost clock 2,407 MHz ราคานี้อาจดูสูงเกินไปสำหรับเกมเมอร์ทั่วไป แต่สำหรับบริษัทด้าน AI ที่ต้องการการ์ดที่เชื่อถือได้จากแบรนด์ที่มีการรับประกัน ก็ถือเป็นทางเลือกที่น่าสนใจมากกว่าการซื้อจากโรงงานจีนที่ไม่มีชื่อเสียง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AFOX เปิดตัว GeForce RTX 5090 32GB Professional แบบ blower-style ➡️ วางขายในสหรัฐฯ ที่ราคา $5,999 ผ่านร้าน HydraCluster Tech ➡️ ดีไซน์ dual-slot รองรับการติดตั้งหลายใบในระบบเวิร์กสเตชัน ➡️ ใช้ชิปเดียวกับ RTX 5090 Founders Edition พร้อม base clock 2,017 MHz และ boost clock 2,407 MHz ➡️ หัวต่อไฟ 16-pin ถูกย้ายไปด้านหลังเหมือนการ์ดระดับมืออาชีพ ➡️ เหมาะสำหรับงาน AI มากกว่าการเล่นเกมหรือสร้างคอนเทนต์ ➡️ AFOX มีประสบการณ์ผลิตการ์ด blower-style มาตั้งแต่ GTX 10-series ➡️ Nvidia ยังไม่ออกการ์ด blower-style อย่างเป็นทางการในรุ่น RTX 5090 ➡️ การ์ดนี้มีการรับประกันจาก AFOX ต่างจากการ์ดที่ผลิตจากโรงงานจีน ➡️ ราคาปกติอยู่ที่ $6,500 แต่ลดเหลือ $5,999 ในช่วงเปิดตัว https://www.tomshardware.com/pc-components/gpus/rtx-5090-blower-gpu-sells-for-usd5-999-at-u-s-retailer-dual-slot-design-converts-blackwell-gaming-flagship-into-an-ai-workhorse
    0 Comments 0 Shares 183 Views 0 Reviews
  • NVIDIA กับเกมการเมืองระหว่างประเทศ – เมื่อชิป H20 กลายเป็นตัวประกันทางเทคโนโลยี

    ในปี 2025 NVIDIA ต้องเผชิญกับแรงกดดันมหาศาลจากทั้งสหรัฐฯ และจีนเกี่ยวกับชิป H20 ซึ่งถูกออกแบบมาโดยเฉพาะสำหรับตลาดจีน หลังจากที่รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์อนุญาตให้ NVIDIA กลับมาขายชิป H20 ได้อีกครั้ง โดยมีเงื่อนไขว่าต้องแบ่งรายได้ 15% จากยอดขายในจีนให้รัฐบาลสหรัฐฯ

    แต่ความหวังของ NVIDIA กลับถูกดับลงอย่างรวดเร็ว เมื่อรัฐบาลจีนเริ่มแสดงความไม่พอใจต่อชิป H20 โดยกล่าวหาว่าชิปอาจมี “backdoor” หรือช่องโหว่ที่สามารถใช้สอดแนมข้อมูลได้ และอาจมี “kill switch” ที่สามารถปิดการทำงานจากระยะไกลได้

    หน่วยงานจีน เช่น Cyberspace Administration of China (CAC) และกระทรวงอุตสาหกรรม ได้ออกคำแนะนำให้บริษัทเทคโนโลยีใหญ่ ๆ อย่าง ByteDance, Alibaba และ Tencent หยุดสั่งซื้อชิป H20 ทันที โดยอ้างเหตุผลด้านความมั่นคงของชาติ

    NVIDIA จึงต้องสั่งหยุดการผลิตชิป H20 กับซัพพลายเออร์หลัก เช่น Samsung, Amkor และ Foxconn พร้อมเร่งพัฒนาชิปรุ่นใหม่ชื่อ B30A ที่มีประสิทธิภาพสูงกว่า H20 แต่ยังอยู่ภายใต้ข้อจำกัดด้านการส่งออกของสหรัฐฯ

    สถานการณ์นี้สะท้อนถึงความเปราะบางของอุตสาหกรรมเซมิคอนดักเตอร์ ที่แม้จะมีมูลค่าทางเศรษฐกิจมหาศาล แต่ก็ถูกควบคุมด้วยเกมการเมืองระหว่างประเทศอย่างเข้มข้น

    สรุปเนื้อหาเป็นหัวข้อ
    NVIDIA หยุดการผลิตชิป H20 หลังจีนแสดงความไม่พอใจ
    รัฐบาลจีนกังวลเรื่อง backdoor และ spyware ในชิป H20
    บริษัทจีนใหญ่ ๆ ถูกสั่งให้หยุดสั่งซื้อชิป H20
    รัฐบาลสหรัฐฯ อนุญาตให้ขาย H20 ได้อีกครั้ง โดยต้องแบ่งรายได้ 15%
    NVIDIA สั่งหยุดการผลิตกับซัพพลายเออร์ เช่น Samsung, Amkor และ Foxconn
    NVIDIA กำลังพัฒนาชิปใหม่ชื่อ B30A สำหรับตลาดจีน
    B30A มีประสิทธิภาพสูงกว่า H20 แต่ต่ำกว่า B300 ซึ่งถูกห้ามส่งออก
    NVIDIA ยืนยันว่า H20 ไม่มี backdoor และไม่ใช่ผลิตภัณฑ์ทางทหาร
    ความขัดแย้งนี้เกิดขึ้นหลังคำพูดของรัฐมนตรีพาณิชย์สหรัฐฯ ที่ดูถูกจีน
    จีนพยายามลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ ตามนโยบาย Made in China 2025

    ข้อมูลเสริมจากภายนอก
    Cyberspace Administration of China เคยเรียก NVIDIA มาสอบถามรายละเอียดทางเทคนิคของ H20
    NVIDIA สูญเสียรายได้กว่า $5.5 พันล้านจากการแบนในไตรมาสก่อน
    จีนบริโภคเซมิคอนดักเตอร์ 60% ของโลก แต่ผลิตได้เพียง 13%
    การแบ่งรายได้ 15% เป็นโมเดลใหม่ในการจัดการความขัดแย้งด้านเทคโนโลยี
    ความไม่แน่นอนทางการเมืองทำให้โมเดลนี้ล้มเหลวในเวลาไม่กี่สัปดาห์

    https://wccftech.com/nvidia-reportedly-halts-h20-gpu-production-after-the-chinese-politburo-becomes-hostile-to-the-chip/
    🎙️ NVIDIA กับเกมการเมืองระหว่างประเทศ – เมื่อชิป H20 กลายเป็นตัวประกันทางเทคโนโลยี ในปี 2025 NVIDIA ต้องเผชิญกับแรงกดดันมหาศาลจากทั้งสหรัฐฯ และจีนเกี่ยวกับชิป H20 ซึ่งถูกออกแบบมาโดยเฉพาะสำหรับตลาดจีน หลังจากที่รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์อนุญาตให้ NVIDIA กลับมาขายชิป H20 ได้อีกครั้ง โดยมีเงื่อนไขว่าต้องแบ่งรายได้ 15% จากยอดขายในจีนให้รัฐบาลสหรัฐฯ แต่ความหวังของ NVIDIA กลับถูกดับลงอย่างรวดเร็ว เมื่อรัฐบาลจีนเริ่มแสดงความไม่พอใจต่อชิป H20 โดยกล่าวหาว่าชิปอาจมี “backdoor” หรือช่องโหว่ที่สามารถใช้สอดแนมข้อมูลได้ และอาจมี “kill switch” ที่สามารถปิดการทำงานจากระยะไกลได้ หน่วยงานจีน เช่น Cyberspace Administration of China (CAC) และกระทรวงอุตสาหกรรม ได้ออกคำแนะนำให้บริษัทเทคโนโลยีใหญ่ ๆ อย่าง ByteDance, Alibaba และ Tencent หยุดสั่งซื้อชิป H20 ทันที โดยอ้างเหตุผลด้านความมั่นคงของชาติ NVIDIA จึงต้องสั่งหยุดการผลิตชิป H20 กับซัพพลายเออร์หลัก เช่น Samsung, Amkor และ Foxconn พร้อมเร่งพัฒนาชิปรุ่นใหม่ชื่อ B30A ที่มีประสิทธิภาพสูงกว่า H20 แต่ยังอยู่ภายใต้ข้อจำกัดด้านการส่งออกของสหรัฐฯ สถานการณ์นี้สะท้อนถึงความเปราะบางของอุตสาหกรรมเซมิคอนดักเตอร์ ที่แม้จะมีมูลค่าทางเศรษฐกิจมหาศาล แต่ก็ถูกควบคุมด้วยเกมการเมืองระหว่างประเทศอย่างเข้มข้น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ NVIDIA หยุดการผลิตชิป H20 หลังจีนแสดงความไม่พอใจ ➡️ รัฐบาลจีนกังวลเรื่อง backdoor และ spyware ในชิป H20 ➡️ บริษัทจีนใหญ่ ๆ ถูกสั่งให้หยุดสั่งซื้อชิป H20 ➡️ รัฐบาลสหรัฐฯ อนุญาตให้ขาย H20 ได้อีกครั้ง โดยต้องแบ่งรายได้ 15% ➡️ NVIDIA สั่งหยุดการผลิตกับซัพพลายเออร์ เช่น Samsung, Amkor และ Foxconn ➡️ NVIDIA กำลังพัฒนาชิปใหม่ชื่อ B30A สำหรับตลาดจีน ➡️ B30A มีประสิทธิภาพสูงกว่า H20 แต่ต่ำกว่า B300 ซึ่งถูกห้ามส่งออก ➡️ NVIDIA ยืนยันว่า H20 ไม่มี backdoor และไม่ใช่ผลิตภัณฑ์ทางทหาร ➡️ ความขัดแย้งนี้เกิดขึ้นหลังคำพูดของรัฐมนตรีพาณิชย์สหรัฐฯ ที่ดูถูกจีน ➡️ จีนพยายามลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ ตามนโยบาย Made in China 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Cyberspace Administration of China เคยเรียก NVIDIA มาสอบถามรายละเอียดทางเทคนิคของ H20 ➡️ NVIDIA สูญเสียรายได้กว่า $5.5 พันล้านจากการแบนในไตรมาสก่อน ➡️ จีนบริโภคเซมิคอนดักเตอร์ 60% ของโลก แต่ผลิตได้เพียง 13% ➡️ การแบ่งรายได้ 15% เป็นโมเดลใหม่ในการจัดการความขัดแย้งด้านเทคโนโลยี ➡️ ความไม่แน่นอนทางการเมืองทำให้โมเดลนี้ล้มเหลวในเวลาไม่กี่สัปดาห์ https://wccftech.com/nvidia-reportedly-halts-h20-gpu-production-after-the-chinese-politburo-becomes-hostile-to-the-chip/
    WCCFTECH.COM
    NVIDIA Reportedly Halts H20 GPU Production After The Chinese Politburo Becomes Hostile To The Chip
    NVIDIA is reportedly throwing in the proverbial towel on its China-specific H20 GPU as a number of potent headwinds coalesce.
    0 Comments 0 Shares 264 Views 0 Reviews
More Results