• “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม”

    Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้

    Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง

    Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์

    แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง

    Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale

    ข้อมูลสำคัญจากข่าว
    Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound
    การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3
    Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์
    มี shading units 16,384 และ tensor cores 1,024
    ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB
    Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์
    มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W
    GPU ทั้งสองถูกใช้งานใน Aurora supercomputer
    Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI

    ข้อมูลเสริมจากภายนอก
    Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ
    HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3
    OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว
    Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ
    การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI

    https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    🧊 “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม” Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้ Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์ แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound ➡️ การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3 ➡️ Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์ ➡️ มี shading units 16,384 และ tensor cores 1,024 ➡️ ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB ➡️ Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์ ➡️ มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W ➡️ GPU ทั้งสองถูกใช้งานใน Aurora supercomputer ➡️ Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ ➡️ HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3 ➡️ OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว ➡️ Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ ➡️ การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    WWW.TECHPOWERUP.COM
    Intel Phases Out "Ponte Vecchio" and "Arctic Sound" Data Center GPUs
    Intel has apparently started a slow deprecation phase of its "Ponte Vecchio" Data Center GPU Max and "Arctic Sound" Data Center GPU Flex series. According to the changelog in the Intel XPU Manager—a free and open-source tool for monitoring and managing Intel data center GPUs—version 1.3.3 deprecates...
    0 ความคิดเห็น 0 การแบ่งปัน 76 มุมมอง 0 รีวิว
  • https://youtu.be/-rRGm4E40eQ?si=jTQhKSW9hvMUxBQ7
    https://youtu.be/-rRGm4E40eQ?si=jTQhKSW9hvMUxBQ7
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • https://youtu.be/y890m4O5bcg?si=YUYXct7Lz9bWwrbr
    https://youtu.be/y890m4O5bcg?si=YUYXct7Lz9bWwrbr
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • “AMD เปิดเกมรุก! ส่ง MI450 บนเทคโนโลยี 2nm ล้ำหน้า Nvidia — OpenAI เตรียมรับล็อตแรกกลางปีหน้า”

    AMD ประกาศเปิดตัว GPU รุ่นใหม่ Instinct MI450 ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรจาก TSMC ซึ่งถือเป็นครั้งแรกที่ AMD ใช้กระบวนการผลิตระดับนี้กับชิป AI โดยจะเริ่มส่งมอบให้กับ OpenAI ในช่วงครึ่งหลังของปี 2026 ตามข้อตกลงความร่วมมือระยะยาวที่ครอบคลุมถึง 6 กิกะวัตต์ของกำลังประมวลผล

    MI450 ใช้สถาปัตยกรรม CDNA 5 และเป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ รองรับรูปแบบข้อมูลและคำสั่งที่เหมาะกับการฝึกโมเดลขนาดใหญ่ โดยใช้เทคโนโลยี Gate-All-Around (GAA) ซึ่งช่วยเพิ่มประสิทธิภาพและลดการใช้พลังงานได้ถึง 25–30% เมื่อเทียบกับรุ่นก่อนหน้า

    ในด้านฮาร์ดแวร์ AMD เตรียมเปิดตัว Helios rack ที่บรรจุ MI450 ถึง 72 ตัว พร้อมหน่วยความจำ HBM4 ขนาด 51TB และแบนด์วิดธ์สูงถึง 1,400 TB/s ซึ่งเหนือกว่า Nvidia Rubin NVL144 ที่ใช้เทคโนโลยี 3nm และมี HBM4 เพียง 21TB กับแบนด์วิดธ์ 936 TB/s อย่างไรก็ตาม Nvidia ยังมีจุดแข็งด้าน FP4 performance ที่สูงกว่า (3,600 PFLOPS เทียบกับ 1,440 PFLOPS ของ AMD)

    ข้อตกลงกับ OpenAI ยังรวมถึงการออก warrant ให้ซื้อหุ้น AMD ได้สูงสุด 160 ล้านหุ้น โดยจะทยอย vest ตาม milestone เช่น การติดตั้งครบ 1 กิกะวัตต์ และการบรรลุเป้าหมายด้านเทคนิคและเชิงพาณิชย์

    Lisa Su ซีอีโอของ AMD ระบุว่า “นี่คือการรวมพลังของทั้งสองบริษัทเพื่อสร้างโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดในโลก” ขณะที่ Sam Altman จาก OpenAI กล่าวว่า “AMD จะช่วยเราสร้างความก้าวหน้าใน AI ได้เร็วขึ้น และนำประโยชน์ไปสู่ทุกคน”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว Instinct MI450 บนเทคโนโลยี 2nm จาก TSMC
    ใช้สถาปัตยกรรม CDNA 5 และออกแบบมาเพื่องาน AI โดยเฉพาะ
    ใช้ Gate-All-Around (GAA) transistor เพื่อเพิ่มประสิทธิภาพ
    ลดการใช้พลังงานได้ 25–30% และเพิ่มความหนาแน่นของทรานซิสเตอร์ 15%
    Helios rack มี MI450 จำนวน 72 ตัว พร้อม HBM4 ขนาด 51TB และแบนด์วิดธ์ 1,400 TB/s
    Nvidia Rubin NVL144 มี HBM4 21TB และแบนด์วิดธ์ 936 TB/s แต่ FP4 performance สูงกว่า
    OpenAI จะได้รับ MI450 ล็อตแรกในครึ่งหลังของปี 2026
    ข้อตกลงรวมการออก warrant ให้ OpenAI ซื้อหุ้น AMD สูงสุด 160 ล้านหุ้น
    การ vest ขึ้นอยู่กับ milestone เช่น การติดตั้งครบ 1GW และเป้าหมายด้านเทคนิค

    ข้อมูลเสริมจากภายนอก
    TSMC N2 เป็นเทคโนโลยีการผลิตระดับ 2nm ที่ใช้ GAA transistor เป็นครั้งแรก
    GAA transistor ช่วยลด leakage และเพิ่มประสิทธิภาพในการออกแบบชิป
    HBM4 เป็นหน่วยความจำความเร็วสูงที่ใช้ในงาน AI และ HPC
    FP4 เป็นรูปแบบการประมวลผลที่ใช้ในการฝึกโมเดล LLM ขนาดใหญ่
    การออก warrant เป็นกลยุทธ์ทางการเงินที่ใช้สร้างพันธมิตรระยะยาว

    คำเตือนและข้อจำกัด
    MI450 ยังมี FP4 performance ต่ำกว่า Nvidia Rubin NVL144 อย่างชัดเจน
    การเชื่อมต่อแบบ UALink ยังไม่แน่นอนว่าจะ scale ได้ดีใน MI450
    การผลิตชิป 2nm มีความซับซ้อนและต้นทุนสูง อาจกระทบ timeline
    การ vest หุ้นของ OpenAI ขึ้นอยู่กับหลายเงื่อนไขที่อาจไม่บรรลุ
    การเปรียบเทียบประสิทธิภาพยังต้องรอผลการใช้งานจริงใน data center

    https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-could-beat-nvidia-to-launching-ai-gpus-on-the-cutting-edge-2nm-node-instinct-mi450-is-officially-the-first-amd-gpu-to-launch-with-tsmcs-finest-tech
    ⚙️ “AMD เปิดเกมรุก! ส่ง MI450 บนเทคโนโลยี 2nm ล้ำหน้า Nvidia — OpenAI เตรียมรับล็อตแรกกลางปีหน้า” AMD ประกาศเปิดตัว GPU รุ่นใหม่ Instinct MI450 ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรจาก TSMC ซึ่งถือเป็นครั้งแรกที่ AMD ใช้กระบวนการผลิตระดับนี้กับชิป AI โดยจะเริ่มส่งมอบให้กับ OpenAI ในช่วงครึ่งหลังของปี 2026 ตามข้อตกลงความร่วมมือระยะยาวที่ครอบคลุมถึง 6 กิกะวัตต์ของกำลังประมวลผล MI450 ใช้สถาปัตยกรรม CDNA 5 และเป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ รองรับรูปแบบข้อมูลและคำสั่งที่เหมาะกับการฝึกโมเดลขนาดใหญ่ โดยใช้เทคโนโลยี Gate-All-Around (GAA) ซึ่งช่วยเพิ่มประสิทธิภาพและลดการใช้พลังงานได้ถึง 25–30% เมื่อเทียบกับรุ่นก่อนหน้า ในด้านฮาร์ดแวร์ AMD เตรียมเปิดตัว Helios rack ที่บรรจุ MI450 ถึง 72 ตัว พร้อมหน่วยความจำ HBM4 ขนาด 51TB และแบนด์วิดธ์สูงถึง 1,400 TB/s ซึ่งเหนือกว่า Nvidia Rubin NVL144 ที่ใช้เทคโนโลยี 3nm และมี HBM4 เพียง 21TB กับแบนด์วิดธ์ 936 TB/s อย่างไรก็ตาม Nvidia ยังมีจุดแข็งด้าน FP4 performance ที่สูงกว่า (3,600 PFLOPS เทียบกับ 1,440 PFLOPS ของ AMD) ข้อตกลงกับ OpenAI ยังรวมถึงการออก warrant ให้ซื้อหุ้น AMD ได้สูงสุด 160 ล้านหุ้น โดยจะทยอย vest ตาม milestone เช่น การติดตั้งครบ 1 กิกะวัตต์ และการบรรลุเป้าหมายด้านเทคนิคและเชิงพาณิชย์ Lisa Su ซีอีโอของ AMD ระบุว่า “นี่คือการรวมพลังของทั้งสองบริษัทเพื่อสร้างโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดในโลก” ขณะที่ Sam Altman จาก OpenAI กล่าวว่า “AMD จะช่วยเราสร้างความก้าวหน้าใน AI ได้เร็วขึ้น และนำประโยชน์ไปสู่ทุกคน” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว Instinct MI450 บนเทคโนโลยี 2nm จาก TSMC ➡️ ใช้สถาปัตยกรรม CDNA 5 และออกแบบมาเพื่องาน AI โดยเฉพาะ ➡️ ใช้ Gate-All-Around (GAA) transistor เพื่อเพิ่มประสิทธิภาพ ➡️ ลดการใช้พลังงานได้ 25–30% และเพิ่มความหนาแน่นของทรานซิสเตอร์ 15% ➡️ Helios rack มี MI450 จำนวน 72 ตัว พร้อม HBM4 ขนาด 51TB และแบนด์วิดธ์ 1,400 TB/s ➡️ Nvidia Rubin NVL144 มี HBM4 21TB และแบนด์วิดธ์ 936 TB/s แต่ FP4 performance สูงกว่า ➡️ OpenAI จะได้รับ MI450 ล็อตแรกในครึ่งหลังของปี 2026 ➡️ ข้อตกลงรวมการออก warrant ให้ OpenAI ซื้อหุ้น AMD สูงสุด 160 ล้านหุ้น ➡️ การ vest ขึ้นอยู่กับ milestone เช่น การติดตั้งครบ 1GW และเป้าหมายด้านเทคนิค ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC N2 เป็นเทคโนโลยีการผลิตระดับ 2nm ที่ใช้ GAA transistor เป็นครั้งแรก ➡️ GAA transistor ช่วยลด leakage และเพิ่มประสิทธิภาพในการออกแบบชิป ➡️ HBM4 เป็นหน่วยความจำความเร็วสูงที่ใช้ในงาน AI และ HPC ➡️ FP4 เป็นรูปแบบการประมวลผลที่ใช้ในการฝึกโมเดล LLM ขนาดใหญ่ ➡️ การออก warrant เป็นกลยุทธ์ทางการเงินที่ใช้สร้างพันธมิตรระยะยาว ‼️ คำเตือนและข้อจำกัด ⛔ MI450 ยังมี FP4 performance ต่ำกว่า Nvidia Rubin NVL144 อย่างชัดเจน ⛔ การเชื่อมต่อแบบ UALink ยังไม่แน่นอนว่าจะ scale ได้ดีใน MI450 ⛔ การผลิตชิป 2nm มีความซับซ้อนและต้นทุนสูง อาจกระทบ timeline ⛔ การ vest หุ้นของ OpenAI ขึ้นอยู่กับหลายเงื่อนไขที่อาจไม่บรรลุ ⛔ การเปรียบเทียบประสิทธิภาพยังต้องรอผลการใช้งานจริงใน data center https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-could-beat-nvidia-to-launching-ai-gpus-on-the-cutting-edge-2nm-node-instinct-mi450-is-officially-the-first-amd-gpu-to-launch-with-tsmcs-finest-tech
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “Intel Panther Lake มาแน่ต้นปี 2026 — ประสิทธิภาพสูงขึ้น 50% พร้อมประหยัดพลังงานกว่าเดิม 30% ด้วยเทคโนโลยี 18A”

    Intel กำลังเตรียมเปิดตัวชิปตระกูลใหม่ “Panther Lake” สำหรับแพลตฟอร์มพกพาในต้นปี 2026 โดยถือเป็นผลิตภัณฑ์แรกของผู้บริโภคที่ใช้เทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการผลิตทรานซิสเตอร์ขั้นสูงที่ Intel พัฒนาขึ้นเอง โดยมีเป้าหมายเพื่อพลิกสถานการณ์ในตลาดที่กำลังถูกคู่แข่งอย่าง AMD และ Apple แย่งส่วนแบ่งไปอย่างต่อเนื่อง

    จากรายงานของ Reuters และ Wccftech ชิป Panther Lake จะมีประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake รุ่นก่อนถึง 30% และสามารถประมวลผลข้อมูลได้เร็วขึ้นถึง 50% ในงานที่ใช้ทรัพยากรสูง เช่น การประมวลผลกราฟิกและข้อมูล AI

    แม้รายละเอียดเชิงเทคนิคจะยังไม่เปิดเผยทั้งหมด แต่ Intel ยืนยันว่าชิปใหม่นี้จะใช้พลังงานน้อยลง และมีการปรับปรุงทั้งในส่วนของกราฟิกและซีพียู โดยใช้สถาปัตยกรรมใหม่ที่ชื่อว่า Cougar Cove ซึ่งเป็นการต่อยอดจาก Arrow Lake H-series

    Panther Lake ยังถูกวางตำแหน่งให้เป็นชิประดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงานแบบ Lunar Lake โดยคาดว่าจะมีค่า TDP อยู่ในช่วง 45W ซึ่งเหมาะกับโน้ตบุ๊กประสิทธิภาพสูงและอุปกรณ์พกพาที่ต้องการพลังในการประมวลผลมากขึ้น

    การเปิดตัวครั้งนี้ถือเป็นก้าวสำคัญของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple โดยเฉพาะในด้านประสิทธิภาพต่อวัตต์ ซึ่งเป็นจุดอ่อนของ Intel ในช่วงหลายปีที่ผ่านมา

    ข้อมูลสำคัญจากข่าว
    Intel เตรียมเปิดตัวชิป Panther Lake ต้นปี 2026 สำหรับแพลตฟอร์มพกพา
    ใช้เทคโนโลยีการผลิต 18A เป็นครั้งแรกในผลิตภัณฑ์ผู้บริโภค
    ประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake ถึง 30%
    ประสิทธิภาพการประมวลผลสูงขึ้น 50% ในงานข้อมูลหนัก
    ใช้สถาปัตยกรรม Cougar Cove ต่อจาก Arrow Lake H-series
    เหมาะกับโน้ตบุ๊กระดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงาน
    คาดว่าจะมีค่า TDP ประมาณ 45W
    เป็นความพยายามของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple

    ข้อมูลเสริมจากภายนอก
    18A เป็นกระบวนการผลิตที่ใช้ RibbonFET และ PowerVia ซึ่งเป็นเทคโนโลยีใหม่ของ Intel
    Lunar Lake ใช้ TSMC N3B node ในการผลิต ทำให้มีประสิทธิภาพด้านพลังงานสูง
    Apple M4 ใช้สถาปัตยกรรม 3nm และมีประสิทธิภาพต่อวัตต์สูงมาก
    Cougar Cove มีการปรับปรุง branch predictor และ buffer ขนาดใหญ่ขึ้น
    Panther Lake อาจเป็นชิป x86 ที่เข้าใกล้ประสิทธิภาพของ Apple M-series มากที่สุด

    https://wccftech.com/intel-panther-lake-lineup-features-30-higher-power-efficiency-compared-to-lunar-lake/
    ⚙️ “Intel Panther Lake มาแน่ต้นปี 2026 — ประสิทธิภาพสูงขึ้น 50% พร้อมประหยัดพลังงานกว่าเดิม 30% ด้วยเทคโนโลยี 18A” Intel กำลังเตรียมเปิดตัวชิปตระกูลใหม่ “Panther Lake” สำหรับแพลตฟอร์มพกพาในต้นปี 2026 โดยถือเป็นผลิตภัณฑ์แรกของผู้บริโภคที่ใช้เทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการผลิตทรานซิสเตอร์ขั้นสูงที่ Intel พัฒนาขึ้นเอง โดยมีเป้าหมายเพื่อพลิกสถานการณ์ในตลาดที่กำลังถูกคู่แข่งอย่าง AMD และ Apple แย่งส่วนแบ่งไปอย่างต่อเนื่อง จากรายงานของ Reuters และ Wccftech ชิป Panther Lake จะมีประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake รุ่นก่อนถึง 30% และสามารถประมวลผลข้อมูลได้เร็วขึ้นถึง 50% ในงานที่ใช้ทรัพยากรสูง เช่น การประมวลผลกราฟิกและข้อมูล AI แม้รายละเอียดเชิงเทคนิคจะยังไม่เปิดเผยทั้งหมด แต่ Intel ยืนยันว่าชิปใหม่นี้จะใช้พลังงานน้อยลง และมีการปรับปรุงทั้งในส่วนของกราฟิกและซีพียู โดยใช้สถาปัตยกรรมใหม่ที่ชื่อว่า Cougar Cove ซึ่งเป็นการต่อยอดจาก Arrow Lake H-series Panther Lake ยังถูกวางตำแหน่งให้เป็นชิประดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงานแบบ Lunar Lake โดยคาดว่าจะมีค่า TDP อยู่ในช่วง 45W ซึ่งเหมาะกับโน้ตบุ๊กประสิทธิภาพสูงและอุปกรณ์พกพาที่ต้องการพลังในการประมวลผลมากขึ้น การเปิดตัวครั้งนี้ถือเป็นก้าวสำคัญของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple โดยเฉพาะในด้านประสิทธิภาพต่อวัตต์ ซึ่งเป็นจุดอ่อนของ Intel ในช่วงหลายปีที่ผ่านมา ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel เตรียมเปิดตัวชิป Panther Lake ต้นปี 2026 สำหรับแพลตฟอร์มพกพา ➡️ ใช้เทคโนโลยีการผลิต 18A เป็นครั้งแรกในผลิตภัณฑ์ผู้บริโภค ➡️ ประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake ถึง 30% ➡️ ประสิทธิภาพการประมวลผลสูงขึ้น 50% ในงานข้อมูลหนัก ➡️ ใช้สถาปัตยกรรม Cougar Cove ต่อจาก Arrow Lake H-series ➡️ เหมาะกับโน้ตบุ๊กระดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงาน ➡️ คาดว่าจะมีค่า TDP ประมาณ 45W ➡️ เป็นความพยายามของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple ✅ ข้อมูลเสริมจากภายนอก ➡️ 18A เป็นกระบวนการผลิตที่ใช้ RibbonFET และ PowerVia ซึ่งเป็นเทคโนโลยีใหม่ของ Intel ➡️ Lunar Lake ใช้ TSMC N3B node ในการผลิต ทำให้มีประสิทธิภาพด้านพลังงานสูง ➡️ Apple M4 ใช้สถาปัตยกรรม 3nm และมีประสิทธิภาพต่อวัตต์สูงมาก ➡️ Cougar Cove มีการปรับปรุง branch predictor และ buffer ขนาดใหญ่ขึ้น ➡️ Panther Lake อาจเป็นชิป x86 ที่เข้าใกล้ประสิทธิภาพของ Apple M-series มากที่สุด https://wccftech.com/intel-panther-lake-lineup-features-30-higher-power-efficiency-compared-to-lunar-lake/
    WCCFTECH.COM
    Intel's Next-Gen Panther Lake Lineup Features 30% Higher Power Efficiency Compared to Lunar Lake, Driven By 18A Adoption
    Details around Intel's Panther Lake have started to surface and the mobile platform will feature impressive performance per watt figures.
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • “Apple M5 Pro และ M5 Max อาจเปลี่ยนดีไซน์ชิปครั้งใหญ่ — แยก CPU กับ GPU เพื่อการปรับแต่งเฉพาะตัว”

    Apple กำลังเตรียมเปิดตัวชิป M5 Pro และ M5 Max ที่อาจมาพร้อมการเปลี่ยนแปลงครั้งสำคัญในด้านสถาปัตยกรรม โดยแหล่งข่าวระบุว่า Apple จะใช้ดีไซน์ใหม่ที่แยกบล็อก CPU และ GPU ออกจากกัน ซึ่งเปิดโอกาสให้ผู้ใช้สามารถเลือกจำนวนคอร์ของแต่ละส่วนได้ตามต้องการ เช่น เลือก GPU แบบจัดเต็มแต่ใช้ CPU เท่ารุ่นพื้นฐาน หรือกลับกัน

    ชิปทั้งสองรุ่นจะใช้เทคโนโลยีการบรรจุแบบ SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอนที่ช่วยให้มีความหนาแน่นสูงขึ้น ลดขนาดและน้ำหนักของแพ็กเกจ เหมาะกับเครื่องพกพาอย่าง MacBook Pro และยังช่วยให้ระบายความร้อนได้ดีขึ้นด้วยแผ่นสัมผัสที่เปิดออก

    M5 Pro และ M5 Max จะผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ซึ่งเป็นรุ่นที่พัฒนาต่อจาก N3E ที่ใช้ในชิป M4 และ A18 Bionic โดยคาดว่าจะให้ประสิทธิภาพสูงขึ้นและประหยัดพลังงานมากขึ้น

    อย่างไรก็ตาม ชิป M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH นี้ ทำให้ M5 Pro และ M5 Max กลายเป็นรุ่นพิเศษที่มีความสามารถในการปรับแต่งสูงกว่า และอาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน โดยมีข่าวลือว่าการเปิดตัว M5 Pro และ M5 Max จะล่าช้าออกไป

    แม้จะมีความล่าช้า แต่ Apple ก็ยังไม่มีคู่แข่งที่สามารถเทียบเคียงได้ในด้านประสิทธิภาพ โดย M4 Max ยังคงเหนือกว่า Snapdragon X2 Elite Extreme ทั้งในด้าน single-core และ multi-core รวมถึงการประมวลผลกราฟิกใน 3DMark

    ข้อมูลสำคัญจากข่าว
    M5 Pro และ M5 Max อาจใช้ดีไซน์ชิปใหม่ที่แยก CPU กับ GPU ออกจากกัน
    ผู้ใช้สามารถเลือกจำนวนคอร์ของ CPU และ GPU ได้ตามต้องการ
    ใช้เทคโนโลยี SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอน
    ช่วยลดขนาดและน้ำหนักของแพ็กเกจ เพิ่มความหนาแน่นของชิ้นส่วน
    เพิ่มประสิทธิภาพการระบายความร้อนด้วยแผ่นสัมผัสที่เปิดออก
    ผลิตบนเทคโนโลยี 3nm N3P ของ TSMC
    M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH
    อาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน
    M4 Max ยังเหนือกว่า Snapdragon X2 Elite Extreme ในหลายการทดสอบ

    ข้อมูลเสริมจากภายนอก
    SoIC-MH เป็นเทคโนโลยี 2.5D ที่ช่วยให้การเชื่อมต่อระหว่างชิปมีความหนาแน่นสูง
    การแยก CPU กับ GPU อาจช่วยให้ประสิทธิภาพ AI inference ดีขึ้น
    Unified Memory Architecture (UMA) อาจถูกยกเลิกในดีไซน์ใหม่นี้
    การแยกหน่วยความจำระหว่าง CPU กับ GPU อาจเพิ่มความยืดหยุ่นในการใช้งาน
    Apple อาจใช้ดีไซน์ใหม่นี้เพื่อรองรับ Private Cloud Compute สำหรับงาน AI

    https://wccftech.com/apple-m5-pro-and-m5-max-new-chip-design-with-separate-cpu-and-gpu-blocks/
    🧩 “Apple M5 Pro และ M5 Max อาจเปลี่ยนดีไซน์ชิปครั้งใหญ่ — แยก CPU กับ GPU เพื่อการปรับแต่งเฉพาะตัว” Apple กำลังเตรียมเปิดตัวชิป M5 Pro และ M5 Max ที่อาจมาพร้อมการเปลี่ยนแปลงครั้งสำคัญในด้านสถาปัตยกรรม โดยแหล่งข่าวระบุว่า Apple จะใช้ดีไซน์ใหม่ที่แยกบล็อก CPU และ GPU ออกจากกัน ซึ่งเปิดโอกาสให้ผู้ใช้สามารถเลือกจำนวนคอร์ของแต่ละส่วนได้ตามต้องการ เช่น เลือก GPU แบบจัดเต็มแต่ใช้ CPU เท่ารุ่นพื้นฐาน หรือกลับกัน ชิปทั้งสองรุ่นจะใช้เทคโนโลยีการบรรจุแบบ SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอนที่ช่วยให้มีความหนาแน่นสูงขึ้น ลดขนาดและน้ำหนักของแพ็กเกจ เหมาะกับเครื่องพกพาอย่าง MacBook Pro และยังช่วยให้ระบายความร้อนได้ดีขึ้นด้วยแผ่นสัมผัสที่เปิดออก M5 Pro และ M5 Max จะผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ซึ่งเป็นรุ่นที่พัฒนาต่อจาก N3E ที่ใช้ในชิป M4 และ A18 Bionic โดยคาดว่าจะให้ประสิทธิภาพสูงขึ้นและประหยัดพลังงานมากขึ้น อย่างไรก็ตาม ชิป M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH นี้ ทำให้ M5 Pro และ M5 Max กลายเป็นรุ่นพิเศษที่มีความสามารถในการปรับแต่งสูงกว่า และอาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน โดยมีข่าวลือว่าการเปิดตัว M5 Pro และ M5 Max จะล่าช้าออกไป แม้จะมีความล่าช้า แต่ Apple ก็ยังไม่มีคู่แข่งที่สามารถเทียบเคียงได้ในด้านประสิทธิภาพ โดย M4 Max ยังคงเหนือกว่า Snapdragon X2 Elite Extreme ทั้งในด้าน single-core และ multi-core รวมถึงการประมวลผลกราฟิกใน 3DMark ✅ ข้อมูลสำคัญจากข่าว ➡️ M5 Pro และ M5 Max อาจใช้ดีไซน์ชิปใหม่ที่แยก CPU กับ GPU ออกจากกัน ➡️ ผู้ใช้สามารถเลือกจำนวนคอร์ของ CPU และ GPU ได้ตามต้องการ ➡️ ใช้เทคโนโลยี SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอน ➡️ ช่วยลดขนาดและน้ำหนักของแพ็กเกจ เพิ่มความหนาแน่นของชิ้นส่วน ➡️ เพิ่มประสิทธิภาพการระบายความร้อนด้วยแผ่นสัมผัสที่เปิดออก ➡️ ผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ➡️ M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH ➡️ อาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน ➡️ M4 Max ยังเหนือกว่า Snapdragon X2 Elite Extreme ในหลายการทดสอบ ✅ ข้อมูลเสริมจากภายนอก ➡️ SoIC-MH เป็นเทคโนโลยี 2.5D ที่ช่วยให้การเชื่อมต่อระหว่างชิปมีความหนาแน่นสูง ➡️ การแยก CPU กับ GPU อาจช่วยให้ประสิทธิภาพ AI inference ดีขึ้น ➡️ Unified Memory Architecture (UMA) อาจถูกยกเลิกในดีไซน์ใหม่นี้ ➡️ การแยกหน่วยความจำระหว่าง CPU กับ GPU อาจเพิ่มความยืดหยุ่นในการใช้งาน ➡️ Apple อาจใช้ดีไซน์ใหม่นี้เพื่อรองรับ Private Cloud Compute สำหรับงาน AI https://wccftech.com/apple-m5-pro-and-m5-max-new-chip-design-with-separate-cpu-and-gpu-blocks/
    WCCFTECH.COM
    Apple’s M5 Pro & M5 Max Rumored To Share New Chip Design With Separate CPU, GPU Blocks, Allowing For Unique Configurations, May Not Arrive With Regular M5
    It might be possible to enable unique configurations with the M5 Pro and M5 Max, as both Apple Silicon are rumored to feature a brand new design
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
  • “Acer เตือนดีล Nvidia–Intel อาจทำให้ซัพพลายเชน PC ยุ่งยากขึ้น — ขณะที่แผนผลิตชิป 50/50 ระหว่างสหรัฐฯ–ไต้หวันอาจใช้เวลาถึง 50 ปี”

    ในงาน Long Time Smile Awards ของ Acer ที่จัดขึ้นในเดือนตุลาคม 2025 Jason Chen ซีอีโอของ Acer ได้แสดงความกังวลต่อดีลระหว่าง Nvidia และ Intel ที่ร่วมกันพัฒนาชิป x86 รุ่นใหม่ โดยระบุว่าการมีผู้ผลิตชิปเพิ่มขึ้นจากสองรายหลัก (Intel และ AMD) เป็นสามราย จะทำให้ซัพพลายเชนของอุตสาหกรรม PC ยุ่งยากขึ้นอย่างมาก

    Chen ชี้ว่าในปัจจุบัน ผู้ผลิตต้องจัดการกับหลายเจเนอเรชันของชิปจาก Intel และ AMD ที่มีความแตกต่างทั้งด้านราคา ประสิทธิภาพ และการใช้พลังงาน การเพิ่ม Nvidia เข้ามาในฐานะผู้ผลิต CPU จะทำให้การเลือกจับคู่ CPU, GPU, RAM และ PSU ยิ่งซับซ้อนขึ้น และอาจทำให้ผู้บริโภคเกิด “decision fatigue” จนเลือกซื้อจากแบรนด์ที่คุ้นเคยแทน

    ในงานเดียวกัน Stan Shih ผู้ก่อตั้ง Acer ยังได้แสดงความเห็นต่อข้อเสนอของ Howard Lutnick รัฐมนตรีพาณิชย์สหรัฐฯ ที่เสนอให้แบ่งการผลิตชิปสำหรับตลาดสหรัฐฯ ระหว่างไต้หวันและสหรัฐฯ แบบ 50/50 โดย Shih มองว่าแนวคิดนี้เป็นไปได้ในระยะยาว แต่ต้องใช้เวลาถึง 50 ปีในการปรับโครงสร้างซัพพลายเชนให้รองรับ

    Acer ได้เริ่มปรับกระบวนการผลิตสำหรับสินค้าที่ส่งออกไปยังสหรัฐฯ เพื่อหลีกเลี่ยงภาษีที่เพิ่มขึ้นจากนโยบายของทำเนียบขาว และอาจต้องปรับเพิ่มอีก หากผลการสอบสวนตามมาตรา 232 นำไปสู่การเก็บภาษีชิปสูงถึง 200–300%

    สถานการณ์นี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ในอุตสาหกรรมเซมิคอนดักเตอร์ ที่เต็มไปด้วยความไม่แน่นอนจากดีลพันธมิตรใหม่ ภาษี การขาดแคลน และแรงกดดันทางภูมิรัฐศาสตร์ ซึ่งทุกบริษัทต้องปรับตัวอย่างต่อเนื่อง

    ข้อมูลสำคัญจากข่าว
    Acer เตือนว่าดีล Nvidia–Intel จะทำให้ซัพพลายเชน PC ซับซ้อนขึ้น
    ผู้ผลิตต้องจัดการกับหลายเจเนอเรชันของชิปจาก Intel และ AMD
    การเพิ่ม Nvidia เป็นผู้ผลิต CPU จะทำให้การเลือกอุปกรณ์ยิ่งยุ่งยาก
    ผู้บริโภคอาจเกิด decision fatigue และเลือกแบรนด์ที่คุ้นเคย
    Stan Shih มองว่าแผนผลิตชิป 50/50 ระหว่างไต้หวัน–สหรัฐฯ อาจใช้เวลาถึง 50 ปี
    Acer ปรับกระบวนการผลิตเพื่อหลีกเลี่ยงภาษีจากนโยบายของสหรัฐฯ
    อาจต้องปรับเพิ่มอีก หากผลสอบสวนตามมาตรา 232 นำไปสู่ภาษีชิป 200–300%
    อุตสาหกรรมเซมิคอนดักเตอร์กำลังเผชิญกับความเปลี่ยนแปลงครั้งใหญ่

    ข้อมูลเสริมจากภายนอก
    Nvidia และ Intel ร่วมพัฒนาชิป x86 เพื่อแข่งขันกับ AMD
    Intel เพิ่งขึ้นราคาชิป Raptor Lake แม้จะเป็นเจเนอเรชันเก่า
    AMD เปิดตัว Ryzen 3 5100 บนแพลตฟอร์ม AM4 ที่ใช้สถาปัตยกรรม Zen 3
    Lutnick เสนอแผน 50/50 เพื่อให้สหรัฐฯ ลดการพึ่งพาไต้หวันด้านชิป
    การผลิตชิปในไต้หวันคิดเป็นกว่า 90% ของชิปขั้นสูงทั่วโลก

    https://www.tomshardware.com/tech-industry/acer-chief-says-nvidias-intel-investment-will-complicate-pc-supply-chains-says-lutnicks-50-50-proposal-could-take-50-years-to-realize
    🔧 “Acer เตือนดีล Nvidia–Intel อาจทำให้ซัพพลายเชน PC ยุ่งยากขึ้น — ขณะที่แผนผลิตชิป 50/50 ระหว่างสหรัฐฯ–ไต้หวันอาจใช้เวลาถึง 50 ปี” ในงาน Long Time Smile Awards ของ Acer ที่จัดขึ้นในเดือนตุลาคม 2025 Jason Chen ซีอีโอของ Acer ได้แสดงความกังวลต่อดีลระหว่าง Nvidia และ Intel ที่ร่วมกันพัฒนาชิป x86 รุ่นใหม่ โดยระบุว่าการมีผู้ผลิตชิปเพิ่มขึ้นจากสองรายหลัก (Intel และ AMD) เป็นสามราย จะทำให้ซัพพลายเชนของอุตสาหกรรม PC ยุ่งยากขึ้นอย่างมาก Chen ชี้ว่าในปัจจุบัน ผู้ผลิตต้องจัดการกับหลายเจเนอเรชันของชิปจาก Intel และ AMD ที่มีความแตกต่างทั้งด้านราคา ประสิทธิภาพ และการใช้พลังงาน การเพิ่ม Nvidia เข้ามาในฐานะผู้ผลิต CPU จะทำให้การเลือกจับคู่ CPU, GPU, RAM และ PSU ยิ่งซับซ้อนขึ้น และอาจทำให้ผู้บริโภคเกิด “decision fatigue” จนเลือกซื้อจากแบรนด์ที่คุ้นเคยแทน ในงานเดียวกัน Stan Shih ผู้ก่อตั้ง Acer ยังได้แสดงความเห็นต่อข้อเสนอของ Howard Lutnick รัฐมนตรีพาณิชย์สหรัฐฯ ที่เสนอให้แบ่งการผลิตชิปสำหรับตลาดสหรัฐฯ ระหว่างไต้หวันและสหรัฐฯ แบบ 50/50 โดย Shih มองว่าแนวคิดนี้เป็นไปได้ในระยะยาว แต่ต้องใช้เวลาถึง 50 ปีในการปรับโครงสร้างซัพพลายเชนให้รองรับ Acer ได้เริ่มปรับกระบวนการผลิตสำหรับสินค้าที่ส่งออกไปยังสหรัฐฯ เพื่อหลีกเลี่ยงภาษีที่เพิ่มขึ้นจากนโยบายของทำเนียบขาว และอาจต้องปรับเพิ่มอีก หากผลการสอบสวนตามมาตรา 232 นำไปสู่การเก็บภาษีชิปสูงถึง 200–300% สถานการณ์นี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ในอุตสาหกรรมเซมิคอนดักเตอร์ ที่เต็มไปด้วยความไม่แน่นอนจากดีลพันธมิตรใหม่ ภาษี การขาดแคลน และแรงกดดันทางภูมิรัฐศาสตร์ ซึ่งทุกบริษัทต้องปรับตัวอย่างต่อเนื่อง ✅ ข้อมูลสำคัญจากข่าว ➡️ Acer เตือนว่าดีล Nvidia–Intel จะทำให้ซัพพลายเชน PC ซับซ้อนขึ้น ➡️ ผู้ผลิตต้องจัดการกับหลายเจเนอเรชันของชิปจาก Intel และ AMD ➡️ การเพิ่ม Nvidia เป็นผู้ผลิต CPU จะทำให้การเลือกอุปกรณ์ยิ่งยุ่งยาก ➡️ ผู้บริโภคอาจเกิด decision fatigue และเลือกแบรนด์ที่คุ้นเคย ➡️ Stan Shih มองว่าแผนผลิตชิป 50/50 ระหว่างไต้หวัน–สหรัฐฯ อาจใช้เวลาถึง 50 ปี ➡️ Acer ปรับกระบวนการผลิตเพื่อหลีกเลี่ยงภาษีจากนโยบายของสหรัฐฯ ➡️ อาจต้องปรับเพิ่มอีก หากผลสอบสวนตามมาตรา 232 นำไปสู่ภาษีชิป 200–300% ➡️ อุตสาหกรรมเซมิคอนดักเตอร์กำลังเผชิญกับความเปลี่ยนแปลงครั้งใหญ่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia และ Intel ร่วมพัฒนาชิป x86 เพื่อแข่งขันกับ AMD ➡️ Intel เพิ่งขึ้นราคาชิป Raptor Lake แม้จะเป็นเจเนอเรชันเก่า ➡️ AMD เปิดตัว Ryzen 3 5100 บนแพลตฟอร์ม AM4 ที่ใช้สถาปัตยกรรม Zen 3 ➡️ Lutnick เสนอแผน 50/50 เพื่อให้สหรัฐฯ ลดการพึ่งพาไต้หวันด้านชิป ➡️ การผลิตชิปในไต้หวันคิดเป็นกว่า 90% ของชิปขั้นสูงทั่วโลก https://www.tomshardware.com/tech-industry/acer-chief-says-nvidias-intel-investment-will-complicate-pc-supply-chains-says-lutnicks-50-50-proposal-could-take-50-years-to-realize
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • “Micron เปิดตัว HBM4 แรงทะลุ 2.8TB/s — พร้อมแผน HBM4E แบบปรับแต่งได้สำหรับ Nvidia และ AMD”

    Micron ประกาศความสำเร็จครั้งใหญ่ในตลาดหน่วยความจำความเร็วสูง (HBM) ด้วยการเปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ซึ่งสูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps อย่างชัดเจน โดยเริ่มส่งมอบตัวอย่างให้ลูกค้าแล้ว และเตรียมพร้อมสำหรับการใช้งานจริงในแพลตฟอร์ม AI ระดับองค์กร

    HBM4 รุ่นใหม่ของ Micron ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ที่ช่วยให้ประหยัดพลังงานและเพิ่มประสิทธิภาพได้อย่างโดดเด่น นอกจากนี้ยังมีแผนเปิดตัว HBM4E ซึ่งจะเป็นครั้งแรกที่มีการเสนอ “base logic die” แบบปรับแต่งได้ตามความต้องการของลูกค้า เช่น Nvidia และ AMD เพื่อให้สามารถออกแบบ accelerator ที่มี latency ต่ำและการจัดการข้อมูลที่แม่นยำมากขึ้น

    Micron ร่วมมือกับ TSMC ในการผลิต base die สำหรับ HBM4E โดยคาดว่าจะสามารถสร้างความแตกต่างในตลาดได้อย่างชัดเจน และเพิ่ม margin ให้กับผลิตภัณฑ์แบบปรับแต่งได้มากกว่ารุ่นมาตรฐาน

    ในไตรมาสล่าสุด Micron รายงานรายได้จาก HBM สูงถึง 2 พันล้านดอลลาร์ ซึ่งคิดเป็นอัตรารายได้ต่อปีที่ 8 พันล้านดอลลาร์ และตั้งเป้าจะครองส่วนแบ่งในตลาด HBM ที่มีมูลค่ารวมกว่า 100 พันล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Micron เปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps
    สูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps
    ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่
    เริ่มส่งมอบตัวอย่าง HBM4 ให้ลูกค้าแล้ว
    เตรียมเปิดตัว HBM4E ที่สามารถปรับแต่ง base logic die ได้ตามความต้องการ
    พัฒนา HBM4E ร่วมกับ TSMC เพื่อรองรับการใช้งานใน accelerator ของ Nvidia และ AMD
    HBM4E แบบปรับแต่งจะมี margin สูงกว่ารุ่นมาตรฐาน
    Micron รายงานรายได้จาก HBM สูงถึง $2B ในไตรมาสล่าสุด
    ตั้งเป้าครองส่วนแบ่งในตลาด HBM มูลค่า $100B

    ข้อมูลเสริมจากภายนอก
    HBM (High Bandwidth Memory) เป็นหน่วยความจำแบบ stacked ที่ใช้ในงาน AI และ GPU ระดับสูง
    JEDEC เป็นองค์กรที่กำหนดมาตรฐานด้านหน่วยความจำในอุตสาหกรรม
    การปรับแต่ง base die ช่วยให้ accelerator มี latency ต่ำและ routing ที่แม่นยำ
    TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และเป็นพันธมิตรสำคัญของ Micron
    Nvidia และ AMD ต้องการหน่วยความจำที่เร็วขึ้นเพื่อรองรับการเติบโตของ compute die

    https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix
    🚀 “Micron เปิดตัว HBM4 แรงทะลุ 2.8TB/s — พร้อมแผน HBM4E แบบปรับแต่งได้สำหรับ Nvidia และ AMD” Micron ประกาศความสำเร็จครั้งใหญ่ในตลาดหน่วยความจำความเร็วสูง (HBM) ด้วยการเปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ซึ่งสูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps อย่างชัดเจน โดยเริ่มส่งมอบตัวอย่างให้ลูกค้าแล้ว และเตรียมพร้อมสำหรับการใช้งานจริงในแพลตฟอร์ม AI ระดับองค์กร HBM4 รุ่นใหม่ของ Micron ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ที่ช่วยให้ประหยัดพลังงานและเพิ่มประสิทธิภาพได้อย่างโดดเด่น นอกจากนี้ยังมีแผนเปิดตัว HBM4E ซึ่งจะเป็นครั้งแรกที่มีการเสนอ “base logic die” แบบปรับแต่งได้ตามความต้องการของลูกค้า เช่น Nvidia และ AMD เพื่อให้สามารถออกแบบ accelerator ที่มี latency ต่ำและการจัดการข้อมูลที่แม่นยำมากขึ้น Micron ร่วมมือกับ TSMC ในการผลิต base die สำหรับ HBM4E โดยคาดว่าจะสามารถสร้างความแตกต่างในตลาดได้อย่างชัดเจน และเพิ่ม margin ให้กับผลิตภัณฑ์แบบปรับแต่งได้มากกว่ารุ่นมาตรฐาน ในไตรมาสล่าสุด Micron รายงานรายได้จาก HBM สูงถึง 2 พันล้านดอลลาร์ ซึ่งคิดเป็นอัตรารายได้ต่อปีที่ 8 พันล้านดอลลาร์ และตั้งเป้าจะครองส่วนแบ่งในตลาด HBM ที่มีมูลค่ารวมกว่า 100 พันล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Micron เปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ➡️ สูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps ➡️ ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ ➡️ เริ่มส่งมอบตัวอย่าง HBM4 ให้ลูกค้าแล้ว ➡️ เตรียมเปิดตัว HBM4E ที่สามารถปรับแต่ง base logic die ได้ตามความต้องการ ➡️ พัฒนา HBM4E ร่วมกับ TSMC เพื่อรองรับการใช้งานใน accelerator ของ Nvidia และ AMD ➡️ HBM4E แบบปรับแต่งจะมี margin สูงกว่ารุ่นมาตรฐาน ➡️ Micron รายงานรายได้จาก HBM สูงถึง $2B ในไตรมาสล่าสุด ➡️ ตั้งเป้าครองส่วนแบ่งในตลาด HBM มูลค่า $100B ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำแบบ stacked ที่ใช้ในงาน AI และ GPU ระดับสูง ➡️ JEDEC เป็นองค์กรที่กำหนดมาตรฐานด้านหน่วยความจำในอุตสาหกรรม ➡️ การปรับแต่ง base die ช่วยให้ accelerator มี latency ต่ำและ routing ที่แม่นยำ ➡️ TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และเป็นพันธมิตรสำคัญของ Micron ➡️ Nvidia และ AMD ต้องการหน่วยความจำที่เร็วขึ้นเพื่อรองรับการเติบโตของ compute die https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
  • “Raspberry Pi OS รีเบสสู่ Debian 13 ‘Trixie’ — ปรับโฉมใหม่หมด เพิ่มความยืดหยุ่น พร้อมฟีเจอร์จัดการระบบแบบรวมศูนย์”

    Raspberry Pi OS ซึ่งเป็นระบบปฏิบัติการยอดนิยมสำหรับบอร์ด Raspberry Pi ได้รับการอัปเดตครั้งใหญ่ในเดือนตุลาคม 2025 โดยรีเบสไปใช้ Debian 13 “Trixie” เป็นฐานหลัก พร้อมยังคงใช้ Linux Kernel 6.12 LTS เพื่อความเสถียรในระยะยาว การเปลี่ยนแปลงครั้งนี้ไม่เพียงแค่ปรับปรุงด้านเทคนิค แต่ยังมาพร้อมกับการออกแบบใหม่ที่ทันสมัยและฟีเจอร์จัดการระบบที่รวมศูนย์มากขึ้น

    หนึ่งในจุดเด่นของเวอร์ชันใหม่นี้คือการปรับโครงสร้างการติดตั้งแพ็กเกจให้เป็นแบบ modular ซึ่งช่วยให้ผู้ใช้สามารถปรับแต่งภาพ ISO ได้ง่ายขึ้น เช่น การแปลงจากเวอร์ชัน Lite ไปเป็น Desktop หรือกลับกัน ซึ่งไม่เคยรองรับอย่างเป็นทางการมาก่อน

    ด้านการออกแบบ UI มีการเพิ่มธีม GTK ใหม่ 2 แบบ ได้แก่ PiXtrix (โหมดสว่าง) และ PiXonyx (โหมดมืด) พร้อมไอคอนใหม่และฟอนต์ระบบ “Nunito Sans Light” ที่ให้ความรู้สึกทันสมัยมากขึ้น รวมถึงภาพพื้นหลังใหม่ที่เข้ากับธีมโดยรวม

    ระบบ taskbar ได้รับการปรับปรุงด้วย System Monitor plugin สำหรับแจ้งเตือนพลังงานและสถานะอื่น ๆ และมีการรวม Clock plugin ให้ใช้งานร่วมกันระหว่าง wf-panel-pi และ lxpanel-pi ซึ่งเป็นเวอร์ชัน fork ของ LXDE Panel ที่ตัดปลั๊กอินที่ไม่รองรับออกไป

    ที่สำคัญคือการเปิดตัว Control Centre แบบใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในที่เดียว แทนที่แอปแยกย่อยเดิม เช่น Raspberry Pi Configuration, Appearance Settings, Mouse and Keyboard Settings ฯลฯ ทำให้การจัดการระบบสะดวกขึ้นมาก

    ยังมีการเพิ่มเครื่องมือ command-line ใหม่ ได้แก่ rpi-keyboard-config และ rpi-keyboard-fw-update สำหรับปรับแต่งและอัปเดตคีย์บอร์ดโดยเฉพาะ ส่วนแอป Bookshelf ก็ได้รับการปรับปรุงให้แสดงเนื้อหาพิเศษสำหรับผู้สนับสนุน พร้อมระบบปลดล็อกผ่านการ “Contribute”

    ข้อมูลสำคัญจากข่าว
    Raspberry Pi OS รีเบสไปใช้ Debian 13 “Trixie” พร้อม Linux Kernel 6.12 LTS
    ปรับโครงสร้างแพ็กเกจให้เป็นแบบ modular เพื่อความยืดหยุ่นในการติดตั้ง
    เพิ่มธีม GTK ใหม่ 2 แบบ: PiXtrix และ PiXonyx พร้อมไอคอนและฟอนต์ใหม่
    Taskbar มี System Monitor plugin และ Clock plugin แบบรวมศูนย์
    LXDE Panel ถูก fork เป็น lxpanel-pi และลบปลั๊กอินที่ไม่รองรับ
    เปิดตัว Control Centre ใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในแอปเดียว
    เพิ่มเครื่องมือ command-line: rpi-keyboard-config และ rpi-keyboard-fw-update
    แอป Bookshelf แสดงเนื้อหาพิเศษพร้อมระบบปลดล็อกผ่านการสนับสนุน
    รองรับ Raspberry Pi ทุกรุ่น ตั้งแต่ 1A+ ถึง CM4 และ Zero 2 W
    ผู้ใช้สามารถอัปเดตผ่านคำสั่ง sudo apt update && sudo apt full-upgrade

    ข้อมูลเสริมจากภายนอก
    Debian 13 “Trixie” มาพร้อมการปรับปรุงด้านความปลอดภัยและการรองรับฮาร์ดแวร์ใหม่
    Modular package layout ช่วยให้การสร้าง image แบบ custom ง่ายขึ้นมาก
    ฟอนต์ Nunito Sans Light เป็นฟอนต์แบบ open-source ที่เน้นความอ่านง่าย
    Control Centre แบบรวมศูนย์เป็นแนวทางที่นิยมในระบบ desktop สมัยใหม่ เช่น GNOME และ KDE
    การ fork lxpanel ช่วยให้ทีม Raspberry Pi สามารถควบคุมการพัฒนาได้เต็มที่

    https://9to5linux.com/raspberry-pi-os-is-now-based-on-debian-13-trixie-with-fresh-new-look
    🍓 “Raspberry Pi OS รีเบสสู่ Debian 13 ‘Trixie’ — ปรับโฉมใหม่หมด เพิ่มความยืดหยุ่น พร้อมฟีเจอร์จัดการระบบแบบรวมศูนย์” Raspberry Pi OS ซึ่งเป็นระบบปฏิบัติการยอดนิยมสำหรับบอร์ด Raspberry Pi ได้รับการอัปเดตครั้งใหญ่ในเดือนตุลาคม 2025 โดยรีเบสไปใช้ Debian 13 “Trixie” เป็นฐานหลัก พร้อมยังคงใช้ Linux Kernel 6.12 LTS เพื่อความเสถียรในระยะยาว การเปลี่ยนแปลงครั้งนี้ไม่เพียงแค่ปรับปรุงด้านเทคนิค แต่ยังมาพร้อมกับการออกแบบใหม่ที่ทันสมัยและฟีเจอร์จัดการระบบที่รวมศูนย์มากขึ้น หนึ่งในจุดเด่นของเวอร์ชันใหม่นี้คือการปรับโครงสร้างการติดตั้งแพ็กเกจให้เป็นแบบ modular ซึ่งช่วยให้ผู้ใช้สามารถปรับแต่งภาพ ISO ได้ง่ายขึ้น เช่น การแปลงจากเวอร์ชัน Lite ไปเป็น Desktop หรือกลับกัน ซึ่งไม่เคยรองรับอย่างเป็นทางการมาก่อน ด้านการออกแบบ UI มีการเพิ่มธีม GTK ใหม่ 2 แบบ ได้แก่ PiXtrix (โหมดสว่าง) และ PiXonyx (โหมดมืด) พร้อมไอคอนใหม่และฟอนต์ระบบ “Nunito Sans Light” ที่ให้ความรู้สึกทันสมัยมากขึ้น รวมถึงภาพพื้นหลังใหม่ที่เข้ากับธีมโดยรวม ระบบ taskbar ได้รับการปรับปรุงด้วย System Monitor plugin สำหรับแจ้งเตือนพลังงานและสถานะอื่น ๆ และมีการรวม Clock plugin ให้ใช้งานร่วมกันระหว่าง wf-panel-pi และ lxpanel-pi ซึ่งเป็นเวอร์ชัน fork ของ LXDE Panel ที่ตัดปลั๊กอินที่ไม่รองรับออกไป ที่สำคัญคือการเปิดตัว Control Centre แบบใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในที่เดียว แทนที่แอปแยกย่อยเดิม เช่น Raspberry Pi Configuration, Appearance Settings, Mouse and Keyboard Settings ฯลฯ ทำให้การจัดการระบบสะดวกขึ้นมาก ยังมีการเพิ่มเครื่องมือ command-line ใหม่ ได้แก่ rpi-keyboard-config และ rpi-keyboard-fw-update สำหรับปรับแต่งและอัปเดตคีย์บอร์ดโดยเฉพาะ ส่วนแอป Bookshelf ก็ได้รับการปรับปรุงให้แสดงเนื้อหาพิเศษสำหรับผู้สนับสนุน พร้อมระบบปลดล็อกผ่านการ “Contribute” ✅ ข้อมูลสำคัญจากข่าว ➡️ Raspberry Pi OS รีเบสไปใช้ Debian 13 “Trixie” พร้อม Linux Kernel 6.12 LTS ➡️ ปรับโครงสร้างแพ็กเกจให้เป็นแบบ modular เพื่อความยืดหยุ่นในการติดตั้ง ➡️ เพิ่มธีม GTK ใหม่ 2 แบบ: PiXtrix และ PiXonyx พร้อมไอคอนและฟอนต์ใหม่ ➡️ Taskbar มี System Monitor plugin และ Clock plugin แบบรวมศูนย์ ➡️ LXDE Panel ถูก fork เป็น lxpanel-pi และลบปลั๊กอินที่ไม่รองรับ ➡️ เปิดตัว Control Centre ใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในแอปเดียว ➡️ เพิ่มเครื่องมือ command-line: rpi-keyboard-config และ rpi-keyboard-fw-update ➡️ แอป Bookshelf แสดงเนื้อหาพิเศษพร้อมระบบปลดล็อกผ่านการสนับสนุน ➡️ รองรับ Raspberry Pi ทุกรุ่น ตั้งแต่ 1A+ ถึง CM4 และ Zero 2 W ➡️ ผู้ใช้สามารถอัปเดตผ่านคำสั่ง sudo apt update && sudo apt full-upgrade ✅ ข้อมูลเสริมจากภายนอก ➡️ Debian 13 “Trixie” มาพร้อมการปรับปรุงด้านความปลอดภัยและการรองรับฮาร์ดแวร์ใหม่ ➡️ Modular package layout ช่วยให้การสร้าง image แบบ custom ง่ายขึ้นมาก ➡️ ฟอนต์ Nunito Sans Light เป็นฟอนต์แบบ open-source ที่เน้นความอ่านง่าย ➡️ Control Centre แบบรวมศูนย์เป็นแนวทางที่นิยมในระบบ desktop สมัยใหม่ เช่น GNOME และ KDE ➡️ การ fork lxpanel ช่วยให้ทีม Raspberry Pi สามารถควบคุมการพัฒนาได้เต็มที่ https://9to5linux.com/raspberry-pi-os-is-now-based-on-debian-13-trixie-with-fresh-new-look
    9TO5LINUX.COM
    Raspberry Pi OS Is Now Based on Debian 13 "Trixie" with Fresh New Look - 9to5Linux
    Raspberry Pi OS 2025-10-01 is now available for download with based on Debian 13 "Trixie" and featuring new GTK and icon themes.
    0 ความคิดเห็น 0 การแบ่งปัน 277 มุมมอง 0 รีวิว
  • https://youtu.be/h2J7zTgYmWk?si=1KNDhHZiJYFPpM4X
    https://youtu.be/h2J7zTgYmWk?si=1KNDhHZiJYFPpM4X
    0 ความคิดเห็น 0 การแบ่งปัน 80 มุมมอง 0 รีวิว
  • https://youtu.be/rHUJO5mEBM4?si=kIk2Y6Q7-gn6PdFB
    https://youtu.be/rHUJO5mEBM4?si=kIk2Y6Q7-gn6PdFB
    0 ความคิดเห็น 0 การแบ่งปัน 63 มุมมอง 0 รีวิว
  • “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน”

    ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ

    Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก

    ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง

    Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet

    ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ

    หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน

    ข้อมูลสำคัญจากข่าว
    Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase)
    ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM
    ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism
    รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video
    ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX
    ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค
    ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS
    รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่
    ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ
    บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว

    ข้อมูลเสริมจากภายนอก
    Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก
    GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน
    NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ
    Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง
    การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า

    https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    🧠 “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน” ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase) ➡️ ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM ➡️ ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism ➡️ รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video ➡️ ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ➡️ ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค ➡️ ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS ➡️ รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่ ➡️ ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ ➡️ บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก ➡️ GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน ➡️ NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ ➡️ Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง ➡️ การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    0 ความคิดเห็น 0 การแบ่งปัน 237 มุมมอง 0 รีวิว
  • 555,อ.วีระ และทีมงานสายลับภาคประชาชนคนดีบวกข้าราชการไทยดีๆที่ให้ข้อมูลท่านด้วย สุดยอดจริงๆ.

    ..ทหารภาค1 ถือว่าล้มเหลวทั้งหมด ไม่สุจริตใจต่อดินแดนอธิปไตยไทยตนเอง ปกป้องอธิปไตยไทยตนเอง,ปล่อยให้เขมรกระทำชั่วเลวต่อแผ่นดินไทยและคนไทยได้,แตกต่างชัดเจนเมื่อเทียบกับใจรักษาชาติแบบแม่ทัพภาค2ที่ปลูกฝังทหารใต้บังคับบัญชาท่าน นำทั้งกองทัพท่านจัดการกับศัตรูสมศักดิ์ศรี,แต่แม่ทัพภาค1 ไร้ศักดิ์ศรีและดำรงเกียรติแห่งทหารไทยไว้ได้เลย บูรพาพยัคฆ์กากมากในยุคนี้ กระทำการชั่วเลวปล่อยเขมรรุกล้ำดินแดนไทยยึดครองที่ดินบนแผ่นดินไทยแทนประชาชนคนไทย ค้าของเถื่อนตามกูรูแฉ บ่อนคาสิโน ตราดอีกที่รุกล้ำชายแดนไทยตน ถนนภาษีประชาชน ไฟฟ้า เน็ตน้ำประปา สาระพัดอำนวยสถานที่บ่อนคาสิโน นี้คือความผิดชัดเจน ศาลทหารไทยมีไว้ทำไม แอ็คชั่นไม่มีเลย เงียบกริบ ลงโทษนายพลและอดีตนายพลคนทรยศไม่มีเลย,นอกจากเป็นภาระกิจชาติจะไม่ว่าเลย,แผนการทหารก็แล้วไป,ให้อภัยได้,จากนี้จึงค่อยมาจัดการเขมรกันจริงจังร่วมกัน,แต่ต้องชดเชยเยียวยาภาคประชาชนที่ได้รับผลกระทบรอบด้าน,ใครกลับตัวกลับใจไม่เอาผิดย้อนหลัง เหตุเกิดอดีตคดีความใดๆให้จบให้อภัยกันแล้วมาร่วมพัฒนาชาติร่วมกันให้เข้มแข็งๆแรงแข็งแกร่งกันใหม่,หน้างานคือยกเลิกmou43,44,ใช้1:1คือเสา73-74หลักที่เรามีคือเขตแดนถาวรเสียเหมือนในอดีตคือสันปันน้ำ หากเขมรไม่ยอมทวงคืนทิศบูรพาทั้งหมดในอดีตที่ฝรั่งเศสคืนผิดคน จะพระตะบอง เสียมราฐ ศรีโสภณ เกาะกง บูรพาตะวันออกทั้งหมดที่เป็นของไทยปกติยึดคืนเลยทันทีด้วยกำลังกองทัพ ทำลายชาติเขมรสิ้นซากก็ต้องทำทันที.,สร้างรั้วลวดหนามให้ชัดเจนเพื่อรักษาความสงบสุขตลอดไป,ไร้กระทบบัดสบเงื่อนใดๆอีก อยู่ใครอยู่มัน,อภัยโทษนี้จะครั้งสุดท้าย อดีตรัฐบาลไทยทั้งหมดที่หมกเม็ดทำผิดพลาดไปให้จบความที่ยุคนี้ไม่ดำเนินคดีเอาความผิดใดๆ,แต่ต้องเข้าไปสาระภาพผิดบอกสิ่งที่กระทบชั่วเลวใดๆแก่วังแก่ฟ้า,เพื่อแก้ไขปัญหาให้จบสิ้น,ผิดตรงไหน พลาดสิ่งใด กระทำชั่วอะไร เลิกหมด จากนั้นมาร่วมกันทำให้ถูกต้องเสีย,ดินแดนไทยส่วนใดของไทยตามสันปันน้ำก็แบ่งสร้างกั้นลวดตลอดแนวให้จบปัญหา,พื้นที่ทะเลส่วนของไทยก็ของไทยคุยให้จบ ไม่จบก็ยึดประเทศเขมรเด็ดหัวฮุนเซนฮุนมาเนตทันที,เพื่อสร้างความสงบในภูมิภาคนี้,มันคารังคาชังควรแก่เวลาแล้ว คนไม่สงบสุข ชีวิตประชาชนไม่สงบสุขพอแล้ว.,ถ้าทั้งหมดไม่กลับตัวกลับใจจะนักการเมือง เจ้าของกิจการใด ประชาชนข้าราชการใด ไม่สำนึก ความตายเท่านั้นคือที่สุดแก่คนพวกนี้ การไล่ล่ากำจัดและทำลายภายในประเทศไทยเราหรือทำความสะอาดครั้งใหญ่ต้องเกิดขึ้น.

    https://youtube.com/watch?v=zQ3mJtrqvJE&si=3CYhOl54IQJm4R7p
    555,อ.วีระ และทีมงานสายลับภาคประชาชนคนดีบวกข้าราชการไทยดีๆที่ให้ข้อมูลท่านด้วย สุดยอดจริงๆ. ..ทหารภาค1 ถือว่าล้มเหลวทั้งหมด ไม่สุจริตใจต่อดินแดนอธิปไตยไทยตนเอง ปกป้องอธิปไตยไทยตนเอง,ปล่อยให้เขมรกระทำชั่วเลวต่อแผ่นดินไทยและคนไทยได้,แตกต่างชัดเจนเมื่อเทียบกับใจรักษาชาติแบบแม่ทัพภาค2ที่ปลูกฝังทหารใต้บังคับบัญชาท่าน นำทั้งกองทัพท่านจัดการกับศัตรูสมศักดิ์ศรี,แต่แม่ทัพภาค1 ไร้ศักดิ์ศรีและดำรงเกียรติแห่งทหารไทยไว้ได้เลย บูรพาพยัคฆ์กากมากในยุคนี้ กระทำการชั่วเลวปล่อยเขมรรุกล้ำดินแดนไทยยึดครองที่ดินบนแผ่นดินไทยแทนประชาชนคนไทย ค้าของเถื่อนตามกูรูแฉ บ่อนคาสิโน ตราดอีกที่รุกล้ำชายแดนไทยตน ถนนภาษีประชาชน ไฟฟ้า เน็ตน้ำประปา สาระพัดอำนวยสถานที่บ่อนคาสิโน นี้คือความผิดชัดเจน ศาลทหารไทยมีไว้ทำไม แอ็คชั่นไม่มีเลย เงียบกริบ ลงโทษนายพลและอดีตนายพลคนทรยศไม่มีเลย,นอกจากเป็นภาระกิจชาติจะไม่ว่าเลย,แผนการทหารก็แล้วไป,ให้อภัยได้,จากนี้จึงค่อยมาจัดการเขมรกันจริงจังร่วมกัน,แต่ต้องชดเชยเยียวยาภาคประชาชนที่ได้รับผลกระทบรอบด้าน,ใครกลับตัวกลับใจไม่เอาผิดย้อนหลัง เหตุเกิดอดีตคดีความใดๆให้จบให้อภัยกันแล้วมาร่วมพัฒนาชาติร่วมกันให้เข้มแข็งๆแรงแข็งแกร่งกันใหม่,หน้างานคือยกเลิกmou43,44,ใช้1:1คือเสา73-74หลักที่เรามีคือเขตแดนถาวรเสียเหมือนในอดีตคือสันปันน้ำ หากเขมรไม่ยอมทวงคืนทิศบูรพาทั้งหมดในอดีตที่ฝรั่งเศสคืนผิดคน จะพระตะบอง เสียมราฐ ศรีโสภณ เกาะกง บูรพาตะวันออกทั้งหมดที่เป็นของไทยปกติยึดคืนเลยทันทีด้วยกำลังกองทัพ ทำลายชาติเขมรสิ้นซากก็ต้องทำทันที.,สร้างรั้วลวดหนามให้ชัดเจนเพื่อรักษาความสงบสุขตลอดไป,ไร้กระทบบัดสบเงื่อนใดๆอีก อยู่ใครอยู่มัน,อภัยโทษนี้จะครั้งสุดท้าย อดีตรัฐบาลไทยทั้งหมดที่หมกเม็ดทำผิดพลาดไปให้จบความที่ยุคนี้ไม่ดำเนินคดีเอาความผิดใดๆ,แต่ต้องเข้าไปสาระภาพผิดบอกสิ่งที่กระทบชั่วเลวใดๆแก่วังแก่ฟ้า,เพื่อแก้ไขปัญหาให้จบสิ้น,ผิดตรงไหน พลาดสิ่งใด กระทำชั่วอะไร เลิกหมด จากนั้นมาร่วมกันทำให้ถูกต้องเสีย,ดินแดนไทยส่วนใดของไทยตามสันปันน้ำก็แบ่งสร้างกั้นลวดตลอดแนวให้จบปัญหา,พื้นที่ทะเลส่วนของไทยก็ของไทยคุยให้จบ ไม่จบก็ยึดประเทศเขมรเด็ดหัวฮุนเซนฮุนมาเนตทันที,เพื่อสร้างความสงบในภูมิภาคนี้,มันคารังคาชังควรแก่เวลาแล้ว คนไม่สงบสุข ชีวิตประชาชนไม่สงบสุขพอแล้ว.,ถ้าทั้งหมดไม่กลับตัวกลับใจจะนักการเมือง เจ้าของกิจการใด ประชาชนข้าราชการใด ไม่สำนึก ความตายเท่านั้นคือที่สุดแก่คนพวกนี้ การไล่ล่ากำจัดและทำลายภายในประเทศไทยเราหรือทำความสะอาดครั้งใหญ่ต้องเกิดขึ้น. https://youtube.com/watch?v=zQ3mJtrqvJE&si=3CYhOl54IQJm4R7p
    0 ความคิดเห็น 0 การแบ่งปัน 352 มุมมอง 0 รีวิว
  • https://youtu.be/542A9inLFm4?si=WBlq67UZpxtPHz4n
    https://youtu.be/542A9inLFm4?si=WBlq67UZpxtPHz4n
    0 ความคิดเห็น 0 การแบ่งปัน 44 มุมมอง 0 รีวิว
  • deep state ยังกัดกินควบคุมประเทศไทยเหมือนเดิมจริงๆ,ดูได้จากการยังคงเดินตามมาตราการคาร์บอนเครดิต มันสร้างแผนการและเหยื่อรอไว้แล้วจริงๆ.
    ..
    ..ทหารไทย กองทัพไทยท่านจะเอาอย่างไง.,จะปล่อยชาติบ้านาเมืองเดินตามdeep stateฝรั่งยิวสากลโลกจริงๆเหรอ.

    ..กองทัพไทยเรา ยึดอำนาจเถอะ การเมืองไม่สามารถกวาดล้างกำจัดสมุนขี้ข้าdeep stateในไทยเราได้เลย,ต้องเป้าหมายชัดเจน กำจัดdeep stateไซออนิสต์ในประเทศไทยจริงๆ,เราต้องทำลายแผนการไซออนิสต์บนแผ่นดินไทยเพื่อปลดปล่อยประเทศไทยจริงๆ,สถาบันกษัตริย์เราต้องตัดสินใจจริงๆ,จะก้าวไปแบบไซออนิสต์ปกครองประเทศให้คนไทยเป็นทาสจากระบบนักการเมืองปกครองให้ยากจนอีกนานมั้ย,ระบบปกครองฝรั่งชัดเจนคือระบบไซออนิสต์deep stateยิวฝรั่งสร้างขึ้น บ้านเมืองเราจึงถูกแย่งถูกปล้นชิงทรัพยากรมีค่าวัตถุดิบสร้างพัฒนาชาติไทยอยู่ตลอดเวลา,ไม่สงบสุขสักที.
    ..ดูว่าdeep stateยังปกครองอยู่ดูที่พรบ.การเปลี่ยนแปลงสภาพอากาศนี้เลย,รับงานมาเต็มๆทำงานให้ต่อเนื่องด้วย.

    https://youtube.com/watch?v=UMop2vZDPsY&si=vm4klZRzR3aAd2sL
    deep state ยังกัดกินควบคุมประเทศไทยเหมือนเดิมจริงๆ,ดูได้จากการยังคงเดินตามมาตราการคาร์บอนเครดิต มันสร้างแผนการและเหยื่อรอไว้แล้วจริงๆ. .. ..ทหารไทย กองทัพไทยท่านจะเอาอย่างไง.,จะปล่อยชาติบ้านาเมืองเดินตามdeep stateฝรั่งยิวสากลโลกจริงๆเหรอ. ..กองทัพไทยเรา ยึดอำนาจเถอะ การเมืองไม่สามารถกวาดล้างกำจัดสมุนขี้ข้าdeep stateในไทยเราได้เลย,ต้องเป้าหมายชัดเจน กำจัดdeep stateไซออนิสต์ในประเทศไทยจริงๆ,เราต้องทำลายแผนการไซออนิสต์บนแผ่นดินไทยเพื่อปลดปล่อยประเทศไทยจริงๆ,สถาบันกษัตริย์เราต้องตัดสินใจจริงๆ,จะก้าวไปแบบไซออนิสต์ปกครองประเทศให้คนไทยเป็นทาสจากระบบนักการเมืองปกครองให้ยากจนอีกนานมั้ย,ระบบปกครองฝรั่งชัดเจนคือระบบไซออนิสต์deep stateยิวฝรั่งสร้างขึ้น บ้านเมืองเราจึงถูกแย่งถูกปล้นชิงทรัพยากรมีค่าวัตถุดิบสร้างพัฒนาชาติไทยอยู่ตลอดเวลา,ไม่สงบสุขสักที. ..ดูว่าdeep stateยังปกครองอยู่ดูที่พรบ.การเปลี่ยนแปลงสภาพอากาศนี้เลย,รับงานมาเต็มๆทำงานให้ต่อเนื่องด้วย. https://youtube.com/watch?v=UMop2vZDPsY&si=vm4klZRzR3aAd2sL
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • “AMD MI450X บีบให้ NVIDIA ปรับแผน Rubin — สงครามชิป AI ระดับ 2,000W เริ่มแล้ว”

    การแข่งขันระหว่าง AMD และ NVIDIA ในตลาดชิป AI กำลังร้อนแรงขึ้นอย่างไม่เคยมีมาก่อน โดยล่าสุด AMD ได้เปิดตัว Instinct MI450X ซึ่งเป็นชิป AI รุ่นใหม่ที่มีสเปกแรงจนทำให้ NVIDIA ต้องปรับแผนการออกแบบชิป Rubin VR200 ของตัวเองอย่างเร่งด่วน

    ชิป MI450X ของ AMD ใช้หน่วยความจำ HBM4 สูงสุดถึง 432GB ต่อ GPU และมีแบนด์วิดธ์สูงถึง 19.6 TB/s พร้อมพลังประมวลผล FP4 ที่ระดับ 40 PFLOPS โดยมี TGP สูงถึง 2500W ซึ่งถือว่าสูงมากเมื่อเทียบกับชิป AI ทั่วไป

    NVIDIA ที่เดิมวางแผนให้ Rubin VR200 มี TGP อยู่ที่ 1800W ต้องปรับเพิ่มขึ้นเป็น 2300W และเพิ่มแบนด์วิดธ์จาก 13 TB/s เป็น 20 TB/s ต่อ GPU เพื่อให้สามารถแข่งขันกับ MI450X ได้อย่างสูสี โดย Rubin ยังมีพลังประมวลผล FP4 สูงถึง 50 PFLOPS และใช้ HBM4 ขนาด 288GB ต่อ GPU

    ทั้งสองบริษัทใช้เทคโนโลยีการผลิตระดับ 3nm จาก TSMC และออกแบบแบบ chiplet เพื่อเพิ่มประสิทธิภาพและการจัดการพลังงาน โดย AMD มั่นใจว่า MI450X จะเป็น “Milan moment” ของสาย AI เหมือนที่ EPYC 7003 เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์

    แม้ยังไม่มีข้อมูลสเปกเต็มของทั้งสองรุ่น แต่ OpenAI ได้เริ่มใช้งาน Rubin แล้ว ขณะที่ AMD เตรียมเปิดตัว MI450X ในปี 2026 ซึ่งหมายความว่า “สงครามชิป AI ระดับ hyperscale” ได้เริ่มต้นขึ้นแล้วอย่างเป็นทางการ

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว Instinct MI450X พร้อม TGP สูงถึง 2500W และแบนด์วิดธ์ 19.6 TB/s
    ใช้หน่วยความจำ HBM4 ขนาด 432GB ต่อ GPU และพลังประมวลผล FP4 ที่ 40 PFLOPS
    NVIDIA ปรับแผน Rubin VR200 เพิ่ม TGP จาก 1800W เป็น 2300W และแบนด์วิดธ์เป็น 20 TB/s
    Rubin ใช้ HBM4 ขนาด 288GB ต่อ GPU และพลังประมวลผล FP4 ที่ 50 PFLOPS
    ทั้งสองชิปใช้เทคโนโลยี 3nm จาก TSMC และออกแบบแบบ chiplet
    AMD มองว่า MI450X จะเป็นจุดเปลี่ยนเหมือน EPYC 7003 ในตลาดเซิร์ฟเวอร์
    OpenAI เริ่มใช้งาน Rubin แล้ว แสดงถึงการยอมรับในตลาดจริง
    MI450X และ Rubin จะเปิดตัวเต็มรูปแบบในปี 2026

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นหน่วยความจำที่มีแบนด์วิดธ์สูงที่สุดในตลาด AI ปัจจุบัน
    FP4 เป็นรูปแบบการประมวลผลที่เหมาะกับงาน AI ขนาดใหญ่ เช่น LLM และโมเดลภาพ
    การใช้ TGP สูงกว่า 2000W ต้องมีระบบระบายความร้อนระดับเซิร์ฟเวอร์พิเศษ
    AMD เคยตามหลัง NVIDIA ในรอบก่อนหน้า แต่ MI450X อาจเปลี่ยนสมดุล
    Rubin Ultra รุ่นถัดไปของ NVIDIA อาจมี HBM4 สูงถึง 576GB ต่อ GPU

    https://wccftech.com/amd-instinct-mi450x-has-forced-nvidia-to-make-changes-with-the-rubin-ai-chip/
    ⚔️ “AMD MI450X บีบให้ NVIDIA ปรับแผน Rubin — สงครามชิป AI ระดับ 2,000W เริ่มแล้ว” การแข่งขันระหว่าง AMD และ NVIDIA ในตลาดชิป AI กำลังร้อนแรงขึ้นอย่างไม่เคยมีมาก่อน โดยล่าสุด AMD ได้เปิดตัว Instinct MI450X ซึ่งเป็นชิป AI รุ่นใหม่ที่มีสเปกแรงจนทำให้ NVIDIA ต้องปรับแผนการออกแบบชิป Rubin VR200 ของตัวเองอย่างเร่งด่วน ชิป MI450X ของ AMD ใช้หน่วยความจำ HBM4 สูงสุดถึง 432GB ต่อ GPU และมีแบนด์วิดธ์สูงถึง 19.6 TB/s พร้อมพลังประมวลผล FP4 ที่ระดับ 40 PFLOPS โดยมี TGP สูงถึง 2500W ซึ่งถือว่าสูงมากเมื่อเทียบกับชิป AI ทั่วไป NVIDIA ที่เดิมวางแผนให้ Rubin VR200 มี TGP อยู่ที่ 1800W ต้องปรับเพิ่มขึ้นเป็น 2300W และเพิ่มแบนด์วิดธ์จาก 13 TB/s เป็น 20 TB/s ต่อ GPU เพื่อให้สามารถแข่งขันกับ MI450X ได้อย่างสูสี โดย Rubin ยังมีพลังประมวลผล FP4 สูงถึง 50 PFLOPS และใช้ HBM4 ขนาด 288GB ต่อ GPU ทั้งสองบริษัทใช้เทคโนโลยีการผลิตระดับ 3nm จาก TSMC และออกแบบแบบ chiplet เพื่อเพิ่มประสิทธิภาพและการจัดการพลังงาน โดย AMD มั่นใจว่า MI450X จะเป็น “Milan moment” ของสาย AI เหมือนที่ EPYC 7003 เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์ แม้ยังไม่มีข้อมูลสเปกเต็มของทั้งสองรุ่น แต่ OpenAI ได้เริ่มใช้งาน Rubin แล้ว ขณะที่ AMD เตรียมเปิดตัว MI450X ในปี 2026 ซึ่งหมายความว่า “สงครามชิป AI ระดับ hyperscale” ได้เริ่มต้นขึ้นแล้วอย่างเป็นทางการ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว Instinct MI450X พร้อม TGP สูงถึง 2500W และแบนด์วิดธ์ 19.6 TB/s ➡️ ใช้หน่วยความจำ HBM4 ขนาด 432GB ต่อ GPU และพลังประมวลผล FP4 ที่ 40 PFLOPS ➡️ NVIDIA ปรับแผน Rubin VR200 เพิ่ม TGP จาก 1800W เป็น 2300W และแบนด์วิดธ์เป็น 20 TB/s ➡️ Rubin ใช้ HBM4 ขนาด 288GB ต่อ GPU และพลังประมวลผล FP4 ที่ 50 PFLOPS ➡️ ทั้งสองชิปใช้เทคโนโลยี 3nm จาก TSMC และออกแบบแบบ chiplet ➡️ AMD มองว่า MI450X จะเป็นจุดเปลี่ยนเหมือน EPYC 7003 ในตลาดเซิร์ฟเวอร์ ➡️ OpenAI เริ่มใช้งาน Rubin แล้ว แสดงถึงการยอมรับในตลาดจริง ➡️ MI450X และ Rubin จะเปิดตัวเต็มรูปแบบในปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นหน่วยความจำที่มีแบนด์วิดธ์สูงที่สุดในตลาด AI ปัจจุบัน ➡️ FP4 เป็นรูปแบบการประมวลผลที่เหมาะกับงาน AI ขนาดใหญ่ เช่น LLM และโมเดลภาพ ➡️ การใช้ TGP สูงกว่า 2000W ต้องมีระบบระบายความร้อนระดับเซิร์ฟเวอร์พิเศษ ➡️ AMD เคยตามหลัง NVIDIA ในรอบก่อนหน้า แต่ MI450X อาจเปลี่ยนสมดุล ➡️ Rubin Ultra รุ่นถัดไปของ NVIDIA อาจมี HBM4 สูงถึง 576GB ต่อ GPU https://wccftech.com/amd-instinct-mi450x-has-forced-nvidia-to-make-changes-with-the-rubin-ai-chip/
    WCCFTECH.COM
    AMD's Instinct MI450X Has Reportedly 'Forced' NVIDIA to Make Changes With the Rubin AI Chip, Including Higher TGPs & Memory Bandwidth
    NVIDIA and AMD are racing to create a superior AI architecture, with both firms revising their next-gen designs to gain an edge.
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • “Snapdragon X2 Elite Extreme: ชิปโน้ตบุ๊กที่แรงที่สุดของ Qualcomm — ซูเปอร์คอร์ 18 ตัว, RAM 128GB, AI 80 TOPS พร้อมชน AMD และ Intel”

    Qualcomm เปิดตัวชิปสำหรับโน้ตบุ๊ก Windows รุ่นใหม่ล่าสุดในชื่อ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งถือเป็นการยกระดับครั้งใหญ่ในตลาด PC โดยเฉพาะรุ่น Extreme ที่มาพร้อมกับสเปกสุดโหด: ซีพียู 18 คอร์, ความเร็วบูสต์สูงสุด 5.0GHz, รองรับ RAM LPDDR5X สูงสุดถึง 128GB และหน่วยประมวลผล AI (NPU) ที่แรงถึง 80 TOPS — มากกว่าคู่แข่งอย่าง AMD Ryzen AI+ 395 และ Intel Core Ultra แบบไม่เกรงใจ

    ชิปทั้งสองรุ่นใช้สถาปัตยกรรม Oryon รุ่นที่ 3 บนกระบวนการผลิต 3nm ของ TSMC โดยรุ่น Extreme มี 12 คอร์หลักและ 6 คอร์ประสิทธิภาพ พร้อมแคชรวม 53MB และสามารถเชื่อมต่อ PCIe 5.0 ได้ถึง 12 เลน รองรับการแสดงผลสูงสุด 3 จอ 4K ที่ 144Hz หรือ 2 จอ 5K ที่ 60Hz

    ด้านกราฟิกก็ไม่น้อยหน้า เพราะมาพร้อม GPU Adreno X2-90 ที่รองรับ ray tracing แบบฮาร์ดแวร์ และ API ล่าสุดอย่าง DirectX 12.2 Ultimate, Vulkan และ OpenCL 3.0 ส่วนรุ่น Elite ธรรมดาจะลดคอร์ลงเหลือ 12 คอร์ และใช้ GPU Adreno X2-85 ที่แรงน้อยกว่าเล็กน้อย

    ทั้งสองรุ่นรองรับการเชื่อมต่อ Wi-Fi 7, Bluetooth 5.4 และสามารถติดตั้งโมเด็ม Snapdragon X75 สำหรับ 5G ได้ โดยออกแบบมาเพื่อใช้งานกับ Copilot+ PC ที่เน้นการประมวลผล AI หลายงานพร้อมกันบนเครื่องโดยไม่ต้องพึ่งคลาวด์

    Qualcomm ระบุว่าโน้ตบุ๊กรุ่นแรกที่ใช้ชิปเหล่านี้จะเปิดตัวในช่วงครึ่งแรกของปี 2026 และจะเป็นการเปิดศักราชใหม่ของโน้ตบุ๊กที่บางเบาแต่ทรงพลังระดับเวิร์กสเตชัน

    ข้อมูลสำคัญจากข่าว
    Snapdragon X2 Elite Extreme มี 18 คอร์ (12P + 6E) ความเร็วบูสต์สูงสุด 5.0GHz
    รองรับ RAM LPDDR5X สูงสุด 128GB บนแบนด์วิดธ์ 228GB/s
    NPU แรงถึง 80 TOPS เหมาะกับงาน AI หลายงานพร้อมกัน
    GPU Adreno X2-90 รองรับ ray tracing และ API ล่าสุด
    รองรับ PCIe 5.0, NVMe SSD, UFS 4.0 และ USB4 หลายพอร์ต
    แสดงผลได้สูงสุด 3 จอ 4K 144Hz หรือ 2 จอ 5K 60Hz
    รองรับ Wi-Fi 7, Bluetooth 5.4 และโมเด็ม 5G Snapdragon X75
    ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 บนกระบวนการผลิต 3nm
    โน้ตบุ๊กรุ่นแรกจะเปิดตัวในครึ่งแรกของปี 2026

    ข้อมูลเสริมจากภายนอก
    Snapdragon X2 Elite Extreme แรงกว่า Snapdragon X Elite รุ่นแรกถึง 31% ที่พลังงานเท่ากัน
    ใช้พลังงานน้อยลงถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า
    Adreno X2-90 มีประสิทธิภาพต่อวัตต์สูงขึ้น 2.3 เท่า
    ชิปนี้ออกแบบมาเพื่อใช้งานกับ Copilot+ PC โดยเฉพาะ
    Qualcomm ตั้งเป้าแข่งกับ Apple M4, AMD Ryzen AI+ และ Intel Core Ultra

    https://www.techradar.com/pro/qualcomms-most-powerful-cpu-ever-will-target-amds-ryzen-ai-395-with-128gb-onboard-lpddr5x-memory-while-intel-has-only-32gb-integrated-memory-to-contend-with
    ⚙️ “Snapdragon X2 Elite Extreme: ชิปโน้ตบุ๊กที่แรงที่สุดของ Qualcomm — ซูเปอร์คอร์ 18 ตัว, RAM 128GB, AI 80 TOPS พร้อมชน AMD และ Intel” Qualcomm เปิดตัวชิปสำหรับโน้ตบุ๊ก Windows รุ่นใหม่ล่าสุดในชื่อ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งถือเป็นการยกระดับครั้งใหญ่ในตลาด PC โดยเฉพาะรุ่น Extreme ที่มาพร้อมกับสเปกสุดโหด: ซีพียู 18 คอร์, ความเร็วบูสต์สูงสุด 5.0GHz, รองรับ RAM LPDDR5X สูงสุดถึง 128GB และหน่วยประมวลผล AI (NPU) ที่แรงถึง 80 TOPS — มากกว่าคู่แข่งอย่าง AMD Ryzen AI+ 395 และ Intel Core Ultra แบบไม่เกรงใจ ชิปทั้งสองรุ่นใช้สถาปัตยกรรม Oryon รุ่นที่ 3 บนกระบวนการผลิต 3nm ของ TSMC โดยรุ่น Extreme มี 12 คอร์หลักและ 6 คอร์ประสิทธิภาพ พร้อมแคชรวม 53MB และสามารถเชื่อมต่อ PCIe 5.0 ได้ถึง 12 เลน รองรับการแสดงผลสูงสุด 3 จอ 4K ที่ 144Hz หรือ 2 จอ 5K ที่ 60Hz ด้านกราฟิกก็ไม่น้อยหน้า เพราะมาพร้อม GPU Adreno X2-90 ที่รองรับ ray tracing แบบฮาร์ดแวร์ และ API ล่าสุดอย่าง DirectX 12.2 Ultimate, Vulkan และ OpenCL 3.0 ส่วนรุ่น Elite ธรรมดาจะลดคอร์ลงเหลือ 12 คอร์ และใช้ GPU Adreno X2-85 ที่แรงน้อยกว่าเล็กน้อย ทั้งสองรุ่นรองรับการเชื่อมต่อ Wi-Fi 7, Bluetooth 5.4 และสามารถติดตั้งโมเด็ม Snapdragon X75 สำหรับ 5G ได้ โดยออกแบบมาเพื่อใช้งานกับ Copilot+ PC ที่เน้นการประมวลผล AI หลายงานพร้อมกันบนเครื่องโดยไม่ต้องพึ่งคลาวด์ Qualcomm ระบุว่าโน้ตบุ๊กรุ่นแรกที่ใช้ชิปเหล่านี้จะเปิดตัวในช่วงครึ่งแรกของปี 2026 และจะเป็นการเปิดศักราชใหม่ของโน้ตบุ๊กที่บางเบาแต่ทรงพลังระดับเวิร์กสเตชัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Snapdragon X2 Elite Extreme มี 18 คอร์ (12P + 6E) ความเร็วบูสต์สูงสุด 5.0GHz ➡️ รองรับ RAM LPDDR5X สูงสุด 128GB บนแบนด์วิดธ์ 228GB/s ➡️ NPU แรงถึง 80 TOPS เหมาะกับงาน AI หลายงานพร้อมกัน ➡️ GPU Adreno X2-90 รองรับ ray tracing และ API ล่าสุด ➡️ รองรับ PCIe 5.0, NVMe SSD, UFS 4.0 และ USB4 หลายพอร์ต ➡️ แสดงผลได้สูงสุด 3 จอ 4K 144Hz หรือ 2 จอ 5K 60Hz ➡️ รองรับ Wi-Fi 7, Bluetooth 5.4 และโมเด็ม 5G Snapdragon X75 ➡️ ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 บนกระบวนการผลิต 3nm ➡️ โน้ตบุ๊กรุ่นแรกจะเปิดตัวในครึ่งแรกของปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Snapdragon X2 Elite Extreme แรงกว่า Snapdragon X Elite รุ่นแรกถึง 31% ที่พลังงานเท่ากัน ➡️ ใช้พลังงานน้อยลงถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า ➡️ Adreno X2-90 มีประสิทธิภาพต่อวัตต์สูงขึ้น 2.3 เท่า ➡️ ชิปนี้ออกแบบมาเพื่อใช้งานกับ Copilot+ PC โดยเฉพาะ ➡️ Qualcomm ตั้งเป้าแข่งกับ Apple M4, AMD Ryzen AI+ และ Intel Core Ultra https://www.techradar.com/pro/qualcomms-most-powerful-cpu-ever-will-target-amds-ryzen-ai-395-with-128gb-onboard-lpddr5x-memory-while-intel-has-only-32gb-integrated-memory-to-contend-with
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • “Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า”

    Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027

    HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น

    Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว

    การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU

    นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง

    https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
    🚀 “Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า” Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027 HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
    0 ความคิดเห็น 0 การแบ่งปัน 164 มุมมอง 0 รีวิว
  • “Cadence จับมือ TSMC ยกระดับการออกแบบชิปยุค AI ด้วย 3DFabric และโหนดระดับนาโนเมตร — เมื่อการออกแบบกลายเป็นงานของ AI”

    ในวันที่โลกต้องการชิปที่เร็วขึ้น ฉลาดขึ้น และประหยัดพลังงานมากขึ้น Cadence และ TSMC ได้ประกาศความร่วมมือครั้งสำคัญเพื่อผลักดันการออกแบบชิประดับสูง โดยใช้เทคโนโลยี AI และโครงสร้าง 3D-IC ผ่านแพลตฟอร์ม 3DFabric ของ TSMC ซึ่งเป็นการรวมพลังระหว่างเครื่องมือออกแบบอัตโนมัติ (EDA) และ IP ที่ผ่านการพิสูจน์แล้วในระดับซิลิคอน

    Cadence ได้พัฒนา AI design flow ที่รองรับโหนดขั้นสูงของ TSMC ได้แก่ N3, N2 และ A16 โดยใช้เครื่องมือเช่น Innovus, Quantus, Tempus, Voltus และ Virtuoso Studio ซึ่งช่วยให้นักออกแบบสามารถเร่งเวลาในการเข้าสู่ตลาด และเพิ่มประสิทธิภาพด้านพลังงานและพื้นที่ของชิป (PPA) ได้อย่างมีนัยสำคัญ

    TSMC ยังเปิดตัวฟีเจอร์ใหม่ใน 3DFabric เช่น การจัดการ bump connections อัตโนมัติ การวิเคราะห์การจัดวาง chiplet และการจำลองความร้อนร่วมกับระบบ photonic ซึ่ง Cadence ได้เสริมด้วย Clarity 3D Solver และ Sigrity X เพื่อวิเคราะห์สัญญาณและพลังงานในระดับระบบ

    นอกจากนี้ Cadence ยังเปิดตัว IP ใหม่สำหรับโหนด N3P เช่น HBM4, LPDDR6/5X, DDR5 MRDIMM Gen 2 และ PCIe 7.0 ที่มีความเร็วสูงถึง 128 GT/s รวมถึง UCIe 32G สำหรับการเชื่อมต่อ chiplet ซึ่งทั้งหมดนี้ออกแบบมาเพื่อรองรับงาน AI ขนาดใหญ่ เช่น LLM และ agentic AI

    ความร่วมมือครั้งนี้ไม่ใช่แค่การพัฒนาเครื่องมือ — แต่มันคือการสร้างระบบนิเวศที่ช่วยให้นักออกแบบสามารถใช้ AI ในการออกแบบชิปที่ซับซ้อนระดับ 3D ได้อย่างมีประสิทธิภาพ และลดความเสี่ยงจากข้อผิดพลาดที่เกิดจากมนุษย์

    https://www.techpowerup.com/341315/cadence-partners-with-tsmc-to-power-next-generation-innovations-using-ai-flows-and-ip-for-tsmc-advanced-nodes-and-3dfabric
    🔧 “Cadence จับมือ TSMC ยกระดับการออกแบบชิปยุค AI ด้วย 3DFabric และโหนดระดับนาโนเมตร — เมื่อการออกแบบกลายเป็นงานของ AI” ในวันที่โลกต้องการชิปที่เร็วขึ้น ฉลาดขึ้น และประหยัดพลังงานมากขึ้น Cadence และ TSMC ได้ประกาศความร่วมมือครั้งสำคัญเพื่อผลักดันการออกแบบชิประดับสูง โดยใช้เทคโนโลยี AI และโครงสร้าง 3D-IC ผ่านแพลตฟอร์ม 3DFabric ของ TSMC ซึ่งเป็นการรวมพลังระหว่างเครื่องมือออกแบบอัตโนมัติ (EDA) และ IP ที่ผ่านการพิสูจน์แล้วในระดับซิลิคอน Cadence ได้พัฒนา AI design flow ที่รองรับโหนดขั้นสูงของ TSMC ได้แก่ N3, N2 และ A16 โดยใช้เครื่องมือเช่น Innovus, Quantus, Tempus, Voltus และ Virtuoso Studio ซึ่งช่วยให้นักออกแบบสามารถเร่งเวลาในการเข้าสู่ตลาด และเพิ่มประสิทธิภาพด้านพลังงานและพื้นที่ของชิป (PPA) ได้อย่างมีนัยสำคัญ TSMC ยังเปิดตัวฟีเจอร์ใหม่ใน 3DFabric เช่น การจัดการ bump connections อัตโนมัติ การวิเคราะห์การจัดวาง chiplet และการจำลองความร้อนร่วมกับระบบ photonic ซึ่ง Cadence ได้เสริมด้วย Clarity 3D Solver และ Sigrity X เพื่อวิเคราะห์สัญญาณและพลังงานในระดับระบบ นอกจากนี้ Cadence ยังเปิดตัว IP ใหม่สำหรับโหนด N3P เช่น HBM4, LPDDR6/5X, DDR5 MRDIMM Gen 2 และ PCIe 7.0 ที่มีความเร็วสูงถึง 128 GT/s รวมถึง UCIe 32G สำหรับการเชื่อมต่อ chiplet ซึ่งทั้งหมดนี้ออกแบบมาเพื่อรองรับงาน AI ขนาดใหญ่ เช่น LLM และ agentic AI ความร่วมมือครั้งนี้ไม่ใช่แค่การพัฒนาเครื่องมือ — แต่มันคือการสร้างระบบนิเวศที่ช่วยให้นักออกแบบสามารถใช้ AI ในการออกแบบชิปที่ซับซ้อนระดับ 3D ได้อย่างมีประสิทธิภาพ และลดความเสี่ยงจากข้อผิดพลาดที่เกิดจากมนุษย์ https://www.techpowerup.com/341315/cadence-partners-with-tsmc-to-power-next-generation-innovations-using-ai-flows-and-ip-for-tsmc-advanced-nodes-and-3dfabric
    WWW.TECHPOWERUP.COM
    Cadence Partners with TSMC to Power Next-Generation Innovations Using AI Flows and IP for TSMC Advanced Nodes and 3DFabric
    Cadence today announced major advancements in chip design automation and IP, driven by its long-standing relationship with TSMC to develop advanced design infrastructure and accelerate time to market, for AI and HPC customer applications. Cadence and TSMC have collaborated closely across the spectru...
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • “Ryzen 3 5100 โผล่ตัวจริงหลัง 5 ปี — AMD ยังไม่ทิ้ง AM4 แม้ Zen 4 จะครองตลาด”

    ในวันที่หลายคนคิดว่าแพลตฟอร์ม AM4 ของ AMD ได้หมดอายุขัยไปแล้ว ล่าสุดกลับมีข่าวที่พลิกความคาดหมาย เมื่อมีภาพหลุดของซีพียู Ryzen 3 5100 ซึ่งเป็นชิป Zen 3 ที่ผลิตตั้งแต่ปี 2020 แต่ไม่เคยเปิดตัวอย่างเป็นทางการมาก่อน จนกระทั่งมีการยืนยันจากแหล่งข่าวในวงการฮาร์ดแวร์ว่า “มันมีอยู่จริง”

    Ryzen 3 5100 เป็นซีพียูแบบ 4 คอร์ 8 เธรด ใช้สถาปัตยกรรม Cezanne ซึ่งเป็นรุ่นเดียวกับ Ryzen 5000G แต่ไม่มีกราฟิกในตัว (iGPU) โดยสามารถสังเกตได้จากการไม่มีตัวอักษร “G” ต่อท้ายชื่อรุ่น และมีรหัส OPN คือ 100-00000456 ซึ่งไม่เคยปรากฏในฐานข้อมูลของ AMD อย่างเป็นทางการ

    แม้จะไม่มีการวางจำหน่ายในตลาด DIY แต่ Ryzen 3 5100 ถูกพบในรายการสนับสนุนของเมนบอร์ดจาก GIGABYTE และ ASRock ซึ่งบ่งชี้ว่า AMD ได้ผลิตรุ่นนี้เพื่อใช้ในตลาด OEM โดยเฉพาะ เช่น คอมพิวเตอร์ประกอบสำเร็จรูปในจีน

    ด้านสเปก Ryzen 3 5100 มีความเร็วพื้นฐาน 3.8 GHz และบูสต์ได้ถึง 4.2 GHz พร้อมแคช L3 ขนาด 8MB และรองรับ DDR4-3200 โดยมี TDP อยู่ที่ 65W ซึ่งถือว่าเป็นตัวเลือกที่น่าสนใจสำหรับผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพในราคาประหยัด

    เมื่อเปรียบเทียบกับรุ่นก่อนหน้าอย่าง Ryzen 3 4100 ที่ใช้ Zen 2 แล้ว Ryzen 3 5100 ถือว่าอัปเกรดทั้งด้านสถาปัตยกรรม ความเร็ว และขนาดแคช โดยบางคนมองว่าเป็นรุ่นลดสเปกของ Ryzen 3 5300G ที่ตัดกราฟิกออกและลดความเร็วลงเล็กน้อย

    ข้อมูลสำคัญจากข่าว
    Ryzen 3 5100 เป็นซีพียู Zen 3 แบบ 4 คอร์ 8 เธรด ที่ไม่มีกราฟิกในตัว
    ใช้สถาปัตยกรรม Cezanne ซึ่งเป็นแบบ monolithic ไม่ใช่ chiplet เหมือน Vermeer
    ความเร็วพื้นฐาน 3.8 GHz และบูสต์ได้ถึง 4.2 GHz
    มีแคช L3 ขนาด 8MB และ TDP อยู่ที่ 65W
    รองรับ DDR4-3200 และใช้ซ็อกเก็ต AM4
    ไม่ปรากฏในเว็บไซต์ AMD แต่พบในรายการสนับสนุนของเมนบอร์ดจาก GIGABYTE และ ASRock
    ถูกผลิตตั้งแต่ปี 2020 แต่เพิ่งมีภาพหลุดยืนยันตัวจริงในปี 2025
    เป็นรุ่น OEM ที่ใช้ในคอมพิวเตอร์ประกอบสำเร็จรูป โดยเฉพาะในตลาดจีน
    ถือเป็นการต่ออายุแพลตฟอร์ม AM4 แม้ Zen 4 จะเป็นรุ่นหลักในปัจจุบัน

    ข้อมูลเสริมจากภายนอก
    Cezanne ใช้กระบวนการผลิต 7nm จาก TSMC และมีประสิทธิภาพด้านพลังงานที่ดี
    Ryzen 3 5100 อาจเป็นชิปที่ถูกคัดออกจากรุ่นที่มี iGPU เนื่องจากข้อบกพร่องภายใน
    การใช้ซีพียู OEM ช่วยให้ AMD สามารถจัดการสต๊อกชิปที่ไม่สมบูรณ์ได้อย่างมีประสิทธิภาพ
    AM4 เป็นแพลตฟอร์มที่มีอายุยาวนานที่สุดของ AMD โดยเปิดตัวครั้งแรกในปี 2016
    การสนับสนุน AM4 ต่อเนื่องช่วยให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องเปลี่ยนเมนบอร์ด

    https://www.tomshardware.com/pc-components/cpus/amd-keeps-am4-platform-on-life-support-with-2020-era-zen-3-cpu-ryzen-3-5100-surfaces-nine-years-after-am4-launch
    🧬 “Ryzen 3 5100 โผล่ตัวจริงหลัง 5 ปี — AMD ยังไม่ทิ้ง AM4 แม้ Zen 4 จะครองตลาด” ในวันที่หลายคนคิดว่าแพลตฟอร์ม AM4 ของ AMD ได้หมดอายุขัยไปแล้ว ล่าสุดกลับมีข่าวที่พลิกความคาดหมาย เมื่อมีภาพหลุดของซีพียู Ryzen 3 5100 ซึ่งเป็นชิป Zen 3 ที่ผลิตตั้งแต่ปี 2020 แต่ไม่เคยเปิดตัวอย่างเป็นทางการมาก่อน จนกระทั่งมีการยืนยันจากแหล่งข่าวในวงการฮาร์ดแวร์ว่า “มันมีอยู่จริง” Ryzen 3 5100 เป็นซีพียูแบบ 4 คอร์ 8 เธรด ใช้สถาปัตยกรรม Cezanne ซึ่งเป็นรุ่นเดียวกับ Ryzen 5000G แต่ไม่มีกราฟิกในตัว (iGPU) โดยสามารถสังเกตได้จากการไม่มีตัวอักษร “G” ต่อท้ายชื่อรุ่น และมีรหัส OPN คือ 100-00000456 ซึ่งไม่เคยปรากฏในฐานข้อมูลของ AMD อย่างเป็นทางการ แม้จะไม่มีการวางจำหน่ายในตลาด DIY แต่ Ryzen 3 5100 ถูกพบในรายการสนับสนุนของเมนบอร์ดจาก GIGABYTE และ ASRock ซึ่งบ่งชี้ว่า AMD ได้ผลิตรุ่นนี้เพื่อใช้ในตลาด OEM โดยเฉพาะ เช่น คอมพิวเตอร์ประกอบสำเร็จรูปในจีน ด้านสเปก Ryzen 3 5100 มีความเร็วพื้นฐาน 3.8 GHz และบูสต์ได้ถึง 4.2 GHz พร้อมแคช L3 ขนาด 8MB และรองรับ DDR4-3200 โดยมี TDP อยู่ที่ 65W ซึ่งถือว่าเป็นตัวเลือกที่น่าสนใจสำหรับผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพในราคาประหยัด เมื่อเปรียบเทียบกับรุ่นก่อนหน้าอย่าง Ryzen 3 4100 ที่ใช้ Zen 2 แล้ว Ryzen 3 5100 ถือว่าอัปเกรดทั้งด้านสถาปัตยกรรม ความเร็ว และขนาดแคช โดยบางคนมองว่าเป็นรุ่นลดสเปกของ Ryzen 3 5300G ที่ตัดกราฟิกออกและลดความเร็วลงเล็กน้อย ✅ ข้อมูลสำคัญจากข่าว ➡️ Ryzen 3 5100 เป็นซีพียู Zen 3 แบบ 4 คอร์ 8 เธรด ที่ไม่มีกราฟิกในตัว ➡️ ใช้สถาปัตยกรรม Cezanne ซึ่งเป็นแบบ monolithic ไม่ใช่ chiplet เหมือน Vermeer ➡️ ความเร็วพื้นฐาน 3.8 GHz และบูสต์ได้ถึง 4.2 GHz ➡️ มีแคช L3 ขนาด 8MB และ TDP อยู่ที่ 65W ➡️ รองรับ DDR4-3200 และใช้ซ็อกเก็ต AM4 ➡️ ไม่ปรากฏในเว็บไซต์ AMD แต่พบในรายการสนับสนุนของเมนบอร์ดจาก GIGABYTE และ ASRock ➡️ ถูกผลิตตั้งแต่ปี 2020 แต่เพิ่งมีภาพหลุดยืนยันตัวจริงในปี 2025 ➡️ เป็นรุ่น OEM ที่ใช้ในคอมพิวเตอร์ประกอบสำเร็จรูป โดยเฉพาะในตลาดจีน ➡️ ถือเป็นการต่ออายุแพลตฟอร์ม AM4 แม้ Zen 4 จะเป็นรุ่นหลักในปัจจุบัน ✅ ข้อมูลเสริมจากภายนอก ➡️ Cezanne ใช้กระบวนการผลิต 7nm จาก TSMC และมีประสิทธิภาพด้านพลังงานที่ดี ➡️ Ryzen 3 5100 อาจเป็นชิปที่ถูกคัดออกจากรุ่นที่มี iGPU เนื่องจากข้อบกพร่องภายใน ➡️ การใช้ซีพียู OEM ช่วยให้ AMD สามารถจัดการสต๊อกชิปที่ไม่สมบูรณ์ได้อย่างมีประสิทธิภาพ ➡️ AM4 เป็นแพลตฟอร์มที่มีอายุยาวนานที่สุดของ AMD โดยเปิดตัวครั้งแรกในปี 2016 ➡️ การสนับสนุน AM4 ต่อเนื่องช่วยให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องเปลี่ยนเมนบอร์ด https://www.tomshardware.com/pc-components/cpus/amd-keeps-am4-platform-on-life-support-with-2020-era-zen-3-cpu-ryzen-3-5100-surfaces-nine-years-after-am4-launch
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron”

    หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง

    ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม

    HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น

    ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30%

    แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต

    ความคืบหน้าของ Samsung ในตลาด HBM
    Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น
    หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่
    ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350
    Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron

    คุณสมบัติของ HBM3E และ HBM4
    HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM
    HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป
    ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30%
    Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026

    ข้อมูลเสริมจากภายนอก
    Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin
    Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps
    Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2
    ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix

    https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    🚀 “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron” หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30% แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต ✅ ความคืบหน้าของ Samsung ในตลาด HBM ➡️ Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น ➡️ หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่ ➡️ ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350 ➡️ Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron ✅ คุณสมบัติของ HBM3E และ HBM4 ➡️ HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ➡️ HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป ➡️ ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30% ➡️ Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin ➡️ Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps ➡️ Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2 ➡️ ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • 55,ยึดอำนาจมา อำนาจเต็มมือ สั่ง ม.44แบบไหนก็ได้,ยุทธศาสตร์ชาติ20ปีด้วยนะ.
    ..คิดในมุมบวกแบบบวกโคตรๆ 3ป.อาจคือผู้เสียสละร่วมกับโทนี่ก็ได้,เพื่อลากไส้เขมรและผู้สนับสนุนเขมรทั้งหมด ตลอดพวกจะล้มจะยึดจะทำลายประเทศไทยให้เปิดเผยออกมาทั้งหมด เพื่อเก็บกวาดครั้งเดียว จะบ่อนจะพื้นที่ดินแดนจะอะไรชั่วเลวสาระพัดที่กระทำต่อแผ่นดินไทยประเทศไทยคนเสียสละเหล่านี้รับบทเล่นเต็มที่ แม้คนทั้งชาติจะตราหน้าว่าขายชาติก็ตาม เพื่อล่อเหยื่อตัวพ่อตัวแม่ออกมาได้จริงๆ,ไม่เข้าถ้ำเสือ ก็ไม่ได้ลูกเสือ จนกระทั่งขายวิญญาณให้ซาตานก็ได้เพื่อแลกกับความไว้วางใจของซาตาน แต่บทสุดท้ายคือพลิก เป้าหมายคือเพื่อทำลายซาตานให้พินาศทั้งหมดทั้งเครือข่ายนั้นเอง,เสียสละตนเองเพื่อพิทักษ์คนหมู่มากหรือประเทศไทย,ต้องสร้างสตอรี่เรื่องราวให้มีเหตุต่อการจบของเรื่อง ซึ่งธรรมะย่อมชนะอธรรมเสมอนั้นเอง.,เรทไรเดอร์ประมาณนั้น,ลุง3ป.บวกโทนี่รับบทถูกคนแล้วและอาจวางแผนกันมานานตั้งแต่ร.9แล้วก็ด้วย,อาจอยู่ที่ต่างประเทศโน้น,โดยฝ่ายแสงช่วยสนับสนุนพิเศษ,และอาจเดินทางไปเห็นอนาคตด้วยยานข้ามเวลามาแล้ว,ที่ฝ่ายแสงพาไปเห็น,โลกนี้มีอะไรที่เราไม่รู้อีกเยอะ
    ..ฝ่ายมืดแพ้สิ้นท่าแล้วก็ว่า,แค่ปลุกให้เราประชาชนมาตื่นรู้ค่าจริงแค่นั้น แบบตายจริง เจ็งจริงจึงกระตุ้นแรงขับเคลื่อนยากตื่นรู้ร่วมกันได้ เหมือนเราคนไทยสามัคคีร่วมใจกันปิดด่านเขมรจนกว่าจะเขมรหมดศักยภาพสิ้นฤทธิ์มาเป็นภัยอันตรายใดๆต่อประเทศไทยได้,โทนี่ที่ติดคุกก็เพื่อคุ้มครองชีวิตโทนี่ได้100%เท่านั้นแม้เป็นตัวปลอมก็ตามแต่,ที่ที่อันตรายที่สุดคือที่ที่ปลอดภัยจากคนที่จะทำร้ายดีที่สุด,ทั้งหมดถูกวางเนื้อเรื่องไว้หมดแล้วจากผู้สร้างหนังเรื่องไทยยึดภูมะเขือนี้.
    ..นี้คือมโนแบบเชิงบวกโคตรๆ พวกนี้คือฮีโร่ คนไทยรู้หรือยังว่า ..ไม่มีอะไรจะสุดยอดไปกว่าที่คนไทยเรารักกัน คนไทยเราสามัคคีกัน และช่วยเหลือกันและกันพึ่งพากันเองดีที่สุด,มิตรที่ดีที่สุดคือไทยเราเอง คือคนไทยทั้งประเทศเราเอง.,และสุดท้ายเรา..ประชาชนอาจร่วมกัน อภัยกันและกันในความผิดพลาดทั้งของตนเองและคนอื่น,เพื่อร่วมสร้างชาติไทยเราใหม่อีกครั้ง,ถอยแก่คนไทยเราเอง เพื่อก้าวไปอย่างรุ่งโรจน์ร่วมกันในยุคสมัยหน้า,ศัตรูที่แท้จริงมิใช่คนภายในชาติไทยเรา แต่คือคนหมายไม่ดีต่อประเทศไทยและคนไทยเรา ให้แตกแยกกัน จะทางศาสนา เชื้อชาติ และใดๆก็ตาม,การล้างกวาดล้างประเทศไทยที่ดีที่สุดคือล้างแบบให้อภัยกัน ทุกๆคนที่ทำผิดพลาดหวังได้รับการอภัยเพื่อกลับตัวกลับใจเริ่มต้นชีวิตใหม่ที่เคยทำผิดพลาดในอดีต,คนลักษณะนี้สมควรให้อภัยเมื่อสำนึกแล้วมาทำความดีเพื่อประเทศชาติร่วมกัน,แต่กับคนไม่สำนึก เราก็มิอาจให้อภัยได้ทางตายเท่านั้นคือสิ่งที่มันต้องได้รับเช่นกัน.,ชาติจึงจะเดินต่อไปได้,สิ่งนี้จะเกิดขึ้นได้คือสถาบันกษัตริย์เราเท่านั้นจะเคลียร์ตรงนี้ได้,คือคนระบบแบบราชการไทยทั้งหมด ต้องเห็นค่าการสำนึกนี้ ถวายสัตย์นั้นเอง กลับตัวกลับใจใหม่ ความชั่วใดๆในอดีตจะไม่คิดคำนวนกลับมาอีกแก่บรรดาข้าราชการไทยทั่วประเทศ จงกลับเนื้อกลับตัวกลับใจตั้งมั่นทำความดีเพื่อชาติคือประชาชนและเพื่อแผ่นดินอธิปไตยไทยที่เกิดอาศัยดำรงชีพและตายนี้,คนข้าราชการไทยเราจะเกิดใหม่ทันที,ความผิดใดๆคือเป็นศูนย์,อภัยโทษนั้นเอง,ต่อมาคือประชาชนคนไทย ความผิดใดๆโทษอภัยหมด,ตั้งต้นชีวิตใหม่ ,หากข้าราชการไทยคนใด พ่อค้าเจ้าสัวใดยังมีพฤติกรรมชั่วเลวเหมือนเดิม โทษอาญาหนักแน่นอน,อาจยึดทรัพย์ทั้งตระกูล,ประหารชีวิตพร้อม,ส่วย เถื่อนทหารนายพลใดยังรับไม่ซื่อคือตายสถานเดียว,อะไรไม่ถูกต้องทำให้ถูกต้อง,สุดท้ายคนไทยจะเป็นหัวโขนอะไรใดๆจะรักเข้าใจกันหมด,สามัคคีร่วมแรงใจลงใจกันทั่วประเทศ,เรา..ทั้งประเทศไทยประชาชนคนไทยจะเสมือนเม็ดทรายเป็นเม็ดหินหลายลูกรวมกองกันเป็นภูเขาเงินภูเขาทองภูเขาเพชรที่แข็วแกร่งกว่าใดๆมิปานแน่นอน ตั้งสง่าใหญ่โตองอาจประดับคู่เคียงข้างโลกอย่างอารยะธรรมใดๆเสมอเหมือนมิมีแน่นอนในยุคปัจจุบันนี้,ยุคคนเหนือมนุษย์รวมสาระพัดทุกๆศาสตราจักรวาลอาจมารวมไว้ที่ไทยเรานี้,จะล้ำๆต่างดาวยุคอารยะธรรมใดๆก็ตามThe godsใดๆที่ผ่านมาเหยียบโลกนี้มากมายเพียงใดก็ตาม,สนามหลวงแห่งกายเนื้อนี้คนไทยเราตีแตกหมดนั้นเอง,จะโคตรสุดยอดอัจฉริยะขนาดไหนอีก,บรรลุธรรมจักรวาลเป็นว่าเล่นนั้นเอง,โดยต่างดาวใดๆที่มาเยือนมายึดครองโลกมากมายหลายล้านล้านปีก็ยังกระทำไม่ได้เช่นคนไทยเราทำได้นับจากยุคนี้ร.10เราเป็นต้นไปนั้นเอง.,
    อภัยหนี้ อภัยโทษ จึงคือจุดเริ่มต้นของการปลดปล่อยจิตวิญญาณ.
    https://youtube.com/shorts/laYhDaCK47s?si=k-m4UrsIFSNUBfd1
    55,ยึดอำนาจมา อำนาจเต็มมือ สั่ง ม.44แบบไหนก็ได้,ยุทธศาสตร์ชาติ20ปีด้วยนะ. ..คิดในมุมบวกแบบบวกโคตรๆ 3ป.อาจคือผู้เสียสละร่วมกับโทนี่ก็ได้,เพื่อลากไส้เขมรและผู้สนับสนุนเขมรทั้งหมด ตลอดพวกจะล้มจะยึดจะทำลายประเทศไทยให้เปิดเผยออกมาทั้งหมด เพื่อเก็บกวาดครั้งเดียว จะบ่อนจะพื้นที่ดินแดนจะอะไรชั่วเลวสาระพัดที่กระทำต่อแผ่นดินไทยประเทศไทยคนเสียสละเหล่านี้รับบทเล่นเต็มที่ แม้คนทั้งชาติจะตราหน้าว่าขายชาติก็ตาม เพื่อล่อเหยื่อตัวพ่อตัวแม่ออกมาได้จริงๆ,ไม่เข้าถ้ำเสือ ก็ไม่ได้ลูกเสือ จนกระทั่งขายวิญญาณให้ซาตานก็ได้เพื่อแลกกับความไว้วางใจของซาตาน แต่บทสุดท้ายคือพลิก เป้าหมายคือเพื่อทำลายซาตานให้พินาศทั้งหมดทั้งเครือข่ายนั้นเอง,เสียสละตนเองเพื่อพิทักษ์คนหมู่มากหรือประเทศไทย,ต้องสร้างสตอรี่เรื่องราวให้มีเหตุต่อการจบของเรื่อง ซึ่งธรรมะย่อมชนะอธรรมเสมอนั้นเอง.,เรทไรเดอร์ประมาณนั้น,ลุง3ป.บวกโทนี่รับบทถูกคนแล้วและอาจวางแผนกันมานานตั้งแต่ร.9แล้วก็ด้วย,อาจอยู่ที่ต่างประเทศโน้น,โดยฝ่ายแสงช่วยสนับสนุนพิเศษ,และอาจเดินทางไปเห็นอนาคตด้วยยานข้ามเวลามาแล้ว,ที่ฝ่ายแสงพาไปเห็น,โลกนี้มีอะไรที่เราไม่รู้อีกเยอะ ..ฝ่ายมืดแพ้สิ้นท่าแล้วก็ว่า,แค่ปลุกให้เราประชาชนมาตื่นรู้ค่าจริงแค่นั้น แบบตายจริง เจ็งจริงจึงกระตุ้นแรงขับเคลื่อนยากตื่นรู้ร่วมกันได้ เหมือนเราคนไทยสามัคคีร่วมใจกันปิดด่านเขมรจนกว่าจะเขมรหมดศักยภาพสิ้นฤทธิ์มาเป็นภัยอันตรายใดๆต่อประเทศไทยได้,โทนี่ที่ติดคุกก็เพื่อคุ้มครองชีวิตโทนี่ได้100%เท่านั้นแม้เป็นตัวปลอมก็ตามแต่,ที่ที่อันตรายที่สุดคือที่ที่ปลอดภัยจากคนที่จะทำร้ายดีที่สุด,ทั้งหมดถูกวางเนื้อเรื่องไว้หมดแล้วจากผู้สร้างหนังเรื่องไทยยึดภูมะเขือนี้. ..นี้คือมโนแบบเชิงบวกโคตรๆ พวกนี้คือฮีโร่ คนไทยรู้หรือยังว่า ..ไม่มีอะไรจะสุดยอดไปกว่าที่คนไทยเรารักกัน คนไทยเราสามัคคีกัน และช่วยเหลือกันและกันพึ่งพากันเองดีที่สุด,มิตรที่ดีที่สุดคือไทยเราเอง คือคนไทยทั้งประเทศเราเอง.,และสุดท้ายเรา..ประชาชนอาจร่วมกัน อภัยกันและกันในความผิดพลาดทั้งของตนเองและคนอื่น,เพื่อร่วมสร้างชาติไทยเราใหม่อีกครั้ง,ถอยแก่คนไทยเราเอง เพื่อก้าวไปอย่างรุ่งโรจน์ร่วมกันในยุคสมัยหน้า,ศัตรูที่แท้จริงมิใช่คนภายในชาติไทยเรา แต่คือคนหมายไม่ดีต่อประเทศไทยและคนไทยเรา ให้แตกแยกกัน จะทางศาสนา เชื้อชาติ และใดๆก็ตาม,การล้างกวาดล้างประเทศไทยที่ดีที่สุดคือล้างแบบให้อภัยกัน ทุกๆคนที่ทำผิดพลาดหวังได้รับการอภัยเพื่อกลับตัวกลับใจเริ่มต้นชีวิตใหม่ที่เคยทำผิดพลาดในอดีต,คนลักษณะนี้สมควรให้อภัยเมื่อสำนึกแล้วมาทำความดีเพื่อประเทศชาติร่วมกัน,แต่กับคนไม่สำนึก เราก็มิอาจให้อภัยได้ทางตายเท่านั้นคือสิ่งที่มันต้องได้รับเช่นกัน.,ชาติจึงจะเดินต่อไปได้,สิ่งนี้จะเกิดขึ้นได้คือสถาบันกษัตริย์เราเท่านั้นจะเคลียร์ตรงนี้ได้,คือคนระบบแบบราชการไทยทั้งหมด ต้องเห็นค่าการสำนึกนี้ ถวายสัตย์นั้นเอง กลับตัวกลับใจใหม่ ความชั่วใดๆในอดีตจะไม่คิดคำนวนกลับมาอีกแก่บรรดาข้าราชการไทยทั่วประเทศ จงกลับเนื้อกลับตัวกลับใจตั้งมั่นทำความดีเพื่อชาติคือประชาชนและเพื่อแผ่นดินอธิปไตยไทยที่เกิดอาศัยดำรงชีพและตายนี้,คนข้าราชการไทยเราจะเกิดใหม่ทันที,ความผิดใดๆคือเป็นศูนย์,อภัยโทษนั้นเอง,ต่อมาคือประชาชนคนไทย ความผิดใดๆโทษอภัยหมด,ตั้งต้นชีวิตใหม่ ,หากข้าราชการไทยคนใด พ่อค้าเจ้าสัวใดยังมีพฤติกรรมชั่วเลวเหมือนเดิม โทษอาญาหนักแน่นอน,อาจยึดทรัพย์ทั้งตระกูล,ประหารชีวิตพร้อม,ส่วย เถื่อนทหารนายพลใดยังรับไม่ซื่อคือตายสถานเดียว,อะไรไม่ถูกต้องทำให้ถูกต้อง,สุดท้ายคนไทยจะเป็นหัวโขนอะไรใดๆจะรักเข้าใจกันหมด,สามัคคีร่วมแรงใจลงใจกันทั่วประเทศ,เรา..ทั้งประเทศไทยประชาชนคนไทยจะเสมือนเม็ดทรายเป็นเม็ดหินหลายลูกรวมกองกันเป็นภูเขาเงินภูเขาทองภูเขาเพชรที่แข็วแกร่งกว่าใดๆมิปานแน่นอน ตั้งสง่าใหญ่โตองอาจประดับคู่เคียงข้างโลกอย่างอารยะธรรมใดๆเสมอเหมือนมิมีแน่นอนในยุคปัจจุบันนี้,ยุคคนเหนือมนุษย์รวมสาระพัดทุกๆศาสตราจักรวาลอาจมารวมไว้ที่ไทยเรานี้,จะล้ำๆต่างดาวยุคอารยะธรรมใดๆก็ตามThe godsใดๆที่ผ่านมาเหยียบโลกนี้มากมายเพียงใดก็ตาม,สนามหลวงแห่งกายเนื้อนี้คนไทยเราตีแตกหมดนั้นเอง,จะโคตรสุดยอดอัจฉริยะขนาดไหนอีก,บรรลุธรรมจักรวาลเป็นว่าเล่นนั้นเอง,โดยต่างดาวใดๆที่มาเยือนมายึดครองโลกมากมายหลายล้านล้านปีก็ยังกระทำไม่ได้เช่นคนไทยเราทำได้นับจากยุคนี้ร.10เราเป็นต้นไปนั้นเอง., อภัยหนี้ อภัยโทษ จึงคือจุดเริ่มต้นของการปลดปล่อยจิตวิญญาณ. https://youtube.com/shorts/laYhDaCK47s?si=k-m4UrsIFSNUBfd1
    0 ความคิดเห็น 0 การแบ่งปัน 331 มุมมอง 0 รีวิว
  • https://youtu.be/uzxI31cfM4A
    https://youtu.be/uzxI31cfM4A
    0 ความคิดเห็น 0 การแบ่งปัน 47 มุมมอง 0 รีวิว
  • “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง”

    PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ

    ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0

    นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง

    PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว

    ข้อมูลสำคัญจากข่าว
    PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง
    แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16
    สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว
    คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028

    เทคโนโลยีและการออกแบบ
    ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า
    มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ
    เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน
    ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง

    ข้อมูลเสริมจากภายนอก
    PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน
    การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM
    การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป
    PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก

    https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    🚀 “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง” PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0 นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว ✅ ข้อมูลสำคัญจากข่าว ➡️ PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง ➡️ แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16 ➡️ สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว ➡️ คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028 ✅ เทคโนโลยีและการออกแบบ ➡️ ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า ➡️ มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ ➡️ เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน ➡️ ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน ➡️ การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM ➡️ การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป ➡️ PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    WWW.TECHPOWERUP.COM
    PCI-SIG Confirms PCIe 8.0 Will Deliver 1 TB/s Bidirectional Bandwidth, First Spec Draft Now Available
    PCI-SIG has announced a clear step forward for peripheral connectivity: PCIe 8.0 is being developed to run at 256 GT/s, which translates to about 512 GB/s in each direction and roughly 1 TB/s of simultaneous bidirectional bandwidth in a full x16 slot. Version 0.3 of the PCIe 8.0 specification has be...
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
  • “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่”

    ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps

    หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที

    อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป

    ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่

    ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference

    ข้อมูลสำคัญจากข่าว
    Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin
    ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack
    Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack
    SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต

    การแข่งขันและกลยุทธ์
    Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน
    Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps
    AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์
    CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ

    ข้อมูลเสริมจากภายนอก
    JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน
    การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต
    Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร
    การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น

    https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    ⚡ “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่” ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่ ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin ➡️ ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack ➡️ Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack ➡️ SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต ✅ การแข่งขันและกลยุทธ์ ➡️ Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน ➡️ Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps ➡️ AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์ ➡️ CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ ✅ ข้อมูลเสริมจากภายนอก ➡️ JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน ➡️ การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต ➡️ Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร ➡️ การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    WWW.TOMSHARDWARE.COM
    Nvidia wants 10Gbps HBM4 to blunt AMD’s MI450, report claims — company said to be pushing suppliers for more bandwidth
    Nvidia’s Rubin platform bets big on 10Gb/s HBM4, but speed brings supply risk, and AMD’s MI450 is around the corner.
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
Pages Boosts