• “JEDEC เปิดตัวมาตรฐาน UFS 5.0 — ความเร็วทะลุ 10.8 GB/s เพื่อโลกแห่ง AI และอุปกรณ์พกพา”

    JEDEC สมาคมเทคโนโลยีโซลิดสเตต ได้ประกาศใกล้เสร็จสิ้นการพัฒนามาตรฐาน Universal Flash Storage (UFS) เวอร์ชัน 5.0 ซึ่งเป็นการอัปเกรดครั้งใหญ่จาก UFS 4.1 ที่เปิดตัวในปี 2024 โดย UFS 5.0 ถูกออกแบบมาเพื่อรองรับอุปกรณ์พกพาและระบบคอมพิวเตอร์ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ เช่น สมาร์ทโฟน อุปกรณ์สวมใส่ คอนโซลเกม รถยนต์ และระบบ edge computing

    UFS 5.0 จะสามารถทำความเร็วในการอ่าน/เขียนแบบต่อเนื่องได้สูงถึง 10.8 GB/s โดยใช้เทคโนโลยีจาก MIPI Alliance ได้แก่ M-PHY เวอร์ชัน 6.0 และ UniPro เวอร์ชัน 3.0 ซึ่งช่วยเพิ่มแบนด์วิดท์ของอินเทอร์เฟซได้ถึง 46.6 Gb/s ต่อเลน และรองรับการทำงานแบบสองเลนเพื่อให้ได้ประสิทธิภาพสูงสุด

    นอกจากความเร็วแล้ว UFS 5.0 ยังเพิ่มฟีเจอร์ใหม่เพื่อความปลอดภัยและความเสถียร เช่น inline hashing เพื่อป้องกันข้อมูลเสียหาย, ระบบ equalization เพื่อรักษาคุณภาพสัญญาณ และการแยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน

    มาตรฐานใหม่นี้ยังคงรองรับฮาร์ดแวร์เดิมจาก UFS 4.x เพื่อให้ผู้ผลิตสามารถอัปเกรดได้ง่ายขึ้น โดยไม่ต้องเปลี่ยนโครงสร้างระบบทั้งหมด

    ข้อมูลสำคัญจากข่าว
    JEDEC ใกล้เปิดตัวมาตรฐาน UFS 5.0 สำหรับอุปกรณ์พกพาและระบบคอมพิวเตอร์
    ความเร็วในการอ่าน/เขียนแบบต่อเนื่องสูงสุดถึง 10.8 GB/s
    ใช้เทคโนโลยี MIPI M-PHY 6.0 และ UniPro 3.0 เพื่อเพิ่มแบนด์วิดท์
    รองรับการทำงานแบบสองเลนที่ความเร็ว 46.6 Gb/s ต่อเลน
    เพิ่มฟีเจอร์ inline hashing เพื่อความปลอดภัยของข้อมูล
    มีระบบ equalization เพื่อรักษาคุณภาพสัญญาณ
    แยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน
    ยังคงรองรับฮาร์ดแวร์จาก UFS 4.x เพื่อความสะดวกในการอัปเกรด

    ข้อมูลเสริมจากภายนอก
    UFS ถูกใช้ในสมาร์ทโฟนระดับเรือธง เช่น Galaxy S และ iPhone รุ่นใหม่
    มาตรฐาน UFS ช่วยให้การโหลดแอปและเกมเร็วขึ้นอย่างเห็นได้ชัด
    MIPI Alliance เป็นองค์กรที่พัฒนาโปรโตคอลการเชื่อมต่อสำหรับอุปกรณ์พกพาทั่วโลก
    Inline hashing เป็นเทคนิคที่ใช้ในระบบจัดเก็บข้อมูลระดับองค์กรเพื่อป้องกันการเปลี่ยนแปลงข้อมูลโดยไม่ได้รับอนุญาต
    การแยกแหล่งจ่ายไฟช่วยลดความร้อนและเพิ่มเสถียรภาพของระบบ

    https://www.techpowerup.com/341645/jedec-ufs-5-0-standard-to-deliver-sequential-performance-up-to-10-8-gb-s
    ⚡ “JEDEC เปิดตัวมาตรฐาน UFS 5.0 — ความเร็วทะลุ 10.8 GB/s เพื่อโลกแห่ง AI และอุปกรณ์พกพา” JEDEC สมาคมเทคโนโลยีโซลิดสเตต ได้ประกาศใกล้เสร็จสิ้นการพัฒนามาตรฐาน Universal Flash Storage (UFS) เวอร์ชัน 5.0 ซึ่งเป็นการอัปเกรดครั้งใหญ่จาก UFS 4.1 ที่เปิดตัวในปี 2024 โดย UFS 5.0 ถูกออกแบบมาเพื่อรองรับอุปกรณ์พกพาและระบบคอมพิวเตอร์ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ เช่น สมาร์ทโฟน อุปกรณ์สวมใส่ คอนโซลเกม รถยนต์ และระบบ edge computing UFS 5.0 จะสามารถทำความเร็วในการอ่าน/เขียนแบบต่อเนื่องได้สูงถึง 10.8 GB/s โดยใช้เทคโนโลยีจาก MIPI Alliance ได้แก่ M-PHY เวอร์ชัน 6.0 และ UniPro เวอร์ชัน 3.0 ซึ่งช่วยเพิ่มแบนด์วิดท์ของอินเทอร์เฟซได้ถึง 46.6 Gb/s ต่อเลน และรองรับการทำงานแบบสองเลนเพื่อให้ได้ประสิทธิภาพสูงสุด นอกจากความเร็วแล้ว UFS 5.0 ยังเพิ่มฟีเจอร์ใหม่เพื่อความปลอดภัยและความเสถียร เช่น inline hashing เพื่อป้องกันข้อมูลเสียหาย, ระบบ equalization เพื่อรักษาคุณภาพสัญญาณ และการแยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน มาตรฐานใหม่นี้ยังคงรองรับฮาร์ดแวร์เดิมจาก UFS 4.x เพื่อให้ผู้ผลิตสามารถอัปเกรดได้ง่ายขึ้น โดยไม่ต้องเปลี่ยนโครงสร้างระบบทั้งหมด ✅ ข้อมูลสำคัญจากข่าว ➡️ JEDEC ใกล้เปิดตัวมาตรฐาน UFS 5.0 สำหรับอุปกรณ์พกพาและระบบคอมพิวเตอร์ ➡️ ความเร็วในการอ่าน/เขียนแบบต่อเนื่องสูงสุดถึง 10.8 GB/s ➡️ ใช้เทคโนโลยี MIPI M-PHY 6.0 และ UniPro 3.0 เพื่อเพิ่มแบนด์วิดท์ ➡️ รองรับการทำงานแบบสองเลนที่ความเร็ว 46.6 Gb/s ต่อเลน ➡️ เพิ่มฟีเจอร์ inline hashing เพื่อความปลอดภัยของข้อมูล ➡️ มีระบบ equalization เพื่อรักษาคุณภาพสัญญาณ ➡️ แยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน ➡️ ยังคงรองรับฮาร์ดแวร์จาก UFS 4.x เพื่อความสะดวกในการอัปเกรด ✅ ข้อมูลเสริมจากภายนอก ➡️ UFS ถูกใช้ในสมาร์ทโฟนระดับเรือธง เช่น Galaxy S และ iPhone รุ่นใหม่ ➡️ มาตรฐาน UFS ช่วยให้การโหลดแอปและเกมเร็วขึ้นอย่างเห็นได้ชัด ➡️ MIPI Alliance เป็นองค์กรที่พัฒนาโปรโตคอลการเชื่อมต่อสำหรับอุปกรณ์พกพาทั่วโลก ➡️ Inline hashing เป็นเทคนิคที่ใช้ในระบบจัดเก็บข้อมูลระดับองค์กรเพื่อป้องกันการเปลี่ยนแปลงข้อมูลโดยไม่ได้รับอนุญาต ➡️ การแยกแหล่งจ่ายไฟช่วยลดความร้อนและเพิ่มเสถียรภาพของระบบ https://www.techpowerup.com/341645/jedec-ufs-5-0-standard-to-deliver-sequential-performance-up-to-10-8-gb-s
    0 ความคิดเห็น 0 การแบ่งปัน 35 มุมมอง 0 รีวิว
  • “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต”

    ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม

    OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s

    ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU

    จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23%

    แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง

    ข้อมูลสำคัญจากข่าว
    OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล
    รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s
    Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล
    OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s
    ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14%
    เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%)
    Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน
    Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว

    ข้อมูลเสริมจากภายนอก
    OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU
    Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s
    eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย
    OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output
    โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง

    https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    ⚡ “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต” ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23% แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง ✅ ข้อมูลสำคัญจากข่าว ➡️ OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล ➡️ รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s ➡️ Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล ➡️ OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s ➡️ ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14% ➡️ เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%) ➡️ Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน ➡️ Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว ✅ ข้อมูลเสริมจากภายนอก ➡️ OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU ➡️ Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s ➡️ eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย ➡️ OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output ➡️ โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
  • “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง”

    ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI

    ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด

    AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้

    Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง

    ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน

    ข้อมูลสำคัญจากข่าว
    Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane
    RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ
    GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40
    AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D
    RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า
    Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client
    Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง
    Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร

    ข้อมูลเสริมจากภายนอก
    RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7
    RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2
    Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI
    MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล
    CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ

    https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    🎨 “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง” ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้ Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane ➡️ RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ ➡️ GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40 ➡️ AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D ➡️ RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า ➡️ Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client ➡️ Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง ➡️ Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7 ➡️ RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2 ➡️ Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI ➡️ MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล ➡️ CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่”

    ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่

    ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม

    Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที

    อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา

    ข้อมูลสำคัญจากข่าว
    Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing
    ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A
    มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB
    ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน
    สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ
    ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง
    ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก
    ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน

    ข้อมูลเสริมจากภายนอก
    หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40%
    ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ
    RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว
    MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม
    การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย

    https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    🔥 “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่” ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่ ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา ✅ ข้อมูลสำคัญจากข่าว ➡️ Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing ➡️ ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A ➡️ มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB ➡️ ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน ➡️ สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ ➡️ ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง ➡️ ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก ➡️ ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน ✅ ข้อมูลเสริมจากภายนอก ➡️ หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40% ➡️ ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ ➡️ RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว ➡️ MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม ➡️ การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • “iPhone 17 Pro Max ติดชุดระบายความร้อน SSD — ทำคะแนนเสถียรภาพทะลุ 90% ใน 3DMark แต่หน้าตายังน่าถกเถียง”

    ในยุคที่สมาร์ตโฟนกลายเป็นเครื่องมือทำงานระดับโปร ไม่ใช่แค่โทรศัพท์อีกต่อไป ผู้ใช้งาน Reddit นามว่า T-K-Tronix ได้ทดลองติดตั้งชุดระบายความร้อนแบบ SSD บน iPhone 17 Pro Max เพื่อแก้ปัญหาความร้อนจากการใช้งานหนัก โดยเฉพาะการถ่ายวิดีโอแบบ Apple ProRes ซึ่งขึ้นชื่อเรื่องการทำให้เครื่องร้อนจัดเมื่อใช้งานต่อเนื่อง

    ผลลัพธ์น่าทึ่ง — iPhone ที่ติดตั้งชุดระบายความร้อนนี้สามารถทำคะแนนเสถียรภาพได้ถึง 90.5% ในการทดสอบ 3DMark Steel Nomad Light Stress Test ซึ่งสูงกว่าค่ามาตรฐานที่ Max Tech เคยทดสอบไว้ที่ 69.4% อย่างมีนัยสำคัญ

    ชุดระบายความร้อนที่ใช้คือ M.2 SSD cooler แบบพาสซีฟหลายตัว ซึ่งปกติใช้กับคอมพิวเตอร์ โดยมีฮีตไปป์ทองแดง, ฟินอลูมิเนียม และพัดลมขนาดเล็กติดอยู่ด้านหลังเครื่อง iPhone เพื่อช่วยดึงความร้อนออกจากชิป A19 Pro ได้อย่างมีประสิทธิภาพมากกว่าระบบ vapor chamber ที่ Apple ติดตั้งมาในเครื่อง

    แม้ Apple จะเปลี่ยนดีไซน์ iPhone 17 Pro Max ให้ใช้บอดี้อลูมิเนียมแบบ wraparound พร้อม vapor chamber ที่ระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า แต่การใช้งานจริงโดยเฉพาะในงานวิดีโอระดับมืออาชีพยังคงมีข้อจำกัดด้านความร้อน ทำให้ผู้ใช้บางคนเลือกดัดแปลงเครื่องเพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การติดตั้งชุดระบายความร้อนขนาดใหญ่เช่นนี้อาจไม่เหมาะกับการใช้งานทั่วไป เพราะมีขนาดใหญ่ หนัก และอาจขัดกับการใช้งานแบบพกพา แม้จะมีคนเสนอให้ใช้ร่วมกับ MagSafe หรือใส่ใน “cage” สำหรับงานวิดีโอโดยเฉพาะก็ตาม

    https://www.tomshardware.com/phones/iphone/monstrous-ssd-cooling-solution-strapped-to-iphone-17-pro-max-delivers-unparalleled-performance-clocks-90-percent-stability-in-3d-mark-stress-test-jury-still-out-on-hideous-aesthetics
    📱❄️ “iPhone 17 Pro Max ติดชุดระบายความร้อน SSD — ทำคะแนนเสถียรภาพทะลุ 90% ใน 3DMark แต่หน้าตายังน่าถกเถียง” ในยุคที่สมาร์ตโฟนกลายเป็นเครื่องมือทำงานระดับโปร ไม่ใช่แค่โทรศัพท์อีกต่อไป ผู้ใช้งาน Reddit นามว่า T-K-Tronix ได้ทดลองติดตั้งชุดระบายความร้อนแบบ SSD บน iPhone 17 Pro Max เพื่อแก้ปัญหาความร้อนจากการใช้งานหนัก โดยเฉพาะการถ่ายวิดีโอแบบ Apple ProRes ซึ่งขึ้นชื่อเรื่องการทำให้เครื่องร้อนจัดเมื่อใช้งานต่อเนื่อง ผลลัพธ์น่าทึ่ง — iPhone ที่ติดตั้งชุดระบายความร้อนนี้สามารถทำคะแนนเสถียรภาพได้ถึง 90.5% 😝😝 ในการทดสอบ 3DMark Steel Nomad Light Stress Test ซึ่งสูงกว่าค่ามาตรฐานที่ Max Tech เคยทดสอบไว้ที่ 69.4% อย่างมีนัยสำคัญ ชุดระบายความร้อนที่ใช้คือ M.2 SSD cooler แบบพาสซีฟหลายตัว ซึ่งปกติใช้กับคอมพิวเตอร์ โดยมีฮีตไปป์ทองแดง, ฟินอลูมิเนียม และพัดลมขนาดเล็กติดอยู่ด้านหลังเครื่อง iPhone เพื่อช่วยดึงความร้อนออกจากชิป A19 Pro ได้อย่างมีประสิทธิภาพมากกว่าระบบ vapor chamber ที่ Apple ติดตั้งมาในเครื่อง แม้ Apple จะเปลี่ยนดีไซน์ iPhone 17 Pro Max ให้ใช้บอดี้อลูมิเนียมแบบ wraparound พร้อม vapor chamber ที่ระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า แต่การใช้งานจริงโดยเฉพาะในงานวิดีโอระดับมืออาชีพยังคงมีข้อจำกัดด้านความร้อน ทำให้ผู้ใช้บางคนเลือกดัดแปลงเครื่องเพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การติดตั้งชุดระบายความร้อนขนาดใหญ่เช่นนี้อาจไม่เหมาะกับการใช้งานทั่วไป เพราะมีขนาดใหญ่ หนัก และอาจขัดกับการใช้งานแบบพกพา แม้จะมีคนเสนอให้ใช้ร่วมกับ MagSafe หรือใส่ใน “cage” สำหรับงานวิดีโอโดยเฉพาะก็ตาม https://www.tomshardware.com/phones/iphone/monstrous-ssd-cooling-solution-strapped-to-iphone-17-pro-max-delivers-unparalleled-performance-clocks-90-percent-stability-in-3d-mark-stress-test-jury-still-out-on-hideous-aesthetics
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน”

    ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้

    SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น

    เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง

    ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้

    การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้

    Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต

    ข้อมูลสำคัญจากข่าว
    Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet
    SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม
    Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ
    ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่
    ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR
    การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F*
    SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม
    ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง

    ข้อมูลเสริมจากภายนอก
    Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function
    ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม
    Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ
    Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์
    SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU

    https://signal.org/blog/spqr/
    🔐 “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน” ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้ SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้ การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้ Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet ➡️ SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม ➡️ Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ ➡️ ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่ ➡️ ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR ➡️ การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F* ➡️ SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม ➡️ ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง ✅ ข้อมูลเสริมจากภายนอก ➡️ Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function ➡️ ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม ➡️ Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ ➡️ Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์ ➡️ SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU https://signal.org/blog/spqr/
    SIGNAL.ORG
    Signal Protocol and Post-Quantum Ratchets
    We are excited to announce a significant advancement in the security of the Signal Protocol: the introduction of the Sparse Post Quantum Ratchet (SPQR). This new ratchet enhances the Signal Protocol’s resilience against future quantum computing threats while maintaining our existing security guar...
    0 ความคิดเห็น 0 การแบ่งปัน 121 มุมมอง 0 รีวิว
  • “พล.อ.อ.เสกสรร” ประเดิมตำแหน่ง ผบ.ทอ.ตรวจเยี่ยมกองบิน 3 สระแก้ว เผย แม้ที่ผ่านมาได้รับคำชมจาก ผบ.ทบ. แต่ไม่ควรชะล่าใจ มองจากนี้อาจถูกโจมตีด้วยโดรนขนาดเล็ก-อาวุธระยะไกลยิงเข้าใส่ ลั่นจะทำให้ดีที่สุด ให้การรบร่วม 2 เหล่าทัพ 3 เหล่าทัพ ให้มีประสิทธิภาพสูงสุด

    อ่านต่อ..https://news1live.com/detail/9680000093782

    #News1live #News1 #SondhiX #Sondhitalk #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    “พล.อ.อ.เสกสรร” ประเดิมตำแหน่ง ผบ.ทอ.ตรวจเยี่ยมกองบิน 3 สระแก้ว เผย แม้ที่ผ่านมาได้รับคำชมจาก ผบ.ทบ. แต่ไม่ควรชะล่าใจ มองจากนี้อาจถูกโจมตีด้วยโดรนขนาดเล็ก-อาวุธระยะไกลยิงเข้าใส่ ลั่นจะทำให้ดีที่สุด ให้การรบร่วม 2 เหล่าทัพ 3 เหล่าทัพ ให้มีประสิทธิภาพสูงสุด อ่านต่อ..https://news1live.com/detail/9680000093782 #News1live #News1 #SondhiX #Sondhitalk #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Like
    2
    0 ความคิดเห็น 0 การแบ่งปัน 277 มุมมอง 0 รีวิว
  • “MediaTek Dimensity 9500 เปิดตัวแล้ว — ชิปมือถือที่แรงที่สุดของค่าย พร้อม AI แบบ on-device และประหยัดพลังงานกว่าเดิม”

    MediaTek ประกาศเปิดตัวชิปเรือธงรุ่นใหม่ Dimensity 9500 ซึ่งจะถูกนำไปใช้ในสมาร์ตโฟนระดับไฮเอนด์ช่วงปลายปี 2025 โดยชูจุดเด่นด้านประสิทธิภาพสูงสุด การประมวลผล AI แบบ on-device และการจัดการพลังงานที่เหนือกว่ารุ่นก่อนหน้าอย่างชัดเจน

    Dimensity 9500 ใช้สถาปัตยกรรม CPU แบบ All Big Core รุ่นที่ 3 ประกอบด้วย ultra core ความเร็ว 4.21GHz, premium core 3 ตัว และ performance core อีก 4 ตัว พร้อมระบบจัดเก็บข้อมูลแบบ UFS 4.1 แบบ 4 ช่อง ซึ่งช่วยเพิ่มความเร็วในการอ่าน/เขียนข้อมูลขึ้นถึง 2 เท่า และลดการใช้พลังงานสูงสุดถึง 55% เมื่อเทียบกับรุ่นก่อน

    ด้านกราฟิก ชิปนี้มาพร้อม GPU Arm G1-Ultra ที่ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% รองรับการเล่นเกมระดับคอนโซลด้วย frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ พร้อมรองรับฟีเจอร์ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5

    ในส่วนของ AI Dimensity 9500 ใช้ NPU รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ที่สามารถประมวลผลโมเดลขนาดใหญ่ได้เร็วขึ้น 100% และลดการใช้พลังงานลงถึง 56% รองรับการสร้างภาพ 4K แบบ ultra-HD และข้อความยาวถึง 128K token ได้แบบ on-device โดยไม่ต้องพึ่งคลาวด์

    ด้านกล้องและภาพ Dimensity 9500 รองรับการถ่ายภาพ RAW สูงสุด 200MP พร้อมระบบโฟกัสต่อเนื่อง 30 FPS และวิดีโอ 4K 60 FPS แบบ cinematic portrait นอกจากนี้ยังมี MiraVision Adaptive Display ที่ปรับแสง สี และความคมชัดตามสภาพแวดล้อมแบบเรียลไทม์

    การเชื่อมต่อก็ไม่แพ้ใคร ด้วยระบบ multi-network intelligence ที่ช่วยลด latency ได้ถึง 50% และเพิ่มความแม่นยำในการระบุตำแหน่ง 20% พร้อมระบบ AI ที่ช่วยเลือกเครือข่ายที่ดีที่สุดในแต่ละสถานการณ์

    จุดเด่นของ MediaTek Dimensity 9500
    ใช้ CPU แบบ All Big Core รุ่นที่ 3 พร้อม ultra core 4.21GHz
    เพิ่มประสิทธิภาพ single-core 32% และ multi-core 17% จากรุ่นก่อน
    ลดการใช้พลังงานสูงสุด 55% เมื่อทำงานเต็มที่
    รองรับ UFS 4.1 แบบ 4 ช่อง เพิ่มความเร็วอ่าน/เขียนข้อมูล 2 เท่า

    ด้านกราฟิกและการเล่นเกม
    GPU Arm G1-Ultra ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42%
    รองรับ frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์
    รองรับ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5

    ด้าน AI และการประมวลผลโมเดล
    ใช้ NPU 990 รุ่นที่ 9 พร้อม Generative AI Engine 2.0
    รองรับ BitNet 1.58-bit สำหรับโมเดลขนาดใหญ่
    ประมวลผล LLM ขนาด 3 พันล้านพารามิเตอร์ได้เร็วขึ้น 100%
    รองรับข้อความยาว 128K token และภาพ 4K ultra-HD แบบ on-device

    ด้านกล้องและการแสดงผล
    รองรับการถ่ายภาพ RAW สูงสุด 200MP และวิดีโอ 4K 60 FPS แบบ portrait
    MiraVision Adaptive Display ปรับแสง สี และความคมชัดตามสภาพแวดล้อม
    ป้องกันการร้อนเกินเมื่อใช้งานกลางแจ้ง และถนอมสายตาในที่มืด

    ด้านการเชื่อมต่อและพลังงาน
    AI-powered communication ลดการใช้พลังงาน 10% ใน 5G และ 20% ใน Wi-Fi
    5CC carrier aggregation เพิ่มแบนด์วิดธ์ 15%
    AI network selection เพิ่มความแม่นยำ 20% และลด latency 50%

    ข้อมูลเสริมจากภายนอก
    ผลิตด้วยเทคโนโลยี 3 นาโนเมตร และคาดว่าจะใช้ในมือถือเรือธงปลายปี 2025
    เปรียบเทียบกับ Snapdragon 8 Gen 4 และ Apple A18 Pro ได้อย่างสูสีในหลายด้าน
    รองรับการใช้งาน AI แบบต่อเนื่องโดยไม่ต้องพึ่งคลาวด์ ช่วยเพิ่มความเป็นส่วนตัว

    https://www.techpowerup.com/341208/mediatek-dimensity-9500-unleashes-best-in-class-performance-ai-experiences-and-power-efficiency-for-the-next-generation-of-mobile-devices
    ⚡ “MediaTek Dimensity 9500 เปิดตัวแล้ว — ชิปมือถือที่แรงที่สุดของค่าย พร้อม AI แบบ on-device และประหยัดพลังงานกว่าเดิม” MediaTek ประกาศเปิดตัวชิปเรือธงรุ่นใหม่ Dimensity 9500 ซึ่งจะถูกนำไปใช้ในสมาร์ตโฟนระดับไฮเอนด์ช่วงปลายปี 2025 โดยชูจุดเด่นด้านประสิทธิภาพสูงสุด การประมวลผล AI แบบ on-device และการจัดการพลังงานที่เหนือกว่ารุ่นก่อนหน้าอย่างชัดเจน Dimensity 9500 ใช้สถาปัตยกรรม CPU แบบ All Big Core รุ่นที่ 3 ประกอบด้วย ultra core ความเร็ว 4.21GHz, premium core 3 ตัว และ performance core อีก 4 ตัว พร้อมระบบจัดเก็บข้อมูลแบบ UFS 4.1 แบบ 4 ช่อง ซึ่งช่วยเพิ่มความเร็วในการอ่าน/เขียนข้อมูลขึ้นถึง 2 เท่า และลดการใช้พลังงานสูงสุดถึง 55% เมื่อเทียบกับรุ่นก่อน ด้านกราฟิก ชิปนี้มาพร้อม GPU Arm G1-Ultra ที่ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% รองรับการเล่นเกมระดับคอนโซลด้วย frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ พร้อมรองรับฟีเจอร์ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5 ในส่วนของ AI Dimensity 9500 ใช้ NPU รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ที่สามารถประมวลผลโมเดลขนาดใหญ่ได้เร็วขึ้น 100% และลดการใช้พลังงานลงถึง 56% รองรับการสร้างภาพ 4K แบบ ultra-HD และข้อความยาวถึง 128K token ได้แบบ on-device โดยไม่ต้องพึ่งคลาวด์ ด้านกล้องและภาพ Dimensity 9500 รองรับการถ่ายภาพ RAW สูงสุด 200MP พร้อมระบบโฟกัสต่อเนื่อง 30 FPS และวิดีโอ 4K 60 FPS แบบ cinematic portrait นอกจากนี้ยังมี MiraVision Adaptive Display ที่ปรับแสง สี และความคมชัดตามสภาพแวดล้อมแบบเรียลไทม์ การเชื่อมต่อก็ไม่แพ้ใคร ด้วยระบบ multi-network intelligence ที่ช่วยลด latency ได้ถึง 50% และเพิ่มความแม่นยำในการระบุตำแหน่ง 20% พร้อมระบบ AI ที่ช่วยเลือกเครือข่ายที่ดีที่สุดในแต่ละสถานการณ์ ✅ จุดเด่นของ MediaTek Dimensity 9500 ➡️ ใช้ CPU แบบ All Big Core รุ่นที่ 3 พร้อม ultra core 4.21GHz ➡️ เพิ่มประสิทธิภาพ single-core 32% และ multi-core 17% จากรุ่นก่อน ➡️ ลดการใช้พลังงานสูงสุด 55% เมื่อทำงานเต็มที่ ➡️ รองรับ UFS 4.1 แบบ 4 ช่อง เพิ่มความเร็วอ่าน/เขียนข้อมูล 2 เท่า ✅ ด้านกราฟิกและการเล่นเกม ➡️ GPU Arm G1-Ultra ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% ➡️ รองรับ frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ ➡️ รองรับ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5 ✅ ด้าน AI และการประมวลผลโมเดล ➡️ ใช้ NPU 990 รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ➡️ รองรับ BitNet 1.58-bit สำหรับโมเดลขนาดใหญ่ ➡️ ประมวลผล LLM ขนาด 3 พันล้านพารามิเตอร์ได้เร็วขึ้น 100% ➡️ รองรับข้อความยาว 128K token และภาพ 4K ultra-HD แบบ on-device ✅ ด้านกล้องและการแสดงผล ➡️ รองรับการถ่ายภาพ RAW สูงสุด 200MP และวิดีโอ 4K 60 FPS แบบ portrait ➡️ MiraVision Adaptive Display ปรับแสง สี และความคมชัดตามสภาพแวดล้อม ➡️ ป้องกันการร้อนเกินเมื่อใช้งานกลางแจ้ง และถนอมสายตาในที่มืด ✅ ด้านการเชื่อมต่อและพลังงาน ➡️ AI-powered communication ลดการใช้พลังงาน 10% ใน 5G และ 20% ใน Wi-Fi ➡️ 5CC carrier aggregation เพิ่มแบนด์วิดธ์ 15% ➡️ AI network selection เพิ่มความแม่นยำ 20% และลด latency 50% ✅ ข้อมูลเสริมจากภายนอก ➡️ ผลิตด้วยเทคโนโลยี 3 นาโนเมตร และคาดว่าจะใช้ในมือถือเรือธงปลายปี 2025 ➡️ เปรียบเทียบกับ Snapdragon 8 Gen 4 และ Apple A18 Pro ได้อย่างสูสีในหลายด้าน ➡️ รองรับการใช้งาน AI แบบต่อเนื่องโดยไม่ต้องพึ่งคลาวด์ ช่วยเพิ่มความเป็นส่วนตัว https://www.techpowerup.com/341208/mediatek-dimensity-9500-unleashes-best-in-class-performance-ai-experiences-and-power-efficiency-for-the-next-generation-of-mobile-devices
    WWW.TECHPOWERUP.COM
    MediaTek Dimensity 9500 Unleashes Best-in-Class Performance, AI Experiences, and Power Efficiency for the Next Generation of Mobile Devices
    MediaTek, the world's leading innovator of smartphone SoCs, today announced the launch of its most advanced mobile platform yet: The MediaTek Dimensity 9500. Setting new standards in on-device AI, console-class gaming, and power efficiency, the MediaTek Dimensity 9500 is engineered to super-charge t...
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • “OpenAI จับมือ NVIDIA สร้างศูนย์ข้อมูล AI ขนาด 10 กิกะวัตต์ — ก้าวใหม่สู่ยุค Superintelligence ด้วยพลัง GPU นับล้านตัว”

    วันที่ 22 กันยายน 2025 OpenAI และ NVIDIA ประกาศความร่วมมือเชิงกลยุทธ์ครั้งใหญ่ในการสร้างโครงสร้างพื้นฐาน AI รุ่นถัดไป โดยมีแผนจะติดตั้งระบบของ NVIDIA รวมพลังงานสูงถึง 10 กิกะวัตต์ ซึ่งเทียบเท่ากับการใช้ GPU หลายล้านตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ระดับ Superintelligence ในอนาคต

    NVIDIA เตรียมลงทุนสูงสุดถึง $100 พันล้านดอลลาร์ใน OpenAI โดยจะทยอยลงทุนตามการติดตั้งแต่ละกิกะวัตต์ โดยเฟสแรกจะเริ่มใช้งานในช่วงครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin ซึ่งเป็นระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ของ NVIDIA ที่ออกแบบมาเพื่อรองรับโมเดลขนาดใหญ่และการประมวลผลแบบกระจาย

    Sam Altman ซีอีโอของ OpenAI กล่าวว่า “ทุกอย่างเริ่มต้นจาก compute” และการสร้างโครงสร้างพื้นฐานนี้จะเป็นรากฐานของเศรษฐกิจแห่งอนาคต ขณะที่ Jensen Huang ซีอีโอของ NVIDIA ย้ำว่า “นี่คือก้าวกระโดดครั้งใหม่” หลังจากที่ทั้งสองบริษัทผลักดันกันมาตั้งแต่ยุค DGX จนถึง ChatGPT

    ความร่วมมือนี้ยังรวมถึงการ co-optimize ระหว่างซอฟต์แวร์ของ OpenAI และฮาร์ดแวร์ของ NVIDIA เพื่อให้การฝึกโมเดลและการใช้งานจริงมีประสิทธิภาพสูงสุด โดยจะทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners เพื่อสร้างโครงสร้างพื้นฐาน AI ที่ล้ำหน้าที่สุดในโลก

    OpenAI ปัจจุบันมีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคน และมีการนำเทคโนโลยีไปใช้ในองค์กรทั่วโลก ทั้งขนาดใหญ่และเล็ก ความร่วมมือครั้งนี้จึงเป็นการขยายขอบเขตของ AI ให้เข้าถึงผู้คนในระดับมหภาค

    ข้อมูลสำคัญจากข่าว
    OpenAI และ NVIDIA ร่วมมือสร้างโครงสร้างพื้นฐาน AI ขนาด 10 กิกะวัตต์
    NVIDIA เตรียมลงทุนสูงสุด $100 พันล้านดอลลาร์ใน OpenAI ตามการติดตั้งแต่ละเฟส
    เฟสแรกจะเริ่มใช้งานในครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin
    ใช้ GPU หลายล้านตัวเพื่อรองรับการฝึกและใช้งานโมเดลระดับ Superintelligence

    ความร่วมมือและการพัฒนา
    OpenAI และ NVIDIA จะ co-optimize ซอฟต์แวร์และฮาร์ดแวร์ร่วมกัน
    ทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners
    OpenAI มีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคนทั่วโลก
    ความร่วมมือนี้จะช่วยผลักดันภารกิจของ OpenAI ในการสร้าง AGI เพื่อมนุษยชาติ

    ข้อมูลเสริมจากภายนอก
    10 กิกะวัตต์ เทียบเท่ากับการใช้ไฟฟ้าของเมืองขนาดกลาง
    Vera Rubin เป็นแพลตฟอร์มที่ออกแบบมาเพื่องาน AI ขนาดใหญ่โดยเฉพาะ
    การลงทุนระดับนี้สะท้อนถึงการแข่งขันด้าน compute infrastructure ที่รุนแรงขึ้น
    การใช้ GPU จำนวนมากต้องการระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพสูง

    https://openai.com/index/openai-nvidia-systems-partnership/

    ⚡ “OpenAI จับมือ NVIDIA สร้างศูนย์ข้อมูล AI ขนาด 10 กิกะวัตต์ — ก้าวใหม่สู่ยุค Superintelligence ด้วยพลัง GPU นับล้านตัว” วันที่ 22 กันยายน 2025 OpenAI และ NVIDIA ประกาศความร่วมมือเชิงกลยุทธ์ครั้งใหญ่ในการสร้างโครงสร้างพื้นฐาน AI รุ่นถัดไป โดยมีแผนจะติดตั้งระบบของ NVIDIA รวมพลังงานสูงถึง 10 กิกะวัตต์ ซึ่งเทียบเท่ากับการใช้ GPU หลายล้านตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ระดับ Superintelligence ในอนาคต NVIDIA เตรียมลงทุนสูงสุดถึง $100 พันล้านดอลลาร์ใน OpenAI โดยจะทยอยลงทุนตามการติดตั้งแต่ละกิกะวัตต์ โดยเฟสแรกจะเริ่มใช้งานในช่วงครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin ซึ่งเป็นระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ของ NVIDIA ที่ออกแบบมาเพื่อรองรับโมเดลขนาดใหญ่และการประมวลผลแบบกระจาย Sam Altman ซีอีโอของ OpenAI กล่าวว่า “ทุกอย่างเริ่มต้นจาก compute” และการสร้างโครงสร้างพื้นฐานนี้จะเป็นรากฐานของเศรษฐกิจแห่งอนาคต ขณะที่ Jensen Huang ซีอีโอของ NVIDIA ย้ำว่า “นี่คือก้าวกระโดดครั้งใหม่” หลังจากที่ทั้งสองบริษัทผลักดันกันมาตั้งแต่ยุค DGX จนถึง ChatGPT ความร่วมมือนี้ยังรวมถึงการ co-optimize ระหว่างซอฟต์แวร์ของ OpenAI และฮาร์ดแวร์ของ NVIDIA เพื่อให้การฝึกโมเดลและการใช้งานจริงมีประสิทธิภาพสูงสุด โดยจะทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners เพื่อสร้างโครงสร้างพื้นฐาน AI ที่ล้ำหน้าที่สุดในโลก OpenAI ปัจจุบันมีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคน และมีการนำเทคโนโลยีไปใช้ในองค์กรทั่วโลก ทั้งขนาดใหญ่และเล็ก ความร่วมมือครั้งนี้จึงเป็นการขยายขอบเขตของ AI ให้เข้าถึงผู้คนในระดับมหภาค ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI และ NVIDIA ร่วมมือสร้างโครงสร้างพื้นฐาน AI ขนาด 10 กิกะวัตต์ ➡️ NVIDIA เตรียมลงทุนสูงสุด $100 พันล้านดอลลาร์ใน OpenAI ตามการติดตั้งแต่ละเฟส ➡️ เฟสแรกจะเริ่มใช้งานในครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin ➡️ ใช้ GPU หลายล้านตัวเพื่อรองรับการฝึกและใช้งานโมเดลระดับ Superintelligence ✅ ความร่วมมือและการพัฒนา ➡️ OpenAI และ NVIDIA จะ co-optimize ซอฟต์แวร์และฮาร์ดแวร์ร่วมกัน ➡️ ทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners ➡️ OpenAI มีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคนทั่วโลก ➡️ ความร่วมมือนี้จะช่วยผลักดันภารกิจของ OpenAI ในการสร้าง AGI เพื่อมนุษยชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ 10 กิกะวัตต์ เทียบเท่ากับการใช้ไฟฟ้าของเมืองขนาดกลาง ➡️ Vera Rubin เป็นแพลตฟอร์มที่ออกแบบมาเพื่องาน AI ขนาดใหญ่โดยเฉพาะ ➡️ การลงทุนระดับนี้สะท้อนถึงการแข่งขันด้าน compute infrastructure ที่รุนแรงขึ้น ➡️ การใช้ GPU จำนวนมากต้องการระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพสูง https://openai.com/index/openai-nvidia-systems-partnership/
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • Microsoft เปิดตัว Fairwater — ดาต้าเซ็นเตอร์ AI ที่ทรงพลังที่สุดในโลก พร้อม GPU นับแสนและระบบไฟเบอร์พันรอบโลก

    Microsoft ประกาศเปิดตัว “Fairwater” ดาต้าเซ็นเตอร์ AI ขนาดมหึมาในเมือง Mount Pleasant รัฐวิสคอนซิน ซึ่งจะเริ่มใช้งานในต้นปี 2026 โดยถูกออกแบบมาเพื่อรองรับการฝึกและรันโมเดล AI ขนาดใหญ่ระดับโลก ด้วยพื้นที่กว่า 315 เอเคอร์ และอาคารรวมกว่า 1.2 ล้านตารางฟุต Fairwater จะบรรจุ GPU รุ่นใหม่ของ Nvidia ได้แก่ GB200 และ GB300 จำนวนหลายแสนตัว เชื่อมต่อกันด้วยไฟเบอร์ออปติกที่ยาวพอจะพันรอบโลกได้ถึง 4.5 รอบ

    Satya Nadella ซีอีโอของ Microsoft ระบุว่า Fairwater จะให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในปัจจุบันถึง 10 เท่า โดยเปรียบเทียบกับ Colossus ของ xAI ที่ใช้ GPU กว่า 200,000 ตัวและพลังงาน 300 เมกะวัตต์

    Fairwater ยังใช้ระบบระบายความร้อนแบบวงจรปิดด้วยน้ำ ซึ่ง Microsoft อ้างว่าจะไม่มีการสูญเสียน้ำเลย โดยใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำร้อนกลับมาระบายความร้อนให้ GPU อีกครั้ง ถือเป็นโรงงานระบายความร้อนด้วยน้ำที่ใหญ่เป็นอันดับสองของโลก

    การก่อสร้างใช้โครงสร้างขนาดมหึมา เช่น เสาเข็มลึก 46.6 ไมล์ เหล็กโครงสร้าง 26.5 ล้านปอนด์ สายไฟใต้ดินแรงดันกลาง 120 ไมล์ และท่อกลไก 72.6 ไมล์ โดยระบบจัดเก็บข้อมูลมีขนาดเท่ากับสนามอเมริกันฟุตบอล 5 สนาม

    Microsoft ยังประกาศว่าจะสร้าง Fairwater อีกหลายแห่งทั่วสหรัฐฯ และลงทุนเพิ่มอีก 4 พันล้านดอลลาร์ในโครงการที่สอง พร้อมทั้งติดตั้งโซลาร์ฟาร์มขนาด 250 เมกะวัตต์เพื่อชดเชยการใช้พลังงานจากฟอสซิล และป้องกันผลกระทบต่อค่าไฟของชุมชนโดยรอบ

    Microsoft เปิดตัวดาต้าเซ็นเตอร์ AI “Fairwater” ที่วิสคอนซิน
    พื้นที่ 315 เอเคอร์ อาคารรวม 1.2 ล้านตารางฟุต
    ใช้ GPU Nvidia GB200 และ GB300 จำนวนหลายแสนตัว

    เชื่อมต่อด้วยไฟเบอร์ออปติกที่ยาวพันรอบโลก 4.5 เท่า
    ใช้ระบบเครือข่ายแบบ flat interconnect เพื่อประสิทธิภาพสูงสุด
    ให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 10 เท่า

    ใช้ระบบระบายความร้อนด้วยน้ำแบบวงจรปิด
    ไม่มีการสูญเสียน้ำหลังการติดตั้ง
    ใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำ

    การก่อสร้างใช้วัสดุและโครงสร้างขนาดมหึมา
    เสาเข็มลึก 46.6 ไมล์ / เหล็กโครงสร้าง 26.5 ล้านปอนด์
    สายไฟใต้ดิน 120 ไมล์ / ท่อกลไก 72.6 ไมล์

    Microsoft ลงทุนรวมกว่า 7.3 พันล้านดอลลาร์ในโครงการนี้
    3.3 พันล้านสำหรับ Fairwater แรก และอีก 4 พันล้านสำหรับแห่งที่สอง
    ติดตั้งโซลาร์ฟาร์ม 250 MW เพื่อชดเชยพลังงานฟอสซิล

    มีแผนสร้าง Fairwater เพิ่มในหลายรัฐทั่วสหรัฐฯ
    เพื่อรองรับการเติบโตของ AI และเชื่อมต่อกับ Microsoft Cloud ทั่วโลก
    ใช้สำหรับงาน AI เช่น Copilot, OpenAI และโมเดลขนาดใหญ่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-announces-worlds-most-powerful-ai-data-center-315-acre-site-to-house-hundreds-of-thousands-of-nvidia-gpus-and-enough-fiber-to-circle-the-earth-4-5-times
    📰 Microsoft เปิดตัว Fairwater — ดาต้าเซ็นเตอร์ AI ที่ทรงพลังที่สุดในโลก พร้อม GPU นับแสนและระบบไฟเบอร์พันรอบโลก Microsoft ประกาศเปิดตัว “Fairwater” ดาต้าเซ็นเตอร์ AI ขนาดมหึมาในเมือง Mount Pleasant รัฐวิสคอนซิน ซึ่งจะเริ่มใช้งานในต้นปี 2026 โดยถูกออกแบบมาเพื่อรองรับการฝึกและรันโมเดล AI ขนาดใหญ่ระดับโลก ด้วยพื้นที่กว่า 315 เอเคอร์ และอาคารรวมกว่า 1.2 ล้านตารางฟุต Fairwater จะบรรจุ GPU รุ่นใหม่ของ Nvidia ได้แก่ GB200 และ GB300 จำนวนหลายแสนตัว เชื่อมต่อกันด้วยไฟเบอร์ออปติกที่ยาวพอจะพันรอบโลกได้ถึง 4.5 รอบ Satya Nadella ซีอีโอของ Microsoft ระบุว่า Fairwater จะให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในปัจจุบันถึง 10 เท่า โดยเปรียบเทียบกับ Colossus ของ xAI ที่ใช้ GPU กว่า 200,000 ตัวและพลังงาน 300 เมกะวัตต์ Fairwater ยังใช้ระบบระบายความร้อนแบบวงจรปิดด้วยน้ำ ซึ่ง Microsoft อ้างว่าจะไม่มีการสูญเสียน้ำเลย โดยใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำร้อนกลับมาระบายความร้อนให้ GPU อีกครั้ง ถือเป็นโรงงานระบายความร้อนด้วยน้ำที่ใหญ่เป็นอันดับสองของโลก การก่อสร้างใช้โครงสร้างขนาดมหึมา เช่น เสาเข็มลึก 46.6 ไมล์ เหล็กโครงสร้าง 26.5 ล้านปอนด์ สายไฟใต้ดินแรงดันกลาง 120 ไมล์ และท่อกลไก 72.6 ไมล์ โดยระบบจัดเก็บข้อมูลมีขนาดเท่ากับสนามอเมริกันฟุตบอล 5 สนาม Microsoft ยังประกาศว่าจะสร้าง Fairwater อีกหลายแห่งทั่วสหรัฐฯ และลงทุนเพิ่มอีก 4 พันล้านดอลลาร์ในโครงการที่สอง พร้อมทั้งติดตั้งโซลาร์ฟาร์มขนาด 250 เมกะวัตต์เพื่อชดเชยการใช้พลังงานจากฟอสซิล และป้องกันผลกระทบต่อค่าไฟของชุมชนโดยรอบ ✅ Microsoft เปิดตัวดาต้าเซ็นเตอร์ AI “Fairwater” ที่วิสคอนซิน ➡️ พื้นที่ 315 เอเคอร์ อาคารรวม 1.2 ล้านตารางฟุต ➡️ ใช้ GPU Nvidia GB200 และ GB300 จำนวนหลายแสนตัว ✅ เชื่อมต่อด้วยไฟเบอร์ออปติกที่ยาวพันรอบโลก 4.5 เท่า ➡️ ใช้ระบบเครือข่ายแบบ flat interconnect เพื่อประสิทธิภาพสูงสุด ➡️ ให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 10 เท่า ✅ ใช้ระบบระบายความร้อนด้วยน้ำแบบวงจรปิด ➡️ ไม่มีการสูญเสียน้ำหลังการติดตั้ง ➡️ ใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำ ✅ การก่อสร้างใช้วัสดุและโครงสร้างขนาดมหึมา ➡️ เสาเข็มลึก 46.6 ไมล์ / เหล็กโครงสร้าง 26.5 ล้านปอนด์ ➡️ สายไฟใต้ดิน 120 ไมล์ / ท่อกลไก 72.6 ไมล์ ✅ Microsoft ลงทุนรวมกว่า 7.3 พันล้านดอลลาร์ในโครงการนี้ ➡️ 3.3 พันล้านสำหรับ Fairwater แรก และอีก 4 พันล้านสำหรับแห่งที่สอง ➡️ ติดตั้งโซลาร์ฟาร์ม 250 MW เพื่อชดเชยพลังงานฟอสซิล ✅ มีแผนสร้าง Fairwater เพิ่มในหลายรัฐทั่วสหรัฐฯ ➡️ เพื่อรองรับการเติบโตของ AI และเชื่อมต่อกับ Microsoft Cloud ทั่วโลก ➡️ ใช้สำหรับงาน AI เช่น Copilot, OpenAI และโมเดลขนาดใหญ่ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-announces-worlds-most-powerful-ai-data-center-315-acre-site-to-house-hundreds-of-thousands-of-nvidia-gpus-and-enough-fiber-to-circle-the-earth-4-5-times
    0 ความคิดเห็น 0 การแบ่งปัน 247 มุมมอง 0 รีวิว
  • “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์”

    MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน

    เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า

    MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm

    ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก

    ข้อมูลสำคัญจากข่าว
    MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC
    เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน
    ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก
    เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E

    กลุ่มเป้าหมายและการใช้งาน
    ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing
    มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC
    MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง
    ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน

    ข้อมูลเสริมจากภายนอก
    TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์
    Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน
    การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม
    เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ

    https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    🧠 “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์” MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC ➡️ เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน ➡️ ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ➡️ เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E ✅ กลุ่มเป้าหมายและการใช้งาน ➡️ ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing ➡️ มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC ➡️ MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง ➡️ ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน ➡️ การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม ➡️ เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    WCCFTECH.COM
    MediaTek Tapes Out Flagship SoC Using TSMC's 2nm Process, Mass Production & Availability By End of 2026
    MediaTek has announced the tape-out of its flagship SoC, fabricated on TSMC's 2nm process node, which will be available by the end of 2026.
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI”

    ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด

    ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด

    OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว

    Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง

    รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก

    แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น

    ข้อมูลสำคัญจากข่าว
    Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด
    Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia
    OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน
    Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้

    สถานการณ์ตลาดและผลกระทบ
    Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39%
    Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92%
    สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก
    จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ

    ข้อมูลเสริมจากภายนอก
    AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน
    การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง
    การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี
    สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด

    https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    🔒 “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI” ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น ✅ ข้อมูลสำคัญจากข่าว ➡️ Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด ➡️ Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia ➡️ OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน ➡️ Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้ ✅ สถานการณ์ตลาดและผลกระทบ ➡️ Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39% ➡️ Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92% ➡️ สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก ➡️ จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ ✅ ข้อมูลเสริมจากภายนอก ➡️ AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน ➡️ การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง ➡️ การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี ➡️ สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    0 ความคิดเห็น 0 การแบ่งปัน 228 มุมมอง 0 รีวิว
  • “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่”

    ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL)

    AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า

    ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ

    แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI

    ข้อมูลสำคัญจากข่าว
    ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows
    ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป
    รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง
    มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover

    ความสามารถและการใช้งาน
    รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป
    ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2
    ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB
    รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD

    ข้อมูลเสริมจากภายนอก
    WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว
    ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ
    การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI
    แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    🖥️ “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่” ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL) AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI ✅ ข้อมูลสำคัญจากข่าว ➡️ ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows ➡️ ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป ➡️ รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง ➡️ มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover ✅ ความสามารถและการใช้งาน ➡️ รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป ➡️ ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2 ➡️ ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB ➡️ รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD ✅ ข้อมูลเสริมจากภายนอก ➡️ WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว ➡️ ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ ➡️ การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI ➡️ แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    WWW.TOMSHARDWARE.COM
    ASRock's revamped AI Quickset WSL virtualization tool makes it easy to run Linux AI apps on Windows
    ASRock's tool takes all the guesswork out of installing AI models on PC, including ones designed to work primarily in Linux.
    0 ความคิดเห็น 0 การแบ่งปัน 203 มุมมอง 0 รีวิว
  • “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ”

    AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก

    ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3

    แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่
    สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D
    ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p
    ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ

    การจับคู่กับ GPU และผลลัพธ์
    RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D
    Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends
    Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ
    Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก
    จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC
    การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ
    การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน

    https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    🔥 “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ” AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3 แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่ ➡️ สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D ➡️ ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p ➡️ ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ ✅ การจับคู่กับ GPU และผลลัพธ์ ➡️ RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D ➡️ Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends ➡️ Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ ➡️ Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก ➡️ จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC ➡️ การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ ➡️ การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    0 ความคิดเห็น 0 การแบ่งปัน 228 มุมมอง 0 รีวิว
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 ความคิดเห็น 0 การแบ่งปัน 249 มุมมอง 0 รีวิว
  • “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!”

    ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง!

    David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น

    Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ

    นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต

    แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก

    Intel 14A node คืออะไร
    เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด
    ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ
    มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน
    ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35%

    เครื่องมือที่ใช้ใน 14A
    ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B
    ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว
    ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield
    เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม

    บริบททางธุรกิจและการลงทุน
    Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A
    หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้
    Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ
    การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5%
    Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel
    Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1
    High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่

    https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    ⚙️ “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!” ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง! David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก ✅ Intel 14A node คืออะไร ➡️ เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด ➡️ ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ ➡️ มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน ➡️ ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35% ✅ เครื่องมือที่ใช้ใน 14A ➡️ ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B ➡️ ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว ➡️ ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield ➡️ เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม ✅ บริบททางธุรกิจและการลงทุน ➡️ Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A ➡️ หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้ ➡️ Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ ➡️ การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ 14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5% ➡️ Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel ➡️ Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1 ➡️ High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่ https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    0 ความคิดเห็น 0 การแบ่งปัน 258 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI

    ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ

    OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล

    OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า

    แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream

    ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ

    การเปิดตัว OceanDisk SSD สำหรับ AI
    OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s
    OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs
    OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า

    ความสามารถของ DiskBooster
    รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว
    เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม
    ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD

    บริบทของการพัฒนา
    Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ
    เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง
    ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่

    ผลกระทบต่อวงการ AI
    อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric
    เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ
    เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว

    https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    🎙️ เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ ✅ การเปิดตัว OceanDisk SSD สำหรับ AI ➡️ OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s ➡️ OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs ➡️ OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า ✅ ความสามารถของ DiskBooster ➡️ รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว ➡️ เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม ➡️ ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD ✅ บริบทของการพัฒนา ➡️ Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ ➡️ เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง ➡️ ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่ ✅ ผลกระทบต่อวงการ AI ➡️ อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric ➡️ เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ ➡️ เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเรือธง: เมื่อ Dimensity 9500 ไม่ใช่แค่รุ่นต่อยอด แต่เป็นการยกระดับทั้งระบบ

    MediaTek เตรียมเปิดตัว Dimensity 9500 ภายในเดือนกันยายน 2025 โดยมีข้อมูลหลุดจาก Digital Chat Station และ Geekbench ที่เผยให้เห็นว่า นี่ไม่ใช่แค่รุ่นอัปเกรดจาก 9400/9400+ แต่เป็นการยกเครื่องใหม่ทั้ง CPU, GPU, NPU และระบบหน่วยความจำ

    Dimensity 9500 ใช้โครงสร้าง CPU แบบ 1+3+4 โดยมีคอร์ Travis (Cortex-X930) ความเร็วสูงสุด 4.21GHz, คอร์ Alto ที่ 3.50GHz และคอร์ Gelas ประหยัดพลังงานที่ 2.70GHz พร้อม L3 cache ขนาด 16MB และ SLC cache 10MB ซึ่งช่วยเพิ่มประสิทธิภาพทั้ง single-core และ multi-core อย่างชัดเจน

    GPU ใช้ Mali-G1 Ultra แบบ 12 คอร์ ที่ 1.00GHz พร้อมสถาปัตยกรรมใหม่ที่รองรับ ray tracing และลดการใช้พลังงาน ส่วน NPU 9.0 สามารถประมวลผลได้ถึง 100 TOPS ซึ่งเทียบเท่ากับระดับของ Snapdragon 8 Elite Gen 5

    ชิปนี้ยังรองรับ LPDDR5X แบบ 4-channel ที่ความเร็ว 10,667MHz และ UFS 4.1 แบบ 4-lane ซึ่งช่วยให้การโหลดแอปและการจัดการข้อมูลเร็วขึ้นอย่างเห็นได้ชัด โดยมีคะแนน AnTuTu ทะลุ 4 ล้าน ซึ่งเทียบเท่ากับ Snapdragon รุ่นท็อปในปีเดียวกัน

    นอกจากนี้ Dimensity 9500 ยังเป็นชิปแรกของ MediaTek ที่รองรับ ARM Scalable Matrix Extension (SME) ซึ่งช่วยให้การประมวลผล AI และกราฟิกมีประสิทธิภาพมากขึ้นในงานที่ซับซ้อน

    โครงสร้าง CPU และประสิทธิภาพ
    ใช้โครงสร้าง 1+3+4: Travis 4.21GHz, Alto 3.50GHz, Gelas 2.70GHz
    L3 cache เพิ่มเป็น 16MB จาก 12MB ในรุ่นก่อน
    SLC cache 10MB เท่าเดิม

    GPU และการประมวลผลกราฟิก
    Mali-G1 Ultra แบบ 12 คอร์ ความเร็ว 1.00GHz
    รองรับ ray tracing และลดการใช้พลังงาน
    สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผยชื่อ

    NPU และการประมวลผล AI
    NPU 9.0 รองรับ 100 TOPS
    รองรับ SME (Scalable Matrix Extension) เป็นครั้งแรก
    เหมาะกับงาน AI ที่ซับซ้อนและการประมวลผลภาพขั้นสูง

    หน่วยความจำและการจัดเก็บ
    LPDDR5X แบบ 4-channel ความเร็ว 10,667MHz
    UFS 4.1 แบบ 4-lane สำหรับการอ่าน/เขียนข้อมูลเร็วขึ้น
    รองรับการใช้งานระดับ flagship อย่างเต็มรูปแบบ

    คะแนน Benchmark และการเปรียบเทียบ
    คะแนน AnTuTu ทะลุ 4 ล้าน เทียบเท่า Snapdragon 8 Elite Gen 5
    คาดว่าจะเป็นชิปที่มีประสิทธิภาพสูงสุดของ MediaTek ในปี 2025
    เหมาะกับสมาร์ทโฟนระดับเรือธงและอุปกรณ์ AI แบบพกพา

    https://wccftech.com/dimensity-9500-partial-specifications-shared-before-official-launch/
    🎙️ เรื่องเล่าจากชิปเรือธง: เมื่อ Dimensity 9500 ไม่ใช่แค่รุ่นต่อยอด แต่เป็นการยกระดับทั้งระบบ MediaTek เตรียมเปิดตัว Dimensity 9500 ภายในเดือนกันยายน 2025 โดยมีข้อมูลหลุดจาก Digital Chat Station และ Geekbench ที่เผยให้เห็นว่า นี่ไม่ใช่แค่รุ่นอัปเกรดจาก 9400/9400+ แต่เป็นการยกเครื่องใหม่ทั้ง CPU, GPU, NPU และระบบหน่วยความจำ Dimensity 9500 ใช้โครงสร้าง CPU แบบ 1+3+4 โดยมีคอร์ Travis (Cortex-X930) ความเร็วสูงสุด 4.21GHz, คอร์ Alto ที่ 3.50GHz และคอร์ Gelas ประหยัดพลังงานที่ 2.70GHz พร้อม L3 cache ขนาด 16MB และ SLC cache 10MB ซึ่งช่วยเพิ่มประสิทธิภาพทั้ง single-core และ multi-core อย่างชัดเจน GPU ใช้ Mali-G1 Ultra แบบ 12 คอร์ ที่ 1.00GHz พร้อมสถาปัตยกรรมใหม่ที่รองรับ ray tracing และลดการใช้พลังงาน ส่วน NPU 9.0 สามารถประมวลผลได้ถึง 100 TOPS ซึ่งเทียบเท่ากับระดับของ Snapdragon 8 Elite Gen 5 ชิปนี้ยังรองรับ LPDDR5X แบบ 4-channel ที่ความเร็ว 10,667MHz และ UFS 4.1 แบบ 4-lane ซึ่งช่วยให้การโหลดแอปและการจัดการข้อมูลเร็วขึ้นอย่างเห็นได้ชัด โดยมีคะแนน AnTuTu ทะลุ 4 ล้าน ซึ่งเทียบเท่ากับ Snapdragon รุ่นท็อปในปีเดียวกัน นอกจากนี้ Dimensity 9500 ยังเป็นชิปแรกของ MediaTek ที่รองรับ ARM Scalable Matrix Extension (SME) ซึ่งช่วยให้การประมวลผล AI และกราฟิกมีประสิทธิภาพมากขึ้นในงานที่ซับซ้อน ✅ โครงสร้าง CPU และประสิทธิภาพ ➡️ ใช้โครงสร้าง 1+3+4: Travis 4.21GHz, Alto 3.50GHz, Gelas 2.70GHz ➡️ L3 cache เพิ่มเป็น 16MB จาก 12MB ในรุ่นก่อน ➡️ SLC cache 10MB เท่าเดิม ✅ GPU และการประมวลผลกราฟิก ➡️ Mali-G1 Ultra แบบ 12 คอร์ ความเร็ว 1.00GHz ➡️ รองรับ ray tracing และลดการใช้พลังงาน ➡️ สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผยชื่อ ✅ NPU และการประมวลผล AI ➡️ NPU 9.0 รองรับ 100 TOPS ➡️ รองรับ SME (Scalable Matrix Extension) เป็นครั้งแรก ➡️ เหมาะกับงาน AI ที่ซับซ้อนและการประมวลผลภาพขั้นสูง ✅ หน่วยความจำและการจัดเก็บ ➡️ LPDDR5X แบบ 4-channel ความเร็ว 10,667MHz ➡️ UFS 4.1 แบบ 4-lane สำหรับการอ่าน/เขียนข้อมูลเร็วขึ้น ➡️ รองรับการใช้งานระดับ flagship อย่างเต็มรูปแบบ ✅ คะแนน Benchmark และการเปรียบเทียบ ➡️ คะแนน AnTuTu ทะลุ 4 ล้าน เทียบเท่า Snapdragon 8 Elite Gen 5 ➡️ คาดว่าจะเป็นชิปที่มีประสิทธิภาพสูงสุดของ MediaTek ในปี 2025 ➡️ เหมาะกับสมาร์ทโฟนระดับเรือธงและอุปกรณ์ AI แบบพกพา https://wccftech.com/dimensity-9500-partial-specifications-shared-before-official-launch/
    WCCFTECH.COM
    Dimensity 9500’s In-Depth Specifications Get Shared By Tipster Before Upcoming Launch, Will Arrive With All-Round Improvements
    A tipster has shared the partial specifications of the Dimensity 9500, which include the CPU cluster and a truckload of other details, showing the ‘on paper’ improvements of the chipset
    0 ความคิดเห็น 0 การแบ่งปัน 267 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว

    ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล

    แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม

    Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore

    แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end

    แนวคิด Software Defined Supercore (SDC)
    รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread
    แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน
    ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม

    เทคนิคที่ใช้ใน SDC
    wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์
    ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    inject คำสั่งพิเศษสำหรับ flow control และ register passing

    การจัดการโดย OS
    OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition
    ช่วยบาลานซ์ระหว่าง performance และ core availability

    เปรียบเทียบกับแนวทางเดิม
    x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle
    Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10
    SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์

    ความเชื่อมโยงกับแนวคิดเก่า
    คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD
    อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้

    https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    🎙️ เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end ✅ แนวคิด Software Defined Supercore (SDC) ➡️ รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread ➡️ แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน ➡️ ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม ✅ เทคนิคที่ใช้ใน SDC ➡️ wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์ ➡️ ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ inject คำสั่งพิเศษสำหรับ flow control และ register passing ✅ การจัดการโดย OS ➡️ OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition ➡️ ช่วยบาลานซ์ระหว่าง performance และ core availability ✅ เปรียบเทียบกับแนวทางเดิม ➡️ x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle ➡️ Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10 ➡️ SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์ ✅ ความเชื่อมโยงกับแนวคิดเก่า ➡️ คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD ➡️ อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้ https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    0 ความคิดเห็น 0 การแบ่งปัน 250 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ

    DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด

    หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ

    ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ

    สถาปัตยกรรมการรัน DeepSeek บน SGLang
    ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs
    throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node
    ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens

    เทคนิค Prefill-Decode Disaggregation (PD)
    แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ
    ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม
    รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase

    Expert Parallelism (EP) ด้วย DeepEP
    ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode
    รองรับ auto mode ที่เลือก dispatch ตาม workload
    ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้

    DeepGEMM สำหรับ MoE computation
    ใช้ Grouped GEMMs แบบ contiguous และ masked layout
    รองรับ CUDA Graph สำหรับ decode phase
    ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel

    Two-Batch Overlap (TBO)
    แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap
    เพิ่ม throughput ได้ถึง 35% และลด peak memory usage
    ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable

    Expert Parallelism Load Balancer (EPLB)
    ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล
    รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72
    เพิ่ม utilization rate และลดการรอ GPU ที่ช้า

    Toolkits เสริมใน SGLang
    DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง
    Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง
    รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน

    https://lmsys.org/blog/2025-05-05-large-scale-ep/
    🎙️ เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ ✅ สถาปัตยกรรมการรัน DeepSeek บน SGLang ➡️ ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs ➡️ throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node ➡️ ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens ✅ เทคนิค Prefill-Decode Disaggregation (PD) ➡️ แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ ➡️ ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม ➡️ รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase ✅ Expert Parallelism (EP) ด้วย DeepEP ➡️ ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode ➡️ รองรับ auto mode ที่เลือก dispatch ตาม workload ➡️ ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้ ✅ DeepGEMM สำหรับ MoE computation ➡️ ใช้ Grouped GEMMs แบบ contiguous และ masked layout ➡️ รองรับ CUDA Graph สำหรับ decode phase ➡️ ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel ✅ Two-Batch Overlap (TBO) ➡️ แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap ➡️ เพิ่ม throughput ได้ถึง 35% และลด peak memory usage ➡️ ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable ✅ Expert Parallelism Load Balancer (EPLB) ➡️ ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล ➡️ รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72 ➡️ เพิ่ม utilization rate และลดการรอ GPU ที่ช้า ✅ Toolkits เสริมใน SGLang ➡️ DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง ➡️ Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง ➡️ รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน https://lmsys.org/blog/2025-05-05-large-scale-ep/
    LMSYS.ORG
    Deploying DeepSeek with PD Disaggregation and Large-Scale Expert Parallelism on 96 H100 GPUs | LMSYS Org
    DeepSeek is a popular open-source large language model (LLM) praised for its strong performance. However, its large size and unique architecture, which us...
    0 ความคิดเห็น 0 การแบ่งปัน 270 มุมมอง 0 รีวิว
  • AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย

    ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop

    หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้

    AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ

    แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล

    การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย

    สรุปเนื้อหาเป็นหัวข้อ
    AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก
    ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo
    รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์
    R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core
    รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark
    ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้
    R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ
    Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต
    เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ
    การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น

    ข้อมูลเสริมจากภายนอก
    R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ
    R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด
    SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก
    Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก
    Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS

    https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    🧠 AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้ AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก ➡️ ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo ➡️ รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์ ➡️ R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core ➡️ รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark ➡️ ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้ ➡️ R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ ➡️ Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต ➡️ เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ ➡️ การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ ➡️ R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด ➡️ SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก ➡️ Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก ➡️ Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    0 ความคิดเห็น 0 การแบ่งปัน 270 มุมมอง 0 รีวิว
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 ความคิดเห็น 0 การแบ่งปัน 336 มุมมอง 0 รีวิว
  • AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น

    ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด

    แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี

    AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด

    แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด

    สรุปเนื้อหาเป็นหัวข้อ
    AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ
    ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก
    AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน
    B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้
    B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU
    B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง
    B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง
    B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000
    AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้
    ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025

    ข้อมูลเสริมจากภายนอก
    ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม
    B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ
    ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด
    B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ
    การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025

    https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    🎙️ AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ ➡️ ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก ➡️ AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน ➡️ B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้ ➡️ B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU ➡️ B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง ➡️ B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง ➡️ B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000 ➡️ AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้ ➡️ ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม ➡️ B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ ➡️ ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด ➡️ B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ ➡️ การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025 https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    0 ความคิดเห็น 0 การแบ่งปัน 233 มุมมอง 0 รีวิว
  • ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070

    ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?”

    จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima

    ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม

    อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ

    RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง

    ประสิทธิภาพของแต่ละรุ่น
    RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K
    Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS
    Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS
    Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS
    RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25%
    RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า

    ข้อมูลเสริมจากภายนอก
    RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7
    รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น
    RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ
    RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p
    RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ
    การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา

    https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    🎯 ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070 ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?” จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง ✅ ประสิทธิภาพของแต่ละรุ่น ➡️ RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K ➡️ Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS ➡️ Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS ➡️ Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS ➡️ RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25% ➡️ RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7 ➡️ รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น ➡️ RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ ➡️ RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p ➡️ RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ ➡️ การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    0 ความคิดเห็น 0 การแบ่งปัน 287 มุมมอง 0 รีวิว
  • Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY

    เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit

    แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY

    การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด

    เทียบกับคู่แข่ง: Nvidia และ Intel

    แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด

    ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก

    การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY
    เดิมจำกัดการขายเฉพาะ OEM และ SI
    ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก
    ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง

    สเปกเด่นของ R9700
    ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators
    VRAM ขนาด 32GB GDDR6 บนบัส 256-bit
    ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4

    การออกแบบและการใช้งาน
    ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์
    รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local
    ใช้ PCIe 5.0 x16 และมีขนาด 2-slot

    เปรียบเทียบกับคู่แข่ง
    RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999
    Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200
    R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI

    https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    🧠 Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด 📊 เทียบกับคู่แข่ง: Nvidia และ Intel แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก ✅ การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY ➡️ เดิมจำกัดการขายเฉพาะ OEM และ SI ➡️ ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก ➡️ ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง ✅ สเปกเด่นของ R9700 ➡️ ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators ➡️ VRAM ขนาด 32GB GDDR6 บนบัส 256-bit ➡️ ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4 ✅ การออกแบบและการใช้งาน ➡️ ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์ ➡️ รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local ➡️ ใช้ PCIe 5.0 x16 และมีขนาด 2-slot ✅ เปรียบเทียบกับคู่แข่ง ➡️ RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999 ➡️ Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200 ➡️ R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    0 ความคิดเห็น 0 การแบ่งปัน 272 มุมมอง 0 รีวิว
Pages Boosts