• Medusa Halo – APU ที่อาจเปลี่ยนเกมทั้งวงการ

    ในปี 2027 AMD เตรียมเปิดตัว APU รุ่นใหม่ที่ชื่อว่า Medusa Halo ซึ่งอาจกลายเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์ เพราะมันไม่ใช่แค่ชิปประมวลผลทั่วไป แต่เป็น APU ที่รวมพลังของ Zen 6 CPU และ RDNA 5 GPU ไว้ในตัวเดียวกันอย่างทรงพลัง

    จากข้อมูลที่รั่วออกมาโดย Moore’s Law is Dead ชิปนี้จะใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC คือ N2P สำหรับ CPU และ N3P สำหรับ I/O die โดยรุ่นพื้นฐานจะมี 12 คอร์ Zen 6 และ 2 คอร์ Zen 6 LP สำหรับงานเบา ๆ ส่วนรุ่นสูงสุดอาจมีเพิ่มอีก 12 คอร์ ทำให้รวมได้ถึง 24 หรือ 26 คอร์

    ด้านกราฟิก Medusa Halo จะมาพร้อม 48 คอร์ประมวลผล (CUs) บนสถาปัตยกรรม RDNA 5 ซึ่งมีประสิทธิภาพใกล้เคียงกับการ์ดจอแยกระดับกลางอย่าง RTX 5070 Ti และมีแคช L2 ถึง 20 MB

    หน่วยความจำก็ไม่น้อยหน้า โดยรองรับ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ซึ่งให้แบนด์วิดธ์สูงมาก เหมาะกับงานกราฟิกและ AI ที่ต้องการความเร็วในการเข้าถึงข้อมูล

    นอกจากนี้ยังมีรุ่นเล็กชื่อ Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก โดยมี 14 คอร์ CPU และ 24 CUs GPU พร้อมแคช L2 10 MB และคอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรืออาจอัปเกรดเป็น 192-bit LPDDR6

    สรุปเนื้อหาเป็นหัวข้อ
    AMD เตรียมเปิดตัว APU รุ่น Medusa Halo ในปี 2027
    ใช้ Zen 6 CPU chiplets บนเทคโนโลยี TSMC N2P และ I/O die บน N3P
    รุ่นพื้นฐานมี 12 Zen 6 cores + 2 Zen 6 LP cores
    รุ่นสูงสุดอาจมีเพิ่มอีก 12-core CCD รวมเป็น 24–26 cores
    GPU ภายในใช้ RDNA 5 จำนวน 48 CUs พร้อม L2 cache ขนาด 20 MB
    ประสิทธิภาพกราฟิกใกล้เคียงกับ RTX 5070 Ti
    รองรับหน่วยความจำ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit
    มีรุ่น Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก
    Medusa Halo Mini มี 14 คอร์ CPU และ 24 CUs GPU พร้อม L2 cache 10 MB
    ใช้คอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรือ 192-bit LPDDR6

    ข้อมูลเสริมจากภายนอก
    RDNA 5 อาจเป็นสถาปัตยกรรมเดียวกับที่ใช้ในการ์ดจอแยกรุ่น PTX 1060 XT
    Infinity Fabric รุ่นใหม่ใน Zen 6 จะเร็วขึ้นและประหยัดพลังงานมากขึ้น
    TSMC N2P ให้ประสิทธิภาพเพิ่มขึ้น 20% หรือลดการใช้พลังงานได้ถึง 36%
    การรวม GPU ระดับกลางไว้ใน APU จะช่วยลดต้นทุนและขนาดของระบบ
    AMD อาจใช้แนวทางเดียวกันใน Xbox Magnus APU สำหรับคอนโซลรุ่นใหม่

    https://www.techpowerup.com/340216/amd-medusa-halo-apu-leak-reveals-up-to-24-cores-and-48-rdna-5-cus
    🎙️ Medusa Halo – APU ที่อาจเปลี่ยนเกมทั้งวงการ ในปี 2027 AMD เตรียมเปิดตัว APU รุ่นใหม่ที่ชื่อว่า Medusa Halo ซึ่งอาจกลายเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์ เพราะมันไม่ใช่แค่ชิปประมวลผลทั่วไป แต่เป็น APU ที่รวมพลังของ Zen 6 CPU และ RDNA 5 GPU ไว้ในตัวเดียวกันอย่างทรงพลัง จากข้อมูลที่รั่วออกมาโดย Moore’s Law is Dead ชิปนี้จะใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC คือ N2P สำหรับ CPU และ N3P สำหรับ I/O die โดยรุ่นพื้นฐานจะมี 12 คอร์ Zen 6 และ 2 คอร์ Zen 6 LP สำหรับงานเบา ๆ ส่วนรุ่นสูงสุดอาจมีเพิ่มอีก 12 คอร์ ทำให้รวมได้ถึง 24 หรือ 26 คอร์ ด้านกราฟิก Medusa Halo จะมาพร้อม 48 คอร์ประมวลผล (CUs) บนสถาปัตยกรรม RDNA 5 ซึ่งมีประสิทธิภาพใกล้เคียงกับการ์ดจอแยกระดับกลางอย่าง RTX 5070 Ti และมีแคช L2 ถึง 20 MB หน่วยความจำก็ไม่น้อยหน้า โดยรองรับ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ซึ่งให้แบนด์วิดธ์สูงมาก เหมาะกับงานกราฟิกและ AI ที่ต้องการความเร็วในการเข้าถึงข้อมูล นอกจากนี้ยังมีรุ่นเล็กชื่อ Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก โดยมี 14 คอร์ CPU และ 24 CUs GPU พร้อมแคช L2 10 MB และคอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรืออาจอัปเกรดเป็น 192-bit LPDDR6 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD เตรียมเปิดตัว APU รุ่น Medusa Halo ในปี 2027 ➡️ ใช้ Zen 6 CPU chiplets บนเทคโนโลยี TSMC N2P และ I/O die บน N3P ➡️ รุ่นพื้นฐานมี 12 Zen 6 cores + 2 Zen 6 LP cores ➡️ รุ่นสูงสุดอาจมีเพิ่มอีก 12-core CCD รวมเป็น 24–26 cores ➡️ GPU ภายในใช้ RDNA 5 จำนวน 48 CUs พร้อม L2 cache ขนาด 20 MB ➡️ ประสิทธิภาพกราฟิกใกล้เคียงกับ RTX 5070 Ti ➡️ รองรับหน่วยความจำ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ➡️ มีรุ่น Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก ➡️ Medusa Halo Mini มี 14 คอร์ CPU และ 24 CUs GPU พร้อม L2 cache 10 MB ➡️ ใช้คอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรือ 192-bit LPDDR6 ✅ ข้อมูลเสริมจากภายนอก ➡️ RDNA 5 อาจเป็นสถาปัตยกรรมเดียวกับที่ใช้ในการ์ดจอแยกรุ่น PTX 1060 XT ➡️ Infinity Fabric รุ่นใหม่ใน Zen 6 จะเร็วขึ้นและประหยัดพลังงานมากขึ้น ➡️ TSMC N2P ให้ประสิทธิภาพเพิ่มขึ้น 20% หรือลดการใช้พลังงานได้ถึง 36% ➡️ การรวม GPU ระดับกลางไว้ใน APU จะช่วยลดต้นทุนและขนาดของระบบ ➡️ AMD อาจใช้แนวทางเดียวกันใน Xbox Magnus APU สำหรับคอนโซลรุ่นใหม่ https://www.techpowerup.com/340216/amd-medusa-halo-apu-leak-reveals-up-to-24-cores-and-48-rdna-5-cus
    WWW.TECHPOWERUP.COM
    AMD Medusa Halo APU Leak Reveals Up to 24 Cores and 48 RDNA 5 CUs
    A fresh leak has shed light on AMD's next-gen Medusa Halo APU that is set to launch in 2027 as the company's top-of-the-line chip (dismissing previous rumors about AMD cancelling Medusa Halo APU). Moore's Law is Dead has shared information suggesting Medusa Halo will pack Zen 6 CPU chiplets made usi...
    0 Comments 0 Shares 43 Views 0 Reviews
  • Trafalgar Reverie ล่องดานูบ สัมผัสมนต์เสน่ห์ 4 ประเทศ 5 เมืองยุโรปคลาสสิก
    ดื่มด่ำเส้นทางในฝันผ่าน บูดาเปสต์ – บราติสลาวา – เวียนนา – ลินซ์ – พัสเซา
    สัมผัสวัฒนธรรมเก่าแก่ เมืองหลวงแห่งศิลปะ สถาปัตยกรรมงดงามริมแม่น้ำ

    วันที่ เม.ย. - ต.ค. 2569

    ⭕️ ราคาปกติ เริ่มต้น : 2,799 USD ลดเหลือ 2,049 USD
    โปรโมชั่นรับส่วนลด 1,500 USD ต่อคู่ สำหรับการล่องเรือแม่น้ำตามเส้นทางที่เลือก เมื่อจองก่อนวันที่ 30 กันยายน 2568

    ราคานี้รวมครบ
    พิเศษงานเลี้ยงต้นรับจากกัปตัน และทีมงานคุณภาพบนเรือ พร้อม Sparkling wine
    ห้องพักบนเรือสำราญ
    ทัวร์ชายฝั่งและ ไกด์ผู้ชำนาญทางจากทางเรือ
    เบียร์ ไวน์ และเครื่องดื่มไม่มีแอลกอฮอลล์ เสริ์ฟพร้อมมื้อกลางวัน และมื้อเย็นบนเรือ

    รหัสแพคเกจทัวร์ : TFGP-8D7N-BUD-PAS-2610171
    คลิกดูรายละเอียดโปรแกรม : 78s.me/ea8b0e

    ดูแพ็คเกจเรือทั้งหมด
    https://cruisedomain.com/
    LINE ID: @CruiseDomain 78s.me/c54029
    Facebook: CruiseDomain 78s.me/b8a121
    Youtube : CruiseDomain 78s.me/8af620
    : 0 2116 9696 (Auto)

    #TrafalgarReverie #Trafalgar #DanubeRiver #Budapest #Hungary #Schonbrunn #Austria #WachauValley #แพ็คเกจเรือล่องแม่น้ำ #CruiseDomain
    🚢 Trafalgar Reverie ✨ ล่องดานูบ สัมผัสมนต์เสน่ห์ 4 ประเทศ 5 เมืองยุโรปคลาสสิก ดื่มด่ำเส้นทางในฝันผ่าน บูดาเปสต์ – บราติสลาวา – เวียนนา – ลินซ์ – พัสเซา สัมผัสวัฒนธรรมเก่าแก่ เมืองหลวงแห่งศิลปะ สถาปัตยกรรมงดงามริมแม่น้ำ 🏰 📅 วันที่ เม.ย. - ต.ค. 2569 ⭕️ ราคาปกติ เริ่มต้น : 2,799 USD ลดเหลือ 2,049 USD โปรโมชั่นรับส่วนลด 1,500 USD ต่อคู่ สำหรับการล่องเรือแม่น้ำตามเส้นทางที่เลือก เมื่อจองก่อนวันที่ 30 กันยายน 2568 💥 ✨ ราคานี้รวมครบ ✅ พิเศษงานเลี้ยงต้นรับจากกัปตัน และทีมงานคุณภาพบนเรือ พร้อม Sparkling wine ✅ ห้องพักบนเรือสำราญ ✅ ทัวร์ชายฝั่งและ ไกด์ผู้ชำนาญทางจากทางเรือ ✅ เบียร์ ไวน์ และเครื่องดื่มไม่มีแอลกอฮอลล์ เสริ์ฟพร้อมมื้อกลางวัน และมื้อเย็นบนเรือ ➡️ รหัสแพคเกจทัวร์ : TFGP-8D7N-BUD-PAS-2610171 คลิกดูรายละเอียดโปรแกรม : 78s.me/ea8b0e ✅ ดูแพ็คเกจเรือทั้งหมด https://cruisedomain.com/ LINE ID: @CruiseDomain 78s.me/c54029 Facebook: CruiseDomain 78s.me/b8a121 Youtube : CruiseDomain 78s.me/8af620 ☎️: 0 2116 9696 (Auto) #TrafalgarReverie #Trafalgar #DanubeRiver #Budapest #Hungary #Schonbrunn #Austria #WachauValley #แพ็คเกจเรือล่องแม่น้ำ #CruiseDomain
    0 Comments 0 Shares 28 Views 0 Reviews
  • Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ

    ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก

    Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4

    นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น

    Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย

    การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด

    สรุปเนื้อหาเป็นหัวข้อ
    Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung
    Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง
    CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4
    รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit
    ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit
    Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก
    รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี
    มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle
    ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล

    ข้อมูลเสริมจากภายนอก
    TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ
    N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม
    การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry
    Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล
    Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์

    https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    🎙️ Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4 นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung ➡️ Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง ➡️ CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4 ➡️ รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit ➡️ ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit ➡️ Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก ➡️ รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี ➡️ มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle ➡️ ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ ➡️ N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม ➡️ การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry ➡️ Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล ➡️ Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์ https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    0 Comments 0 Shares 88 Views 0 Reviews
  • Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย

    Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า

    Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench

    Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น

    ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์

    ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย

    Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300

    สรุปเนื้อหาเป็นหัวข้อ
    Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC
    ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz
    เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60%
    Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น
    รองรับ context window ขนาด 32,000 token สำหรับงาน AI
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes
    GPU อัปเกรดแต่ไม่รองรับ ray tracing
    ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย
    Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold
    ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300

    ข้อมูลเสริมจากภายนอก
    Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว
    ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding
    Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี
    Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene
    Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz

    https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    🎙️ Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์ ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC ➡️ ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz ➡️ เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60% ➡️ Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น ➡️ รองรับ context window ขนาด 32,000 token สำหรับงาน AI ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes ➡️ GPU อัปเกรดแต่ไม่รองรับ ray tracing ➡️ ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย ➡️ Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold ➡️ ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300 ✅ ข้อมูลเสริมจากภายนอก ➡️ Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว ➡️ ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding ➡️ Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี ➡️ Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene ➡️ Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    WCCFTECH.COM
    Google Has Announced Its First 3nm Chipset, The Tensor G5, Alongside The Pixel 10 Series; Company Claims A 34 Percent Average Performance Increase Over The Tensor G4, No RT Support & More
    Google has officially announced its first 3nm SoC, the Tensor G5, and here is everything you need to know about the flagship silicon
    0 Comments 0 Shares 91 Views 0 Reviews
  • เรื่องเล่าใหม่: GPU ไม่ใช่แค่การ์ดจอ – แต่คือเครื่องจักรแห่งการเรียนรู้ของ AI

    ในยุคที่ AI ใหญ่ขึ้นทุกวัน การเข้าใจว่า GPU ทำงานอย่างไรจึงสำคัญมาก โดยเฉพาะเมื่อเปรียบเทียบกับ TPU ที่ Google ใช้กันอย่างแพร่หลาย

    GPU สมัยใหม่ เช่น NVIDIA H100, B200 และ GB200 NVL72 ไม่ได้เป็นแค่การ์ดจอสำหรับเล่นเกมอีกต่อไป แต่กลายเป็นเครื่องมือหลักในการฝึกและรันโมเดลขนาดใหญ่ (LLMs) ด้วยพลังการคำนวณมหาศาลจาก Tensor Core ที่ออกแบบมาเพื่อการคูณเมทริกซ์โดยเฉพาะ

    แต่ละ GPU ประกอบด้วยหลาย SM (Streaming Multiprocessor) ซึ่งใน H100 มีถึง 132 SM และใน B200 มี 148 SM โดยแต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ที่ทำงานแบบ SIMD/SIMT เพื่อประมวลผลแบบขนาน

    GPU ยังมีระบบหน่วยความจำหลายระดับ ตั้งแต่ Register, SMEM (L1 cache), L2 cache ไปจนถึง HBM (High Bandwidth Memory) ซึ่งใน B200 มีถึง 192GB และแบนด์วิดท์สูงถึง 9TB/s

    นอกจากนี้ยังมีระบบเครือข่ายภายในและระหว่าง GPU ที่ซับซ้อน เช่น NVLink, NVSwitch และ InfiniBand ที่ช่วยให้ GPU หลายตัวทำงานร่วมกันได้อย่างมีประสิทธิภาพ โดยเฉพาะในระบบ DGX SuperPod ที่สามารถเชื่อมต่อ GPU ได้ถึง 1024 ตัว

    GPU ยังรองรับการทำงานแบบ parallelism หลายรูปแบบ เช่น data parallelism, tensor parallelism, expert parallelism และ pipeline parallelism ซึ่งแต่ละแบบมีข้อดีข้อเสียต่างกัน และต้องเลือกใช้ให้เหมาะกับขนาดและโครงสร้างของโมเดล

    ข้อมูลในข่าว
    GPU สมัยใหม่เช่น H100 และ B200 มี Tensor Core สำหรับคูณเมทริกซ์โดยเฉพาะ
    H100 มี 132 SM ส่วน B200 มี 148 SM แต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores
    หน่วยความจำของ GPU มีหลายระดับ: Register, SMEM, L2 cache และ HBM
    B200 มี HBM ขนาด 192GB และแบนด์วิดท์ 9TB/s
    ระบบเครือข่ายภายในใช้ NVLink และ NVSwitch เชื่อม GPU ภายใน node
    ระบบเครือข่ายระหว่าง node ใช้ InfiniBand แบบ fat tree topology
    DGX SuperPod สามารถเชื่อม GPU ได้ถึง 1024 ตัว
    GPU รองรับ parallelism หลายแบบ: data, tensor, expert และ pipeline
    NVIDIA SHARP ช่วยให้การทำ AllReduce มีประสิทธิภาพมากขึ้น
    GB200 NVL72 มี node ขนาดใหญ่ขึ้น (72 GPU) และแบนด์วิดท์สูงถึง 3.6TB/s

    ข้อมูลเสริมจากภายนอก
    RTX PRO 4000 Blackwell SFF เปิดตัวเมื่อ 11 ส.ค. 2025 มี Tensor Core รุ่นที่ 5
    ใช้สถาปัตยกรรม Blackwell 2.0 บนกระบวนการผลิต 5nm โดย TSMC
    มี 8960 CUDA cores และ 280 Tensor cores พร้อม GDDR7 ขนาด 24GB
    ประสิทธิภาพ AI สูงขึ้น 2.5 เท่าเมื่อเทียบกับรุ่นก่อน
    ใช้พลังงานเพียง 70W เหมาะกับเวิร์กสเตชันขนาดเล็ก
    รองรับ PCIe 5.0 x8 และ DisplayPort 2.1b

    https://jax-ml.github.io/scaling-book/gpus/
    🧠 เรื่องเล่าใหม่: GPU ไม่ใช่แค่การ์ดจอ – แต่คือเครื่องจักรแห่งการเรียนรู้ของ AI ในยุคที่ AI ใหญ่ขึ้นทุกวัน การเข้าใจว่า GPU ทำงานอย่างไรจึงสำคัญมาก โดยเฉพาะเมื่อเปรียบเทียบกับ TPU ที่ Google ใช้กันอย่างแพร่หลาย GPU สมัยใหม่ เช่น NVIDIA H100, B200 และ GB200 NVL72 ไม่ได้เป็นแค่การ์ดจอสำหรับเล่นเกมอีกต่อไป แต่กลายเป็นเครื่องมือหลักในการฝึกและรันโมเดลขนาดใหญ่ (LLMs) ด้วยพลังการคำนวณมหาศาลจาก Tensor Core ที่ออกแบบมาเพื่อการคูณเมทริกซ์โดยเฉพาะ แต่ละ GPU ประกอบด้วยหลาย SM (Streaming Multiprocessor) ซึ่งใน H100 มีถึง 132 SM และใน B200 มี 148 SM โดยแต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ที่ทำงานแบบ SIMD/SIMT เพื่อประมวลผลแบบขนาน GPU ยังมีระบบหน่วยความจำหลายระดับ ตั้งแต่ Register, SMEM (L1 cache), L2 cache ไปจนถึง HBM (High Bandwidth Memory) ซึ่งใน B200 มีถึง 192GB และแบนด์วิดท์สูงถึง 9TB/s นอกจากนี้ยังมีระบบเครือข่ายภายในและระหว่าง GPU ที่ซับซ้อน เช่น NVLink, NVSwitch และ InfiniBand ที่ช่วยให้ GPU หลายตัวทำงานร่วมกันได้อย่างมีประสิทธิภาพ โดยเฉพาะในระบบ DGX SuperPod ที่สามารถเชื่อมต่อ GPU ได้ถึง 1024 ตัว GPU ยังรองรับการทำงานแบบ parallelism หลายรูปแบบ เช่น data parallelism, tensor parallelism, expert parallelism และ pipeline parallelism ซึ่งแต่ละแบบมีข้อดีข้อเสียต่างกัน และต้องเลือกใช้ให้เหมาะกับขนาดและโครงสร้างของโมเดล ✅ ข้อมูลในข่าว ➡️ GPU สมัยใหม่เช่น H100 และ B200 มี Tensor Core สำหรับคูณเมทริกซ์โดยเฉพาะ ➡️ H100 มี 132 SM ส่วน B200 มี 148 SM แต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ➡️ หน่วยความจำของ GPU มีหลายระดับ: Register, SMEM, L2 cache และ HBM ➡️ B200 มี HBM ขนาด 192GB และแบนด์วิดท์ 9TB/s ➡️ ระบบเครือข่ายภายในใช้ NVLink และ NVSwitch เชื่อม GPU ภายใน node ➡️ ระบบเครือข่ายระหว่าง node ใช้ InfiniBand แบบ fat tree topology ➡️ DGX SuperPod สามารถเชื่อม GPU ได้ถึง 1024 ตัว ➡️ GPU รองรับ parallelism หลายแบบ: data, tensor, expert และ pipeline ➡️ NVIDIA SHARP ช่วยให้การทำ AllReduce มีประสิทธิภาพมากขึ้น ➡️ GB200 NVL72 มี node ขนาดใหญ่ขึ้น (72 GPU) และแบนด์วิดท์สูงถึง 3.6TB/s ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX PRO 4000 Blackwell SFF เปิดตัวเมื่อ 11 ส.ค. 2025 มี Tensor Core รุ่นที่ 5 ➡️ ใช้สถาปัตยกรรม Blackwell 2.0 บนกระบวนการผลิต 5nm โดย TSMC ➡️ มี 8960 CUDA cores และ 280 Tensor cores พร้อม GDDR7 ขนาด 24GB ➡️ ประสิทธิภาพ AI สูงขึ้น 2.5 เท่าเมื่อเทียบกับรุ่นก่อน ➡️ ใช้พลังงานเพียง 70W เหมาะกับเวิร์กสเตชันขนาดเล็ก ➡️ รองรับ PCIe 5.0 x8 และ DisplayPort 2.1b https://jax-ml.github.io/scaling-book/gpus/
    0 Comments 0 Shares 77 Views 0 Reviews
  • Ryzen 5 9500F – ชิปประหยัดรุ่นใหม่จาก AMD ที่แรงเกินราคา

    AMD กำลังขยายไลน์ผลิตภัณฑ์ Ryzen 9000 ด้วยรุ่นใหม่ที่ชื่อว่า Ryzen 5 9500F ซึ่งหลุดข้อมูลผ่าน Geekbench โดยมีสเปกใกล้เคียงกับ Ryzen 5 9600 แต่ไม่มีกราฟิกในตัว (iGPU) ทำให้ราคาน่าจะต่ำกว่า $200

    Ryzen 5 9500F ใช้สถาปัตยกรรม Zen 5 “Granite Ridge” มี 6 คอร์ 12 เธรด พร้อม L3 cache ขนาด 32MB และ L2 cache 6MB ความเร็วพื้นฐานอยู่ที่ 3.8GHz และบูสต์ได้สูงสุดถึง 5.0GHz ซึ่งใกล้เคียงกับ Ryzen 5 9600 ที่บูสต์ได้ 5.2GHz

    ผลการทดสอบ Geekbench 6 แสดงให้เห็นว่า Ryzen 5 9500F ทำคะแนน single-core ได้ 3,122 และ multi-core ได้ 14,369 ซึ่งแทบไม่ต่างจาก Ryzen 5 9600 ที่ทำได้ 3,166 / 14,257 แสดงให้เห็นว่าประสิทธิภาพใกล้เคียงกันมาก

    แม้ AMD ยังไม่ประกาศเปิดตัวอย่างเป็นทางการ แต่มีข้อมูลจากผู้ผลิตเมนบอร์ดว่า AGESA เวอร์ชันล่าสุดรองรับชิปรุ่นนี้แล้ว ซึ่งบ่งชี้ว่าอาจเปิดตัวเร็ว ๆ นี้

    ข้อมูลในข่าว
    Ryzen 5 9500F เป็นซีพียู Zen 5 รุ่นใหม่ที่ไม่มี iGPU
    มี 6 คอร์ 12 เธรด พร้อม L3 cache 32MB และ L2 cache 6MB
    ความเร็วพื้นฐาน 3.8GHz และบูสต์สูงสุด 5.0GHz
    ใช้สถาปัตยกรรม Granite Ridge เหมือน Ryzen 5 9600
    คะแนน Geekbench: 3,122 (single-core) / 14,369 (multi-core)
    ประสิทธิภาพใกล้เคียงกับ Ryzen 5 9600 ที่มี iGPU
    คาดว่าจะมีราคาไม่เกิน $179 ซึ่งต่ำกว่า Ryzen 5 9600X
    AGESA เวอร์ชันล่าสุดรองรับ Ryzen 5 9500F แล้ว
    ออกแบบมาสำหรับผู้ใช้ที่ไม่ต้องการกราฟิกในตัว เช่น เกมเมอร์ที่ใช้การ์ดจอแยก

    ข้อมูลเสริมจากภายนอก
    Ryzen 5 9500F เหมาะกับผู้ใช้ที่ต้องการประสิทธิภาพสูงในราคาประหยัด
    การไม่มี iGPU ช่วยลดต้นทุนและเพิ่มประสิทธิภาพด้านพลังงาน
    Granite Ridge ใช้เทคโนโลยีการผลิต 4nm จาก TSMC
    รองรับ DDR5 และ PCIe 5.0 บนแพลตฟอร์ม AM5
    เหมาะกับเมนบอร์ด B850 และ X870 ที่เปิดตัวในปี 2025
    การแข่งขันในตลาดซีพียูระดับกลางยังคงดุเดือด โดย Intel เตรียมเปิดตัว Core i5-14600

    https://wccftech.com/amd-ryzen-5-9500f-spotted-on-geekbench/
    💻 Ryzen 5 9500F – ชิปประหยัดรุ่นใหม่จาก AMD ที่แรงเกินราคา AMD กำลังขยายไลน์ผลิตภัณฑ์ Ryzen 9000 ด้วยรุ่นใหม่ที่ชื่อว่า Ryzen 5 9500F ซึ่งหลุดข้อมูลผ่าน Geekbench โดยมีสเปกใกล้เคียงกับ Ryzen 5 9600 แต่ไม่มีกราฟิกในตัว (iGPU) ทำให้ราคาน่าจะต่ำกว่า $200 Ryzen 5 9500F ใช้สถาปัตยกรรม Zen 5 “Granite Ridge” มี 6 คอร์ 12 เธรด พร้อม L3 cache ขนาด 32MB และ L2 cache 6MB ความเร็วพื้นฐานอยู่ที่ 3.8GHz และบูสต์ได้สูงสุดถึง 5.0GHz ซึ่งใกล้เคียงกับ Ryzen 5 9600 ที่บูสต์ได้ 5.2GHz ผลการทดสอบ Geekbench 6 แสดงให้เห็นว่า Ryzen 5 9500F ทำคะแนน single-core ได้ 3,122 และ multi-core ได้ 14,369 ซึ่งแทบไม่ต่างจาก Ryzen 5 9600 ที่ทำได้ 3,166 / 14,257 แสดงให้เห็นว่าประสิทธิภาพใกล้เคียงกันมาก แม้ AMD ยังไม่ประกาศเปิดตัวอย่างเป็นทางการ แต่มีข้อมูลจากผู้ผลิตเมนบอร์ดว่า AGESA เวอร์ชันล่าสุดรองรับชิปรุ่นนี้แล้ว ซึ่งบ่งชี้ว่าอาจเปิดตัวเร็ว ๆ นี้ ✅ ข้อมูลในข่าว ➡️ Ryzen 5 9500F เป็นซีพียู Zen 5 รุ่นใหม่ที่ไม่มี iGPU ➡️ มี 6 คอร์ 12 เธรด พร้อม L3 cache 32MB และ L2 cache 6MB ➡️ ความเร็วพื้นฐาน 3.8GHz และบูสต์สูงสุด 5.0GHz ➡️ ใช้สถาปัตยกรรม Granite Ridge เหมือน Ryzen 5 9600 ➡️ คะแนน Geekbench: 3,122 (single-core) / 14,369 (multi-core) ➡️ ประสิทธิภาพใกล้เคียงกับ Ryzen 5 9600 ที่มี iGPU ➡️ คาดว่าจะมีราคาไม่เกิน $179 ซึ่งต่ำกว่า Ryzen 5 9600X ➡️ AGESA เวอร์ชันล่าสุดรองรับ Ryzen 5 9500F แล้ว ➡️ ออกแบบมาสำหรับผู้ใช้ที่ไม่ต้องการกราฟิกในตัว เช่น เกมเมอร์ที่ใช้การ์ดจอแยก ✅ ข้อมูลเสริมจากภายนอก ➡️ Ryzen 5 9500F เหมาะกับผู้ใช้ที่ต้องการประสิทธิภาพสูงในราคาประหยัด ➡️ การไม่มี iGPU ช่วยลดต้นทุนและเพิ่มประสิทธิภาพด้านพลังงาน ➡️ Granite Ridge ใช้เทคโนโลยีการผลิต 4nm จาก TSMC ➡️ รองรับ DDR5 และ PCIe 5.0 บนแพลตฟอร์ม AM5 ➡️ เหมาะกับเมนบอร์ด B850 และ X870 ที่เปิดตัวในปี 2025 ➡️ การแข่งขันในตลาดซีพียูระดับกลางยังคงดุเดือด โดย Intel เตรียมเปิดตัว Core i5-14600 https://wccftech.com/amd-ryzen-5-9500f-spotted-on-geekbench/
    WCCFTECH.COM
    AMD Ryzen 5 9500F Leaked: Another Budget Zen 5 CPU With Six Cores And Base Clock Of 3.8 GHz
    AMD has prepared a new Ryzen 9000 CPU as spotted on Geekbench. The CPU is the Ryzen 5 9500F, which is a 6-core/12-thread SKU.
    0 Comments 0 Shares 87 Views 0 Reviews
  • Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ

    ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ

    B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้

    ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต

    นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ

    แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50%

    ข้อมูลในข่าว
    Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell
    B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300
    ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100
    มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s
    ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์
    ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ
    Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025
    RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ
    รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15%

    ข้อมูลเสริมจากภายนอก
    H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025
    B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300
    การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe
    Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA
    Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์
    การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย

    https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    🧠 Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้ ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50% ✅ ข้อมูลในข่าว ➡️ Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell ➡️ B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300 ➡️ ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100 ➡️ มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s ➡️ ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์ ➡️ ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ ➡️ Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025 ➡️ RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ ➡️ รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15% ✅ ข้อมูลเสริมจากภายนอก ➡️ H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025 ➡️ B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300 ➡️ การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe ➡️ Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA ➡️ Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์ ➡️ การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    0 Comments 0 Shares 111 Views 0 Reviews
  • Arm ดึงตัวผู้สร้างชิป AI ของ Amazon กลับบ้าน – จุดเริ่มต้นของการสร้างชิปเองเพื่อแข่งกับ Nvidia และ Apple

    Arm Holdings บริษัทออกแบบชิปจากอังกฤษที่อยู่เบื้องหลังสถาปัตยกรรมของสมาร์ตโฟนแทบทุกเครื่องในโลก กำลังเปลี่ยนทิศทางครั้งใหญ่ จากเดิมที่เน้นขายสิทธิ์การออกแบบชิป ให้กลายเป็นผู้ผลิตชิปด้วยตัวเอง

    ล่าสุด Arm ได้ดึงตัว Rami Sinno อดีตผู้อำนวยการฝ่ายวิศวกรรมของ Amazon Web Services กลับมาร่วมทีมอีกครั้ง หลังจากเขาเคยทำงานกับ Arm ระหว่างปี 2014–2019 และเป็นหัวหน้าทีมพัฒนาชิป AI ของ Amazon ได้แก่ Trainium และ Inferentia ซึ่งใช้ในงานฝึกและรันโมเดล AI ขนาดใหญ่

    การกลับมาของ Sinno เป็นส่วนหนึ่งของแผนการสร้างชิป AI ของ Arm ที่เริ่มมีข่าวตั้งแต่ต้นปี 2024 และมีรายงานว่า Arm ได้รับคำสั่งซื้อชิปที่ยังไม่เปิดตัวแล้วด้วยซ้ำ

    นอกจาก Sinno แล้ว Arm ยังดึงตัวผู้เชี่ยวชาญจาก Intel, Qualcomm และ HP Enterprise มาร่วมทีม เพื่อสร้าง “chiplets” และระบบชิปแบบครบวงจร (SoC) ที่สามารถแข่งขันกับ Nvidia, AMD และ Apple ได้ในตลาดศูนย์ข้อมูลและอุปกรณ์ผู้บริโภค

    CEO Rene Haas ประกาศเป้าหมายอย่างมั่นใจว่า Arm จะครองส่วนแบ่งตลาด CPU สำหรับศูนย์ข้อมูลให้ได้ถึง 50% ภายในสิ้นปี 2025 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยเน้นแค่การออกแบบ ไม่ใช่การผลิต

    ข้อมูลในข่าว
    Arm จ้าง Rami Sinno ผู้พัฒนาชิป AI Trainium และ Inferentia ของ Amazon กลับมาร่วมทีม
    Sinno เคยทำงานกับ Arm ระหว่างปี 2014–2019 ในตำแหน่ง VP ด้านวิศวกรรม
    การจ้างงานนี้เป็นส่วนหนึ่งของแผนสร้างชิป AI ของ Arm ที่เริ่มตั้งแต่ต้นปี 2024
    Arm ได้รับคำสั่งซื้อชิปที่ยังไม่เปิดตัวแล้วในเดือนกุมภาพันธ์ 2025
    Arm ดึงผู้เชี่ยวชาญจาก Intel, Qualcomm และ HP Enterprise มาร่วมพัฒนา chiplets และ SoC
    CEO Rene Haas ตั้งเป้าครองตลาด CPU สำหรับศูนย์ข้อมูล 50% ภายในปี 2025
    Arm เคยถูก Nvidia พยายามซื้อกิจการในปี 2020 ด้วยมูลค่า $40 พันล้าน
    ปัจจุบัน Arm ได้รายได้จากการขายสิทธิ์ออกแบบชิปให้บริษัทอื่น เช่น Apple และ Qualcomm

    ข้อมูลเสริมจากภายนอก
    Trainium และ Inferentia เป็นชิปที่ Amazon ใช้แทน GPU ของ Nvidia ในงาน AI
    Chiplets คือการรวมชิ้นส่วนชิปหลายตัวเข้าด้วยกันในแพ็กเกจเดียว เพื่อเพิ่มความยืดหยุ่น
    ตลาดชิป AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูลและอุปกรณ์ผู้บริโภค
    การผลิตชิปเองช่วยให้ Arm ควบคุมคุณภาพและนวัตกรรมได้มากขึ้น
    การเปลี่ยนจากโมเดล “ขายสิทธิ์” ไปสู่ “ผลิตเอง” อาจเพิ่มรายได้ระยะยาว
    การแข่งขันกับ Nvidia และ AMD ต้องใช้ทรัพยากรและความเชี่ยวชาญระดับสูง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/arm-hires-amazons-ai-chip-developer-to-help-create-its-own-processors-rami-sinno-returns-to-the-company-boasts-trainium-and-inferentia-on-resume
    🧠 Arm ดึงตัวผู้สร้างชิป AI ของ Amazon กลับบ้าน – จุดเริ่มต้นของการสร้างชิปเองเพื่อแข่งกับ Nvidia และ Apple Arm Holdings บริษัทออกแบบชิปจากอังกฤษที่อยู่เบื้องหลังสถาปัตยกรรมของสมาร์ตโฟนแทบทุกเครื่องในโลก กำลังเปลี่ยนทิศทางครั้งใหญ่ จากเดิมที่เน้นขายสิทธิ์การออกแบบชิป ให้กลายเป็นผู้ผลิตชิปด้วยตัวเอง ล่าสุด Arm ได้ดึงตัว Rami Sinno อดีตผู้อำนวยการฝ่ายวิศวกรรมของ Amazon Web Services กลับมาร่วมทีมอีกครั้ง หลังจากเขาเคยทำงานกับ Arm ระหว่างปี 2014–2019 และเป็นหัวหน้าทีมพัฒนาชิป AI ของ Amazon ได้แก่ Trainium และ Inferentia ซึ่งใช้ในงานฝึกและรันโมเดล AI ขนาดใหญ่ การกลับมาของ Sinno เป็นส่วนหนึ่งของแผนการสร้างชิป AI ของ Arm ที่เริ่มมีข่าวตั้งแต่ต้นปี 2024 และมีรายงานว่า Arm ได้รับคำสั่งซื้อชิปที่ยังไม่เปิดตัวแล้วด้วยซ้ำ นอกจาก Sinno แล้ว Arm ยังดึงตัวผู้เชี่ยวชาญจาก Intel, Qualcomm และ HP Enterprise มาร่วมทีม เพื่อสร้าง “chiplets” และระบบชิปแบบครบวงจร (SoC) ที่สามารถแข่งขันกับ Nvidia, AMD และ Apple ได้ในตลาดศูนย์ข้อมูลและอุปกรณ์ผู้บริโภค CEO Rene Haas ประกาศเป้าหมายอย่างมั่นใจว่า Arm จะครองส่วนแบ่งตลาด CPU สำหรับศูนย์ข้อมูลให้ได้ถึง 50% ภายในสิ้นปี 2025 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยเน้นแค่การออกแบบ ไม่ใช่การผลิต ✅ ข้อมูลในข่าว ➡️ Arm จ้าง Rami Sinno ผู้พัฒนาชิป AI Trainium และ Inferentia ของ Amazon กลับมาร่วมทีม ➡️ Sinno เคยทำงานกับ Arm ระหว่างปี 2014–2019 ในตำแหน่ง VP ด้านวิศวกรรม ➡️ การจ้างงานนี้เป็นส่วนหนึ่งของแผนสร้างชิป AI ของ Arm ที่เริ่มตั้งแต่ต้นปี 2024 ➡️ Arm ได้รับคำสั่งซื้อชิปที่ยังไม่เปิดตัวแล้วในเดือนกุมภาพันธ์ 2025 ➡️ Arm ดึงผู้เชี่ยวชาญจาก Intel, Qualcomm และ HP Enterprise มาร่วมพัฒนา chiplets และ SoC ➡️ CEO Rene Haas ตั้งเป้าครองตลาด CPU สำหรับศูนย์ข้อมูล 50% ภายในปี 2025 ➡️ Arm เคยถูก Nvidia พยายามซื้อกิจการในปี 2020 ด้วยมูลค่า $40 พันล้าน ➡️ ปัจจุบัน Arm ได้รายได้จากการขายสิทธิ์ออกแบบชิปให้บริษัทอื่น เช่น Apple และ Qualcomm ✅ ข้อมูลเสริมจากภายนอก ➡️ Trainium และ Inferentia เป็นชิปที่ Amazon ใช้แทน GPU ของ Nvidia ในงาน AI ➡️ Chiplets คือการรวมชิ้นส่วนชิปหลายตัวเข้าด้วยกันในแพ็กเกจเดียว เพื่อเพิ่มความยืดหยุ่น ➡️ ตลาดชิป AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูลและอุปกรณ์ผู้บริโภค ➡️ การผลิตชิปเองช่วยให้ Arm ควบคุมคุณภาพและนวัตกรรมได้มากขึ้น ➡️ การเปลี่ยนจากโมเดล “ขายสิทธิ์” ไปสู่ “ผลิตเอง” อาจเพิ่มรายได้ระยะยาว ➡️ การแข่งขันกับ Nvidia และ AMD ต้องใช้ทรัพยากรและความเชี่ยวชาญระดับสูง https://www.tomshardware.com/tech-industry/artificial-intelligence/arm-hires-amazons-ai-chip-developer-to-help-create-its-own-processors-rami-sinno-returns-to-the-company-boasts-trainium-and-inferentia-on-resume
    0 Comments 0 Shares 137 Views 0 Reviews
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 Comments 0 Shares 161 Views 0 Reviews
  • TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ – โรงงานในสหรัฐฯ เริ่มทำกำไรต่อเนื่อง

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลก เตรียมขึ้นราคาชิปขนาด 2 นาโนเมตรเป็น $30,000 ต่อเวเฟอร์ ซึ่งเพิ่มขึ้นกว่า 66% จากราคาชิป 3nm ที่เคยอยู่ที่ประมาณ $18,000 โดยราคานี้สะท้อนต้นทุนการผลิตที่สูงขึ้น และเป็นกลยุทธ์ของ TSMC ที่ต้องการคัดกรองลูกค้าให้เหลือเฉพาะบริษัทที่สามารถจ่ายเพื่อเทคโนโลยีระดับสูง เช่น Apple, NVIDIA, AMD และ Intel

    แม้ราคาจะสูง แต่ TSMC รายงานว่า yield หรืออัตราการผลิตสำเร็จของชิป 2nm เริ่มแตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก ซึ่งถือว่าเป็นสัญญาณดีสำหรับการเข้าสู่การผลิตจำนวนมากภายในปีนี้ โดย Apple คาดว่าจะใช้ชิป 2nm ใน iPhone 18 Pro และ AMD จะใช้ใน Zen 6 “Venice” CPUs

    ด้านโรงงานในรัฐแอริโซนา ซึ่งเคยถูกวิจารณ์เรื่องต้นทุนสูง ตอนนี้กลับทำกำไรได้ต่อเนื่องเป็นไตรมาสที่สอง โดยมีรายได้กว่า NT$4.2 พันล้านในไตรมาสล่าสุด และมีลูกค้าหลักคือ Apple, NVIDIA และ AMD ซึ่งช่วยให้มีคำสั่งซื้อที่มั่นคง

    อย่างไรก็ตาม นักวิเคราะห์เตือนว่าค่าเสื่อมราคาของโรงงานในสหรัฐฯ อาจกระทบต่อกำไรในระยะยาว และโรงงานในญี่ปุ่นของ TSMC ยังขาดทุนอยู่ในครึ่งปีแรก

    ข้อมูลจากข่าวหลัก
    TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ เพิ่มขึ้น 66% จาก 3nm
    Yield ของชิป 2nm แตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก
    Apple, AMD, NVIDIA และ Intel เตรียมใช้เทคโนโลยี 2nm ในผลิตภัณฑ์ใหม่
    โรงงาน TSMC ในรัฐแอริโซนาเริ่มทำกำไรต่อเนื่องเป็นไตรมาสที่สอง
    รายได้ล่าสุดของโรงงานแอริโซนาอยู่ที่ NT$4.2 พันล้าน
    โรงงานนี้เริ่มผลิตชิป 4nm ตั้งแต่ Q4 ปี 2024
    ลูกค้าหลักของโรงงานคือ Apple, NVIDIA และ AMD
    TSMC เตรียมขยายโรงงานในสหรัฐฯ เพิ่มอีกสองแห่ง

    ข้อมูลเสริมจากภายนอก
    ชิป 2nm ใช้สถาปัตยกรรม Gate-All-Around (GAA) เพื่อควบคุมกระแสไฟฟ้าได้แม่นยำขึ้น
    N2P และ N2X จะเป็นรุ่นต่อยอดจาก 2nm โดยเพิ่มประสิทธิภาพและลดการใช้พลังงาน
    ราคาชิปอาจแตะ $45,000 ต่อเวเฟอร์เมื่อเข้าสู่ยุค 1.4nm (Angstrom era)
    การขึ้นราคาชิปสะท้อนว่าต้นทุนต่อทรานซิสเตอร์ไม่ได้ลดลงอีกแล้ว
    Samsung ยังมี yield ต่ำกว่า TSMC ที่ประมาณ 40% และใช้กลยุทธ์ราคาถูกเพื่อดึงลูกค้า
    โรงงานในญี่ปุ่นของ TSMC ยังขาดทุน และไม่ผลิตชิปรุ่นล่าสุด

    https://wccftech.com/tsmc-latest-chips-to-get-super-expensive-with-30k-wafer-tag-us-arizona-plant-becomes-profitable-for-second-consecutive-quarter/
    🏭 TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ – โรงงานในสหรัฐฯ เริ่มทำกำไรต่อเนื่อง TSMC ผู้ผลิตชิปอันดับหนึ่งของโลก เตรียมขึ้นราคาชิปขนาด 2 นาโนเมตรเป็น $30,000 ต่อเวเฟอร์ ซึ่งเพิ่มขึ้นกว่า 66% จากราคาชิป 3nm ที่เคยอยู่ที่ประมาณ $18,000 โดยราคานี้สะท้อนต้นทุนการผลิตที่สูงขึ้น และเป็นกลยุทธ์ของ TSMC ที่ต้องการคัดกรองลูกค้าให้เหลือเฉพาะบริษัทที่สามารถจ่ายเพื่อเทคโนโลยีระดับสูง เช่น Apple, NVIDIA, AMD และ Intel แม้ราคาจะสูง แต่ TSMC รายงานว่า yield หรืออัตราการผลิตสำเร็จของชิป 2nm เริ่มแตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก ซึ่งถือว่าเป็นสัญญาณดีสำหรับการเข้าสู่การผลิตจำนวนมากภายในปีนี้ โดย Apple คาดว่าจะใช้ชิป 2nm ใน iPhone 18 Pro และ AMD จะใช้ใน Zen 6 “Venice” CPUs ด้านโรงงานในรัฐแอริโซนา ซึ่งเคยถูกวิจารณ์เรื่องต้นทุนสูง ตอนนี้กลับทำกำไรได้ต่อเนื่องเป็นไตรมาสที่สอง โดยมีรายได้กว่า NT$4.2 พันล้านในไตรมาสล่าสุด และมีลูกค้าหลักคือ Apple, NVIDIA และ AMD ซึ่งช่วยให้มีคำสั่งซื้อที่มั่นคง อย่างไรก็ตาม นักวิเคราะห์เตือนว่าค่าเสื่อมราคาของโรงงานในสหรัฐฯ อาจกระทบต่อกำไรในระยะยาว และโรงงานในญี่ปุ่นของ TSMC ยังขาดทุนอยู่ในครึ่งปีแรก ✅ ข้อมูลจากข่าวหลัก ➡️ TSMC ขึ้นราคาชิป 2nm เป็น $30,000 ต่อเวเฟอร์ เพิ่มขึ้น 66% จาก 3nm ➡️ Yield ของชิป 2nm แตะระดับ 90% สำหรับชิป SRAM ขนาดเล็ก ➡️ Apple, AMD, NVIDIA และ Intel เตรียมใช้เทคโนโลยี 2nm ในผลิตภัณฑ์ใหม่ ➡️ โรงงาน TSMC ในรัฐแอริโซนาเริ่มทำกำไรต่อเนื่องเป็นไตรมาสที่สอง ➡️ รายได้ล่าสุดของโรงงานแอริโซนาอยู่ที่ NT$4.2 พันล้าน ➡️ โรงงานนี้เริ่มผลิตชิป 4nm ตั้งแต่ Q4 ปี 2024 ➡️ ลูกค้าหลักของโรงงานคือ Apple, NVIDIA และ AMD ➡️ TSMC เตรียมขยายโรงงานในสหรัฐฯ เพิ่มอีกสองแห่ง ✅ ข้อมูลเสริมจากภายนอก ➡️ ชิป 2nm ใช้สถาปัตยกรรม Gate-All-Around (GAA) เพื่อควบคุมกระแสไฟฟ้าได้แม่นยำขึ้น ➡️ N2P และ N2X จะเป็นรุ่นต่อยอดจาก 2nm โดยเพิ่มประสิทธิภาพและลดการใช้พลังงาน ➡️ ราคาชิปอาจแตะ $45,000 ต่อเวเฟอร์เมื่อเข้าสู่ยุค 1.4nm (Angstrom era) ➡️ การขึ้นราคาชิปสะท้อนว่าต้นทุนต่อทรานซิสเตอร์ไม่ได้ลดลงอีกแล้ว ➡️ Samsung ยังมี yield ต่ำกว่า TSMC ที่ประมาณ 40% และใช้กลยุทธ์ราคาถูกเพื่อดึงลูกค้า ➡️ โรงงานในญี่ปุ่นของ TSMC ยังขาดทุน และไม่ผลิตชิปรุ่นล่าสุด https://wccftech.com/tsmc-latest-chips-to-get-super-expensive-with-30k-wafer-tag-us-arizona-plant-becomes-profitable-for-second-consecutive-quarter/
    WCCFTECH.COM
    TSMC Latest Chips To Get Super Expensive With $30k/Wafer Tag - US Arizona Plant Becomes Profitable For Second Consecutive Quarter
    TSMC charges $30,000 per 2nm wafer as it enters mass production, achieving profitability at its Arizona fab with NT$4.2 billion in Q2 profit.
    0 Comments 0 Shares 144 Views 0 Reviews
  • AMD เตรียมเปิดแผนอนาคต Zen 6, RDNA 5, CDNA และ UDNA ในงานใหญ่เดือนพฤศจิกายน

    AMD ประกาศจัดงาน Financial Analyst Day ในวันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก ซึ่งจะเป็นเวทีสำคัญในการเปิดเผยแผนพัฒนาเทคโนโลยีในระยะยาว โดยเฉพาะ CPU ตระกูล Zen รุ่นใหม่, GPU สาย RDNA และ CDNA สำหรับงาน HPC และ AI รวมถึงสถาปัตยกรรมใหม่ชื่อ UDNA ที่จะเป็นหัวใจของ AI accelerators รุ่นถัดไป

    ในฝั่ง CPU AMD จะพูดถึง EPYC “Venice” ที่ใช้ Zen 6 และจะเปิดเผยข้อมูลเพิ่มเติมเกี่ยวกับ EPYC “Verano” ที่คาดว่าจะใช้ Zen 6 หรือ Zen 7 ในปี 2027 และอาจมีการพูดถึง Zen 8 ด้วย

    ด้าน GPU จะมีการเปิดตัว RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI โดย AMD ตั้งเป้ารวมสาย RDNA และ CDNA เข้าด้วยกันในอนาคต เพื่อสร้าง GPU ที่รองรับทั้งเกมและงานประมวลผลระดับสูง

    ในฝั่ง AI และ HPC AMD จะพูดถึง Instinct MI500 accelerators ที่ใช้ UDNA 6 และเทคโนโลยีการเชื่อมต่อแบบใหม่ชื่อ UALink ซึ่งจะช่วยให้ระบบ AI ขนาดใหญ่สามารถเชื่อมต่อกันได้อย่างมีประสิทธิภาพ

    นอกจากนี้ AMD ยังจะเปิดเผยแผนการเงินระยะยาว และกลยุทธ์ในการแข่งขันกับ Nvidia และผู้ผลิตชิปแบบ custom จาก hyperscale cloud providers

    ข้อมูลจากข่าวหลัก
    AMD จะจัดงาน Financial Analyst Day วันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก
    งานนี้จะเปิดเผยแผนระยะยาวของ CPU, GPU, AI accelerators และเทคโนโลยีการเชื่อมต่อ
    CPU EPYC “Venice” ใช้ Zen 6 และจะเปิดเผยข้อมูล EPYC “Verano” ที่อาจใช้ Zen 6 หรือ Zen 7
    อาจมีการพูดถึง Zen 8 สำหรับอนาคตระยะไกล
    GPU RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI จะถูกเปิดเผย
    Instinct MI500 accelerators จะใช้สถาปัตยกรรม UDNA 6
    เทคโนโลยี UALink จะช่วยให้ระบบ AI ขนาดใหญ่เชื่อมต่อกันได้ดีขึ้น
    AMD จะเปิดเผยแผนการเงินระยะยาวและกลยุทธ์แข่งขันกับ Nvidia และผู้ผลิต custom silicon

    ข้อมูลเสริมจากภายนอก
    Zen 6 อาจมีความเร็วทะลุ 7.0GHz และใช้ dual IMC design สำหรับการจัดการหน่วยความจำ
    RDNA 5 คาดว่าจะมี IPC สูงกว่า RDNA 4 ประมาณ 5–10% ที่ความเร็วเท่าเดิม
    ROCm ecosystem จะถูกขยายเพื่อรองรับ AI และ HPC มากขึ้น
    AMD อาจเปิดตัว Radeon RX 10900 XT ที่ใช้ RDNA 5 แข่งกับ RTX 6090
    UDNA จะเป็นจุดรวมของ GPU สายเกมและ HPC ในอนาคต
    AMD มีแผนใช้ advanced packaging technologies เพื่อเพิ่มประสิทธิภาพและลดต้นทุน

    https://www.tomshardware.com/pc-components/cpus/amd-to-disclose-roadmaps-in-mid-november-the-future-of-zen-6-rdna-cdna-and-udna-expected
    🔮 AMD เตรียมเปิดแผนอนาคต Zen 6, RDNA 5, CDNA และ UDNA ในงานใหญ่เดือนพฤศจิกายน AMD ประกาศจัดงาน Financial Analyst Day ในวันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก ซึ่งจะเป็นเวทีสำคัญในการเปิดเผยแผนพัฒนาเทคโนโลยีในระยะยาว โดยเฉพาะ CPU ตระกูล Zen รุ่นใหม่, GPU สาย RDNA และ CDNA สำหรับงาน HPC และ AI รวมถึงสถาปัตยกรรมใหม่ชื่อ UDNA ที่จะเป็นหัวใจของ AI accelerators รุ่นถัดไป ในฝั่ง CPU AMD จะพูดถึง EPYC “Venice” ที่ใช้ Zen 6 และจะเปิดเผยข้อมูลเพิ่มเติมเกี่ยวกับ EPYC “Verano” ที่คาดว่าจะใช้ Zen 6 หรือ Zen 7 ในปี 2027 และอาจมีการพูดถึง Zen 8 ด้วย ด้าน GPU จะมีการเปิดตัว RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI โดย AMD ตั้งเป้ารวมสาย RDNA และ CDNA เข้าด้วยกันในอนาคต เพื่อสร้าง GPU ที่รองรับทั้งเกมและงานประมวลผลระดับสูง ในฝั่ง AI และ HPC AMD จะพูดถึง Instinct MI500 accelerators ที่ใช้ UDNA 6 และเทคโนโลยีการเชื่อมต่อแบบใหม่ชื่อ UALink ซึ่งจะช่วยให้ระบบ AI ขนาดใหญ่สามารถเชื่อมต่อกันได้อย่างมีประสิทธิภาพ นอกจากนี้ AMD ยังจะเปิดเผยแผนการเงินระยะยาว และกลยุทธ์ในการแข่งขันกับ Nvidia และผู้ผลิตชิปแบบ custom จาก hyperscale cloud providers ✅ ข้อมูลจากข่าวหลัก ➡️ AMD จะจัดงาน Financial Analyst Day วันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก ➡️ งานนี้จะเปิดเผยแผนระยะยาวของ CPU, GPU, AI accelerators และเทคโนโลยีการเชื่อมต่อ ➡️ CPU EPYC “Venice” ใช้ Zen 6 และจะเปิดเผยข้อมูล EPYC “Verano” ที่อาจใช้ Zen 6 หรือ Zen 7 ➡️ อาจมีการพูดถึง Zen 8 สำหรับอนาคตระยะไกล ➡️ GPU RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI จะถูกเปิดเผย ➡️ Instinct MI500 accelerators จะใช้สถาปัตยกรรม UDNA 6 ➡️ เทคโนโลยี UALink จะช่วยให้ระบบ AI ขนาดใหญ่เชื่อมต่อกันได้ดีขึ้น ➡️ AMD จะเปิดเผยแผนการเงินระยะยาวและกลยุทธ์แข่งขันกับ Nvidia และผู้ผลิต custom silicon ✅ ข้อมูลเสริมจากภายนอก ➡️ Zen 6 อาจมีความเร็วทะลุ 7.0GHz และใช้ dual IMC design สำหรับการจัดการหน่วยความจำ ➡️ RDNA 5 คาดว่าจะมี IPC สูงกว่า RDNA 4 ประมาณ 5–10% ที่ความเร็วเท่าเดิม ➡️ ROCm ecosystem จะถูกขยายเพื่อรองรับ AI และ HPC มากขึ้น ➡️ AMD อาจเปิดตัว Radeon RX 10900 XT ที่ใช้ RDNA 5 แข่งกับ RTX 6090 ➡️ UDNA จะเป็นจุดรวมของ GPU สายเกมและ HPC ในอนาคต ➡️ AMD มีแผนใช้ advanced packaging technologies เพื่อเพิ่มประสิทธิภาพและลดต้นทุน https://www.tomshardware.com/pc-components/cpus/amd-to-disclose-roadmaps-in-mid-november-the-future-of-zen-6-rdna-cdna-and-udna-expected
    0 Comments 0 Shares 121 Views 0 Reviews
  • เมื่อชีวิตนักพัฒนาสตาร์ทอัพต้องมาเจอโลกขององค์กรใหญ่

    ลองจินตนาการว่าคุณเป็นนักพัฒนาที่เคยทำงานในสตาร์ทอัพเล็ก ๆ มาตลอดชีวิต แล้ววันหนึ่งคุณตัดสินใจ “ขายวิญญาณ” เข้าสู่โลกขององค์กรขนาดใหญ่เพื่อเงินและความมั่นคง นี่คือเรื่องราวของผู้เขียนที่เข้าสู่ชีวิตใหม่ในบริษัทที่เรียกว่า $ENTERPRISE

    เขาเริ่มต้นด้วยความตื่นเต้น แต่ไม่นานก็พบกับความวุ่นวายที่ไม่เคยเจอมาก่อน เช่น การหาคนรับผิดชอบเครื่องมือที่ไม่มีใครรู้ว่าใครดูแล, การใช้เงินอย่างไร้เหตุผล, เพื่อนร่วมงานที่ไม่มีมาตรฐานเดียวกัน, ความเร่งด่วนที่ไม่มีเหตุผล และระบบความปลอดภัยที่กลายเป็น “ละครตัวเลข”

    แม้จะมีเรื่องให้บ่นมากมาย แต่เขาก็ยอมรับว่าการทำงานในองค์กรใหญ่มีข้อดี เช่น การได้เขียนโค้ดที่มีคนใช้จริง, โอกาสเติบโตในสายงาน, การได้เรียนรู้จากคนเก่ง และความมั่นคงที่มากกว่าที่เคยมี

    ประสบการณ์ในองค์กรใหญ่ที่แตกต่างจากสตาร์ทอัพ
    การหาคนรับผิดชอบเครื่องมือในองค์กรใหญ่เป็นเรื่องยากและใช้เวลานาน
    เครื่องมือบางตัวไม่มีคนดูแล แต่ยังคงใช้งานและเสียค่าใช้จ่ายมหาศาล
    การใช้เงินในองค์กรใหญ่ขาดความคุ้มค่า เช่น ใช้ AWS เกินความจำเป็น
    โครงการใหญ่ถูกยกเลิกก่อนเปิดตัวเพราะงบเกินนิดเดียว
    การขออุปกรณ์เล็ก ๆ เช่นเมาส์ กลับถูกปฏิเสธ
    เพื่อนร่วมงานมีความสามารถไม่เท่ากัน และไม่มีการคัดกรองที่ดี
    ความเร่งด่วนในองค์กรใหญ่ไม่ชัดเจน ต้องแยกแยะเองว่าเรื่องไหนจริง
    ระบบความปลอดภัยกลายเป็นการสร้างตัวเลขเพื่อโชว์ผู้บริหาร
    ตำแหน่งในองค์กรไม่ชัดเจน เช่น “หัวหน้าสถาปัตยกรรม” มีหลายคน
    ผู้นำใหม่มักทำซ้ำความผิดพลาดเดิม เพราะไม่กล้ายอมรับว่า “ไม่รู้”
    ทีมวิศวกรรมแต่ละทีมมีวัฒนธรรมของตัวเอง เหมือนอาณาจักรแยกกัน

    ข้อมูลเสริมจากภายนอก
    ปัญหา “tool ownership” เป็นเรื่องใหญ่ในองค์กรทั่วโลก โดยเฉพาะเมื่อมีการเปลี่ยนทีมบ่อย
    การใช้เงินเกินจำเป็นในระบบคลาวด์เป็นปัญหาที่หลายองค์กรกำลังแก้ด้วย FinOps
    การขาดมาตรฐานในการจ้างงานส่งผลต่อคุณภาพของทีมและความสามารถในการส่งมอบงาน
    การสร้าง “urgency” เทียมเป็นหนึ่งในสาเหตุของ burnout ในสายงานไอที
    การวัดความปลอดภัยด้วยตัวเลขแทนการวิเคราะห์เชิงลึกเป็นแนวโน้มที่ถูกวิจารณ์ในวงการ cybersecurity
    การมีหลายทีมที่ไม่สื่อสารกันทำให้เกิด “software silos” ซึ่งลดประสิทธิภาพโดยรวมขององค์กร

    https://churchofturing.github.io/the-enterprise-experience.html
    🏢 เมื่อชีวิตนักพัฒนาสตาร์ทอัพต้องมาเจอโลกขององค์กรใหญ่ ลองจินตนาการว่าคุณเป็นนักพัฒนาที่เคยทำงานในสตาร์ทอัพเล็ก ๆ มาตลอดชีวิต แล้ววันหนึ่งคุณตัดสินใจ “ขายวิญญาณ” เข้าสู่โลกขององค์กรขนาดใหญ่เพื่อเงินและความมั่นคง นี่คือเรื่องราวของผู้เขียนที่เข้าสู่ชีวิตใหม่ในบริษัทที่เรียกว่า $ENTERPRISE เขาเริ่มต้นด้วยความตื่นเต้น แต่ไม่นานก็พบกับความวุ่นวายที่ไม่เคยเจอมาก่อน เช่น การหาคนรับผิดชอบเครื่องมือที่ไม่มีใครรู้ว่าใครดูแล, การใช้เงินอย่างไร้เหตุผล, เพื่อนร่วมงานที่ไม่มีมาตรฐานเดียวกัน, ความเร่งด่วนที่ไม่มีเหตุผล และระบบความปลอดภัยที่กลายเป็น “ละครตัวเลข” แม้จะมีเรื่องให้บ่นมากมาย แต่เขาก็ยอมรับว่าการทำงานในองค์กรใหญ่มีข้อดี เช่น การได้เขียนโค้ดที่มีคนใช้จริง, โอกาสเติบโตในสายงาน, การได้เรียนรู้จากคนเก่ง และความมั่นคงที่มากกว่าที่เคยมี ✅ ประสบการณ์ในองค์กรใหญ่ที่แตกต่างจากสตาร์ทอัพ ➡️ การหาคนรับผิดชอบเครื่องมือในองค์กรใหญ่เป็นเรื่องยากและใช้เวลานาน ➡️ เครื่องมือบางตัวไม่มีคนดูแล แต่ยังคงใช้งานและเสียค่าใช้จ่ายมหาศาล ➡️ การใช้เงินในองค์กรใหญ่ขาดความคุ้มค่า เช่น ใช้ AWS เกินความจำเป็น ➡️ โครงการใหญ่ถูกยกเลิกก่อนเปิดตัวเพราะงบเกินนิดเดียว ➡️ การขออุปกรณ์เล็ก ๆ เช่นเมาส์ กลับถูกปฏิเสธ ➡️ เพื่อนร่วมงานมีความสามารถไม่เท่ากัน และไม่มีการคัดกรองที่ดี ➡️ ความเร่งด่วนในองค์กรใหญ่ไม่ชัดเจน ต้องแยกแยะเองว่าเรื่องไหนจริง ➡️ ระบบความปลอดภัยกลายเป็นการสร้างตัวเลขเพื่อโชว์ผู้บริหาร ➡️ ตำแหน่งในองค์กรไม่ชัดเจน เช่น “หัวหน้าสถาปัตยกรรม” มีหลายคน ➡️ ผู้นำใหม่มักทำซ้ำความผิดพลาดเดิม เพราะไม่กล้ายอมรับว่า “ไม่รู้” ➡️ ทีมวิศวกรรมแต่ละทีมมีวัฒนธรรมของตัวเอง เหมือนอาณาจักรแยกกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ ปัญหา “tool ownership” เป็นเรื่องใหญ่ในองค์กรทั่วโลก โดยเฉพาะเมื่อมีการเปลี่ยนทีมบ่อย ➡️ การใช้เงินเกินจำเป็นในระบบคลาวด์เป็นปัญหาที่หลายองค์กรกำลังแก้ด้วย FinOps ➡️ การขาดมาตรฐานในการจ้างงานส่งผลต่อคุณภาพของทีมและความสามารถในการส่งมอบงาน ➡️ การสร้าง “urgency” เทียมเป็นหนึ่งในสาเหตุของ burnout ในสายงานไอที ➡️ การวัดความปลอดภัยด้วยตัวเลขแทนการวิเคราะห์เชิงลึกเป็นแนวโน้มที่ถูกวิจารณ์ในวงการ cybersecurity ➡️ การมีหลายทีมที่ไม่สื่อสารกันทำให้เกิด “software silos” ซึ่งลดประสิทธิภาพโดยรวมขององค์กร https://churchofturing.github.io/the-enterprise-experience.html
    0 Comments 0 Shares 124 Views 0 Reviews
  • ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070

    ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?”

    จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima

    ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม

    อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ

    RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง

    ประสิทธิภาพของแต่ละรุ่น
    RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K
    Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS
    Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS
    Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS
    RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25%
    RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า

    ข้อมูลเสริมจากภายนอก
    RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7
    รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น
    RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ
    RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p
    RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ
    การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา

    https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    🎯 ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070 ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?” จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง ✅ ประสิทธิภาพของแต่ละรุ่น ➡️ RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K ➡️ Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS ➡️ Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS ➡️ Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS ➡️ RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25% ➡️ RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7 ➡️ รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น ➡️ RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ ➡️ RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p ➡️ RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ ➡️ การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    0 Comments 0 Shares 121 Views 0 Reviews
  • Dimensity 9500 vs Snapdragon 8 Elite Gen 2: เปิดตัวก่อนแต่แรงไม่สุด

    MediaTek เตรียมเปิดตัวชิป Dimensity 9500 ก่อน Snapdragon 8 Elite Gen 2 หนึ่งวัน ซึ่งดูเหมือนจะเป็นกลยุทธ์เพื่อแย่งความสนใจจากตลาด แต่ผลการทดสอบ Geekbench 6 บน Vivo X300 กลับเผยว่า Dimensity 9500 ทำคะแนนได้ต่ำกว่าที่คาดไว้ โดยได้เพียง 2,352 คะแนนในแบบ single-core และ 7,129 คะแนนในแบบ multi-core

    Dimensity 9500 ใช้โครงสร้าง CPU แบบ “1 + 3 + 4” โดยมีคอร์หลักที่เร็วที่สุดอยู่ที่ 4.20GHz ซึ่งสูงกว่าความเร็วที่ใช้ในการทดสอบจริง แต่ยังต่ำกว่าคู่แข่งอย่าง Snapdragon 8 Elite Gen 2 ที่แม้จะลดความเร็วลงเหลือ 4.00GHz ก็ยังทำคะแนนได้ถึง 3,393 และ 11,515 คะแนน—เร็วกว่า Dimensity ถึง 61%

    สาเหตุหนึ่งที่ Snapdragon 8 Elite Gen 2 ทำได้ดีกว่า คือการใช้คอร์แบบ in-house ที่ไม่พึ่งพา ARM โดยตรง ซึ่งให้ประสิทธิภาพต่อวัตต์ที่สูงกว่า และยังมีความยืดหยุ่นในการออกแบบมากขึ้น

    อย่างไรก็ตาม Dimensity 9500 ยังมีจุดเด่นในด้านการประมวลผลแบบ floating-point และคะแนน AnTuTu ที่สูงกว่า Snapdragon 8 Elite Gen 2 ถึง 11% ซึ่งอาจบ่งชี้ว่าชิปนี้เหมาะกับงานกราฟิกหรือ AI มากกว่าการประมวลผลทั่วไป

    สเปกและโครงสร้างของ Dimensity 9500
    ใช้โครงสร้าง CPU แบบ “1 + 3 + 4”
    คอร์หลักเร็วสุดที่ 4.20GHz แต่ทำงานต่ำกว่าความเร็วจริง
    ใช้ Cortex-X930 และ Cortex-A730 บนสถาปัตยกรรม ARMv9.2-A
    ผลิตด้วยเทคโนโลยี 3nm โดย TSMC

    ผลการทดสอบเบื้องต้น
    Geekbench 6: single-core 2,352 / multi-core 7,129
    Snapdragon 8 Elite Gen 2 ได้คะแนนสูงกว่า 61%
    Dimensity 9500 ทำคะแนน AnTuTu สูงกว่า 11% (3449366 vs 3115282)
    มีประสิทธิภาพด้าน floating-point computation สูงกว่า 41%

    จุดเด่นของ Snapdragon 8 Elite Gen 2
    ใช้คอร์แบบ in-house “Oryon Gen 2” ไม่พึ่ง ARM
    ความเร็วสูงสุด 4.74GHz ในรุ่น Galaxy Edition
    ผลิตด้วยเทคโนโลยี N3P 3nm โดย TSMC
    มี GPU Adreno 840 และ NPU Hexagon รุ่นใหม่

    ความคาดหวังและการใช้งาน
    Dimensity 9500 อาจเหมาะกับงาน AI และกราฟิกมากกว่าการประมวลผลทั่วไป
    Snapdragon 8 Elite Gen 2 เหมาะกับงานที่ต้องการความเร็วสูงแบบต่อเนื่อง
    ทั้งสองชิปรองรับ Wi-Fi 7, Bluetooth 6.0, และ 5G ทุกย่านความถี่

    https://wccftech.com/dimensity-9500-latest-single-core-and-multi-core-scores-fail-to-impress/
    🧠 Dimensity 9500 vs Snapdragon 8 Elite Gen 2: เปิดตัวก่อนแต่แรงไม่สุด MediaTek เตรียมเปิดตัวชิป Dimensity 9500 ก่อน Snapdragon 8 Elite Gen 2 หนึ่งวัน ซึ่งดูเหมือนจะเป็นกลยุทธ์เพื่อแย่งความสนใจจากตลาด แต่ผลการทดสอบ Geekbench 6 บน Vivo X300 กลับเผยว่า Dimensity 9500 ทำคะแนนได้ต่ำกว่าที่คาดไว้ โดยได้เพียง 2,352 คะแนนในแบบ single-core และ 7,129 คะแนนในแบบ multi-core Dimensity 9500 ใช้โครงสร้าง CPU แบบ “1 + 3 + 4” โดยมีคอร์หลักที่เร็วที่สุดอยู่ที่ 4.20GHz ซึ่งสูงกว่าความเร็วที่ใช้ในการทดสอบจริง แต่ยังต่ำกว่าคู่แข่งอย่าง Snapdragon 8 Elite Gen 2 ที่แม้จะลดความเร็วลงเหลือ 4.00GHz ก็ยังทำคะแนนได้ถึง 3,393 และ 11,515 คะแนน—เร็วกว่า Dimensity ถึง 61% สาเหตุหนึ่งที่ Snapdragon 8 Elite Gen 2 ทำได้ดีกว่า คือการใช้คอร์แบบ in-house ที่ไม่พึ่งพา ARM โดยตรง ซึ่งให้ประสิทธิภาพต่อวัตต์ที่สูงกว่า และยังมีความยืดหยุ่นในการออกแบบมากขึ้น อย่างไรก็ตาม Dimensity 9500 ยังมีจุดเด่นในด้านการประมวลผลแบบ floating-point และคะแนน AnTuTu ที่สูงกว่า Snapdragon 8 Elite Gen 2 ถึง 11% ซึ่งอาจบ่งชี้ว่าชิปนี้เหมาะกับงานกราฟิกหรือ AI มากกว่าการประมวลผลทั่วไป ✅ สเปกและโครงสร้างของ Dimensity 9500 ➡️ ใช้โครงสร้าง CPU แบบ “1 + 3 + 4” ➡️ คอร์หลักเร็วสุดที่ 4.20GHz แต่ทำงานต่ำกว่าความเร็วจริง ➡️ ใช้ Cortex-X930 และ Cortex-A730 บนสถาปัตยกรรม ARMv9.2-A ➡️ ผลิตด้วยเทคโนโลยี 3nm โดย TSMC ✅ ผลการทดสอบเบื้องต้น ➡️ Geekbench 6: single-core 2,352 / multi-core 7,129 ➡️ Snapdragon 8 Elite Gen 2 ได้คะแนนสูงกว่า 61% ➡️ Dimensity 9500 ทำคะแนน AnTuTu สูงกว่า 11% (3449366 vs 3115282) ➡️ มีประสิทธิภาพด้าน floating-point computation สูงกว่า 41% ✅ จุดเด่นของ Snapdragon 8 Elite Gen 2 ➡️ ใช้คอร์แบบ in-house “Oryon Gen 2” ไม่พึ่ง ARM ➡️ ความเร็วสูงสุด 4.74GHz ในรุ่น Galaxy Edition ➡️ ผลิตด้วยเทคโนโลยี N3P 3nm โดย TSMC ➡️ มี GPU Adreno 840 และ NPU Hexagon รุ่นใหม่ ✅ ความคาดหวังและการใช้งาน ➡️ Dimensity 9500 อาจเหมาะกับงาน AI และกราฟิกมากกว่าการประมวลผลทั่วไป ➡️ Snapdragon 8 Elite Gen 2 เหมาะกับงานที่ต้องการความเร็วสูงแบบต่อเนื่อง ➡️ ทั้งสองชิปรองรับ Wi-Fi 7, Bluetooth 6.0, และ 5G ทุกย่านความถี่ https://wccftech.com/dimensity-9500-latest-single-core-and-multi-core-scores-fail-to-impress/
    WCCFTECH.COM
    Dimensity 9500 With A ‘1 + 3 + 4’ CPU Cluster And Maximum Clock Speed Of 4.20GHz Fails To Impress In The Latest Benchmark Leak; Snapdragon 8 Elite Gen 2 Up To 61 Percent Faster In The Latest Comparison
    The Snapdragon 8 Elite Gen 2 appears to be significantly faster than the Dimensity 9500, as the latter’s single-core and multi-core results are jaw-dropping
    0 Comments 0 Shares 157 Views 0 Reviews
  • C6P: ซีพียูจีนที่มี “หัวใจ” เป็น Intel Xeon 6P

    Montage Technology บริษัทผู้ผลิตชิปในจีน เปิดตัวซีพียูเซิร์ฟเวอร์รุ่นใหม่ “C6P” ซึ่งแท้จริงแล้วเป็นการนำ Intel Xeon 6700P จากตระกูล Granite Rapids มาปรับแบรนด์ใหม่ โดยยังคงใช้สถาปัตยกรรม Redwood Cove P-Core เหมือนที่ใช้ใน Meteor Lake

    C6P รองรับสูงสุด 86 คอร์ 172 เธรด พร้อมแคช L3 ขนาด 336MB และรองรับการใช้งานแบบซ็อกเก็ตเดียวหรือสองซ็อกเก็ต มีแบนด์วิดธ์สูงถึง 24 GT/s ผ่าน UPI interconnects และรองรับหน่วยความจำ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s

    จุดเด่นคือการรองรับ PCIe 5.0 ถึง 88 เลน พร้อม CXL 2.0 สำหรับเชื่อมต่อกับ GPU หรือ FPGA และยังคงใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6 ทำให้สามารถอัปเกรดจากรุ่นก่อนหน้าได้ทันทีโดยไม่ต้องเปลี่ยนเมนบอร์ด

    Montage ยังเสริมฟีเจอร์ด้านความปลอดภัยระดับชิป เช่น การเข้ารหัสข้อมูล การตรวจสอบความน่าเชื่อถือของแพลตฟอร์ม และการป้องกันการแก้ไขข้อมูล เหมาะกับอุตสาหกรรมที่ต้องการความมั่นคง เช่น การเงิน รัฐบาล และการแพทย์

    ข้อมูลพื้นฐานของ C6P CPU
    เป็นซีพียูที่ปรับแบรนด์จาก Intel Xeon 6700P
    ใช้สถาปัตยกรรม Redwood Cove P-Core แบบเดียวกับ Meteor Lake
    รองรับสูงสุด 86 คอร์ 172 เธรด และแคช L3 ขนาด 336MB

    ความสามารถด้านการเชื่อมต่อและหน่วยความจำ
    รองรับระบบซ็อกเก็ตเดียวและสองซ็อกเก็ต
    ใช้ UPI interconnects 4 ช่อง ความเร็วสูงสุด 24 GT/s
    รองรับ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s
    มี PCIe 5.0 จำนวน 88 เลน และรองรับ CXL 2.0

    ความเข้ากันได้และการอัปเกรด
    ใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6
    รองรับ x86 instruction set เต็มรูปแบบ
    สามารถอัปเกรดจาก Sierra Forest หรือ Emerald Rapids ได้ทันที

    ฟีเจอร์ด้านความปลอดภัยและการใช้งานในอุตสาหกรรม
    มีระบบเข้ารหัสข้อมูลและการตรวจสอบความน่าเชื่อถือ
    ป้องกันการแก้ไขข้อมูลและการรั่วไหลในระดับชิป
    เหมาะกับอุตสาหกรรมการเงิน รัฐบาล และการแพทย์
    รองรับระบบปฏิบัติการโอเพ่นซอร์ส เช่น openEuler และ OpenCloudOS

    https://wccftech.com/montage-technology-rebadges-intel-granite-rapids-xeon-6p-cpus-china-domestic-server-market/
    🖥️ C6P: ซีพียูจีนที่มี “หัวใจ” เป็น Intel Xeon 6P Montage Technology บริษัทผู้ผลิตชิปในจีน เปิดตัวซีพียูเซิร์ฟเวอร์รุ่นใหม่ “C6P” ซึ่งแท้จริงแล้วเป็นการนำ Intel Xeon 6700P จากตระกูล Granite Rapids มาปรับแบรนด์ใหม่ โดยยังคงใช้สถาปัตยกรรม Redwood Cove P-Core เหมือนที่ใช้ใน Meteor Lake C6P รองรับสูงสุด 86 คอร์ 172 เธรด พร้อมแคช L3 ขนาด 336MB และรองรับการใช้งานแบบซ็อกเก็ตเดียวหรือสองซ็อกเก็ต มีแบนด์วิดธ์สูงถึง 24 GT/s ผ่าน UPI interconnects และรองรับหน่วยความจำ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s จุดเด่นคือการรองรับ PCIe 5.0 ถึง 88 เลน พร้อม CXL 2.0 สำหรับเชื่อมต่อกับ GPU หรือ FPGA และยังคงใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6 ทำให้สามารถอัปเกรดจากรุ่นก่อนหน้าได้ทันทีโดยไม่ต้องเปลี่ยนเมนบอร์ด Montage ยังเสริมฟีเจอร์ด้านความปลอดภัยระดับชิป เช่น การเข้ารหัสข้อมูล การตรวจสอบความน่าเชื่อถือของแพลตฟอร์ม และการป้องกันการแก้ไขข้อมูล เหมาะกับอุตสาหกรรมที่ต้องการความมั่นคง เช่น การเงิน รัฐบาล และการแพทย์ ✅ ข้อมูลพื้นฐานของ C6P CPU ➡️ เป็นซีพียูที่ปรับแบรนด์จาก Intel Xeon 6700P ➡️ ใช้สถาปัตยกรรม Redwood Cove P-Core แบบเดียวกับ Meteor Lake ➡️ รองรับสูงสุด 86 คอร์ 172 เธรด และแคช L3 ขนาด 336MB ✅ ความสามารถด้านการเชื่อมต่อและหน่วยความจำ ➡️ รองรับระบบซ็อกเก็ตเดียวและสองซ็อกเก็ต ➡️ ใช้ UPI interconnects 4 ช่อง ความเร็วสูงสุด 24 GT/s ➡️ รองรับ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s ➡️ มี PCIe 5.0 จำนวน 88 เลน และรองรับ CXL 2.0 ✅ ความเข้ากันได้และการอัปเกรด ➡️ ใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6 ➡️ รองรับ x86 instruction set เต็มรูปแบบ ➡️ สามารถอัปเกรดจาก Sierra Forest หรือ Emerald Rapids ได้ทันที ✅ ฟีเจอร์ด้านความปลอดภัยและการใช้งานในอุตสาหกรรม ➡️ มีระบบเข้ารหัสข้อมูลและการตรวจสอบความน่าเชื่อถือ ➡️ ป้องกันการแก้ไขข้อมูลและการรั่วไหลในระดับชิป ➡️ เหมาะกับอุตสาหกรรมการเงิน รัฐบาล และการแพทย์ ➡️ รองรับระบบปฏิบัติการโอเพ่นซอร์ส เช่น openEuler และ OpenCloudOS https://wccftech.com/montage-technology-rebadges-intel-granite-rapids-xeon-6p-cpus-china-domestic-server-market/
    WCCFTECH.COM
    Montage Technology Rebadges Intel's Granite Rapids "Xeon 6P" CPUs For China's Domestic Server Segment: Offers Up To 86 Cores Under The "C6P" Series
    China's Montage Technology, has launched its new C6P server CPUs with up to 86 cores, which are rebadged Intel Granite Rapids Xeon chips.
    0 Comments 0 Shares 153 Views 0 Reviews
  • Silicon Photonics: เทคโนโลยีแห่งอนาคตที่ยังไม่พร้อมสำหรับวันนี้
    ในขณะที่อุตสาหกรรมคอมพิวเตอร์กำลังมองหาเทคโนโลยีใหม่เพื่อรองรับการประมวลผล AI ขนาดใหญ่ “Silicon Photonics” หรือการส่งข้อมูลด้วยแสงผ่านชิปซิลิกอน ถูกมองว่าเป็นคำตอบสำหรับการเชื่อมต่อที่เร็วขึ้น ประหยัดพลังงาน และลดความร้อน

    แต่ Jensen Huang ซีอีโอของ NVIDIA กลับออกมาแสดงความเห็นว่า “โลกควรอยู่กับทองแดงให้นานที่สุดเท่าที่จะทำได้” เพราะแม้ NVIDIA จะร่วมมือกับ TSMC และพัฒนาเทคโนโลยี photonics เช่น Quantum-X และ Spectrum-X แต่การใช้งานจริงยังต้องใช้เวลาอีกหลายปี

    แม้จะมีการเปิดตัวสวิตช์เครือข่ายแบบ photonics ที่สามารถเชื่อมต่อ GPU หลายล้านตัวใน AI factory ได้ แต่ Jensen ย้ำว่า การเปลี่ยนผ่านจากทองแดงไปสู่แสงต้องใช้การปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด ซึ่งไม่ใช่เรื่องง่ายในระยะสั้น

    ความหมายและศักยภาพของ Silicon Photonics
    เป็นเทคโนโลยีที่ใช้แสงแทนไฟฟ้าในการส่งข้อมูลผ่านชิปซิลิกอน
    ให้แบนด์วิดธ์สูงกว่า ลด latency และประหยัดพลังงานมากกว่าสายทองแดง
    เหมาะกับงาน AI ขนาดใหญ่ที่ต้องการเชื่อมต่อ GPU จำนวนมหาศาล

    จุดยืนของ NVIDIA และ Jensen Huang
    Jensen Huang ระบุว่า Silicon Photonics ยังไม่พร้อมใช้งานจริง
    แนะนำให้ใช้สายทองแดงต่อไปอีกหลายปีเพื่อความเสถียรและต้นทุนต่ำ
    การเปลี่ยนไปใช้ photonics ต้องปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด

    แผนการพัฒนา Photonics ของ NVIDIA
    ร่วมมือกับ TSMC พัฒนาแพลตฟอร์ม COUPE สำหรับการประกอบ photonics
    เปิดตัว Spectrum-X และ Quantum-X switches สำหรับ AI factories
    สวิตช์สามารถส่งข้อมูลได้ถึง 400Tbps และประหยัดพลังงานได้ถึง 3.5 เท่า
    Quantum-X InfiniBand จะวางขายปลายปี 2025 และ Spectrum-X Ethernet ในปี 2026

    Ecosystem และพันธมิตร
    มีพันธมิตรเช่น Coherent, Corning, Foxconn, Lumentum และ SENKO
    TSMC เป็นสมาชิกผู้ก่อตั้ง Silicon Photonics Industry Alliance
    NVIDIA ยังลงทุนในสตาร์ตอัพ Xscape ที่พัฒนาแพลตฟอร์ม photonics สำหรับ AI

    https://wccftech.com/nvidia-ceo-jensen-huang-claims-silicon-photonics-packaging-is-still-years-away/
    🌐 Silicon Photonics: เทคโนโลยีแห่งอนาคตที่ยังไม่พร้อมสำหรับวันนี้ ในขณะที่อุตสาหกรรมคอมพิวเตอร์กำลังมองหาเทคโนโลยีใหม่เพื่อรองรับการประมวลผล AI ขนาดใหญ่ “Silicon Photonics” หรือการส่งข้อมูลด้วยแสงผ่านชิปซิลิกอน ถูกมองว่าเป็นคำตอบสำหรับการเชื่อมต่อที่เร็วขึ้น ประหยัดพลังงาน และลดความร้อน แต่ Jensen Huang ซีอีโอของ NVIDIA กลับออกมาแสดงความเห็นว่า “โลกควรอยู่กับทองแดงให้นานที่สุดเท่าที่จะทำได้” เพราะแม้ NVIDIA จะร่วมมือกับ TSMC และพัฒนาเทคโนโลยี photonics เช่น Quantum-X และ Spectrum-X แต่การใช้งานจริงยังต้องใช้เวลาอีกหลายปี แม้จะมีการเปิดตัวสวิตช์เครือข่ายแบบ photonics ที่สามารถเชื่อมต่อ GPU หลายล้านตัวใน AI factory ได้ แต่ Jensen ย้ำว่า การเปลี่ยนผ่านจากทองแดงไปสู่แสงต้องใช้การปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด ซึ่งไม่ใช่เรื่องง่ายในระยะสั้น ✅ ความหมายและศักยภาพของ Silicon Photonics ➡️ เป็นเทคโนโลยีที่ใช้แสงแทนไฟฟ้าในการส่งข้อมูลผ่านชิปซิลิกอน ➡️ ให้แบนด์วิดธ์สูงกว่า ลด latency และประหยัดพลังงานมากกว่าสายทองแดง ➡️ เหมาะกับงาน AI ขนาดใหญ่ที่ต้องการเชื่อมต่อ GPU จำนวนมหาศาล ✅ จุดยืนของ NVIDIA และ Jensen Huang ➡️ Jensen Huang ระบุว่า Silicon Photonics ยังไม่พร้อมใช้งานจริง ➡️ แนะนำให้ใช้สายทองแดงต่อไปอีกหลายปีเพื่อความเสถียรและต้นทุนต่ำ ➡️ การเปลี่ยนไปใช้ photonics ต้องปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด ✅ แผนการพัฒนา Photonics ของ NVIDIA ➡️ ร่วมมือกับ TSMC พัฒนาแพลตฟอร์ม COUPE สำหรับการประกอบ photonics ➡️ เปิดตัว Spectrum-X และ Quantum-X switches สำหรับ AI factories ➡️ สวิตช์สามารถส่งข้อมูลได้ถึง 400Tbps และประหยัดพลังงานได้ถึง 3.5 เท่า ➡️ Quantum-X InfiniBand จะวางขายปลายปี 2025 และ Spectrum-X Ethernet ในปี 2026 ✅ Ecosystem และพันธมิตร ➡️ มีพันธมิตรเช่น Coherent, Corning, Foxconn, Lumentum และ SENKO ➡️ TSMC เป็นสมาชิกผู้ก่อตั้ง Silicon Photonics Industry Alliance ➡️ NVIDIA ยังลงทุนในสตาร์ตอัพ Xscape ที่พัฒนาแพลตฟอร์ม photonics สำหรับ AI https://wccftech.com/nvidia-ceo-jensen-huang-claims-silicon-photonics-packaging-is-still-years-away/
    WCCFTECH.COM
    NVIDIA CEO Jensen Huang Claims "Silicon Photonics" Packaging Is Still Years Away, Says the World Should Stay on Copper for as Long as Possible
    While the world looks towards silicon photonics for AI computing products, it seems like the NVIDIA CEO isn't too optimistic about it.
    0 Comments 0 Shares 175 Views 0 Reviews
  • Radeon AI PRO R9700: การ์ดจอสำหรับ AI ที่ออกแบบมาเพื่อเวิร์กสเตชันโดยเฉพาะ

    AMD เปิดตัว Radeon AI PRO R9700 ซึ่งเป็นกราฟิกการ์ดระดับมืออาชีพที่ใช้สถาปัตยกรรม RDNA 4 พร้อมหน่วยความจำ GDDR6 ขนาด 32GB และ 128 AI Accelerators โดยเน้นการใช้งานด้าน AI inference, LLMs, การประมวลผลภาพทางการแพทย์ และงานวิทยาศาสตร์ข้อมูล

    การ์ดนี้มีความสามารถในการประมวลผลสูงถึง 1531 TOPS (INT4) และ 96 TFLOPS (FP16) พร้อมรองรับ PCIe 5.0 x16 และ ECC memory สำหรับ Linux โดยสามารถใช้งานแบบ multi-GPU ได้ถึง 4 ใบ รวม VRAM ได้ถึง 112GB เหมาะกับโมเดลขนาดใหญ่ เช่น LLaMA 70B หรือ Mistral Large

    ASRock และ GIGABYTE ต่างเปิดตัวรุ่น Creator Edition ที่ใช้ระบบระบายความร้อนแบบ blower fan พร้อม vapor chamber และวัสดุเกรดเซิร์ฟเวอร์ เช่น thermal gel และ metal grease เพื่อรองรับการใช้งานต่อเนื่องในระบบ rackmount

    แม้จะมีประสิทธิภาพสูง แต่ราคาก็สูงตาม โดยรุ่น ASRock อยู่ที่ $1329 และ GIGABYTE ประมาณ $1220 ซึ่งแพงกว่าการ์ดเล่นเกม RX 9070 XT ถึงสองเท่า แม้จะใช้สเปกใกล้เคียงกัน

    การออกแบบของรุ่น ASRock และ GIGABYTE
    ใช้ระบบระบายความร้อน blower fan พร้อม vapor chamber
    มี thermal gel เกรดเซิร์ฟเวอร์และ metal grease สำหรับ GPU
    รองรับการติดตั้งในเคสแบบ rackmount ด้วยการวางหัวจ่ายไฟด้านท้าย
    มี DisplayPort 2.1a จำนวน 4 ช่อง รองรับภาพ 8K

    การวางจำหน่ายและราคา
    เปิดตัวในเดือนกรกฎาคม 2025
    ราคาประมาณ $1329 สำหรับรุ่น ASRock Creator
    GIGABYTE รุ่น Turbo Fan มีราคาประมาณ $1220 ก่อนภาษี
    วางขายผ่านผู้ผลิตระบบ (SI) และร้านค้าบางแห่งเท่านั้น

    https://wccftech.com/asrock-creator-radeon-ai-pro-r9700-listed-on-newegg-for-1329/
    🧠 Radeon AI PRO R9700: การ์ดจอสำหรับ AI ที่ออกแบบมาเพื่อเวิร์กสเตชันโดยเฉพาะ AMD เปิดตัว Radeon AI PRO R9700 ซึ่งเป็นกราฟิกการ์ดระดับมืออาชีพที่ใช้สถาปัตยกรรม RDNA 4 พร้อมหน่วยความจำ GDDR6 ขนาด 32GB และ 128 AI Accelerators โดยเน้นการใช้งานด้าน AI inference, LLMs, การประมวลผลภาพทางการแพทย์ และงานวิทยาศาสตร์ข้อมูล การ์ดนี้มีความสามารถในการประมวลผลสูงถึง 1531 TOPS (INT4) และ 96 TFLOPS (FP16) พร้อมรองรับ PCIe 5.0 x16 และ ECC memory สำหรับ Linux โดยสามารถใช้งานแบบ multi-GPU ได้ถึง 4 ใบ รวม VRAM ได้ถึง 112GB เหมาะกับโมเดลขนาดใหญ่ เช่น LLaMA 70B หรือ Mistral Large ASRock และ GIGABYTE ต่างเปิดตัวรุ่น Creator Edition ที่ใช้ระบบระบายความร้อนแบบ blower fan พร้อม vapor chamber และวัสดุเกรดเซิร์ฟเวอร์ เช่น thermal gel และ metal grease เพื่อรองรับการใช้งานต่อเนื่องในระบบ rackmount แม้จะมีประสิทธิภาพสูง แต่ราคาก็สูงตาม โดยรุ่น ASRock อยู่ที่ $1329 และ GIGABYTE ประมาณ $1220 ซึ่งแพงกว่าการ์ดเล่นเกม RX 9070 XT ถึงสองเท่า แม้จะใช้สเปกใกล้เคียงกัน ✅ การออกแบบของรุ่น ASRock และ GIGABYTE ➡️ ใช้ระบบระบายความร้อน blower fan พร้อม vapor chamber ➡️ มี thermal gel เกรดเซิร์ฟเวอร์และ metal grease สำหรับ GPU ➡️ รองรับการติดตั้งในเคสแบบ rackmount ด้วยการวางหัวจ่ายไฟด้านท้าย ➡️ มี DisplayPort 2.1a จำนวน 4 ช่อง รองรับภาพ 8K ✅ การวางจำหน่ายและราคา ➡️ เปิดตัวในเดือนกรกฎาคม 2025 ➡️ ราคาประมาณ $1329 สำหรับรุ่น ASRock Creator ➡️ GIGABYTE รุ่น Turbo Fan มีราคาประมาณ $1220 ก่อนภาษี ➡️ วางขายผ่านผู้ผลิตระบบ (SI) และร้านค้าบางแห่งเท่านั้น https://wccftech.com/asrock-creator-radeon-ai-pro-r9700-listed-on-newegg-for-1329/
    WCCFTECH.COM
    ASRock Creator Radeon AI PRO R9700 Listed On Newegg For $1329; GIGABYTE's Custom Edition Also Reportedly Shares The Same Price
    AMD's latest RDNA 4-based Radeon AI PRO R9700 has started shipping to users. As seen on Newegg, the ASRock Creator Radeon AI PRO R9700 costs $1329.
    0 Comments 0 Shares 167 Views 0 Reviews
  • MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร

    MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB

    การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ

    จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว

    แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก

    สเปกและการออกแบบของ Arc Pro B60 Dual
    ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6
    มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s
    ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21
    เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน
    ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate

    จุดเด่นด้านการใช้งาน
    เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง
    รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV
    ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation
    ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์

    การวางจำหน่ายและราคา
    เปิดตัววันที่ 18 สิงหาคม 2025
    ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU
    ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป
    หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090

    Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด
    ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด
    ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น
    การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป
    หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์

    https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    🧠 MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก ✅ สเปกและการออกแบบของ Arc Pro B60 Dual ➡️ ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6 ➡️ มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s ➡️ ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 ➡️ เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน ➡️ ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate ✅ จุดเด่นด้านการใช้งาน ➡️ เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง ➡️ รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV ➡️ ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation ➡️ ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์ ✅ การวางจำหน่ายและราคา ➡️ เปิดตัววันที่ 18 สิงหาคม 2025 ➡️ ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU ➡️ ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป ➡️ หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090 ⛔ Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด ⛔ ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด ⛔ ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น ⛔ การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป ⛔ หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์ https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    WCCFTECH.COM
    As MAXSUN Prepares To Launch Arc Pro B60 Dual GPU Next Week, Intel Is Supposedly Facing Inventory Issues With B60
    According to a conversation between a company and MAXSUN's manager, the GPU manufacturer is expected to launch the Arc Pro B60 Dual next week
    0 Comments 0 Shares 192 Views 0 Reviews
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 Comments 0 Shares 168 Views 0 Reviews
  • RTX 5090D V2: การ์ด “ลดสเปก” ที่ไม่ลดพลังเกม

    NVIDIA เปิดตัว RTX 5090D V2 สำหรับตลาดจีนโดยเฉพาะ เพื่อให้สอดคล้องกับข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดยรุ่นนี้ลดขนาดแบนด์วิดธ์หน่วยความจำจาก 512-bit เหลือ 384-bit และลด VRAM จาก 32GB เหลือ 24GB GDDR7

    แต่ผลการทดสอบจากหลายสำนัก เช่น Yesky, Expreview และ Inno3D กลับพบว่า RTX 5090D V2 มีประสิทธิภาพในการเล่นเกมใกล้เคียงกับ RTX 5090D รุ่นเต็มอย่างน่าประหลาดใจ โดยเฉลี่ยช้ากว่าเพียง 1–2% เท่านั้น แม้ในความละเอียด 4K ที่ปกติจะไวต่อแบนด์วิดธ์หน่วยความจำ

    สาเหตุหนึ่งคือสถาปัตยกรรม Blackwell ของ NVIDIA ที่แม้จะรองรับแบนด์วิดธ์สูงถึง 1.79TB/s แต่กลับไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม ทำให้การลดเหลือ 384-bit ไม่ส่งผลกระทบมากนัก

    การเปิดตัว RTX 5090D V2
    เป็นรุ่นที่ปรับลดสเปกเพื่อขายในจีนตามข้อจำกัดการส่งออก
    ลด VRAM จาก 32GB เหลือ 24GB และลดแบนด์วิดธ์จาก 512-bit เหลือ 384-bit
    ใช้สถาปัตยกรรม Blackwell เหมือนรุ่นเต็ม

    ผลการทดสอบด้านเกม
    ประสิทธิภาพใกล้เคียง RTX 5090D ในทุกเกมที่ทดสอบ เช่น Cyberpunk 2077, Hogwarts Legacy, Borderlands 3
    เฉลี่ยช้ากว่าเพียง 1–2% แม้ในความละเอียด 4K
    DLSS 4 ช่วยให้เฟรมเรตสูงขึ้นอย่างมีนัยสำคัญ

    การเปรียบเทียบกับรุ่นเต็ม
    RTX 5090D มี VRAM 32GB และแบนด์วิดธ์ 512-bit
    RTX 5090D V2 มี VRAM 24GB และแบนด์วิดธ์ 384-bit
    สเปกอื่น ๆ เช่น CUDA cores, Tensor cores, TDP ยังคงเท่ากัน

    สถาปัตยกรรม Blackwell
    ใช้ GDDR7 และมี L2 cache ที่ช่วยลดการพึ่งพาแบนด์วิดธ์
    รองรับ DLSS 4 และฟีเจอร์ใหม่สำหรับการเรนเดอร์แบบ AI
    ยังไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม

    https://www.tomshardware.com/pc-components/gpus/early-rtx-5090d-v2-benchmarks-suggest-that-maybe-384-bit-memory-is-just-fine-after-all-nerfed-china-market-gpu-runs-within-2-2-percent-of-5090d-in-some-tests
    🧠 RTX 5090D V2: การ์ด “ลดสเปก” ที่ไม่ลดพลังเกม NVIDIA เปิดตัว RTX 5090D V2 สำหรับตลาดจีนโดยเฉพาะ เพื่อให้สอดคล้องกับข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดยรุ่นนี้ลดขนาดแบนด์วิดธ์หน่วยความจำจาก 512-bit เหลือ 384-bit และลด VRAM จาก 32GB เหลือ 24GB GDDR7 แต่ผลการทดสอบจากหลายสำนัก เช่น Yesky, Expreview และ Inno3D กลับพบว่า RTX 5090D V2 มีประสิทธิภาพในการเล่นเกมใกล้เคียงกับ RTX 5090D รุ่นเต็มอย่างน่าประหลาดใจ โดยเฉลี่ยช้ากว่าเพียง 1–2% เท่านั้น แม้ในความละเอียด 4K ที่ปกติจะไวต่อแบนด์วิดธ์หน่วยความจำ สาเหตุหนึ่งคือสถาปัตยกรรม Blackwell ของ NVIDIA ที่แม้จะรองรับแบนด์วิดธ์สูงถึง 1.79TB/s แต่กลับไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม ทำให้การลดเหลือ 384-bit ไม่ส่งผลกระทบมากนัก ✅ การเปิดตัว RTX 5090D V2 ➡️ เป็นรุ่นที่ปรับลดสเปกเพื่อขายในจีนตามข้อจำกัดการส่งออก ➡️ ลด VRAM จาก 32GB เหลือ 24GB และลดแบนด์วิดธ์จาก 512-bit เหลือ 384-bit ➡️ ใช้สถาปัตยกรรม Blackwell เหมือนรุ่นเต็ม ✅ ผลการทดสอบด้านเกม ➡️ ประสิทธิภาพใกล้เคียง RTX 5090D ในทุกเกมที่ทดสอบ เช่น Cyberpunk 2077, Hogwarts Legacy, Borderlands 3 ➡️ เฉลี่ยช้ากว่าเพียง 1–2% แม้ในความละเอียด 4K ➡️ DLSS 4 ช่วยให้เฟรมเรตสูงขึ้นอย่างมีนัยสำคัญ ✅ การเปรียบเทียบกับรุ่นเต็ม ➡️ RTX 5090D มี VRAM 32GB และแบนด์วิดธ์ 512-bit ➡️ RTX 5090D V2 มี VRAM 24GB และแบนด์วิดธ์ 384-bit ➡️ สเปกอื่น ๆ เช่น CUDA cores, Tensor cores, TDP ยังคงเท่ากัน ✅ สถาปัตยกรรม Blackwell ➡️ ใช้ GDDR7 และมี L2 cache ที่ช่วยลดการพึ่งพาแบนด์วิดธ์ ➡️ รองรับ DLSS 4 และฟีเจอร์ใหม่สำหรับการเรนเดอร์แบบ AI ➡️ ยังไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม https://www.tomshardware.com/pc-components/gpus/early-rtx-5090d-v2-benchmarks-suggest-that-maybe-384-bit-memory-is-just-fine-after-all-nerfed-china-market-gpu-runs-within-2-2-percent-of-5090d-in-some-tests
    WWW.TOMSHARDWARE.COM
    Early RTX 5090D V2 benchmarks suggest that maybe 384-bit memory is just fine after all — 'nerfed' China-market GPU runs within 2.2% of 5090D in some tests
    There's barely any difference in performance between the RTX 5090D and its 512-bit interface compared to the 5090D V2 and its skinnier 384-bit interface in games.
    0 Comments 0 Shares 183 Views 0 Reviews
  • Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY

    เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit

    แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY

    การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด

    เทียบกับคู่แข่ง: Nvidia และ Intel

    แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด

    ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก

    การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY
    เดิมจำกัดการขายเฉพาะ OEM และ SI
    ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก
    ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง

    สเปกเด่นของ R9700
    ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators
    VRAM ขนาด 32GB GDDR6 บนบัส 256-bit
    ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4

    การออกแบบและการใช้งาน
    ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์
    รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local
    ใช้ PCIe 5.0 x16 และมีขนาด 2-slot

    เปรียบเทียบกับคู่แข่ง
    RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999
    Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200
    R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI

    https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    🧠 Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด 📊 เทียบกับคู่แข่ง: Nvidia และ Intel แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก ✅ การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY ➡️ เดิมจำกัดการขายเฉพาะ OEM และ SI ➡️ ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก ➡️ ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง ✅ สเปกเด่นของ R9700 ➡️ ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators ➡️ VRAM ขนาด 32GB GDDR6 บนบัส 256-bit ➡️ ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4 ✅ การออกแบบและการใช้งาน ➡️ ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์ ➡️ รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local ➡️ ใช้ PCIe 5.0 x16 และมีขนาด 2-slot ✅ เปรียบเทียบกับคู่แข่ง ➡️ RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999 ➡️ Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200 ➡️ R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    0 Comments 0 Shares 171 Views 0 Reviews
  • GNU Hurd 2025: ก้าวสำคัญของระบบปฏิบัติการเสรีที่หลายคนลืมไป

    ในโลกที่ Linux ครองตลาดระบบปฏิบัติการแบบโอเพ่นซอร์สมานานหลายสิบปี มีอีกหนึ่งโครงการที่ยังคงเดินหน้าด้วยอุดมการณ์อันแรงกล้า นั่นคือ GNU Hurd ซึ่งเป็นระบบปฏิบัติการที่พัฒนาโดย Free Software Foundation (FSF) โดยมีเป้าหมายเพื่อสร้างระบบที่ “เสรีอย่างแท้จริง” ทั้งในด้านซอร์สโค้ดและสิทธิของผู้ใช้

    ล่าสุดในปี 2025 โครงการนี้ได้ออกเวอร์ชันใหม่ในชื่อ Debian GNU/Hurd 2025 ซึ่งถือเป็นก้าวสำคัญ เพราะมีการปรับปรุงหลายด้านให้ทันสมัยขึ้น เช่น รองรับสถาปัตยกรรม 64-bit อย่างเต็มรูปแบบ, เพิ่มการสนับสนุนภาษา Rust, รองรับ SMP (การใช้หลายคอร์พร้อมกัน), และระบบ ACPI สำหรับจัดการพลังงาน

    GNU Hurd แตกต่างจาก Linux ตรงที่ใช้ “microkernel” แทน “monolithic kernel” โดยแบ่งการทำงานของระบบออกเป็นเซิร์ฟเวอร์ย่อย ๆ ที่ทำงานแยกกัน เช่น การจัดการไฟล์, เครือข่าย, และสิทธิ์การเข้าถึง ซึ่งช่วยให้ระบบมีความปลอดภัยและเสถียรมากขึ้น เพราะแต่ละส่วนสามารถรีสตาร์ทได้โดยไม่ต้องรีบูตทั้งเครื่อง

    แม้จะยังไม่เหมาะกับการใช้งานในระดับ production แต่ GNU/Hurd ก็เป็นแพลตฟอร์มที่ดีสำหรับนักพัฒนาและผู้สนใจด้านระบบปฏิบัติการ เพราะเปิดโอกาสให้เรียนรู้โครงสร้างภายในได้อย่างโปร่งใส และสอดคล้องกับหลักการ “4 เสรีภาพ” ของซอฟต์แวร์เสรี

    https://linuxconfig.org/gnu-hurd-2025-release-marks-milestone-for-free-software-foundation
    🧠 GNU Hurd 2025: ก้าวสำคัญของระบบปฏิบัติการเสรีที่หลายคนลืมไป ในโลกที่ Linux ครองตลาดระบบปฏิบัติการแบบโอเพ่นซอร์สมานานหลายสิบปี มีอีกหนึ่งโครงการที่ยังคงเดินหน้าด้วยอุดมการณ์อันแรงกล้า นั่นคือ GNU Hurd ซึ่งเป็นระบบปฏิบัติการที่พัฒนาโดย Free Software Foundation (FSF) โดยมีเป้าหมายเพื่อสร้างระบบที่ “เสรีอย่างแท้จริง” ทั้งในด้านซอร์สโค้ดและสิทธิของผู้ใช้ ล่าสุดในปี 2025 โครงการนี้ได้ออกเวอร์ชันใหม่ในชื่อ Debian GNU/Hurd 2025 ซึ่งถือเป็นก้าวสำคัญ เพราะมีการปรับปรุงหลายด้านให้ทันสมัยขึ้น เช่น รองรับสถาปัตยกรรม 64-bit อย่างเต็มรูปแบบ, เพิ่มการสนับสนุนภาษา Rust, รองรับ SMP (การใช้หลายคอร์พร้อมกัน), และระบบ ACPI สำหรับจัดการพลังงาน GNU Hurd แตกต่างจาก Linux ตรงที่ใช้ “microkernel” แทน “monolithic kernel” โดยแบ่งการทำงานของระบบออกเป็นเซิร์ฟเวอร์ย่อย ๆ ที่ทำงานแยกกัน เช่น การจัดการไฟล์, เครือข่าย, และสิทธิ์การเข้าถึง ซึ่งช่วยให้ระบบมีความปลอดภัยและเสถียรมากขึ้น เพราะแต่ละส่วนสามารถรีสตาร์ทได้โดยไม่ต้องรีบูตทั้งเครื่อง แม้จะยังไม่เหมาะกับการใช้งานในระดับ production แต่ GNU/Hurd ก็เป็นแพลตฟอร์มที่ดีสำหรับนักพัฒนาและผู้สนใจด้านระบบปฏิบัติการ เพราะเปิดโอกาสให้เรียนรู้โครงสร้างภายในได้อย่างโปร่งใส และสอดคล้องกับหลักการ “4 เสรีภาพ” ของซอฟต์แวร์เสรี https://linuxconfig.org/gnu-hurd-2025-release-marks-milestone-for-free-software-foundation
    LINUXCONFIG.ORG
    GNU Hurd 2025 Release Marks Milestone for Free Software Foundation
    The Debian GNU/Hurd 2025 release represents a major advancement in free software, supporting modern hardware with enhanced features, prioritizing user freedom and software transparency. Discover what this means for users and the future of the GNU/Hurd project.
    0 Comments 0 Shares 128 Views 0 Reviews
  • Ryzen 5 5500X3D: ตัวเลือกใหม่สำหรับเกมเมอร์สายประหยัด

    ในยุคที่ซีพียูแรง ๆ ราคาทะลุหมื่น AMD กลับเลือกเดินเกมแหวกแนวด้วยการเปิดตัว Ryzen 5 5500X3D ซึ่งเป็นซีพียู Zen 3 รุ่นใหม่ที่ใช้เทคโนโลยี 3D V-Cache แต่เปิดขายเฉพาะในละตินอเมริกาเท่านั้น!

    แม้จะเป็นรุ่นใหม่ แต่จริง ๆ แล้วมันคือ “รุ่นลดสเปก” ของ Ryzen 5 5600X3D โดยมีคล็อกต่ำกว่าเล็กน้อย (ประมาณ 9%) แต่ยังคงจำนวนคอร์ 6 คอร์ 12 เธรด และแคช L3 ขนาด 96MB เท่ากัน

    จากการทดสอบเบื้องต้นใน PassMark พบว่า 5500X3D มีประสิทธิภาพด้อยกว่า 5600X3D ประมาณ 6% ทั้งแบบ single-thread และ multi-thread แต่เมื่อดูจากราคาเปิดตัวที่ราว $185 ก็ถือว่า “คุ้ม” สำหรับคนที่ยังใช้เมนบอร์ด AM4 และอยากอัปเกรดแบบไม่ต้องเปลี่ยนแพลตฟอร์ม

    ที่น่าสนใจคือ แม้จะยังไม่มี benchmark เกมโดยตรง แต่จากการเปรียบเทียบในเกมจริง เช่น Starfield และ Counter-Strike 2 พบว่า 5500X3D ทำเฟรมเรตได้ใกล้เคียงกับ 5600X3D มาก โดยเฉพาะในเกมที่ใช้แคชหนัก ๆ

    นอกจากนี้ ยังมีข้อดีที่หลายคนอาจมองข้าม เช่น รองรับ PCIe 4.0, ใช้แรม DDR4 ได้สูงสุด 128GB และมี TDP 105W เท่ากับรุ่นพี่ ทำให้สามารถใช้กับพาวเวอร์ซัพพลายเดิมได้เลย

    AMD เปิดตัว Ryzen 5 5500X3D สำหรับตลาดละตินอเมริกา
    ใช้สถาปัตยกรรม Zen 3 พร้อม 3D V-Cache ขนาด 96MB
    มี 6 คอร์ 12 เธรด เหมือนกับ Ryzen 5 5600X3D
    คล็อกต่ำกว่า 5600X3D ประมาณ 9%
    ราคาขายเฉลี่ยอยู่ที่ $185–$216 แล้วแต่ประเทศ

    ประสิทธิภาพจากการทดสอบเบื้องต้น
    คะแนน PassMark ต่ำกว่า 5600X3D ประมาณ 6%
    คะแนน multi-thread สูงกว่า Ryzen 5 5500 รุ่นธรรมดา
    ยังไม่มี benchmark เกมโดยตรง แต่มีแนวโน้มดีในเกมที่ใช้แคช

    จุดเด่นด้านเทคโนโลยีและการใช้งาน
    รองรับ PCIe 4.0 และแรม DDR4 สูงสุด 128GB
    ใช้ TDP 105W เท่ากับรุ่นพี่ ไม่ต้องเปลี่ยน PSU
    ไม่มี iGPU ต้องใช้การ์ดจอแยกในการใช้งาน

    https://www.tomshardware.com/pc-components/cpus/amds-new-budget-am4-gaming-cpu-looks-solid-in-new-benchmarks-zen-3-based-ryzen-5-5500x3d-trails-ryzen-5-5600x3d-by-6-percent-in-passmark
    🧠 Ryzen 5 5500X3D: ตัวเลือกใหม่สำหรับเกมเมอร์สายประหยัด ในยุคที่ซีพียูแรง ๆ ราคาทะลุหมื่น AMD กลับเลือกเดินเกมแหวกแนวด้วยการเปิดตัว Ryzen 5 5500X3D ซึ่งเป็นซีพียู Zen 3 รุ่นใหม่ที่ใช้เทคโนโลยี 3D V-Cache แต่เปิดขายเฉพาะในละตินอเมริกาเท่านั้น! แม้จะเป็นรุ่นใหม่ แต่จริง ๆ แล้วมันคือ “รุ่นลดสเปก” ของ Ryzen 5 5600X3D โดยมีคล็อกต่ำกว่าเล็กน้อย (ประมาณ 9%) แต่ยังคงจำนวนคอร์ 6 คอร์ 12 เธรด และแคช L3 ขนาด 96MB เท่ากัน จากการทดสอบเบื้องต้นใน PassMark พบว่า 5500X3D มีประสิทธิภาพด้อยกว่า 5600X3D ประมาณ 6% ทั้งแบบ single-thread และ multi-thread แต่เมื่อดูจากราคาเปิดตัวที่ราว $185 ก็ถือว่า “คุ้ม” สำหรับคนที่ยังใช้เมนบอร์ด AM4 และอยากอัปเกรดแบบไม่ต้องเปลี่ยนแพลตฟอร์ม ที่น่าสนใจคือ แม้จะยังไม่มี benchmark เกมโดยตรง แต่จากการเปรียบเทียบในเกมจริง เช่น Starfield และ Counter-Strike 2 พบว่า 5500X3D ทำเฟรมเรตได้ใกล้เคียงกับ 5600X3D มาก โดยเฉพาะในเกมที่ใช้แคชหนัก ๆ นอกจากนี้ ยังมีข้อดีที่หลายคนอาจมองข้าม เช่น รองรับ PCIe 4.0, ใช้แรม DDR4 ได้สูงสุด 128GB และมี TDP 105W เท่ากับรุ่นพี่ ทำให้สามารถใช้กับพาวเวอร์ซัพพลายเดิมได้เลย ✅ AMD เปิดตัว Ryzen 5 5500X3D สำหรับตลาดละตินอเมริกา ➡️ ใช้สถาปัตยกรรม Zen 3 พร้อม 3D V-Cache ขนาด 96MB ➡️ มี 6 คอร์ 12 เธรด เหมือนกับ Ryzen 5 5600X3D ➡️ คล็อกต่ำกว่า 5600X3D ประมาณ 9% ➡️ ราคาขายเฉลี่ยอยู่ที่ $185–$216 แล้วแต่ประเทศ ✅ ประสิทธิภาพจากการทดสอบเบื้องต้น ➡️ คะแนน PassMark ต่ำกว่า 5600X3D ประมาณ 6% ➡️ คะแนน multi-thread สูงกว่า Ryzen 5 5500 รุ่นธรรมดา ➡️ ยังไม่มี benchmark เกมโดยตรง แต่มีแนวโน้มดีในเกมที่ใช้แคช ✅ จุดเด่นด้านเทคโนโลยีและการใช้งาน ➡️ รองรับ PCIe 4.0 และแรม DDR4 สูงสุด 128GB ➡️ ใช้ TDP 105W เท่ากับรุ่นพี่ ไม่ต้องเปลี่ยน PSU ➡️ ไม่มี iGPU ต้องใช้การ์ดจอแยกในการใช้งาน https://www.tomshardware.com/pc-components/cpus/amds-new-budget-am4-gaming-cpu-looks-solid-in-new-benchmarks-zen-3-based-ryzen-5-5500x3d-trails-ryzen-5-5600x3d-by-6-percent-in-passmark
    0 Comments 0 Shares 117 Views 0 Reviews
  • ล่องเรือสัมผัสเสน่ห์แห่งแม่น้ำไรน์ตอนใต้ บนเรือ A-ROSA
    ดื่มด่ำบรรยากาศสุดโรแมนติกของเมืองเลียบแม่น้ำ พร้อมชมศิลปะ
    สถาปัตยกรรม และวัฒนธรรมที่หลอมรวมระหว่างเยอรมัน ฝรั่งเศส และสวิตเซอร์แลนด์

    🛳 A-ROSA CLEA – Southern Rhine Experience 2025

    🗓 เดินทาง: เม.ย. – ต.ค. 2568

    เส้นทาง : แฟรงก์เฟิร์ต – สเปเยอร์ – สตราสบูร์ก – บาเซิล – ไบรซาค – ไมนซ์ – แฟรงก์เฟิร์ต

    ราคาเริ่มต้นเพียง EUR 1,398 / ท่าน

    แพ็กเกจ Premium All Inclusive ครบจบบนเรือ
    อาหารทุกมื้อ
    ห้องพักบนเรือสุดหรู
    กิจกรรมและความบันเทิงจัดเต็ม

    รหัสแพคเกจทัวร์ : AROP-8D7N-FRA-FRA-2504251
    คลิกดูรายละเอียดโปรแกรม : 78s.me/e85d44

    ดูแพ็คเกจเรือทั้งหมด
    https://cruisedomain.com/
    LINE ID: @CruiseDomain 78s.me/c54029
    Facebook: CruiseDomain 78s.me/b8a121
    Youtube : CruiseDomain 78s.me/8af620
    : 0 2116 9696 (Auto)

    #เรือArosaClea #Arosarivercruise #เรือล่องแม่น้ำ #แม่น้ำไรน์ #Mainz #Germany #Speyer #Breisach #Basel #CruiseDomain #thaitimes #News1 #Sondhitalk #คุยทุกเรื่องกับสนธิ #เที่ยว
    🌊 ล่องเรือสัมผัสเสน่ห์แห่งแม่น้ำไรน์ตอนใต้ บนเรือ A-ROSA 🚢 ดื่มด่ำบรรยากาศสุดโรแมนติกของเมืองเลียบแม่น้ำ พร้อมชมศิลปะ สถาปัตยกรรม และวัฒนธรรมที่หลอมรวมระหว่างเยอรมัน ฝรั่งเศส และสวิตเซอร์แลนด์ 🇩🇪🇫🇷🇨🇭 🛳 A-ROSA CLEA – Southern Rhine Experience 2025 🗓 เดินทาง: เม.ย. – ต.ค. 2568 📍 เส้นทาง : แฟรงก์เฟิร์ต – สเปเยอร์ – สตราสบูร์ก – บาเซิล – ไบรซาค – ไมนซ์ – แฟรงก์เฟิร์ต 💰 ราคาเริ่มต้นเพียง EUR 1,398 / ท่าน ✨ แพ็กเกจ Premium All Inclusive ครบจบบนเรือ ✅ อาหารทุกมื้อ ✅ ห้องพักบนเรือสุดหรู ✅ กิจกรรมและความบันเทิงจัดเต็ม ➡️ รหัสแพคเกจทัวร์ : AROP-8D7N-FRA-FRA-2504251 คลิกดูรายละเอียดโปรแกรม : 78s.me/e85d44 ✅ ดูแพ็คเกจเรือทั้งหมด https://cruisedomain.com/ LINE ID: @CruiseDomain 78s.me/c54029 Facebook: CruiseDomain 78s.me/b8a121 Youtube : CruiseDomain 78s.me/8af620 ☎️: 0 2116 9696 (Auto) #เรือArosaClea #Arosarivercruise #เรือล่องแม่น้ำ #แม่น้ำไรน์ #Mainz #Germany #Speyer #Breisach #Basel #CruiseDomain #thaitimes #News1 #Sondhitalk #คุยทุกเรื่องกับสนธิ #เที่ยว
    0 Comments 0 Shares 276 Views 0 Reviews
  • เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด

    ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license

    โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว

    แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี

    อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์

    OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี
    ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี

    โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only
    เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด

    ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ
    เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token

    gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM)
    ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว

    โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B)
    สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini

    ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า
    ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference

    เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก”
    มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า

    การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ
    เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร

    Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง
    โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต

    โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API
    รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud

    OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen
    และฟื้นความเชื่อมั่นจากชุมชน open-source

    โมเดล gpt-oss มี hallucination rate สูง (49–53%)
    อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง

    OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล
    เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส

    แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่
    อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise

    การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น
    ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ

    https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    🧠💡 เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์ ✅ OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี ➡️ ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี ✅ โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only ➡️ เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด ✅ ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ ➡️ เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token ✅ gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM) ➡️ ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว ✅ โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B) ➡️ สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini ✅ ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า ➡️ ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference ✅ เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก” ➡️ มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า ✅ การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ ➡️ เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร ✅ Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง ➡️ โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต ✅ โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API ➡️ รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud ✅ OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen ➡️ และฟื้นความเชื่อมั่นจากชุมชน open-source ‼️ โมเดล gpt-oss มี hallucination rate สูง (49–53%) ⛔ อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง ‼️ OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล ⛔ เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส ‼️ แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่ ⛔ อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise ‼️ การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น ⛔ ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    0 Comments 0 Shares 207 Views 0 Reviews
More Results