• “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง”

    Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ

    สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก

    ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด

    แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision

    ข้อมูลสำคัญจากข่าว
    Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL
    ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin
    ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ
    Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA)
    Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI

    ความสามารถที่คาดการณ์ได้
    Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS
    คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า
    รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8

    ความสำคัญเชิงยุทธศาสตร์
    Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL
    Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด
    เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์

    ข้อควรระวังและข้อจำกัด
    Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง
    การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027
    การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    🧠 “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง” Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL ➡️ ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin ➡️ ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ ➡️ Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA) ➡️ Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI ✅ ความสามารถที่คาดการณ์ได้ ➡️ Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS ➡️ คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า ➡️ รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8 ✅ ความสำคัญเชิงยุทธศาสตร์ ➡️ Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL ➡️ Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด ➡️ เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์ ‼️ ข้อควรระวังและข้อจำกัด ⛔ Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง ⛔ การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027 ⛔ การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    0 Comments 0 Shares 69 Views 0 Reviews
  • “DGX Spark ของ Nvidia เจอแรงกดดัน – John Carmack ชี้ประสิทธิภาพไม่ถึงเป้า ร้อนจัด แถมรีบูตเอง!”

    Nvidia กำลังเผชิญแรงวิจารณ์หนัก หลังเปิดตัว DGX Spark ชุดพัฒนา AI ขนาดเล็กมูลค่า $4,000 ที่ใช้ชิป Grace Blackwell GB10 โดยอดีต CTO ของ Oculus VR อย่าง John Carmack ออกมาเปิดเผยว่าอุปกรณ์นี้ไม่สามารถดึงพลังงานได้ถึงระดับที่โฆษณาไว้ และมีปัญหารีบูตตัวเองเมื่อใช้งานหนัก

    แม้จะโฆษณาว่า DGX Spark รองรับการประมวลผล FP4 แบบ sparse ได้ถึง 1 petaflop และรองรับการใช้พลังงานสูงสุด 240W แต่ Carmack พบว่าเครื่องของเขาดึงไฟได้เพียง 100W และให้ประสิทธิภาพต่ำกว่าที่ควรจะเป็นมาก นอกจากนี้ยังมีรายงานจากผู้ใช้หลายรายในฟอรัมของ Nvidia ว่าเครื่องมีปัญหารีบูตและความร้อนสูง

    การทดสอบจากเว็บไซต์ ServeTheHome ก็ยืนยันว่า DGX Spark ไม่สามารถดึงไฟได้ถึง 240W แม้จะใช้ CPU และ GPU พร้อมกัน โดยดึงได้เพียง 200W เท่านั้น

    AMD และ Framework ไม่รอช้า รีบเสนอทางเลือกใหม่ให้ Carmack ทดลองใช้ Strix Halo ซึ่งเป็นแพลตฟอร์มที่อาจตอบโจทย์ด้านประสิทธิภาพและความเสถียรได้ดีกว่า

    ข้อมูลสำคัญจากข่าว
    DGX Spark ราคา $4,000 ใช้ชิป Grace Blackwell GB10
    โฆษณาว่ารองรับ 1 PF FP4 (sparse) และใช้ไฟได้สูงสุด 240W
    John Carmack พบว่าเครื่องดึงไฟได้แค่ 100W และรีบูตตัวเอง
    ServeTheHome ยืนยันว่าเครื่องดึงไฟได้ไม่ถึง 240W แม้ใช้งานเต็มที่
    AMD และ Framework เสนอ Strix Halo ให้ Carmack ทดลองแทน

    จุดเด่นของ DGX Spark (ตามสเปก)
    128GB LPDDR5X RAM แบบ unified memory
    273GB/s memory bandwidth
    ใช้โครงสร้าง Grace CPU 20 คอร์ Arm + Blackwell GPU
    ออกแบบให้รันโมเดลขนาด 20B พารามิเตอร์ในเครื่องเดียว

    https://www.tomshardware.com/tech-industry/semiconductors/users-question-dgx-spark-performance
    🔥 “DGX Spark ของ Nvidia เจอแรงกดดัน – John Carmack ชี้ประสิทธิภาพไม่ถึงเป้า ร้อนจัด แถมรีบูตเอง!” Nvidia กำลังเผชิญแรงวิจารณ์หนัก หลังเปิดตัว DGX Spark ชุดพัฒนา AI ขนาดเล็กมูลค่า $4,000 ที่ใช้ชิป Grace Blackwell GB10 โดยอดีต CTO ของ Oculus VR อย่าง John Carmack ออกมาเปิดเผยว่าอุปกรณ์นี้ไม่สามารถดึงพลังงานได้ถึงระดับที่โฆษณาไว้ และมีปัญหารีบูตตัวเองเมื่อใช้งานหนัก แม้จะโฆษณาว่า DGX Spark รองรับการประมวลผล FP4 แบบ sparse ได้ถึง 1 petaflop และรองรับการใช้พลังงานสูงสุด 240W แต่ Carmack พบว่าเครื่องของเขาดึงไฟได้เพียง 100W และให้ประสิทธิภาพต่ำกว่าที่ควรจะเป็นมาก นอกจากนี้ยังมีรายงานจากผู้ใช้หลายรายในฟอรัมของ Nvidia ว่าเครื่องมีปัญหารีบูตและความร้อนสูง การทดสอบจากเว็บไซต์ ServeTheHome ก็ยืนยันว่า DGX Spark ไม่สามารถดึงไฟได้ถึง 240W แม้จะใช้ CPU และ GPU พร้อมกัน โดยดึงได้เพียง 200W เท่านั้น AMD และ Framework ไม่รอช้า รีบเสนอทางเลือกใหม่ให้ Carmack ทดลองใช้ Strix Halo ซึ่งเป็นแพลตฟอร์มที่อาจตอบโจทย์ด้านประสิทธิภาพและความเสถียรได้ดีกว่า ✅ ข้อมูลสำคัญจากข่าว ➡️ DGX Spark ราคา $4,000 ใช้ชิป Grace Blackwell GB10 ➡️ โฆษณาว่ารองรับ 1 PF FP4 (sparse) และใช้ไฟได้สูงสุด 240W ➡️ John Carmack พบว่าเครื่องดึงไฟได้แค่ 100W และรีบูตตัวเอง ➡️ ServeTheHome ยืนยันว่าเครื่องดึงไฟได้ไม่ถึง 240W แม้ใช้งานเต็มที่ ➡️ AMD และ Framework เสนอ Strix Halo ให้ Carmack ทดลองแทน ✅ จุดเด่นของ DGX Spark (ตามสเปก) ➡️ 128GB LPDDR5X RAM แบบ unified memory ➡️ 273GB/s memory bandwidth ➡️ ใช้โครงสร้าง Grace CPU 20 คอร์ Arm + Blackwell GPU ➡️ ออกแบบให้รันโมเดลขนาด 20B พารามิเตอร์ในเครื่องเดียว https://www.tomshardware.com/tech-industry/semiconductors/users-question-dgx-spark-performance
    WWW.TOMSHARDWARE.COM
    AMD swoops in to help as John Carmack slams Nvidia's $4,000 DGX Spark, says it doesn't hit performance claims, overheats, and maxes out at 100W power draw — developer forums inundated with crashing and shutdown reports
    The $4,000 Grace Blackwell dev kit is rated for 240W and 1 PF of sparse FP4 compute, but early users report 100W ceilings and reboot issues under sustained load.
    0 Comments 0 Shares 65 Views 0 Reviews
  • KDE Plasma 6.5.1 มาแล้ว! แก้ปัญหากับ GPU AMD รุ่นเก่า พร้อมปรับปรุง UI และความเสถียรหลายจุด

    KDE Plasma 6.5.1 เปิดตัวเป็นเวอร์ชันบำรุงรักษาแรกของซีรีส์ 6.5 โดยเน้นแก้ไขบั๊กและปรับปรุงความเข้ากันได้กับ GPU AMD รุ่นเก่า รวมถึงเพิ่มฟีเจอร์เล็ก ๆ ที่ช่วยให้การใช้งานลื่นไหลขึ้น เช่น การลากไอคอนจาก Favorites launcher ได้ง่ายขึ้น และการจัดการ notification ที่ชาญฉลาดกว่าเดิม.

    ไฮไลต์จาก KDE Plasma 6.5.1
    แก้ปัญหา mouse pointer บน GPU AMD รุ่นเก่า
    แก้ regression ที่ทำให้ pointer แสดงผลผิดเพี้ยนบนบางรุ่นของ AMD

    ปรับปรุง Kickoff launcher
    สามารถลากไอคอนออกจาก Favorites grid ได้โดยไม่ทำให้ตำแหน่งอื่นเปลี่ยน
    เพิ่มความแม่นยำในการจัดการรายการโปรด

    ปรับปรุงระบบ wallpaper switching ตามโหมดสี
    ใช้ค่าความสว่างของ Plasma style แทนสีของแอปในการตัดสินใจเปลี่ยนโหมด

    แจ้งเตือน job progress ที่ฉลาดขึ้น
    ไม่แสดง “ดูรายละเอียดเพิ่มเติม” หากมีเพียงรายการเดียว
    แสดง minimized notifications ทั้งหมดในประวัติ ไม่ใช่แค่ 3 รายการล่าสุด

    แก้ UI ของ GTK 3 app menus และ Remote Desktop settings
    มุมเมนูถูกปรับให้โค้งอย่างเหมาะสม
    แก้บั๊กที่ทำให้บางตัวเลือกไม่แสดงใน “Open With…”

    Spectacle ได้รับการปรับปรุงสำหรับ screencast และ export
    แก้เส้นพิกเซลเกินใต้ titlebar
    แก้ปัญหาการ export ภาพที่ผิดพลาด

    แก้บั๊ก KWin และการ hot-plug จอภาพ
    ป้องกันการ crash เมื่อเสียบจอเพิ่ม
    ปรับการใช้ direct scanout ให้ทำงานได้จริง

    ปรับปรุงการส่งข้อมูลสีให้ใช้ bandwidth ต่ำลง
    ลดโอกาสที่จอภาพจะไม่แสดงผลเมื่อ bandwidth ใกล้เต็ม

    ผู้ใช้ GPU AMD รุ่นเก่าควรอัปเดตทันทีเพื่อหลีกเลี่ยงปัญหา pointer
    หากยังใช้ Plasma 6.5 อาจเจอ pointer glitch ที่ทำให้ใช้งานลำบาก

    การ hot-plug จอภาพในเวอร์ชันก่อนอาจทำให้ Plasma crash
    เวอร์ชัน 6.5.1 แก้ปัญหานี้แล้ว ควรอัปเดตเพื่อความเสถียร

    การใช้ Spectacle สำหรับ screencast อาจมีปัญหาในเวอร์ชันก่อนหน้า
    เส้นพิกเซลเกินและ export fail เป็นปัญหาที่พบได้

    https://9to5linux.com/kde-plasma-6-5-1-is-out-to-fix-compatibility-issues-with-older-amd-gpus
    🖥️🔧 KDE Plasma 6.5.1 มาแล้ว! แก้ปัญหากับ GPU AMD รุ่นเก่า พร้อมปรับปรุง UI และความเสถียรหลายจุด KDE Plasma 6.5.1 เปิดตัวเป็นเวอร์ชันบำรุงรักษาแรกของซีรีส์ 6.5 โดยเน้นแก้ไขบั๊กและปรับปรุงความเข้ากันได้กับ GPU AMD รุ่นเก่า รวมถึงเพิ่มฟีเจอร์เล็ก ๆ ที่ช่วยให้การใช้งานลื่นไหลขึ้น เช่น การลากไอคอนจาก Favorites launcher ได้ง่ายขึ้น และการจัดการ notification ที่ชาญฉลาดกว่าเดิม. ✅ ไฮไลต์จาก KDE Plasma 6.5.1 ✅ แก้ปัญหา mouse pointer บน GPU AMD รุ่นเก่า ➡️ แก้ regression ที่ทำให้ pointer แสดงผลผิดเพี้ยนบนบางรุ่นของ AMD ✅ ปรับปรุง Kickoff launcher ➡️ สามารถลากไอคอนออกจาก Favorites grid ได้โดยไม่ทำให้ตำแหน่งอื่นเปลี่ยน ➡️ เพิ่มความแม่นยำในการจัดการรายการโปรด ✅ ปรับปรุงระบบ wallpaper switching ตามโหมดสี ➡️ ใช้ค่าความสว่างของ Plasma style แทนสีของแอปในการตัดสินใจเปลี่ยนโหมด ✅ แจ้งเตือน job progress ที่ฉลาดขึ้น ➡️ ไม่แสดง “ดูรายละเอียดเพิ่มเติม” หากมีเพียงรายการเดียว ➡️ แสดง minimized notifications ทั้งหมดในประวัติ ไม่ใช่แค่ 3 รายการล่าสุด ✅ แก้ UI ของ GTK 3 app menus และ Remote Desktop settings ➡️ มุมเมนูถูกปรับให้โค้งอย่างเหมาะสม ➡️ แก้บั๊กที่ทำให้บางตัวเลือกไม่แสดงใน “Open With…” ✅ Spectacle ได้รับการปรับปรุงสำหรับ screencast และ export ➡️ แก้เส้นพิกเซลเกินใต้ titlebar ➡️ แก้ปัญหาการ export ภาพที่ผิดพลาด ✅ แก้บั๊ก KWin และการ hot-plug จอภาพ ➡️ ป้องกันการ crash เมื่อเสียบจอเพิ่ม ➡️ ปรับการใช้ direct scanout ให้ทำงานได้จริง ✅ ปรับปรุงการส่งข้อมูลสีให้ใช้ bandwidth ต่ำลง ➡️ ลดโอกาสที่จอภาพจะไม่แสดงผลเมื่อ bandwidth ใกล้เต็ม ‼️ ผู้ใช้ GPU AMD รุ่นเก่าควรอัปเดตทันทีเพื่อหลีกเลี่ยงปัญหา pointer ⛔ หากยังใช้ Plasma 6.5 อาจเจอ pointer glitch ที่ทำให้ใช้งานลำบาก ‼️ การ hot-plug จอภาพในเวอร์ชันก่อนอาจทำให้ Plasma crash ⛔ เวอร์ชัน 6.5.1 แก้ปัญหานี้แล้ว ควรอัปเดตเพื่อความเสถียร ‼️ การใช้ Spectacle สำหรับ screencast อาจมีปัญหาในเวอร์ชันก่อนหน้า ⛔ เส้นพิกเซลเกินและ export fail เป็นปัญหาที่พบได้ https://9to5linux.com/kde-plasma-6-5-1-is-out-to-fix-compatibility-issues-with-older-amd-gpus
    9TO5LINUX.COM
    KDE Plasma 6.5.1 Is Out to Fix Compatibility Issues with Older AMD GPUs - 9to5Linux
    KDE Plasma 6.5.1 is now available as the first maintenance update to the KDE Plasma 6.5 desktop environment series with various improvements.
    0 Comments 0 Shares 64 Views 0 Reviews
  • AMD ขายธุรกิจผลิตโครงสร้างดาต้าเซ็นเตอร์ของ ZT Systems ให้ Sanmina — มุ่งเน้นการออกแบบและเร่งส่งมอบระบบ AI

    AMD ประกาศเสร็จสิ้นข้อตกลงขายธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ให้กับบริษัท Sanmina โดยยังคงทีมออกแบบและสนับสนุนลูกค้าของ ZT Systems ไว้ เพื่อเร่งการพัฒนาระบบ AI สำหรับลูกค้า cloud

    รายละเอียดข้อตกลง
    ผู้ซื้อ: Sanmina (NASDAQ: SANM) บริษัทผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์รายใหญ่ในสหรัฐฯ

    ผู้ขาย: AMD (NASDAQ: AMD)
    สิ่งที่ขาย: ธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems
    สิ่งที่ AMD เก็บไว้: ทีมออกแบบและทีมสนับสนุนลูกค้าของ ZT Systems

    เป้าหมายของ AMD
    เร่งการส่งมอบระบบ AI สำหรับลูกค้า cloud
    ขยายกลยุทธ์ “rack-scale innovation” ซึ่งหมายถึงการออกแบบระบบตั้งแต่ระดับชิป ซอฟต์แวร์ ไปจนถึงระบบเต็มรูปแบบ
    สร้างพันธมิตรเชิงกลยุทธ์กับ Sanmina เพื่อให้เป็นผู้ผลิตหลักสำหรับผลิตภัณฑ์ใหม่ในกลุ่ม rack และ cluster-scale AI

    ผลกระทบที่น่าจับตา
    AMD จะเน้นด้านการออกแบบและซอฟต์แวร์มากขึ้น แทนการผลิตเอง
    Sanmina จะกลายเป็นพันธมิตรหลักด้านการผลิตระบบ AI ขนาดใหญ่
    ลูกค้า cloud และ AI อาจได้รับระบบที่เร็วขึ้นและยืดหยุ่นมากขึ้น จากการรวมจุดแข็งของทั้งสองบริษัท

    https://www.techpowerup.com/342291/amd-sells-zt-systems-data-center-manufacturing-to-sanmina
    🛠️ AMD ขายธุรกิจผลิตโครงสร้างดาต้าเซ็นเตอร์ของ ZT Systems ให้ Sanmina — มุ่งเน้นการออกแบบและเร่งส่งมอบระบบ AI AMD ประกาศเสร็จสิ้นข้อตกลงขายธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ให้กับบริษัท Sanmina โดยยังคงทีมออกแบบและสนับสนุนลูกค้าของ ZT Systems ไว้ เพื่อเร่งการพัฒนาระบบ AI สำหรับลูกค้า cloud 🔍 รายละเอียดข้อตกลง ผู้ซื้อ: Sanmina (NASDAQ: SANM) บริษัทผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์รายใหญ่ในสหรัฐฯ ➡️ ผู้ขาย: AMD (NASDAQ: AMD) ➡️ สิ่งที่ขาย: ธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ➡️ สิ่งที่ AMD เก็บไว้: ทีมออกแบบและทีมสนับสนุนลูกค้าของ ZT Systems 🎯 เป้าหมายของ AMD ➡️ เร่งการส่งมอบระบบ AI สำหรับลูกค้า cloud ➡️ ขยายกลยุทธ์ “rack-scale innovation” ซึ่งหมายถึงการออกแบบระบบตั้งแต่ระดับชิป ซอฟต์แวร์ ไปจนถึงระบบเต็มรูปแบบ ➡️ สร้างพันธมิตรเชิงกลยุทธ์กับ Sanmina เพื่อให้เป็นผู้ผลิตหลักสำหรับผลิตภัณฑ์ใหม่ในกลุ่ม rack และ cluster-scale AI 📌 ผลกระทบที่น่าจับตา ➡️ AMD จะเน้นด้านการออกแบบและซอฟต์แวร์มากขึ้น แทนการผลิตเอง ➡️ Sanmina จะกลายเป็นพันธมิตรหลักด้านการผลิตระบบ AI ขนาดใหญ่ ➡️ ลูกค้า cloud และ AI อาจได้รับระบบที่เร็วขึ้นและยืดหยุ่นมากขึ้น จากการรวมจุดแข็งของทั้งสองบริษัท https://www.techpowerup.com/342291/amd-sells-zt-systems-data-center-manufacturing-to-sanmina
    WWW.TECHPOWERUP.COM
    AMD Sells ZT Systems Data Center Manufacturing to Sanmina
    AMD (NASDAQ: AMD) today announced the completion of the agreement to divest the ZT Systems U.S.-headquartered data center infrastructure manufacturing business to Sanmina (NASDAQ: SANM). As part of the transaction, AMD retains ZT Systems' world-class design and customer enablement teams to accelerat...
    0 Comments 0 Shares 52 Views 0 Reviews
  • AMD รีแบรนด์ซีพียู Ryzen 7035 และ 7020 สำหรับโน้ตบุ๊ก — เปลี่ยนชื่อใหม่แต่สเปกเดิม เพื่อปรับภาพลักษณ์ให้ทันยุค

    AMD ประกาศรีแบรนด์ซีพียูโน้ตบุ๊กในกลุ่ม Ryzen 7035 (Zen 3+) และ Ryzen 7020 (Zen 2) โดยเปลี่ยนชื่อรุ่นให้สั้นลงเป็น Ryzen 100 และ Ryzen 10 ตามลำดับ โดยไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ แต่เน้นปรับภาพลักษณ์ให้ดูทันสมัยและสอดคล้องกับผลิตภัณฑ์ใหม่ในกลุ่ม Ryzen AI และ Ryzen 9000

    AMD เลือกใช้วิธีรีแบรนด์ซีพียูโน้ตบุ๊กที่เปิดตัวในปี 2023 โดยเปลี่ยนชื่อจากรุ่นเดิม เช่น Ryzen 7 7735HS เป็น Ryzen 7 170 หรือ Ryzen 5 7520U เป็น Ryzen 5 40 โดยซีพียูเหล่านี้ยังคงใช้สถาปัตยกรรมเดิมคือ Zen 3+ (Rembrandt-R) และ Zen 2 (Mendocino) พร้อมกราฟิก RDNA 2

    การเปลี่ยนชื่อครั้งนี้คล้ายกับแนวทางของ Intel ที่ใช้ชื่อ Core 5 120 แทน Core i5-1135G7 เพื่อให้ดูเรียบง่ายและทันสมัยมากขึ้น แม้จะเป็นชิปรุ่นเก่าก็ตาม

    AMD ระบุว่าการรีแบรนด์นี้เป็นการปรับภาพลักษณ์ให้สอดคล้องกับผลิตภัณฑ์ใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ที่ใช้ชื่อแบบสามหลัก และอาจเป็นการเตรียมความพร้อมสำหรับการเปลี่ยนแปลงระบบการตั้งชื่อในอนาคต

    AMD รีแบรนด์ซีพียูโน้ตบุ๊ก
    Ryzen 7035 (Rembrandt-R) เปลี่ยนเป็น Ryzen 100 series
    Ryzen 7020 (Mendocino) เปลี่ยนเป็น Ryzen 10 series
    ไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ

    ตัวอย่างการเปลี่ยนชื่อ
    Ryzen 7 7735HS → Ryzen 7 170
    Ryzen 5 7535U → Ryzen 5 130
    Ryzen 3 7320U → Ryzen 3 30
    Athlon Gold 7220U → Athlon Gold 20

    เป้าหมายของการรีแบรนด์
    ปรับภาพลักษณ์ให้ทันสมัย
    สอดคล้องกับชื่อรุ่นใหม่ เช่น Ryzen AI 300 และ Ryzen 9000
    อาจเป็นการเตรียมระบบการตั้งชื่อใหม่ในอนาคต

    https://www.tomshardware.com/pc-components/cpus/amd-rebrands-ryzen-7035-7020-series-mobile-processors-zen-2-and-zen-3-chips-receive-new-identities
    🔄 AMD รีแบรนด์ซีพียู Ryzen 7035 และ 7020 สำหรับโน้ตบุ๊ก — เปลี่ยนชื่อใหม่แต่สเปกเดิม เพื่อปรับภาพลักษณ์ให้ทันยุค AMD ประกาศรีแบรนด์ซีพียูโน้ตบุ๊กในกลุ่ม Ryzen 7035 (Zen 3+) และ Ryzen 7020 (Zen 2) โดยเปลี่ยนชื่อรุ่นให้สั้นลงเป็น Ryzen 100 และ Ryzen 10 ตามลำดับ โดยไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ แต่เน้นปรับภาพลักษณ์ให้ดูทันสมัยและสอดคล้องกับผลิตภัณฑ์ใหม่ในกลุ่ม Ryzen AI และ Ryzen 9000 AMD เลือกใช้วิธีรีแบรนด์ซีพียูโน้ตบุ๊กที่เปิดตัวในปี 2023 โดยเปลี่ยนชื่อจากรุ่นเดิม เช่น Ryzen 7 7735HS เป็น Ryzen 7 170 หรือ Ryzen 5 7520U เป็น Ryzen 5 40 โดยซีพียูเหล่านี้ยังคงใช้สถาปัตยกรรมเดิมคือ Zen 3+ (Rembrandt-R) และ Zen 2 (Mendocino) พร้อมกราฟิก RDNA 2 การเปลี่ยนชื่อครั้งนี้คล้ายกับแนวทางของ Intel ที่ใช้ชื่อ Core 5 120 แทน Core i5-1135G7 เพื่อให้ดูเรียบง่ายและทันสมัยมากขึ้น แม้จะเป็นชิปรุ่นเก่าก็ตาม AMD ระบุว่าการรีแบรนด์นี้เป็นการปรับภาพลักษณ์ให้สอดคล้องกับผลิตภัณฑ์ใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ที่ใช้ชื่อแบบสามหลัก และอาจเป็นการเตรียมความพร้อมสำหรับการเปลี่ยนแปลงระบบการตั้งชื่อในอนาคต ✅ AMD รีแบรนด์ซีพียูโน้ตบุ๊ก ➡️ Ryzen 7035 (Rembrandt-R) เปลี่ยนเป็น Ryzen 100 series ➡️ Ryzen 7020 (Mendocino) เปลี่ยนเป็น Ryzen 10 series ➡️ ไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ ✅ ตัวอย่างการเปลี่ยนชื่อ ➡️ Ryzen 7 7735HS → Ryzen 7 170 ➡️ Ryzen 5 7535U → Ryzen 5 130 ➡️ Ryzen 3 7320U → Ryzen 3 30 ➡️ Athlon Gold 7220U → Athlon Gold 20 ✅ เป้าหมายของการรีแบรนด์ ➡️ ปรับภาพลักษณ์ให้ทันสมัย ➡️ สอดคล้องกับชื่อรุ่นใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ➡️ อาจเป็นการเตรียมระบบการตั้งชื่อใหม่ในอนาคต https://www.tomshardware.com/pc-components/cpus/amd-rebrands-ryzen-7035-7020-series-mobile-processors-zen-2-and-zen-3-chips-receive-new-identities
    0 Comments 0 Shares 42 Views 0 Reviews
  • Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia

    Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models

    ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference

    AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ

    ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง

    Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว

    Qualcomm เปิดตัว AI200 และ AI250
    AI200 ใช้งานปี 2026, AI250 ปี 2027
    ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
    รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing

    ความสามารถด้านฮาร์ดแวร์
    AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
    AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
    รองรับ GenAI, confidential computing, และ model encryption

    แพลตฟอร์มซอฟต์แวร์
    รองรับ PyTorch, ONNX, LangChain, vLLM
    มีระบบ onboarding โมเดลแบบคลิกเดียว
    รองรับ disaggregated serving และ virtualization

    คำเตือนสำหรับผู้ใช้งานระดับองค์กร
    ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
    การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
    ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    ⚙️ Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว ✅ Qualcomm เปิดตัว AI200 และ AI250 ➡️ AI200 ใช้งานปี 2026, AI250 ปี 2027 ➡️ ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor ➡️ รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing ✅ ความสามารถด้านฮาร์ดแวร์ ➡️ AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW ➡️ AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic ➡️ รองรับ GenAI, confidential computing, และ model encryption ✅ แพลตฟอร์มซอฟต์แวร์ ➡️ รองรับ PyTorch, ONNX, LangChain, vLLM ➡️ มีระบบ onboarding โมเดลแบบคลิกเดียว ➡️ รองรับ disaggregated serving และ virtualization ‼️ คำเตือนสำหรับผู้ใช้งานระดับองค์กร ⛔ ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ ⛔ การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด ⛔ ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    0 Comments 0 Shares 60 Views 0 Reviews
  • กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก

    บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ

    ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา

    เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์

    โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์

    รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี

    โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน
    ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle
    ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี

    ซูเปอร์คอมพิวเตอร์ “Lux”
    ใช้ AMD Instinct MI355X accelerators
    เริ่มใช้งานภายใน 6 เดือน
    เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI

    ซูเปอร์คอมพิวเตอร์ “Discovery”
    ใช้ MI430X-HPC พร้อม Epyc CPU
    เริ่มใช้งานปี 2029
    เน้นงานวิจัยที่ต้องการความแม่นยำสูง

    เป้าหมายของโครงการ
    วิจัยฟิวชันพลังงานและการรักษามะเร็ง
    เสริมความมั่นคงแห่งชาติ
    ใช้ร่วมกันระหว่างภาครัฐและเอกชน

    คำเตือนสำหรับการลงทุนด้าน AI compute
    การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี
    การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย
    ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม

    https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    🚀 กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์ โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์ รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี ✅ โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน ➡️ ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle ➡️ ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี ✅ ซูเปอร์คอมพิวเตอร์ “Lux” ➡️ ใช้ AMD Instinct MI355X accelerators ➡️ เริ่มใช้งานภายใน 6 เดือน ➡️ เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI ✅ ซูเปอร์คอมพิวเตอร์ “Discovery” ➡️ ใช้ MI430X-HPC พร้อม Epyc CPU ➡️ เริ่มใช้งานปี 2029 ➡️ เน้นงานวิจัยที่ต้องการความแม่นยำสูง ✅ เป้าหมายของโครงการ ➡️ วิจัยฟิวชันพลังงานและการรักษามะเร็ง ➡️ เสริมความมั่นคงแห่งชาติ ➡️ ใช้ร่วมกันระหว่างภาครัฐและเอกชน ‼️ คำเตือนสำหรับการลงทุนด้าน AI compute ⛔ การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี ⛔ การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย ⛔ ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    0 Comments 0 Shares 73 Views 0 Reviews
  • AMD รีแบรนด์ชิป Zen 2 และ Zen 3+ – เปิดตัว Ryzen 10 และ Ryzen 100 Series

    ถ้าคุณเห็นชื่อ Ryzen 10 หรือ Ryzen 100 แล้วคิดว่าเป็นชิปใหม่หมดจด อาจต้องคิดใหม่ เพราะ AMD แค่เปลี่ยนชื่อจากชิปเดิมที่ใช้สถาปัตยกรรม Zen 2 และ Zen 3+ มาเป็นชื่อใหม่ที่ดูเรียบง่ายขึ้น

    Ryzen 10 Series ใช้ Zen 2 เหมือนกับ Ryzen 7000U เช่น Ryzen 5 7520U → เปลี่ยนชื่อเป็น Ryzen 5 40

    Ryzen 100 Series ใช้ Zen 3+ เหมือนกับ Ryzen 7000HS เช่น Ryzen 7 7735HS → เปลี่ยนชื่อเป็น Ryzen 7 170

    การเปลี่ยนชื่อครั้งนี้ไม่ได้มาพร้อมกับการปรับปรุงประสิทธิภาพหรือสเปกใหม่ แต่เป็นการจัดกลุ่มใหม่เพื่อให้ผู้ผลิตโน้ตบุ๊กสามารถนำไปใช้ในรุ่นราคาประหยัดได้ง่ายขึ้น

    AMD ไม่ได้ประกาศอย่างเป็นทางการ แต่มีการอัปเดตหน้าเว็บผลิตภัณฑ์แล้ว และชิปเหล่านี้เริ่มวางจำหน่ายตั้งแต่วันที่ 1 ตุลาคม 2025

    การรีแบรนด์ชิปมือถือของ AMD
    Ryzen 10 ใช้ Zen 2 จาก Ryzen 7000U
    Ryzen 100 ใช้ Zen 3+ จาก Ryzen 7000HS
    เปลี่ยนชื่อรุ่นใหม่ เช่น Ryzen 5 7520U → Ryzen 5 40

    สเปกของ Ryzen 10 Series
    Ryzen 5 40: 4C/8T, 2.8–4.8GHz, Radeon 610M
    Ryzen 3 30: 4C/8T, 2.4–4.1GHz
    Athlon Gold 20 และ Silver 10: 2C/4T และ 2C/2T

    สเปกของ Ryzen 100 Series
    Ryzen 7 170: 8C/16T, 3.2–4.75GHz, Radeon 680M
    Ryzen 5 150: 6C/12T, 3.3–4.55GHz
    Ryzen 3 110: 4C/8T, 3.0–4.3GHz

    จุดประสงค์ของการรีแบรนด์
    ลดความซับซ้อนของชื่อรุ่น
    รองรับโน้ตบุ๊กราคาประหยัด
    ไม่ได้เพิ่มประสิทธิภาพใหม่

    https://wccftech.com/amd-prepares-rebadged-zen-2-ryzen-10-and-zen-3-ryzen-100-series-mobile-cpus/
    🧠 AMD รีแบรนด์ชิป Zen 2 และ Zen 3+ – เปิดตัว Ryzen 10 และ Ryzen 100 Series ถ้าคุณเห็นชื่อ Ryzen 10 หรือ Ryzen 100 แล้วคิดว่าเป็นชิปใหม่หมดจด อาจต้องคิดใหม่ เพราะ AMD แค่เปลี่ยนชื่อจากชิปเดิมที่ใช้สถาปัตยกรรม Zen 2 และ Zen 3+ มาเป็นชื่อใหม่ที่ดูเรียบง่ายขึ้น 🧊 Ryzen 10 Series ใช้ Zen 2 เหมือนกับ Ryzen 7000U เช่น Ryzen 5 7520U → เปลี่ยนชื่อเป็น Ryzen 5 40 🧊 Ryzen 100 Series ใช้ Zen 3+ เหมือนกับ Ryzen 7000HS เช่น Ryzen 7 7735HS → เปลี่ยนชื่อเป็น Ryzen 7 170 การเปลี่ยนชื่อครั้งนี้ไม่ได้มาพร้อมกับการปรับปรุงประสิทธิภาพหรือสเปกใหม่ แต่เป็นการจัดกลุ่มใหม่เพื่อให้ผู้ผลิตโน้ตบุ๊กสามารถนำไปใช้ในรุ่นราคาประหยัดได้ง่ายขึ้น AMD ไม่ได้ประกาศอย่างเป็นทางการ แต่มีการอัปเดตหน้าเว็บผลิตภัณฑ์แล้ว และชิปเหล่านี้เริ่มวางจำหน่ายตั้งแต่วันที่ 1 ตุลาคม 2025 ✅ การรีแบรนด์ชิปมือถือของ AMD ➡️ Ryzen 10 ใช้ Zen 2 จาก Ryzen 7000U ➡️ Ryzen 100 ใช้ Zen 3+ จาก Ryzen 7000HS ➡️ เปลี่ยนชื่อรุ่นใหม่ เช่น Ryzen 5 7520U → Ryzen 5 40 ✅ สเปกของ Ryzen 10 Series ➡️ Ryzen 5 40: 4C/8T, 2.8–4.8GHz, Radeon 610M ➡️ Ryzen 3 30: 4C/8T, 2.4–4.1GHz ➡️ Athlon Gold 20 และ Silver 10: 2C/4T และ 2C/2T ✅ สเปกของ Ryzen 100 Series ➡️ Ryzen 7 170: 8C/16T, 3.2–4.75GHz, Radeon 680M ➡️ Ryzen 5 150: 6C/12T, 3.3–4.55GHz ➡️ Ryzen 3 110: 4C/8T, 3.0–4.3GHz ✅ จุดประสงค์ของการรีแบรนด์ ➡️ ลดความซับซ้อนของชื่อรุ่น ➡️ รองรับโน้ตบุ๊กราคาประหยัด ➡️ ไม่ได้เพิ่มประสิทธิภาพใหม่ https://wccftech.com/amd-prepares-rebadged-zen-2-ryzen-10-and-zen-3-ryzen-100-series-mobile-cpus/
    WCCFTECH.COM
    AMD Prepares "Rebadged" Zen 2 Ryzen 10 and Zen 3+ Ryzen 100 Series Mobile CPUs
    AMD has prepared refresh of Zen 2 and Zen 3+ mobile CPUs by silently releasing Ryzen 10 and Ryzen 100 series.
    0 Comments 0 Shares 80 Views 0 Reviews
  • TSMC ไม่สนศึก NVIDIA vs ASIC – เพราะทุกฝ่ายต้องพึ่งโรงงานของตน

    ตอนนี้โลกของ AI กำลังแบ่งออกเป็นสองขั้วใหญ่ๆ คือฝ่ายที่ใช้ GPU เช่น NVIDIA และ AMD กับฝ่ายที่พัฒนา ASIC (ชิปเฉพาะทาง) เช่น Google, Amazon และ Microsoft เพื่อให้ระบบ AI ทำงานได้เร็วขึ้นและประหยัดพลังงานมากขึ้น

    หลายคนมองว่า ASIC จะมาแทนที่ GPU ในอนาคต เพราะมันถูกออกแบบมาเฉพาะงาน AI โดยตรง แต่ TSMC ไม่ได้กังวลเลย เพราะไม่ว่าจะเป็น GPU หรือ ASIC ทุกคนก็ต้องมาหา TSMC เพื่อผลิตชิปอยู่ดี

    CEO ของ TSMC คุณ C.C. Wei กล่าวไว้ชัดเจนว่า “ไม่ว่าจะเป็น GPU หรือ ASIC ก็ใช้เทคโนโลยีล้ำหน้าของเราเหมือนกัน เราไม่แบ่งฝ่าย เราสนับสนุนทุกประเภท”

    ตัวอย่างที่ชัดเจนคือ Google ที่ร่วมมือกับ Broadcom เพื่อพัฒนา TPU รุ่นใหม่อย่าง Ironwood และ Trillium ซึ่งก็ผลิตโดย TSMC เช่นเดียวกับ Amazon Trainium และ Microsoft Maia ที่ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า

    ดังนั้น ไม่ว่าจะเป็นฝ่ายไหนในสงครามชิป AI TSMC ก็ได้ประโยชน์ทั้งหมด และกลายเป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI อย่างแท้จริง

    TSMC เป็นผู้ผลิตชิปรายใหญ่ของโลก
    ผลิตทั้ง GPU และ ASIC ให้หลายบริษัท
    ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า
    เป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI

    ความร่วมมือกับบริษัทใหญ่
    Google ร่วมกับ Broadcom พัฒนา TPU รุ่นใหม่
    Amazon ใช้ TSMC ผลิต Trainium
    Microsoft ใช้ TSMC ผลิต Maia AI chip

    จุดยืนของ TSMC
    ไม่แบ่งฝ่ายระหว่าง GPU กับ ASIC
    สนับสนุนทุกเทคโนโลยีที่ใช้โรงงานของตน
    มั่นใจว่าความต้องการชิปจะเติบโตต่อเนื่องหลายปี

    https://wccftech.com/tsmc-says-in-the-nvidia-vs-asic-war-it-will-always-win/
    🏭 TSMC ไม่สนศึก NVIDIA vs ASIC – เพราะทุกฝ่ายต้องพึ่งโรงงานของตน ตอนนี้โลกของ AI กำลังแบ่งออกเป็นสองขั้วใหญ่ๆ คือฝ่ายที่ใช้ GPU เช่น NVIDIA และ AMD กับฝ่ายที่พัฒนา ASIC (ชิปเฉพาะทาง) เช่น Google, Amazon และ Microsoft เพื่อให้ระบบ AI ทำงานได้เร็วขึ้นและประหยัดพลังงานมากขึ้น หลายคนมองว่า ASIC จะมาแทนที่ GPU ในอนาคต เพราะมันถูกออกแบบมาเฉพาะงาน AI โดยตรง แต่ TSMC ไม่ได้กังวลเลย เพราะไม่ว่าจะเป็น GPU หรือ ASIC ทุกคนก็ต้องมาหา TSMC เพื่อผลิตชิปอยู่ดี CEO ของ TSMC คุณ C.C. Wei กล่าวไว้ชัดเจนว่า “ไม่ว่าจะเป็น GPU หรือ ASIC ก็ใช้เทคโนโลยีล้ำหน้าของเราเหมือนกัน เราไม่แบ่งฝ่าย เราสนับสนุนทุกประเภท” ตัวอย่างที่ชัดเจนคือ Google ที่ร่วมมือกับ Broadcom เพื่อพัฒนา TPU รุ่นใหม่อย่าง Ironwood และ Trillium ซึ่งก็ผลิตโดย TSMC เช่นเดียวกับ Amazon Trainium และ Microsoft Maia ที่ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า ดังนั้น ไม่ว่าจะเป็นฝ่ายไหนในสงครามชิป AI TSMC ก็ได้ประโยชน์ทั้งหมด และกลายเป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI อย่างแท้จริง ✅ TSMC เป็นผู้ผลิตชิปรายใหญ่ของโลก ➡️ ผลิตทั้ง GPU และ ASIC ให้หลายบริษัท ➡️ ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า ➡️ เป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI ✅ ความร่วมมือกับบริษัทใหญ่ ➡️ Google ร่วมกับ Broadcom พัฒนา TPU รุ่นใหม่ ➡️ Amazon ใช้ TSMC ผลิต Trainium ➡️ Microsoft ใช้ TSMC ผลิต Maia AI chip ✅ จุดยืนของ TSMC ➡️ ไม่แบ่งฝ่ายระหว่าง GPU กับ ASIC ➡️ สนับสนุนทุกเทคโนโลยีที่ใช้โรงงานของตน ➡️ มั่นใจว่าความต้องการชิปจะเติบโตต่อเนื่องหลายปี https://wccftech.com/tsmc-says-in-the-nvidia-vs-asic-war-it-will-always-win/
    WCCFTECH.COM
    TSMC Says in the 'NVIDIA vs ASIC War', It Will Always Win as Customers From Both Sides Turn to the Chip Giant for Foundry Orders
    TSMC is well aware of the growing rivalry between GPU customers and ASICs, but the firm apparently doesn't worry much.
    0 Comments 0 Shares 55 Views 0 Reviews
  • AMD สร้างปรากฏการณ์ใหม่ – รันอัลกอริธึมควอนตัมบนชิปทั่วไป แซงหน้า NVIDIA ในสนามควอนตัม

    ในโลกของควอนตัมคอมพิวติ้ง “qubit” คือหน่วยข้อมูลที่เปราะบางมาก แค่แรงสั่นสะเทือนเล็กน้อยก็ทำให้ข้อมูลผิดพลาดได้ ดังนั้นการมีอัลกอริธึมที่สามารถตรวจจับและแก้ไขข้อผิดพลาดโดยไม่ทำลายสถานะของ qubit จึงเป็นหัวใจสำคัญของการพัฒนาระบบควอนตัมที่ใช้งานได้จริง

    IBM ได้พัฒนาอัลกอริธึม QEC และทดลองรันบนชิป FPGA ของ AMD ซึ่งเป็นฮาร์ดแวร์ทั่วไปที่สามารถปรับแต่งได้ตามงานเฉพาะ (reconfigurable hardware) ผลลัพธ์คือความเร็วในการประมวลผลสูงกว่าที่คาดไว้ถึง 10 เท่า และไม่ต้องใช้ชิปเฉพาะทางราคาแพง

    นี่คือจุดที่ AMD ได้เปรียบ เพราะมี Xilinx อยู่ในเครือ ซึ่งเป็นผู้เชี่ยวชาญด้าน FPGA ขณะที่ NVIDIA ใช้แนวทางต่างออกไป โดยพัฒนาแพลตฟอร์ม DGX Quantum ที่รวมซอฟต์แวร์ CUDA-Q เข้ากับฮาร์ดแวร์ระดับสูง แต่ยังไม่สามารถรัน QEC บนชิปทั่วไปได้เหมือน AMD

    แม้ NVIDIA จะมีเทคโนโลยีที่ทรงพลัง แต่ความสำเร็จของ AMD ในการใช้ฮาร์ดแวร์ “off-the-shelf” กับงานควอนตัม ถือเป็นก้าวสำคัญที่อาจเปลี่ยนแนวทางของอุตสาหกรรมในอนาคต

    ความสำเร็จของ AMD กับอัลกอริธึม QEC
    รันบนชิป FPGA ที่ปรับแต่งได้
    ประสิทธิภาพสูงกว่าที่คาดไว้ถึง 10 เท่า
    ไม่ต้องใช้ชิปเฉพาะทางราคาแพง

    จุดเด่นของ FPGA ในงานควอนตัม
    ปรับแต่งได้ตามงานเฉพาะ
    รองรับ feedback loop ที่มี latency ต่ำ
    เหมาะกับงานที่ต้องการความแม่นยำสูง

    ความแตกต่างจากแนวทางของ NVIDIA
    ใช้แพลตฟอร์ม DGX Quantum + CUDA-Q
    ยังไม่สามารถใช้ฮาร์ดแวร์ทั่วไปกับ QEC ได้
    ขาดทรัพยากรด้าน FPGA แบบที่ AMD มีจาก Xilinx

    https://wccftech.com/amd-beats-nvidia-in-quantum-computing-milestone-for-now/
    🧠 AMD สร้างปรากฏการณ์ใหม่ – รันอัลกอริธึมควอนตัมบนชิปทั่วไป แซงหน้า NVIDIA ในสนามควอนตัม ในโลกของควอนตัมคอมพิวติ้ง “qubit” คือหน่วยข้อมูลที่เปราะบางมาก แค่แรงสั่นสะเทือนเล็กน้อยก็ทำให้ข้อมูลผิดพลาดได้ ดังนั้นการมีอัลกอริธึมที่สามารถตรวจจับและแก้ไขข้อผิดพลาดโดยไม่ทำลายสถานะของ qubit จึงเป็นหัวใจสำคัญของการพัฒนาระบบควอนตัมที่ใช้งานได้จริง IBM ได้พัฒนาอัลกอริธึม QEC และทดลองรันบนชิป FPGA ของ AMD ซึ่งเป็นฮาร์ดแวร์ทั่วไปที่สามารถปรับแต่งได้ตามงานเฉพาะ (reconfigurable hardware) ผลลัพธ์คือความเร็วในการประมวลผลสูงกว่าที่คาดไว้ถึง 10 เท่า และไม่ต้องใช้ชิปเฉพาะทางราคาแพง นี่คือจุดที่ AMD ได้เปรียบ เพราะมี Xilinx อยู่ในเครือ ซึ่งเป็นผู้เชี่ยวชาญด้าน FPGA ขณะที่ NVIDIA ใช้แนวทางต่างออกไป โดยพัฒนาแพลตฟอร์ม DGX Quantum ที่รวมซอฟต์แวร์ CUDA-Q เข้ากับฮาร์ดแวร์ระดับสูง แต่ยังไม่สามารถรัน QEC บนชิปทั่วไปได้เหมือน AMD แม้ NVIDIA จะมีเทคโนโลยีที่ทรงพลัง แต่ความสำเร็จของ AMD ในการใช้ฮาร์ดแวร์ “off-the-shelf” กับงานควอนตัม ถือเป็นก้าวสำคัญที่อาจเปลี่ยนแนวทางของอุตสาหกรรมในอนาคต ✅ ความสำเร็จของ AMD กับอัลกอริธึม QEC ➡️ รันบนชิป FPGA ที่ปรับแต่งได้ ➡️ ประสิทธิภาพสูงกว่าที่คาดไว้ถึง 10 เท่า ➡️ ไม่ต้องใช้ชิปเฉพาะทางราคาแพง ✅ จุดเด่นของ FPGA ในงานควอนตัม ➡️ ปรับแต่งได้ตามงานเฉพาะ ➡️ รองรับ feedback loop ที่มี latency ต่ำ ➡️ เหมาะกับงานที่ต้องการความแม่นยำสูง ✅ ความแตกต่างจากแนวทางของ NVIDIA ➡️ ใช้แพลตฟอร์ม DGX Quantum + CUDA-Q ➡️ ยังไม่สามารถใช้ฮาร์ดแวร์ทั่วไปกับ QEC ได้ ➡️ ขาดทรัพยากรด้าน FPGA แบบที่ AMD มีจาก Xilinx https://wccftech.com/amd-beats-nvidia-in-quantum-computing-milestone-for-now/
    WCCFTECH.COM
    AMD Beats NVIDIA in Quantum Computing Milestone For Now, By Running IBM's Error-Correction Algorithm On Standard Chips
    IBM has announced a breakthrough in quantum computing, as AMD's standard chips have successfully run a key error correction algorithm.
    0 Comments 0 Shares 73 Views 0 Reviews
  • ประกอบคอมไม่ต้องแพง! 4 อุปกรณ์ที่ซื้อถูกได้ กับ 1 ชิ้นที่ควรลงทุน

    ถ้าคุณกำลังคิดจะประกอบคอมใหม่ ไม่ว่าจะเพื่อเล่นเกม ทำงาน หรือตัดต่อวิดีโอ คุณไม่จำเป็นต้องจ่ายแพงทุกชิ้น! มีหลายอุปกรณ์ที่สามารถซื้อแบบราคาประหยัดได้ โดยไม่ต้องกังวลเรื่องคุณภาพมากนัก

    พัดลมซีพียู (CPU Fan): ไม่ต้องไปถึงระบบน้ำ แค่พัดลมอากาศดีๆ อย่าง Cooler Master Hyper 212 ก็เอาอยู่แล้ว แถมติดตั้งง่าย ราคาประมาณ $30 เท่านั้น

    เคส (Case): ถ้าไม่ได้โชว์เคสบนโต๊ะ ก็ไม่ต้องซื้อแพง เคสอย่าง Cooler Master Q300L ราคาแค่ $40 ก็สวยและใช้งานดี

    แรม (RAM): ตอนนี้ 32GB กลายเป็นมาตรฐานใหม่แล้ว แต่ก็ยังหาซื้อได้ในราคาประมาณ $100 ถ้าเลือกแบรนด์ดีๆ อย่าง Corsair หรือ G.SKILL

    เมนบอร์ด (Motherboard): ถ้าไม่ต้องการฟีเจอร์ล้ำๆ ก็เลือกเมนบอร์ดราคาประหยัดได้ เช่น ASRock B650M-H/M.2+ ราคาแค่ $99 รองรับ DDR5 และ CPU รุ่นใหม่

    แต่มีหนึ่งชิ้นที่ไม่ควรประหยัด นั่นคือ การ์ดจอ (GPU) เพราะเกมสมัยนี้กินสเปคหนักมาก ถ้าอยากเล่นลื่นๆ ต้องลงทุนหน่อย เช่น Intel Arc B580 ที่ราคาไม่แรงแต่ประสิทธิภาพดี หรือ AMD RX 7900 XTX ที่คุ้มค่ากว่า NVIDIA RTX 4080

    พัดลมซีพียู (CPU Fan)
    พัดลมอากาศราคาถูกติดตั้งง่ายและเย็นพอ
    Cooler Master Hyper 212 ราคาเพียง $29.99
    ควรตรวจสอบความสูงก่อนซื้อให้พอดีกับเคส

    เคส (Case)
    เคสราคาประหยัดยังมีดีไซน์สวยและรองรับอุปกรณ์ใหญ่
    Cooler Master Q300L ราคา $39.99
    ข้อเสียคือพอร์ต USB ด้านหน้าอาจน้อย

    แรม (RAM)
    32GB กลายเป็นมาตรฐานใหม่
    DDR5 ราคาประมาณ $80–130
    ควรเลือกแบรนด์ใหญ่และความเร็วสูง

    เมนบอร์ด (Motherboard)
    เมนบอร์ดราคาถูกยังรองรับ CPU และ RAM รุ่นใหม่
    ASRock B650M-H/M.2+ ราคา $99
    ข้อเสียคืออาจไม่มี Wi-Fi หรือ Bluetooth

    การ์ดจอ (GPU)
    ควรลงทุนเพื่อประสิทธิภาพในการเล่นเกม
    เกมใหม่ต้องใช้ GPU แรงเพื่อภาพลื่นและสวย
    Intel Arc B580 เป็นตัวเลือกคุ้มค่า
    AMD RX 7900 XTX ดีกว่า NVIDIA RTX 4080 ในราคาต่อประสิทธิภาพ

    https://www.slashgear.com/2002844/pc-parts-can-buy-cheap-ones-you-should-splurge-on/
    🖥️ ประกอบคอมไม่ต้องแพง! 4 อุปกรณ์ที่ซื้อถูกได้ กับ 1 ชิ้นที่ควรลงทุน ถ้าคุณกำลังคิดจะประกอบคอมใหม่ ไม่ว่าจะเพื่อเล่นเกม ทำงาน หรือตัดต่อวิดีโอ คุณไม่จำเป็นต้องจ่ายแพงทุกชิ้น! มีหลายอุปกรณ์ที่สามารถซื้อแบบราคาประหยัดได้ โดยไม่ต้องกังวลเรื่องคุณภาพมากนัก 🎗️ พัดลมซีพียู (CPU Fan): ไม่ต้องไปถึงระบบน้ำ แค่พัดลมอากาศดีๆ อย่าง Cooler Master Hyper 212 ก็เอาอยู่แล้ว แถมติดตั้งง่าย ราคาประมาณ $30 เท่านั้น 🎗️ เคส (Case): ถ้าไม่ได้โชว์เคสบนโต๊ะ ก็ไม่ต้องซื้อแพง เคสอย่าง Cooler Master Q300L ราคาแค่ $40 ก็สวยและใช้งานดี 🎗️ แรม (RAM): ตอนนี้ 32GB กลายเป็นมาตรฐานใหม่แล้ว แต่ก็ยังหาซื้อได้ในราคาประมาณ $100 ถ้าเลือกแบรนด์ดีๆ อย่าง Corsair หรือ G.SKILL 🎗️ เมนบอร์ด (Motherboard): ถ้าไม่ต้องการฟีเจอร์ล้ำๆ ก็เลือกเมนบอร์ดราคาประหยัดได้ เช่น ASRock B650M-H/M.2+ ราคาแค่ $99 รองรับ DDR5 และ CPU รุ่นใหม่ แต่มีหนึ่งชิ้นที่ไม่ควรประหยัด นั่นคือ การ์ดจอ (GPU) เพราะเกมสมัยนี้กินสเปคหนักมาก ถ้าอยากเล่นลื่นๆ ต้องลงทุนหน่อย เช่น Intel Arc B580 ที่ราคาไม่แรงแต่ประสิทธิภาพดี หรือ AMD RX 7900 XTX ที่คุ้มค่ากว่า NVIDIA RTX 4080 ✅ พัดลมซีพียู (CPU Fan) ➡️ พัดลมอากาศราคาถูกติดตั้งง่ายและเย็นพอ ➡️ Cooler Master Hyper 212 ราคาเพียง $29.99 ➡️ ควรตรวจสอบความสูงก่อนซื้อให้พอดีกับเคส ✅ เคส (Case) ➡️ เคสราคาประหยัดยังมีดีไซน์สวยและรองรับอุปกรณ์ใหญ่ ➡️ Cooler Master Q300L ราคา $39.99 ➡️ ข้อเสียคือพอร์ต USB ด้านหน้าอาจน้อย ✅ แรม (RAM) ➡️ 32GB กลายเป็นมาตรฐานใหม่ ➡️ DDR5 ราคาประมาณ $80–130 ➡️ ควรเลือกแบรนด์ใหญ่และความเร็วสูง ✅ เมนบอร์ด (Motherboard) ➡️ เมนบอร์ดราคาถูกยังรองรับ CPU และ RAM รุ่นใหม่ ➡️ ASRock B650M-H/M.2+ ราคา $99 ➡️ ข้อเสียคืออาจไม่มี Wi-Fi หรือ Bluetooth ‼️ การ์ดจอ (GPU) ⛔ ควรลงทุนเพื่อประสิทธิภาพในการเล่นเกม ⛔ เกมใหม่ต้องใช้ GPU แรงเพื่อภาพลื่นและสวย ⛔ Intel Arc B580 เป็นตัวเลือกคุ้มค่า ⛔ AMD RX 7900 XTX ดีกว่า NVIDIA RTX 4080 ในราคาต่อประสิทธิภาพ https://www.slashgear.com/2002844/pc-parts-can-buy-cheap-ones-you-should-splurge-on/
    WWW.SLASHGEAR.COM
    4 PC Parts You Can Buy Cheap (And 1 You Should Splurge On) - SlashGear
    Building your own PC is not as hard as you might think, but doing so on the cheap means learning when to save money on parts and when to invest.
    0 Comments 0 Shares 71 Views 0 Reviews
  • https://youtu.be/LamD3Pj1nLk?si=8iRDcmPuDcV4D1J9
    https://youtu.be/LamD3Pj1nLk?si=8iRDcmPuDcV4D1J9
    0 Comments 0 Shares 8 Views 0 Reviews
  • “ย้อนรอย 50 ปี AMD กับชิป Am9080: จากการลอกแบบสู่การครองตลาด CPU”

    รู้ไหมว่า AMD เริ่มต้นเข้าสู่ตลาด CPU ด้วยการ “ลอกแบบ” ชิปของ Intel? เรื่องนี้เกิดขึ้นเมื่อ 50 ปีก่อน ตอนที่ AMD ผลิตชิปชื่อว่า Am9080 ซึ่งเป็นการ reverse-engineer จาก Intel 8080 โดยตรง

    เรื่องเริ่มจากทีมวิศวกร 3 คน—Ashawna Hailey, Kim Hailey และ Jay Kumar—ที่ถ่ายภาพตัวอย่างชิป Intel 8080 แล้วนำไปสร้างแผนผังวงจรขึ้นมาใหม่ จากนั้นก็เสนอให้บริษัทต่าง ๆ ใน Silicon Valley พิจารณา และ AMD ก็ตอบรับทันที

    ชิป Am9080 นี้ผลิตได้ในราคาประมาณ 50 เซนต์ต่อชิ้น แต่สามารถขายให้ลูกค้าระดับองค์กร เช่น กองทัพ ได้ในราคาสูงถึง 700 ดอลลาร์! เรียกได้ว่าเป็นจุดเริ่มต้นที่ทำให้ AMD มีทุนและชื่อเสียงในการเข้าสู่ตลาด CPU อย่างจริงจัง

    แม้จะเริ่มต้นด้วยการลอกแบบ แต่ AMD ก็ไม่หยุดแค่นั้น ในปี 1976 พวกเขาทำข้อตกลงกับ Intel เพื่อเป็นผู้ผลิตสำรอง (second source) อย่างถูกกฎหมาย และต่อยอดไปสู่การผลิตชิป x86 ของตัวเองในปี 1982

    ชิป Am9080 ยังมีจุดเด่นที่เหนือกว่า Intel 8080 ด้วยการใช้กระบวนการผลิตแบบ N-channel MOS ที่ทันสมัยกว่า ทำให้มีขนาดเล็กกว่าและความเร็วสูงกว่า โดยบางรุ่นสามารถทำงานได้ถึง 4.0 MHz ในขณะที่ Intel 8080 ทำได้สูงสุดแค่ 3.125 MHz เท่านั้น

    จุดเริ่มต้นของ AMD ในตลาด CPU
    ปี 1975 AMD เริ่มผลิต Am9080 โดยลอกแบบจาก Intel 8080
    ใช้ภาพถ่ายจากตัวอย่างชิปเพื่อสร้างแผนผังวงจรใหม่
    เป็นการ reverse-engineer ที่นำไปสู่การผลิตจริง

    ต้นทุนต่ำ กำไรสูง
    ต้นทุนการผลิตชิป Am9080 อยู่ที่ประมาณ 50 เซนต์ต่อชิ้น
    ขายให้ลูกค้าระดับองค์กรในราคาสูงถึง 700 ดอลลาร์
    เป็นจุดเริ่มต้นที่ช่วยสร้างฐานการเงินให้ AMD

    ข้อตกลงกับ Intel เพื่อความถูกต้องตามกฎหมาย
    ปี 1976 AMD เซ็นสัญญา cross-licensing กับ Intel
    จ่ายค่าลิขสิทธิ์ 25,000 ดอลลาร์ และ 75,000 ดอลลาร์ต่อปี
    ได้สิทธิ์เป็นผู้ผลิตสำรอง (second source) อย่างเป็นทางการ

    การพัฒนาเทคโนโลยีที่เหนือกว่า Intel
    ใช้กระบวนการผลิต N-channel MOS ที่ทันสมัยกว่า
    ขนาด die ของ Am9080 เล็กกว่า Intel 8080
    ความเร็วสูงสุดของ Am9080 อยู่ที่ 4.0 MHz ในขณะที่ Intel 8080 สูงสุดแค่ 3.125 MHz

    การต่อยอดสู่ชิป x86 ของ AMD
    ปี 1982 AMD ผลิต Am286 ซึ่งเป็นเวอร์ชันลิขสิทธิ์ของ Intel 80286
    เป็นจุดเริ่มต้นของการผลิต CPU x86 ของ AMD อย่างเต็มตัว

    https://www.tomshardware.com/pc-components/cpus/amd-first-entered-the-cpu-market-with-reverse-engineered-intel-8080-clone-50-years-ago-the-am9080-cost-50-cents-apiece-to-make-but-sold-for-usd700
    🕰️ “ย้อนรอย 50 ปี AMD กับชิป Am9080: จากการลอกแบบสู่การครองตลาด CPU” รู้ไหมว่า AMD เริ่มต้นเข้าสู่ตลาด CPU ด้วยการ “ลอกแบบ” ชิปของ Intel? เรื่องนี้เกิดขึ้นเมื่อ 50 ปีก่อน ตอนที่ AMD ผลิตชิปชื่อว่า Am9080 ซึ่งเป็นการ reverse-engineer จาก Intel 8080 โดยตรง เรื่องเริ่มจากทีมวิศวกร 3 คน—Ashawna Hailey, Kim Hailey และ Jay Kumar—ที่ถ่ายภาพตัวอย่างชิป Intel 8080 แล้วนำไปสร้างแผนผังวงจรขึ้นมาใหม่ จากนั้นก็เสนอให้บริษัทต่าง ๆ ใน Silicon Valley พิจารณา และ AMD ก็ตอบรับทันที ชิป Am9080 นี้ผลิตได้ในราคาประมาณ 50 เซนต์ต่อชิ้น แต่สามารถขายให้ลูกค้าระดับองค์กร เช่น กองทัพ ได้ในราคาสูงถึง 700 ดอลลาร์! เรียกได้ว่าเป็นจุดเริ่มต้นที่ทำให้ AMD มีทุนและชื่อเสียงในการเข้าสู่ตลาด CPU อย่างจริงจัง แม้จะเริ่มต้นด้วยการลอกแบบ แต่ AMD ก็ไม่หยุดแค่นั้น ในปี 1976 พวกเขาทำข้อตกลงกับ Intel เพื่อเป็นผู้ผลิตสำรอง (second source) อย่างถูกกฎหมาย และต่อยอดไปสู่การผลิตชิป x86 ของตัวเองในปี 1982 ชิป Am9080 ยังมีจุดเด่นที่เหนือกว่า Intel 8080 ด้วยการใช้กระบวนการผลิตแบบ N-channel MOS ที่ทันสมัยกว่า ทำให้มีขนาดเล็กกว่าและความเร็วสูงกว่า โดยบางรุ่นสามารถทำงานได้ถึง 4.0 MHz ในขณะที่ Intel 8080 ทำได้สูงสุดแค่ 3.125 MHz เท่านั้น ✅ จุดเริ่มต้นของ AMD ในตลาด CPU ➡️ ปี 1975 AMD เริ่มผลิต Am9080 โดยลอกแบบจาก Intel 8080 ➡️ ใช้ภาพถ่ายจากตัวอย่างชิปเพื่อสร้างแผนผังวงจรใหม่ ➡️ เป็นการ reverse-engineer ที่นำไปสู่การผลิตจริง ✅ ต้นทุนต่ำ กำไรสูง ➡️ ต้นทุนการผลิตชิป Am9080 อยู่ที่ประมาณ 50 เซนต์ต่อชิ้น ➡️ ขายให้ลูกค้าระดับองค์กรในราคาสูงถึง 700 ดอลลาร์ ➡️ เป็นจุดเริ่มต้นที่ช่วยสร้างฐานการเงินให้ AMD ✅ ข้อตกลงกับ Intel เพื่อความถูกต้องตามกฎหมาย ➡️ ปี 1976 AMD เซ็นสัญญา cross-licensing กับ Intel ➡️ จ่ายค่าลิขสิทธิ์ 25,000 ดอลลาร์ และ 75,000 ดอลลาร์ต่อปี ➡️ ได้สิทธิ์เป็นผู้ผลิตสำรอง (second source) อย่างเป็นทางการ ✅ การพัฒนาเทคโนโลยีที่เหนือกว่า Intel ➡️ ใช้กระบวนการผลิต N-channel MOS ที่ทันสมัยกว่า ➡️ ขนาด die ของ Am9080 เล็กกว่า Intel 8080 ➡️ ความเร็วสูงสุดของ Am9080 อยู่ที่ 4.0 MHz ในขณะที่ Intel 8080 สูงสุดแค่ 3.125 MHz ✅ การต่อยอดสู่ชิป x86 ของ AMD ➡️ ปี 1982 AMD ผลิต Am286 ซึ่งเป็นเวอร์ชันลิขสิทธิ์ของ Intel 80286 ➡️ เป็นจุดเริ่มต้นของการผลิต CPU x86 ของ AMD อย่างเต็มตัว https://www.tomshardware.com/pc-components/cpus/amd-first-entered-the-cpu-market-with-reverse-engineered-intel-8080-clone-50-years-ago-the-am9080-cost-50-cents-apiece-to-make-but-sold-for-usd700
    WWW.TOMSHARDWARE.COM
    AMD first entered the CPU market with reverse-engineered Intel 8080 clone 50 years ago — the Am9080 cost 50 cents apiece to make, but sold for $700
    In 1975, AMD could make these processors for 50 cents and sell them for $700, providing a great financial springboard to establish the company in PC CPU making.
    0 Comments 0 Shares 138 Views 0 Reviews
  • Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น

    Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์

    แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ

    ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน

    Intel Core Ultra 5 338H
    ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก)
    ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X
    คะแนน Vulkan บน Geekbench: 39,406
    สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M

    สถาปัตยกรรม Panther Lake
    ใช้ Xe3 GPU จาก Battlemage IP
    มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่
    รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H
    Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน

    ความหมายของการไม่มี “X”
    ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง
    เหมาะกับงานทั่วไปและเกมระดับกลาง
    ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    🧠 Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์ แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน ✅ Intel Core Ultra 5 338H ➡️ ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก) ➡️ ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X ➡️ คะแนน Vulkan บน Geekbench: 39,406 ➡️ สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M ✅ สถาปัตยกรรม Panther Lake ➡️ ใช้ Xe3 GPU จาก Battlemage IP ➡️ มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่ ➡️ รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H ➡️ Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน ✅ ความหมายของการไม่มี “X” ➡️ ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง ➡️ เหมาะกับงานทั่วไปและเกมระดับกลาง ➡️ ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    0 Comments 0 Shares 108 Views 0 Reviews
  • Apple M5 ทำลายสถิติ! ชนะ Intel และ AMD ในการทดสอบ single-core บน Windows 11 แบบ virtualized

    ชิป Apple M5 รุ่นใหม่ถูกนำไปทดสอบบน Windows 11 ผ่านระบบ virtualization โดยนักรีวิวจากจีนชื่อ NPacific และผลลัพธ์ก็สร้างความฮือฮา เพราะ M5 ทำคะแนนสูงสุดในประวัติศาสตร์ของ CPU-Z สำหรับการทดสอบแบบ single-thread โดยไม่ต้องโอเวอร์คล็อกเลย

    M5 ทำคะแนนได้ถึง 1600.2 คะแนน ซึ่งสูงกว่า Intel Core i9-14900KS ที่ได้ 952 คะแนน และ AMD Ryzen 9 9950X3D ที่ได้ 867 คะแนน แม้จะรันบน Windows ผ่าน virtualization ซึ่งไม่ใช่ระบบ native ก็ตาม

    อย่างไรก็ตาม ในการทดสอบแบบ multi-threaded M5 ยังตามหลังชิปที่มีจำนวนคอร์มากกว่า เช่น Ryzen 9 9950X3D หรือ Intel Core i7-12700K เพราะ M5 มีเพียง 10 คอร์ และไม่มี simultaneous multithreading (SMT)

    ผลการทดสอบ single-thread CPU-Z
    Apple M5 ทำคะแนนสูงสุด 1600.2 (ไม่โอเวอร์คล็อก)
    สูงกว่า Intel Core i9-14900KS (952) และ AMD Ryzen 9 9950X3D (867)
    ทดสอบผ่าน Windows 11 virtualization

    จุดเด่นของ Apple M5
    ใช้ custom Armv9 core ความเร็วสูงสุด 4.60 GHz
    ออกแบบเพื่อเน้นประสิทธิภาพ single-thread และประหยัดพลังงาน
    เหมาะกับงานที่ต้องการความเร็วแบบเฉพาะจุด เช่น UI, แอปทั่วไป

    ผลการทดสอบ multi-thread CPU-Z
    M5 ทำได้ 5976.2 คะแนนจาก 10 threads
    ใกล้เคียงกับ Intel Core i7-12700K (5533) และ Ryzen 9 7900X (5935)
    ตามหลังชิปที่มี 16 threads เช่น Ryzen 9 9950X3D และ Core i5-13450HX

    https://www.tomshardware.com/pc-components/cpus/virtualized-windows-11-test-shows-apples-m5-destroying-intel-and-amds-best-in-single-core-benchmark-chinese-enthusiast-pits-ryzen-9-9950x3d-and-core-i9-14900ks-against-apples-latest-soc
    🍎 Apple M5 ทำลายสถิติ! ชนะ Intel และ AMD ในการทดสอบ single-core บน Windows 11 แบบ virtualized ชิป Apple M5 รุ่นใหม่ถูกนำไปทดสอบบน Windows 11 ผ่านระบบ virtualization โดยนักรีวิวจากจีนชื่อ NPacific และผลลัพธ์ก็สร้างความฮือฮา เพราะ M5 ทำคะแนนสูงสุดในประวัติศาสตร์ของ CPU-Z สำหรับการทดสอบแบบ single-thread โดยไม่ต้องโอเวอร์คล็อกเลย M5 ทำคะแนนได้ถึง 1600.2 คะแนน ซึ่งสูงกว่า Intel Core i9-14900KS ที่ได้ 952 คะแนน และ AMD Ryzen 9 9950X3D ที่ได้ 867 คะแนน แม้จะรันบน Windows ผ่าน virtualization ซึ่งไม่ใช่ระบบ native ก็ตาม อย่างไรก็ตาม ในการทดสอบแบบ multi-threaded M5 ยังตามหลังชิปที่มีจำนวนคอร์มากกว่า เช่น Ryzen 9 9950X3D หรือ Intel Core i7-12700K เพราะ M5 มีเพียง 10 คอร์ และไม่มี simultaneous multithreading (SMT) ✅ ผลการทดสอบ single-thread CPU-Z ➡️ Apple M5 ทำคะแนนสูงสุด 1600.2 (ไม่โอเวอร์คล็อก) ➡️ สูงกว่า Intel Core i9-14900KS (952) และ AMD Ryzen 9 9950X3D (867) ➡️ ทดสอบผ่าน Windows 11 virtualization ✅ จุดเด่นของ Apple M5 ➡️ ใช้ custom Armv9 core ความเร็วสูงสุด 4.60 GHz ➡️ ออกแบบเพื่อเน้นประสิทธิภาพ single-thread และประหยัดพลังงาน ➡️ เหมาะกับงานที่ต้องการความเร็วแบบเฉพาะจุด เช่น UI, แอปทั่วไป ✅ ผลการทดสอบ multi-thread CPU-Z ➡️ M5 ทำได้ 5976.2 คะแนนจาก 10 threads ➡️ ใกล้เคียงกับ Intel Core i7-12700K (5533) และ Ryzen 9 7900X (5935) ➡️ ตามหลังชิปที่มี 16 threads เช่น Ryzen 9 9950X3D และ Core i5-13450HX https://www.tomshardware.com/pc-components/cpus/virtualized-windows-11-test-shows-apples-m5-destroying-intel-and-amds-best-in-single-core-benchmark-chinese-enthusiast-pits-ryzen-9-9950x3d-and-core-i9-14900ks-against-apples-latest-soc
    0 Comments 0 Shares 123 Views 0 Reviews
  • Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้

    Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น

    Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A

    Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake

    การเปิดตัวสถาปัตยกรรม Nova Lake
    เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake
    ออกแบบใหม่ทั้ง CPU และ GPU
    รองรับการประมวลผล AI และ edge computing
    ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm)

    การเปิดตัวชิป Panther Lake
    เป็นชิปรุ่นแรกในไลน์ Nova Lake
    เตรียมเปิดตัวภายในปีนี้
    ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel

    การอัปเกรดซอฟต์แวร์
    Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake
    เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing
    ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ

    ข้อควรระวังและความท้าทาย
    การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake
    การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก
    การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel

    https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    ⚙️ Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้ Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake ✅ การเปิดตัวสถาปัตยกรรม Nova Lake ➡️ เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake ➡️ ออกแบบใหม่ทั้ง CPU และ GPU ➡️ รองรับการประมวลผล AI และ edge computing ➡️ ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm) ✅ การเปิดตัวชิป Panther Lake ➡️ เป็นชิปรุ่นแรกในไลน์ Nova Lake ➡️ เตรียมเปิดตัวภายในปีนี้ ➡️ ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel ✅ การอัปเกรดซอฟต์แวร์ ➡️ Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake ➡️ เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing ➡️ ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ ‼️ ข้อควรระวังและความท้าทาย ⛔ การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake ⛔ การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก ⛔ การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    WCCFTECH.COM
    Intel Nova Lake CPUs Bring New Architecture & Software Upgrades, First Panther Lake SKUs This Year, 18A To Cover At least Next-Three Client & Server Products
    Intel talked about its upcoming Panther Lake, Nova Lake, Coral Rapids CPUs, and its Foundry plans involving 18A & 14A during its Q3 call.
    0 Comments 0 Shares 116 Views 0 Reviews
  • จีนเปิดตัวมาตรฐานใหม่ “UBIOS” แทน BIOS และ UEFI เดิม – ก้าวสำคัญสู่การพึ่งพาตนเองด้านเทคโนโลยี

    จีนเดินหน้าสู่การพึ่งพาตนเองด้านเทคโนโลยีอย่างจริงจัง ล่าสุดได้เปิดตัวมาตรฐานเฟิร์มแวร์ใหม่ชื่อว่า “UBIOS” (Unified Basic Input/Output System) เพื่อแทนที่ BIOS และ UEFI ที่ใช้กันมายาวนานในคอมพิวเตอร์ทั่วโลก โดยมาตรฐานนี้ถูกพัฒนาโดยกลุ่มบริษัทเทคโนโลยีจีน 13 แห่ง รวมถึง Huawei และ CESI โดยมีเป้าหมายหลักคือการลดการพึ่งพามาตรฐานจากสหรัฐฯ และสนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 เช่น ARM, RISC-V และ LoongArch

    UBIOS ถูกสร้างขึ้นใหม่ทั้งหมด ไม่ได้พัฒนาต่อจาก UEFI ซึ่งจีนมองว่ามีความซับซ้อนเกินไปและถูกควบคุมโดยบริษัทอเมริกันอย่าง Intel และ AMD การพัฒนาใหม่นี้ยังรองรับการใช้งานแบบ heterogeneous computing เช่น เมนบอร์ดที่มี CPU ต่างรุ่นกัน และระบบที่ใช้ชิปแบบ chiplet ซึ่งกำลังเป็นเทรนด์ใหม่ในวงการคอมพิวเตอร์

    การเปิดตัว UBIOS ถือเป็นหนึ่งในความพยายามของจีนตามแผน “Document 79” ที่มีเป้าหมายให้ประเทศเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ซึ่งแม้จะเป็นเป้าหมายที่ท้าทาย แต่การมีมาตรฐานเฟิร์มแวร์ของตัวเองก็เป็นก้าวสำคัญที่อาจเปลี่ยนเกมในอนาคต

    การเปิดตัวมาตรฐาน UBIOS
    เป็นเฟิร์มแวร์ใหม่ที่ใช้แทน BIOS และ UEFI
    พัฒนาโดยกลุ่มบริษัทจีน 13 แห่ง เช่น Huawei, CESI
    ไม่พัฒนาต่อจาก UEFI แต่สร้างใหม่ทั้งหมดจาก BIOS เดิม
    รองรับการใช้งานกับ CPU ที่หลากหลาย เช่น ARM, RISC-V, LoongArch
    รองรับการใช้งานแบบ heterogeneous computing และ chiplet
    เตรียมเปิดเผยรายละเอียดเพิ่มเติมในงาน Global Computing Conference ปี 2025 ที่เซินเจิ้น

    เป้าหมายของจีนในการพึ่งพาตนเองด้านเทคโนโลยี
    ลดการพึ่งพามาตรฐานจากสหรัฐฯ เช่น UEFI ที่ควบคุมโดย Intel และ AMD
    สนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86
    เป็นส่วนหนึ่งของแผน “Document 79” ที่จะเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027

    ความท้าทายและข้อควรระวัง
    ยังไม่แน่ชัดว่า UBIOS จะได้รับการยอมรับในระดับสากลหรือไม่
    อาจเผชิญกับปัญหาความเข้ากันได้กับระบบปฏิบัติการและฮาร์ดแวร์ที่มีอยู่
    การเปลี่ยนมาตรฐานเฟิร์มแวร์อาจส่งผลต่อความมั่นคงของระบบในระยะเริ่มต้น
    หากไม่สามารถสร้าง ecosystem ที่แข็งแรงได้ อาจมีชะตากรรมแบบเดียวกับ LoongArch ที่ไม่เป็นที่นิยม

    https://www.tomshardware.com/software/china-releases-ubios-standard-to-replace-uefi-huawei-backed-bios-firmware-replacement-charges-chinas-domestic-computing-goals
    🇨🇳 จีนเปิดตัวมาตรฐานใหม่ “UBIOS” แทน BIOS และ UEFI เดิม – ก้าวสำคัญสู่การพึ่งพาตนเองด้านเทคโนโลยี จีนเดินหน้าสู่การพึ่งพาตนเองด้านเทคโนโลยีอย่างจริงจัง ล่าสุดได้เปิดตัวมาตรฐานเฟิร์มแวร์ใหม่ชื่อว่า “UBIOS” (Unified Basic Input/Output System) เพื่อแทนที่ BIOS และ UEFI ที่ใช้กันมายาวนานในคอมพิวเตอร์ทั่วโลก โดยมาตรฐานนี้ถูกพัฒนาโดยกลุ่มบริษัทเทคโนโลยีจีน 13 แห่ง รวมถึง Huawei และ CESI โดยมีเป้าหมายหลักคือการลดการพึ่งพามาตรฐานจากสหรัฐฯ และสนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 เช่น ARM, RISC-V และ LoongArch UBIOS ถูกสร้างขึ้นใหม่ทั้งหมด ไม่ได้พัฒนาต่อจาก UEFI ซึ่งจีนมองว่ามีความซับซ้อนเกินไปและถูกควบคุมโดยบริษัทอเมริกันอย่าง Intel และ AMD การพัฒนาใหม่นี้ยังรองรับการใช้งานแบบ heterogeneous computing เช่น เมนบอร์ดที่มี CPU ต่างรุ่นกัน และระบบที่ใช้ชิปแบบ chiplet ซึ่งกำลังเป็นเทรนด์ใหม่ในวงการคอมพิวเตอร์ การเปิดตัว UBIOS ถือเป็นหนึ่งในความพยายามของจีนตามแผน “Document 79” ที่มีเป้าหมายให้ประเทศเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ซึ่งแม้จะเป็นเป้าหมายที่ท้าทาย แต่การมีมาตรฐานเฟิร์มแวร์ของตัวเองก็เป็นก้าวสำคัญที่อาจเปลี่ยนเกมในอนาคต ✅ การเปิดตัวมาตรฐาน UBIOS ➡️ เป็นเฟิร์มแวร์ใหม่ที่ใช้แทน BIOS และ UEFI ➡️ พัฒนาโดยกลุ่มบริษัทจีน 13 แห่ง เช่น Huawei, CESI ➡️ ไม่พัฒนาต่อจาก UEFI แต่สร้างใหม่ทั้งหมดจาก BIOS เดิม ➡️ รองรับการใช้งานกับ CPU ที่หลากหลาย เช่น ARM, RISC-V, LoongArch ➡️ รองรับการใช้งานแบบ heterogeneous computing และ chiplet ➡️ เตรียมเปิดเผยรายละเอียดเพิ่มเติมในงาน Global Computing Conference ปี 2025 ที่เซินเจิ้น ✅ เป้าหมายของจีนในการพึ่งพาตนเองด้านเทคโนโลยี ➡️ ลดการพึ่งพามาตรฐานจากสหรัฐฯ เช่น UEFI ที่ควบคุมโดย Intel และ AMD ➡️ สนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 ➡️ เป็นส่วนหนึ่งของแผน “Document 79” ที่จะเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ‼️ ความท้าทายและข้อควรระวัง ⛔ ยังไม่แน่ชัดว่า UBIOS จะได้รับการยอมรับในระดับสากลหรือไม่ ⛔ อาจเผชิญกับปัญหาความเข้ากันได้กับระบบปฏิบัติการและฮาร์ดแวร์ที่มีอยู่ ⛔ การเปลี่ยนมาตรฐานเฟิร์มแวร์อาจส่งผลต่อความมั่นคงของระบบในระยะเริ่มต้น ⛔ หากไม่สามารถสร้าง ecosystem ที่แข็งแรงได้ อาจมีชะตากรรมแบบเดียวกับ LoongArch ที่ไม่เป็นที่นิยม https://www.tomshardware.com/software/china-releases-ubios-standard-to-replace-uefi-huawei-backed-bios-firmware-replacement-charges-chinas-domestic-computing-goals
    WWW.TOMSHARDWARE.COM
    China releases 'UBIOS' standard to replace UEFI — Huawei-backed BIOS firmware replacement charges China's domestic computing goals
    Support for chiplets, heterogeneous computing, and a step away from U.S.-based standards are key features of China's BIOS replacement.
    0 Comments 0 Shares 131 Views 0 Reviews
  • “Tiny Corp ปลดล็อก Nvidia GPU บน MacBook ARM ผ่าน USB4 – เปิดทางใหม่ให้สาย AI บน macOS!”

    ใครที่ใช้ MacBook รุ่นใหม่ที่ใช้ชิป M-series อาจเคยรู้สึกเสียดายที่ไม่สามารถใช้การ์ดจอแยกจาก Nvidia ได้ เพราะ macOS บน ARM ไม่มีไดรเวอร์รองรับแบบเป็นทางการ แต่ล่าสุด Tiny Corp สตาร์ทอัพสาย AI ได้สร้างความฮือฮา ด้วยการพัฒนาไดรเวอร์ที่ทำให้ MacBook ARM สามารถใช้งาน Nvidia GPU ได้ผ่าน USB4 หรือ Thunderbolt 4 โดยใช้ eGPU docking station!

    ก่อนหน้านี้ Tiny Corp เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ได้สำเร็จมาแล้ว ซึ่งถือว่าเป็นความสำเร็จครั้งแรกในโลก และครั้งนี้พวกเขาได้ต่อยอดไปยัง Nvidia โดยรองรับการ์ด RTX รุ่น 30, 40 และ 50 series ส่วน RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเพิ่มเติม ส่วน GTX series ไม่รองรับ เพราะไม่มี GPU system processor

    การใช้งาน Nvidia GPU บน MacBook นี้ไม่ได้เพื่อการแสดงผลกราฟิก แต่เน้นสำหรับงาน AI โดยเฉพาะ เช่น การรันโมเดล LLM หรืองาน inference ที่ต้องใช้พลังประมวลผลสูง ซึ่งการ์ดจอของ Apple ยังไม่สามารถเทียบได้ในด้านนี้

    Tiny Corp ได้โชว์ตัวอย่างการใช้งานผ่านแพลตฟอร์ม X โดยใช้ MacBook Pro M3 Max เชื่อมต่อกับ RTX GPU ผ่าน dock รุ่น ADT-UT3G และรัน Tinygrad ได้อย่างลื่นไหล ถือเป็นก้าวสำคัญสำหรับนักพัฒนา AI ที่ใช้ macOS

    ความสำเร็จของ Tiny Corp
    พัฒนาไดรเวอร์ให้ MacBook ARM ใช้งาน Nvidia GPU ผ่าน USB4/Thunderbolt 4
    รองรับ RTX 30, 40, 50 series สำหรับงาน AI
    RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเอง
    GTX series ไม่รองรับ เพราะไม่มี GPU system processor
    ใช้ dock รุ่น ADT-UT3G เชื่อมต่อผ่าน USB4
    รัน Tinygrad บน MacBook Pro M3 Max ได้สำเร็จ
    ไม่รองรับการแสดงผลกราฟิก แต่เน้นงาน AI เช่น LLM และ inference

    ความเป็นมาของเทคโนโลยี
    ก่อนหน้านี้เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3
    USB4/Thunderbolt 4 รองรับ PCIe โดยตรง ทำให้เชื่อมต่อ eGPU ได้ง่ายขึ้น
    Apple ไม่เคยรองรับ Nvidia GPU บน macOS ARM อย่างเป็นทางการ
    นักพัฒนาต้องสร้างไดรเวอร์เองเพื่อใช้งาน eGPU บน MacBook

    ข้อควรระวังและคำเตือน
    ใช้งานได้เฉพาะสำหรับงาน AI ไม่รองรับการแสดงผลหน้าจอ
    ต้องใช้การ์ดที่มี GPU system processor เท่านั้น
    RTX 20 series ต้องปรับแต่งเพิ่มเติม ไม่ใช่ plug-and-play
    GTX series ไม่สามารถใช้งานได้เลย
    การติดตั้งไดรเวอร์ต้องใช้ความเข้าใจเชิงเทคนิคพอสมควร

    https://www.tomshardware.com/pc-components/gpus/tiny-corp-successfully-runs-an-nvidia-gpu-on-arm-macbook-through-usb4-using-an-external-gpu-docking-station
    🔌 “Tiny Corp ปลดล็อก Nvidia GPU บน MacBook ARM ผ่าน USB4 – เปิดทางใหม่ให้สาย AI บน macOS!” ใครที่ใช้ MacBook รุ่นใหม่ที่ใช้ชิป M-series อาจเคยรู้สึกเสียดายที่ไม่สามารถใช้การ์ดจอแยกจาก Nvidia ได้ เพราะ macOS บน ARM ไม่มีไดรเวอร์รองรับแบบเป็นทางการ แต่ล่าสุด Tiny Corp สตาร์ทอัพสาย AI ได้สร้างความฮือฮา ด้วยการพัฒนาไดรเวอร์ที่ทำให้ MacBook ARM สามารถใช้งาน Nvidia GPU ได้ผ่าน USB4 หรือ Thunderbolt 4 โดยใช้ eGPU docking station! ก่อนหน้านี้ Tiny Corp เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ได้สำเร็จมาแล้ว ซึ่งถือว่าเป็นความสำเร็จครั้งแรกในโลก และครั้งนี้พวกเขาได้ต่อยอดไปยัง Nvidia โดยรองรับการ์ด RTX รุ่น 30, 40 และ 50 series ส่วน RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเพิ่มเติม ส่วน GTX series ไม่รองรับ เพราะไม่มี GPU system processor การใช้งาน Nvidia GPU บน MacBook นี้ไม่ได้เพื่อการแสดงผลกราฟิก แต่เน้นสำหรับงาน AI โดยเฉพาะ เช่น การรันโมเดล LLM หรืองาน inference ที่ต้องใช้พลังประมวลผลสูง ซึ่งการ์ดจอของ Apple ยังไม่สามารถเทียบได้ในด้านนี้ Tiny Corp ได้โชว์ตัวอย่างการใช้งานผ่านแพลตฟอร์ม X โดยใช้ MacBook Pro M3 Max เชื่อมต่อกับ RTX GPU ผ่าน dock รุ่น ADT-UT3G และรัน Tinygrad ได้อย่างลื่นไหล ถือเป็นก้าวสำคัญสำหรับนักพัฒนา AI ที่ใช้ macOS ✅ ความสำเร็จของ Tiny Corp ➡️ พัฒนาไดรเวอร์ให้ MacBook ARM ใช้งาน Nvidia GPU ผ่าน USB4/Thunderbolt 4 ➡️ รองรับ RTX 30, 40, 50 series สำหรับงาน AI ➡️ RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเอง ➡️ GTX series ไม่รองรับ เพราะไม่มี GPU system processor ➡️ ใช้ dock รุ่น ADT-UT3G เชื่อมต่อผ่าน USB4 ➡️ รัน Tinygrad บน MacBook Pro M3 Max ได้สำเร็จ ➡️ ไม่รองรับการแสดงผลกราฟิก แต่เน้นงาน AI เช่น LLM และ inference ✅ ความเป็นมาของเทคโนโลยี ➡️ ก่อนหน้านี้เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ➡️ USB4/Thunderbolt 4 รองรับ PCIe โดยตรง ทำให้เชื่อมต่อ eGPU ได้ง่ายขึ้น ➡️ Apple ไม่เคยรองรับ Nvidia GPU บน macOS ARM อย่างเป็นทางการ ➡️ นักพัฒนาต้องสร้างไดรเวอร์เองเพื่อใช้งาน eGPU บน MacBook ‼️ ข้อควรระวังและคำเตือน ⛔ ใช้งานได้เฉพาะสำหรับงาน AI ไม่รองรับการแสดงผลหน้าจอ ⛔ ต้องใช้การ์ดที่มี GPU system processor เท่านั้น ⛔ RTX 20 series ต้องปรับแต่งเพิ่มเติม ไม่ใช่ plug-and-play ⛔ GTX series ไม่สามารถใช้งานได้เลย ⛔ การติดตั้งไดรเวอร์ต้องใช้ความเข้าใจเชิงเทคนิคพอสมควร https://www.tomshardware.com/pc-components/gpus/tiny-corp-successfully-runs-an-nvidia-gpu-on-arm-macbook-through-usb4-using-an-external-gpu-docking-station
    0 Comments 0 Shares 112 Views 0 Reviews
  • “ByteDance จับมือ AMD, Intel, Arm และ Google สร้างมาตรฐานใหม่ให้เฟิร์มแวร์ – เปิดตัวโครงการ openSFI”

    ใครจะคิดว่าเจ้าของ TikTok อย่าง ByteDance จะมาร่วมวงกับยักษ์ใหญ่สายฮาร์ดแวร์อย่าง AMD, Intel, Arm และ Google ในการพัฒนาเฟิร์มแวร์ระดับล่างของระบบคอมพิวเตอร์ ล่าสุดพวกเขาร่วมกันเปิดตัวโครงการชื่อว่า “openSFI” (Open Silicon Firmware Interface) ซึ่งเป็นความพยายามครั้งใหญ่ในการสร้างมาตรฐานกลางสำหรับการสื่อสารระหว่างเฟิร์มแวร์กับชิป CPU

    openSFI มีเป้าหมายเพื่อให้เฟิร์มแวร์สามารถทำงานร่วมกับชิปจากผู้ผลิตต่าง ๆ ได้อย่างไร้รอยต่อ โดยไม่ต้องเขียนโค้ดใหม่ทุกครั้งที่เปลี่ยนแพลตฟอร์ม ซึ่งจะช่วยลดต้นทุน ลดเวลาในการพัฒนา และเพิ่มความยั่งยืนให้กับอุตสาหกรรม

    โครงการนี้ต่อยอดจากความพยายามของ AMD ที่ชื่อว่า openSIL ซึ่งเป็นเฟิร์มแวร์แบบโอเพ่นซอร์สที่มาแทน AGESA และของ Intel ที่ชื่อว่า FSP (Firmware Support Package) โดย openSFI จะเป็นเลเยอร์กลางที่นั่งอยู่เหนือ openSIL และ FSP เพื่อให้เฟิร์มแวร์เรียกใช้ฟังก์ชันต่าง ๆ ได้แบบมาตรฐานเดียว

    ที่น่าสนใจคือ ByteDance เป็นบริษัทจีนเพียงรายเดียวที่เข้าร่วมโครงการนี้ ท่ามกลางบริษัทตะวันตกยักษ์ใหญ่มากมาย เช่น Microsoft, HPE, MiTAC และ Google ซึ่งถือเป็นความร่วมมือข้ามชาติที่หาได้ยากในยุคที่เทคโนโลยีกลายเป็นเรื่องภูมิรัฐศาสตร์

    โครงการ openSFI คืออะไร
    เป็นมาตรฐานกลางสำหรับการเชื่อมต่อระหว่างเฟิร์มแวร์กับชิป CPU
    ช่วยให้เฟิร์มแวร์ทำงานร่วมกับชิปจากหลายค่ายได้ง่ายขึ้น
    ลดต้นทุนและเวลาในการพัฒนาเฟิร์มแวร์
    เพิ่มความสามารถในการนำกลับมาใช้ซ้ำ (reusability)
    ส่งเสริมความยั่งยืนในอุตสาหกรรมฮาร์ดแวร์

    ความร่วมมือระดับโลก
    นำโดย AMD, Intel, Arm, Google และ ByteDance
    ByteDance เป็นบริษัทจีนเพียงรายเดียวในโครงการ
    มีบริษัทอื่นร่วมด้วย เช่น Microsoft, HPE, MiTAC
    โครงการต่อยอดจาก AMD openSIL และ Intel FSP
    openSFI จะเป็นเลเยอร์กลางที่เชื่อมทั้งสองระบบเข้าด้วยกัน

    เป้าหมายของ openSFI
    สร้าง API ที่เสถียรและเป็นมาตรฐาน
    ให้ host firmware เรียกใช้ฟังก์ชันของชิปได้แบบไม่ขึ้นกับผู้ผลิต
    ลดความซ้ำซ้อนในการพัฒนาและการตรวจสอบระบบ
    สนับสนุนการพัฒนาเฟิร์มแวร์แบบโมดูลาร์และขยายได้

    https://www.techradar.com/pro/tiktok-owner-is-collaborating-with-amd-arm-and-intel-on-making-firmware-solutions-better-bytedance-is-the-only-chinese-company-participating-in-this-major-project
    🤝 “ByteDance จับมือ AMD, Intel, Arm และ Google สร้างมาตรฐานใหม่ให้เฟิร์มแวร์ – เปิดตัวโครงการ openSFI” ใครจะคิดว่าเจ้าของ TikTok อย่าง ByteDance จะมาร่วมวงกับยักษ์ใหญ่สายฮาร์ดแวร์อย่าง AMD, Intel, Arm และ Google ในการพัฒนาเฟิร์มแวร์ระดับล่างของระบบคอมพิวเตอร์ ล่าสุดพวกเขาร่วมกันเปิดตัวโครงการชื่อว่า “openSFI” (Open Silicon Firmware Interface) ซึ่งเป็นความพยายามครั้งใหญ่ในการสร้างมาตรฐานกลางสำหรับการสื่อสารระหว่างเฟิร์มแวร์กับชิป CPU openSFI มีเป้าหมายเพื่อให้เฟิร์มแวร์สามารถทำงานร่วมกับชิปจากผู้ผลิตต่าง ๆ ได้อย่างไร้รอยต่อ โดยไม่ต้องเขียนโค้ดใหม่ทุกครั้งที่เปลี่ยนแพลตฟอร์ม ซึ่งจะช่วยลดต้นทุน ลดเวลาในการพัฒนา และเพิ่มความยั่งยืนให้กับอุตสาหกรรม โครงการนี้ต่อยอดจากความพยายามของ AMD ที่ชื่อว่า openSIL ซึ่งเป็นเฟิร์มแวร์แบบโอเพ่นซอร์สที่มาแทน AGESA และของ Intel ที่ชื่อว่า FSP (Firmware Support Package) โดย openSFI จะเป็นเลเยอร์กลางที่นั่งอยู่เหนือ openSIL และ FSP เพื่อให้เฟิร์มแวร์เรียกใช้ฟังก์ชันต่าง ๆ ได้แบบมาตรฐานเดียว ที่น่าสนใจคือ ByteDance เป็นบริษัทจีนเพียงรายเดียวที่เข้าร่วมโครงการนี้ ท่ามกลางบริษัทตะวันตกยักษ์ใหญ่มากมาย เช่น Microsoft, HPE, MiTAC และ Google ซึ่งถือเป็นความร่วมมือข้ามชาติที่หาได้ยากในยุคที่เทคโนโลยีกลายเป็นเรื่องภูมิรัฐศาสตร์ ✅ โครงการ openSFI คืออะไร ➡️ เป็นมาตรฐานกลางสำหรับการเชื่อมต่อระหว่างเฟิร์มแวร์กับชิป CPU ➡️ ช่วยให้เฟิร์มแวร์ทำงานร่วมกับชิปจากหลายค่ายได้ง่ายขึ้น ➡️ ลดต้นทุนและเวลาในการพัฒนาเฟิร์มแวร์ ➡️ เพิ่มความสามารถในการนำกลับมาใช้ซ้ำ (reusability) ➡️ ส่งเสริมความยั่งยืนในอุตสาหกรรมฮาร์ดแวร์ ✅ ความร่วมมือระดับโลก ➡️ นำโดย AMD, Intel, Arm, Google และ ByteDance ➡️ ByteDance เป็นบริษัทจีนเพียงรายเดียวในโครงการ ➡️ มีบริษัทอื่นร่วมด้วย เช่น Microsoft, HPE, MiTAC ➡️ โครงการต่อยอดจาก AMD openSIL และ Intel FSP ➡️ openSFI จะเป็นเลเยอร์กลางที่เชื่อมทั้งสองระบบเข้าด้วยกัน ✅ เป้าหมายของ openSFI ➡️ สร้าง API ที่เสถียรและเป็นมาตรฐาน ➡️ ให้ host firmware เรียกใช้ฟังก์ชันของชิปได้แบบไม่ขึ้นกับผู้ผลิต ➡️ ลดความซ้ำซ้อนในการพัฒนาและการตรวจสอบระบบ ➡️ สนับสนุนการพัฒนาเฟิร์มแวร์แบบโมดูลาร์และขยายได้ https://www.techradar.com/pro/tiktok-owner-is-collaborating-with-amd-arm-and-intel-on-making-firmware-solutions-better-bytedance-is-the-only-chinese-company-participating-in-this-major-project
    WWW.TECHRADAR.COM
    Firmware wars take a new turn as openSFI promises to break vendor barriers
    OpenSFI layers above AMD’s openSIL and Intel’s FSP for unified function calls
    0 Comments 0 Shares 134 Views 0 Reviews
  • “Intel Core Ultra 200S Plus หลุดสเปก! Arrow Lake Refresh แรงทะลุชาร์ต – พร้อมชน Ryzen Zen 5”

    Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในตระกูล Core Ultra 200S Plus ที่ใช้ชื่อว่า “Arrow Lake Refresh” ซึ่งจะเปิดตัวต้นปี 2026 โดยมีสองรุ่นที่หลุดข้อมูลออกมาแล้ว คือ Core Ultra 9 290K Plus และ Core Ultra 7 270K Plus

    จุดเด่นของซีรีส์นี้คือการเพิ่มจำนวนคอร์ในบางรุ่น และเพิ่มความเร็วสัญญาณนาฬิกาในรุ่นอื่น ๆ โดยยังใช้ซ็อกเก็ต LGA 1851 เหมือนเดิม พร้อมฟีเจอร์ใหม่ที่เรียกว่า “200S Plus Boost” เพื่อเพิ่มประสิทธิภาพให้สูสีกับ Ryzen Zen 5 จาก AMD

    Core Ultra 7 270K Plus มี 24 คอร์ (8 Performance + 16 Efficient) มากกว่ารุ่นก่อนหน้า 265K ที่มีแค่ 20 คอร์ พร้อมแคช L3 ขนาด 36MB และความเร็วบูสต์ที่ 5.50GHz เท่ากับรุ่นเดิม แต่ประสิทธิภาพโดยรวมดีขึ้น โดยทำคะแนน Geekbench 6 ได้ 3205 คะแนนแบบ single-core และ 22,206 คะแนนแบบ multi-core ซึ่งใกล้เคียงกับรุ่นท็อปอย่าง Core Ultra 9 285K

    ส่วน Core Ultra 9 290K Plus ยังไม่มีข้อมูลเต็ม แต่คาดว่าจะใช้คอนฟิก 24 คอร์เหมือนเดิม เพิ่มความเร็วและ TDP เพื่อดันประสิทธิภาพให้สูงขึ้นอีก

    ทั้งสองรุ่นถูกทดสอบในระบบ OEM ของ Lenovo ที่ใช้แรม DDR5 48GB ความเร็ว 7200MT/s และการ์ดจอ RTX 5090D ซึ่งเป็นสเปกระดับสูงที่ช่วยให้ซีพียูแสดงศักยภาพได้เต็มที่

    Intel ยังมีแผนเปิดตัว Nova Lake-S ในปีหน้า ซึ่งจะใช้ซ็อกเก็ตใหม่ LGA 1954 และเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป

    สเปกและประสิทธิภาพของ Arrow Lake Refresh
    Core Ultra 7 270K Plus มี 24 คอร์ (8P + 16E)
    เพิ่มจากรุ่นก่อนหน้า 265K ที่มี 20 คอร์
    แคช L3 ขนาด 36MB มากกว่ารุ่นเดิม
    ความเร็วบูสต์ 5.50GHz เท่ากับรุ่นก่อน
    คะแนน Geekbench 6: 3205 (ST) และ 22,206 (MT)
    ทดสอบในระบบ Lenovo OEM พร้อมแรม DDR5 7200MT/s
    ใช้ซ็อกเก็ต LGA 1851 เหมือนรุ่นก่อน
    มีฟีเจอร์ใหม่ “200S Plus Boost” เพิ่มประสิทธิภาพ
    Core Ultra 9 290K Plus คาดว่าจะเพิ่มความเร็วและ TDP
    เตรียมเปิดตัวต้นปี 2026

    แผนอนาคตของ Intel
    เตรียมเปิดตัว Nova Lake-S ในปีหน้า
    ใช้ซ็อกเก็ตใหม่ LGA 1954
    เป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป
    Arrow Lake Refresh อาจเป็นรุ่นสุดท้ายของ LGA 1851

    https://wccftech.com/intel-core-ultra-200s-plus-arrow-lake-refresh-cpus-leak-9-290k-plus-7-270k-plus-benchmark/
    🚀 “Intel Core Ultra 200S Plus หลุดสเปก! Arrow Lake Refresh แรงทะลุชาร์ต – พร้อมชน Ryzen Zen 5” Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในตระกูล Core Ultra 200S Plus ที่ใช้ชื่อว่า “Arrow Lake Refresh” ซึ่งจะเปิดตัวต้นปี 2026 โดยมีสองรุ่นที่หลุดข้อมูลออกมาแล้ว คือ Core Ultra 9 290K Plus และ Core Ultra 7 270K Plus จุดเด่นของซีรีส์นี้คือการเพิ่มจำนวนคอร์ในบางรุ่น และเพิ่มความเร็วสัญญาณนาฬิกาในรุ่นอื่น ๆ โดยยังใช้ซ็อกเก็ต LGA 1851 เหมือนเดิม พร้อมฟีเจอร์ใหม่ที่เรียกว่า “200S Plus Boost” เพื่อเพิ่มประสิทธิภาพให้สูสีกับ Ryzen Zen 5 จาก AMD Core Ultra 7 270K Plus มี 24 คอร์ (8 Performance + 16 Efficient) มากกว่ารุ่นก่อนหน้า 265K ที่มีแค่ 20 คอร์ พร้อมแคช L3 ขนาด 36MB และความเร็วบูสต์ที่ 5.50GHz เท่ากับรุ่นเดิม แต่ประสิทธิภาพโดยรวมดีขึ้น โดยทำคะแนน Geekbench 6 ได้ 3205 คะแนนแบบ single-core และ 22,206 คะแนนแบบ multi-core ซึ่งใกล้เคียงกับรุ่นท็อปอย่าง Core Ultra 9 285K ส่วน Core Ultra 9 290K Plus ยังไม่มีข้อมูลเต็ม แต่คาดว่าจะใช้คอนฟิก 24 คอร์เหมือนเดิม เพิ่มความเร็วและ TDP เพื่อดันประสิทธิภาพให้สูงขึ้นอีก ทั้งสองรุ่นถูกทดสอบในระบบ OEM ของ Lenovo ที่ใช้แรม DDR5 48GB ความเร็ว 7200MT/s และการ์ดจอ RTX 5090D ซึ่งเป็นสเปกระดับสูงที่ช่วยให้ซีพียูแสดงศักยภาพได้เต็มที่ Intel ยังมีแผนเปิดตัว Nova Lake-S ในปีหน้า ซึ่งจะใช้ซ็อกเก็ตใหม่ LGA 1954 และเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป ✅ สเปกและประสิทธิภาพของ Arrow Lake Refresh ➡️ Core Ultra 7 270K Plus มี 24 คอร์ (8P + 16E) ➡️ เพิ่มจากรุ่นก่อนหน้า 265K ที่มี 20 คอร์ ➡️ แคช L3 ขนาด 36MB มากกว่ารุ่นเดิม ➡️ ความเร็วบูสต์ 5.50GHz เท่ากับรุ่นก่อน ➡️ คะแนน Geekbench 6: 3205 (ST) และ 22,206 (MT) ➡️ ทดสอบในระบบ Lenovo OEM พร้อมแรม DDR5 7200MT/s ➡️ ใช้ซ็อกเก็ต LGA 1851 เหมือนรุ่นก่อน ➡️ มีฟีเจอร์ใหม่ “200S Plus Boost” เพิ่มประสิทธิภาพ ➡️ Core Ultra 9 290K Plus คาดว่าจะเพิ่มความเร็วและ TDP ➡️ เตรียมเปิดตัวต้นปี 2026 ✅ แผนอนาคตของ Intel ➡️ เตรียมเปิดตัว Nova Lake-S ในปีหน้า ➡️ ใช้ซ็อกเก็ตใหม่ LGA 1954 ➡️ เป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป ➡️ Arrow Lake Refresh อาจเป็นรุ่นสุดท้ายของ LGA 1851 https://wccftech.com/intel-core-ultra-200s-plus-arrow-lake-refresh-cpus-leak-9-290k-plus-7-270k-plus-benchmark/
    WCCFTECH.COM
    Intel Core Ultra 200S Plus "Arrow Lake Refresh" CPUs Leak: Flagship Is Ultra 9 290K Plus, Ultra 7 270K Plus Benchmarked
    Intel's upcoming Core Ultra 200S Plus "Arrow Lake Refresh" CPUs, such as the Ultra 9 290K Plus & Ultra 7 270K Plus, have leaked.
    0 Comments 0 Shares 136 Views 0 Reviews
  • “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก”

    ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน

    แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้

    นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี

    Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์

    แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น

    กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC
    พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน
    เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ
    จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI
    เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น
    ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์
    ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง
    ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย

    คู่แข่งและสถานการณ์ในตลาด
    Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง
    Amazon มี Trainium, Google มี TPU, Meta มี MTIA
    เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล
    ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน

    ความท้าทายและคำเตือน
    ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน
    หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด
    การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ
    ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ
    การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว

    https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    ⚙️ “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก” ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้ นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น ✅ กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC ➡️ พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน ➡️ เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ ➡️ จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI ➡️ เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น ➡️ ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ ➡️ ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง ➡️ ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย ✅ คู่แข่งและสถานการณ์ในตลาด ➡️ Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง ➡️ Amazon มี Trainium, Google มี TPU, Meta มี MTIA ➡️ เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล ➡️ ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน ‼️ ความท้าทายและคำเตือน ⛔ ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด ⛔ การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ ⛔ ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ ⛔ การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    WCCFTECH.COM
    NVIDIA Has Already Geared Up to Challenge Big Tech’s Custom AI Chip Ambitions Through AI Alliances & an Unrivaled Product Roadmap
    There's always a concern about how ASICs could pose a challenge to NVIDIA's but it seems like the firm have the prepared 'right weapons'.
    0 Comments 0 Shares 138 Views 0 Reviews
  • “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป

    รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference

    หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย

    มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า

    AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx”
    ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก
    อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2

    ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4
    ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้

    มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025
    ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5

    หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป
    เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU

    https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    🧠 “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2 Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า ✅ AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ➡️ ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2 ✅ Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก ➡️ อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2 ✅ ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4 ➡️ ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้ ✅ มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025 ➡️ ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ✅ หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป ➡️ เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    WCCFTECH.COM
    AMD Krackan Point Is Reportedly Coming To AM5; New AGESA BIOS Adds Support For Zen 5 APUs
    A new document leak has shown that AMD's Krackan Point APUs might come to the desktop AM5 platform as well.
    0 Comments 0 Shares 100 Views 0 Reviews
  • “Microsoft ปล่อยให้ Asus กำหนดราคาของ Xbox ROG Ally — พร้อมเผยกำลังพัฒนาเครื่องเกมรุ่นใหม่ร่วมกับ AMD”

    Xbox ROG Ally ซึ่งเป็นเครื่องเกมพกพารุ่นใหม่จากความร่วมมือระหว่าง Microsoft และ Asus ได้เปิดตัวพร้อมเสียงตอบรับหลากหลาย โดยเฉพาะเรื่อง “ราคา” ที่สูงเกินคาด — $599 สำหรับรุ่นพื้นฐาน และ $999 สำหรับรุ่น Ally X

    ล่าสุด Sarah Bond ประธาน Xbox ออกมาเปิดเผยว่า Microsoft ให้สิทธิ์ Asus กำหนดราคาทั้งหมดเอง โดยอิงจากความเข้าใจตลาดและฟีเจอร์ที่ผู้ใช้ต้องการ ซึ่งทำให้ราคาสุดท้ายสูงกว่าที่หลายคนคาดไว้ (จากข่าวลือเดิมที่ $549 และ $899)

    แม้ราคาจะสูง แต่ Microsoft ยืนยันว่า “ความต้องการล้นหลาม” และ Ally X ขายหมดทันทีที่เปิดพรีออเดอร์บน Microsoft Store

    อย่างไรก็ตาม หลายคนยังตั้งคำถามว่าเครื่องนี้ “เป็น Xbox จริงหรือไม่” เพราะแม้จะใช้ระบบ Windows และมี Xbox branding แต่ประสิทธิภาพของรุ่นพื้นฐานกลับใกล้เคียงกับ Steam Deck มากกว่าที่ควรจะเป็นเมื่อเทียบกับราคา

    https://www.tomshardware.com/video-games/handheld-gaming/microsoft-let-asus-set-the-prices-for-xbox-rog-ally-confirms-xbox-president-work-on-next-gen-console-hardware-is-already-underway-with-amd
    🎮 “Microsoft ปล่อยให้ Asus กำหนดราคาของ Xbox ROG Ally — พร้อมเผยกำลังพัฒนาเครื่องเกมรุ่นใหม่ร่วมกับ AMD” Xbox ROG Ally ซึ่งเป็นเครื่องเกมพกพารุ่นใหม่จากความร่วมมือระหว่าง Microsoft และ Asus ได้เปิดตัวพร้อมเสียงตอบรับหลากหลาย โดยเฉพาะเรื่อง “ราคา” ที่สูงเกินคาด — $599 สำหรับรุ่นพื้นฐาน และ $999 สำหรับรุ่น Ally X ล่าสุด Sarah Bond ประธาน Xbox ออกมาเปิดเผยว่า Microsoft ให้สิทธิ์ Asus กำหนดราคาทั้งหมดเอง โดยอิงจากความเข้าใจตลาดและฟีเจอร์ที่ผู้ใช้ต้องการ ซึ่งทำให้ราคาสุดท้ายสูงกว่าที่หลายคนคาดไว้ (จากข่าวลือเดิมที่ $549 และ $899) แม้ราคาจะสูง แต่ Microsoft ยืนยันว่า “ความต้องการล้นหลาม” และ Ally X ขายหมดทันทีที่เปิดพรีออเดอร์บน Microsoft Store อย่างไรก็ตาม หลายคนยังตั้งคำถามว่าเครื่องนี้ “เป็น Xbox จริงหรือไม่” เพราะแม้จะใช้ระบบ Windows และมี Xbox branding แต่ประสิทธิภาพของรุ่นพื้นฐานกลับใกล้เคียงกับ Steam Deck มากกว่าที่ควรจะเป็นเมื่อเทียบกับราคา https://www.tomshardware.com/video-games/handheld-gaming/microsoft-let-asus-set-the-prices-for-xbox-rog-ally-confirms-xbox-president-work-on-next-gen-console-hardware-is-already-underway-with-amd
    0 Comments 0 Shares 111 Views 0 Reviews
  • “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI”

    Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator

    ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก

    จุดประสงค์ของ ESUN
    พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่
    ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย
    ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ

    พันธมิตรในโครงการ ESUN
    Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle
    Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ
    ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3

    เทคโนโลยีที่เกี่ยวข้อง
    Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที
    Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware
    OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport)

    ข้อดีของ Ethernet สำหรับ AI
    คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand
    มีความสามารถในการปรับขยายและ interoperability สูง
    ลดต้นทุนและความซับซ้อนในการจัดการระบบ

    คำเตือนและข้อจำกัด
    InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก
    ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง
    การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล

    https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    🌐 “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI” Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก ✅ จุดประสงค์ของ ESUN ➡️ พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่ ➡️ ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย ➡️ ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ ✅ พันธมิตรในโครงการ ESUN ➡️ Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle ➡️ Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ ➡️ ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 ✅ เทคโนโลยีที่เกี่ยวข้อง ➡️ Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที ➡️ Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware ➡️ OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport) ✅ ข้อดีของ Ethernet สำหรับ AI ➡️ คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand ➡️ มีความสามารถในการปรับขยายและ interoperability สูง ➡️ ลดต้นทุนและความซับซ้อนในการจัดการระบบ ‼️ คำเตือนและข้อจำกัด ⛔ InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก ⛔ ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง ⛔ การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    WWW.TECHRADAR.COM
    Tech bigwigs want to rewrite the future of AI networking with open Ethernet
    Engineers hope Ethernet can simplify complex GPU interconnect systems
    0 Comments 0 Shares 175 Views 0 Reviews
  • "TSMC เปิดโรงงานในสหรัฐฯ ให้ชมผ่านวิดีโอ: เทคโนโลยีล้ำยุคใน Fab 21 ที่แอริโซนา"

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน ได้เผยแพร่วิดีโอหายากที่พาผู้ชมบินผ่านโรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา ซึ่งกำลังผลิตชิปด้วยเทคโนโลยีระดับ 4nm และ 5nm (N4/N5) สำหรับบริษัทชั้นนำอย่าง Apple, AMD และ Nvidia

    วิดีโอแสดงให้เห็นระบบ “Silver Highway” หรือระบบขนส่งวัสดุอัตโนมัติ (AMHS) ที่ใช้รางเหนือศีรษะในการเคลื่อนย้าย FOUPs (Front-Opening Unified Pods) ซึ่งบรรจุเวเฟอร์ขนาด 300 มม. ไปยังเครื่องมือผลิตต่าง ๆ อย่างแม่นยำและรวดเร็ว

    จุดเด่นของโรงงานคือเครื่อง EUV Lithography จาก ASML รุ่น Twinscan NXE ที่ใช้แสงความยาวคลื่น 13.5nm จากพลาสมาทินในการ “พิมพ์” ลวดลายบนเวเฟอร์ด้วยความละเอียดระดับ 13nm ซึ่งเป็นหัวใจของการผลิตชิปยุคใหม่

    ไฮไลต์จากวิดีโอโรงงาน Fab 21
    แสดงระบบ Silver Highway สำหรับขนส่ง FOUPs อัตโนมัติ
    ใช้แสงสีเหลืองในห้อง cleanroom เพื่อป้องกันการเปิดรับแสงของ photoresist
    เครื่อง EUV จาก ASML ใช้ plasma จากหยดทินในการสร้างลวดลายบนเวเฟอร์

    เทคโนโลยีการผลิต
    ใช้กระบวนการ N4 และ N5 (4nm และ 5nm-class)
    เครื่อง Twinscan NXE:3600D มีความแม่นยำระดับ 1.1nm
    ใช้ระบบเลเซอร์ผลิตพลาสมาและกระจกสะท้อนพิเศษแทนเลนส์ทั่วไป

    แผนการขยายโรงงาน
    Fab 21 phase 2 จะรองรับการผลิตชิประดับ N3 และ N2
    TSMC เตรียมซื้อที่ดินเพิ่มเพื่อสร้าง Gigafab cluster ในแอริโซนา
    รองรับความต้องการด้าน AI, สมาร์ทโฟน และ HPC ที่เพิ่มขึ้น

    ความท้าทายของเทคโนโลยี EUV
    ต้องควบคุมความแม่นยำของการวางลวดลายในระดับนาโนเมตร
    มีผลกระทบจาก stochastic effects ที่อาจทำให้เกิดข้อผิดพลาด
    ต้องใช้กระจกพิเศษแทนเลนส์ เพราะแสง EUV ถูกดูดกลืนโดยวัสดุทั่วไป

    สาระเพิ่มเติมจากภายนอก:
    ความหมายของ Gigafab
    โรงงานที่สามารถผลิตเวเฟอร์ได้มากกว่า 100,000 แผ่นต่อเดือน
    เป็นระดับสูงสุดของโรงงานผลิตเซมิคอนดักเตอร์

    ความสำคัญของ Fab 21 ต่อสหรัฐฯ
    เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาการผลิตจากเอเชีย
    สนับสนุนความมั่นคงด้านเทคโนโลยีและเศรษฐกิจของประเทศ

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-gives-an-ultra-rare-video-look-inside-its-fabs-silver-highway-and-fab-tools-revealed-in-flyby-video-of-companys-us-arizona-fab-21
    🏭 "TSMC เปิดโรงงานในสหรัฐฯ ให้ชมผ่านวิดีโอ: เทคโนโลยีล้ำยุคใน Fab 21 ที่แอริโซนา" TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน ได้เผยแพร่วิดีโอหายากที่พาผู้ชมบินผ่านโรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา ซึ่งกำลังผลิตชิปด้วยเทคโนโลยีระดับ 4nm และ 5nm (N4/N5) สำหรับบริษัทชั้นนำอย่าง Apple, AMD และ Nvidia วิดีโอแสดงให้เห็นระบบ “Silver Highway” หรือระบบขนส่งวัสดุอัตโนมัติ (AMHS) ที่ใช้รางเหนือศีรษะในการเคลื่อนย้าย FOUPs (Front-Opening Unified Pods) ซึ่งบรรจุเวเฟอร์ขนาด 300 มม. ไปยังเครื่องมือผลิตต่าง ๆ อย่างแม่นยำและรวดเร็ว จุดเด่นของโรงงานคือเครื่อง EUV Lithography จาก ASML รุ่น Twinscan NXE ที่ใช้แสงความยาวคลื่น 13.5nm จากพลาสมาทินในการ “พิมพ์” ลวดลายบนเวเฟอร์ด้วยความละเอียดระดับ 13nm ซึ่งเป็นหัวใจของการผลิตชิปยุคใหม่ ✅ ไฮไลต์จากวิดีโอโรงงาน Fab 21 ➡️ แสดงระบบ Silver Highway สำหรับขนส่ง FOUPs อัตโนมัติ ➡️ ใช้แสงสีเหลืองในห้อง cleanroom เพื่อป้องกันการเปิดรับแสงของ photoresist ➡️ เครื่อง EUV จาก ASML ใช้ plasma จากหยดทินในการสร้างลวดลายบนเวเฟอร์ ✅ เทคโนโลยีการผลิต ➡️ ใช้กระบวนการ N4 และ N5 (4nm และ 5nm-class) ➡️ เครื่อง Twinscan NXE:3600D มีความแม่นยำระดับ 1.1nm ➡️ ใช้ระบบเลเซอร์ผลิตพลาสมาและกระจกสะท้อนพิเศษแทนเลนส์ทั่วไป ✅ แผนการขยายโรงงาน ➡️ Fab 21 phase 2 จะรองรับการผลิตชิประดับ N3 และ N2 ➡️ TSMC เตรียมซื้อที่ดินเพิ่มเพื่อสร้าง Gigafab cluster ในแอริโซนา ➡️ รองรับความต้องการด้าน AI, สมาร์ทโฟน และ HPC ที่เพิ่มขึ้น ‼️ ความท้าทายของเทคโนโลยี EUV ⛔ ต้องควบคุมความแม่นยำของการวางลวดลายในระดับนาโนเมตร ⛔ มีผลกระทบจาก stochastic effects ที่อาจทำให้เกิดข้อผิดพลาด ⛔ ต้องใช้กระจกพิเศษแทนเลนส์ เพราะแสง EUV ถูกดูดกลืนโดยวัสดุทั่วไป 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความหมายของ Gigafab ➡️ โรงงานที่สามารถผลิตเวเฟอร์ได้มากกว่า 100,000 แผ่นต่อเดือน ➡️ เป็นระดับสูงสุดของโรงงานผลิตเซมิคอนดักเตอร์ ✅ ความสำคัญของ Fab 21 ต่อสหรัฐฯ ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาการผลิตจากเอเชีย ➡️ สนับสนุนความมั่นคงด้านเทคโนโลยีและเศรษฐกิจของประเทศ https://www.tomshardware.com/tech-industry/semiconductors/tsmc-gives-an-ultra-rare-video-look-inside-its-fabs-silver-highway-and-fab-tools-revealed-in-flyby-video-of-companys-us-arizona-fab-21
    0 Comments 0 Shares 224 Views 0 Reviews
More Results