• เรื่องเล่าจาก MLIR ถึง MI300X: เมื่อ Chris Lattner กลับมาอีกครั้ง พร้อมภาษาที่อาจแทนที่ CUDA ได้ในอนาคต

    Chris Lattner ผู้สร้าง LLVM, Clang และ Swift กลับมาอีกครั้งในฐานะผู้ก่อตั้ง Modular Inc. พร้อมเปิดตัว Mojo ซึ่งเป็นภาษาโปรแกรมใหม่ที่ออกแบบมาเพื่อแก้ปัญหาหลักของการพัฒนา AI: ความซับซ้อนของการเขียนโค้ดที่ต้องควบคุมฮาร์ดแวร์โดยตรง

    Mojo ถูกสร้างขึ้นบน MLIR (Multi-Level Intermediate Representation) ซึ่งเป็นระบบที่ Lattner เคยออกแบบให้ Google ใช้ใน TensorFlow และตอนนี้กลายเป็นแกนกลางของการแปลงโค้ด Mojo ให้ทำงานได้ทั้งบน CPU, GPU, DSP, FPGA และแม้แต่ MCU

    สิ่งที่ทำให้ Mojo น่าสนใจคือการรวมความง่ายของ Python เข้ากับประสิทธิภาพของ C++ และความปลอดภัยของ Rust โดยสามารถเขียนโค้ดแบบ metaprogramming ได้เต็มรูปแบบ และยังรองรับการ compile แบบ static เพื่อให้ได้ performance สูงสุด

    ในงาน Advancing AI 2025 Lattner สาธิตการใช้ Mojo กับ ROCm และ CUDA เพื่อรันโมเดลบน GPU ของ AMD และ NVIDIA โดยไม่ต้องเขียนโค้ดเฉพาะ vendor และยังสามารถใช้ Mojo สร้าง graph compiler ที่ปรับแต่งได้ตาม workload

    เขายังโชว์การรันโมเดลบนคลัสเตอร์ MI300X ของ AMD ซึ่งเป็น GPU ระดับสูงสำหรับงาน AI โดยใช้ Mojo ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction—สิ่งที่ก่อนหน้านี้ต้องใช้ CUDA หรือ HIP เท่านั้น

    เป้าหมายของ Mojo คือการเป็น “ภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack” ตั้งแต่การเขียน preprocessing pipeline ไปจนถึงการ optimize kernel บน GPU โดยไม่ต้องสลับภาษาไปมา

    จุดเด่นของ Mojo
    สร้างบน MLIR เพื่อรองรับหลายสถาปัตยกรรม
    รวมความง่ายของ Python กับประสิทธิภาพของ C++ และความปลอดภัยของ Rust
    รองรับ metaprogramming และ static compilation

    การใช้งานกับ GPU
    ใช้ Mojo กับ ROCm และ CUDA ได้โดยไม่ต้องเขียนโค้ดเฉพาะ vendor
    ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction
    รันโมเดลบนคลัสเตอร์ MI300X ของ AMD ได้อย่างมีประสิทธิภาพ

    เป้าหมายของ Mojo
    เป็นภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack
    ลดความซับซ้อนของการพัฒนา AI infrastructure
    สร้าง graph compiler ที่ปรับแต่งได้ตาม workload

    ความเชื่อมโยงกับ MLIR
    MLIR เป็นระบบกลางที่ช่วยให้ Mojo แปลงโค้ดไปยังฮาร์ดแวร์ต่าง ๆ ได้
    เคยใช้ใน TensorFlow และตอนนี้กลายเป็นแกนของ Mojo
    ช่วยให้การ optimize compiler เป็นเรื่องที่ทำได้แบบ modular

    https://signalsandthreads.com/why-ml-needs-a-new-programming-language/
    🎙️ เรื่องเล่าจาก MLIR ถึง MI300X: เมื่อ Chris Lattner กลับมาอีกครั้ง พร้อมภาษาที่อาจแทนที่ CUDA ได้ในอนาคต Chris Lattner ผู้สร้าง LLVM, Clang และ Swift กลับมาอีกครั้งในฐานะผู้ก่อตั้ง Modular Inc. พร้อมเปิดตัว Mojo ซึ่งเป็นภาษาโปรแกรมใหม่ที่ออกแบบมาเพื่อแก้ปัญหาหลักของการพัฒนา AI: ความซับซ้อนของการเขียนโค้ดที่ต้องควบคุมฮาร์ดแวร์โดยตรง Mojo ถูกสร้างขึ้นบน MLIR (Multi-Level Intermediate Representation) ซึ่งเป็นระบบที่ Lattner เคยออกแบบให้ Google ใช้ใน TensorFlow และตอนนี้กลายเป็นแกนกลางของการแปลงโค้ด Mojo ให้ทำงานได้ทั้งบน CPU, GPU, DSP, FPGA และแม้แต่ MCU สิ่งที่ทำให้ Mojo น่าสนใจคือการรวมความง่ายของ Python เข้ากับประสิทธิภาพของ C++ และความปลอดภัยของ Rust โดยสามารถเขียนโค้ดแบบ metaprogramming ได้เต็มรูปแบบ และยังรองรับการ compile แบบ static เพื่อให้ได้ performance สูงสุด ในงาน Advancing AI 2025 Lattner สาธิตการใช้ Mojo กับ ROCm และ CUDA เพื่อรันโมเดลบน GPU ของ AMD และ NVIDIA โดยไม่ต้องเขียนโค้ดเฉพาะ vendor และยังสามารถใช้ Mojo สร้าง graph compiler ที่ปรับแต่งได้ตาม workload เขายังโชว์การรันโมเดลบนคลัสเตอร์ MI300X ของ AMD ซึ่งเป็น GPU ระดับสูงสำหรับงาน AI โดยใช้ Mojo ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction—สิ่งที่ก่อนหน้านี้ต้องใช้ CUDA หรือ HIP เท่านั้น เป้าหมายของ Mojo คือการเป็น “ภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack” ตั้งแต่การเขียน preprocessing pipeline ไปจนถึงการ optimize kernel บน GPU โดยไม่ต้องสลับภาษาไปมา ✅ จุดเด่นของ Mojo ➡️ สร้างบน MLIR เพื่อรองรับหลายสถาปัตยกรรม ➡️ รวมความง่ายของ Python กับประสิทธิภาพของ C++ และความปลอดภัยของ Rust ➡️ รองรับ metaprogramming และ static compilation ✅ การใช้งานกับ GPU ➡️ ใช้ Mojo กับ ROCm และ CUDA ได้โดยไม่ต้องเขียนโค้ดเฉพาะ vendor ➡️ ควบคุม tensor core และ memory layout ได้ละเอียดระดับ instruction ➡️ รันโมเดลบนคลัสเตอร์ MI300X ของ AMD ได้อย่างมีประสิทธิภาพ ✅ เป้าหมายของ Mojo ➡️ เป็นภาษาเดียวที่ครอบคลุมทุกระดับของ AI stack ➡️ ลดความซับซ้อนของการพัฒนา AI infrastructure ➡️ สร้าง graph compiler ที่ปรับแต่งได้ตาม workload ✅ ความเชื่อมโยงกับ MLIR ➡️ MLIR เป็นระบบกลางที่ช่วยให้ Mojo แปลงโค้ดไปยังฮาร์ดแวร์ต่าง ๆ ได้ ➡️ เคยใช้ใน TensorFlow และตอนนี้กลายเป็นแกนของ Mojo ➡️ ช่วยให้การ optimize compiler เป็นเรื่องที่ทำได้แบบ modular https://signalsandthreads.com/why-ml-needs-a-new-programming-language/
    SIGNALSANDTHREADS.COM
    Signals and Threads Podcast
    Listen in on Jane Street’s Ron Minsky as he has conversations with engineers working on everything from clock synchronization to reliable multicast, build systems to reconfigurable hardware. Get a peek at how Jane Street approaches problems, and how those ideas relate to tech more broadly.
    0 Comments 0 Shares 43 Views 0 Reviews
  • เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU

    Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา

    แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์

    ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow

    Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม

    แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน

    แนวคิด Software Defined Super Core ของ Intel
    รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว
    ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ
    ใช้ shared memory และ synchronization module ภายในคอร์

    จุดต่างจากเทคนิคเดิม
    คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย
    ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล
    มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์

    การใช้งานและความคาดหวัง
    เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง
    หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์
    อาจใช้ในงาน AI inference, simulation, หรือ mining

    ข้อกำหนดด้านซอฟต์แวร์
    ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core
    ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software

    https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    🎙️ เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์ ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน ✅ แนวคิด Software Defined Super Core ของ Intel ➡️ รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว ➡️ ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ shared memory และ synchronization module ภายในคอร์ ✅ จุดต่างจากเทคนิคเดิม ➡️ คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย ➡️ ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล ➡️ มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์ ✅ การใช้งานและความคาดหวัง ➡️ เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง ➡️ หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์ ➡️ อาจใช้ในงาน AI inference, simulation, หรือ mining ✅ ข้อกำหนดด้านซอฟต์แวร์ ➡️ ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core ➡️ ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    0 Comments 0 Shares 143 Views 0 Reviews
  • เรื่องเล่าจาก Snapdragon X ถึง 18A: เมื่อ Intel ถูกปฏิเสธกลางเวที foundry และ Qualcomm เลือก TSMC อย่างเด็ดขาด

    Cristiano Amon ซีอีโอของ Qualcomm ให้สัมภาษณ์กับ Bloomberg เมื่อวันที่ 5 กันยายน 2025 โดยกล่าวว่า “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิตชิป Snapdragon X ที่ใช้ในโน้ตบุ๊กแบบบางเบา แม้จะเสริมว่า “เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต” แต่คำพูดนี้ก็สะเทือนแผนการพลิกโฉมธุรกิจของ Intel อย่างจัง

    Snapdragon X ถูกผลิตโดย TSMC บนเทคโนโลยี N4 ซึ่งเป็นกระบวนการระดับ 4 นาโนเมตรที่มีประสิทธิภาพด้านพลังงานสูง และเหมาะกับชิปที่มี GPU และ NPU ขนาดใหญ่ โดย Qualcomm ใช้ชิปนี้ในโน้ตบุ๊กสถาปัตยกรรม Arm ที่สามารถแข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี

    Intel กำลังพยายามเปลี่ยนบทบาทจากผู้ผลิตชิปสำหรับตนเอง ไปสู่การเป็นผู้ผลิตให้กับบริษัทอื่น (foundry) โดยหวังว่าจะมีลูกค้ารายใหญ่จากภายนอกมาใช้เทคโนโลยี 18A ซึ่งเป็น node ที่ Intel วางไว้เป็นจุดกลับสู่ความเป็นผู้นำในอุตสาหกรรม

    แต่ Qualcomm กลับเลือก TSMC อย่างชัดเจน และคำพูดของ Amon ก็ทำให้ Intel สูญเสียหนึ่งในโอกาสที่ดีที่สุดในการสร้างชื่อเสียงในฐานะ foundry ระดับสูง โดยเฉพาะเมื่อ Apple, Nvidia และ AMD ต่างก็ใช้ TSMC สำหรับชิประดับเรือธงของตน

    ที่น่าสนใจคือ Intel เองก็ยังต้องพึ่ง TSMC ในการผลิตบางส่วนของ Nova Lake ซึ่งเป็นแพลตฟอร์มใหม่ของ Intel โดยใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง—สะท้อนถึงความย้อนแย้งในแผนการของบริษัท

    คำพูดของ CEO Qualcomm
    “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิต Snapdragon X
    “แต่เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต”
    สะท้อนถึงความไม่พร้อมของ Intel ในการเป็น foundry ระดับสูง

    การเลือกใช้ TSMC ของ Qualcomm
    Snapdragon X ผลิตบน TSMC N4 ซึ่งเหมาะกับ mobile SoC
    ใช้ในโน้ตบุ๊ก Arm ที่มีประสิทธิภาพด้านพลังงานสูง
    แข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี

    สถานการณ์ของ Intel
    พยายามเปลี่ยนบทบาทเป็นผู้ผลิตชิปให้บริษัทอื่น
    หวังให้ 18A เป็น node ที่นำกลับสู่ความเป็นผู้นำ
    Nova Lake ใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง

    บริบทของตลาด foundry
    Apple, Nvidia, AMD ใช้ TSMC สำหรับชิประดับเรือธง
    TSMC ครองตลาด node ขั้นสูงอย่างต่อเนื่อง
    Intel ยังไม่สามารถดึงลูกค้ารายใหญ่เข้ามาได้

    https://www.tomshardware.com/tech-industry/qualcomm-ceo-says-intel-not-an-option-for-chip-production
    🎙️ เรื่องเล่าจาก Snapdragon X ถึง 18A: เมื่อ Intel ถูกปฏิเสธกลางเวที foundry และ Qualcomm เลือก TSMC อย่างเด็ดขาด Cristiano Amon ซีอีโอของ Qualcomm ให้สัมภาษณ์กับ Bloomberg เมื่อวันที่ 5 กันยายน 2025 โดยกล่าวว่า “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิตชิป Snapdragon X ที่ใช้ในโน้ตบุ๊กแบบบางเบา แม้จะเสริมว่า “เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต” แต่คำพูดนี้ก็สะเทือนแผนการพลิกโฉมธุรกิจของ Intel อย่างจัง Snapdragon X ถูกผลิตโดย TSMC บนเทคโนโลยี N4 ซึ่งเป็นกระบวนการระดับ 4 นาโนเมตรที่มีประสิทธิภาพด้านพลังงานสูง และเหมาะกับชิปที่มี GPU และ NPU ขนาดใหญ่ โดย Qualcomm ใช้ชิปนี้ในโน้ตบุ๊กสถาปัตยกรรม Arm ที่สามารถแข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี Intel กำลังพยายามเปลี่ยนบทบาทจากผู้ผลิตชิปสำหรับตนเอง ไปสู่การเป็นผู้ผลิตให้กับบริษัทอื่น (foundry) โดยหวังว่าจะมีลูกค้ารายใหญ่จากภายนอกมาใช้เทคโนโลยี 18A ซึ่งเป็น node ที่ Intel วางไว้เป็นจุดกลับสู่ความเป็นผู้นำในอุตสาหกรรม แต่ Qualcomm กลับเลือก TSMC อย่างชัดเจน และคำพูดของ Amon ก็ทำให้ Intel สูญเสียหนึ่งในโอกาสที่ดีที่สุดในการสร้างชื่อเสียงในฐานะ foundry ระดับสูง โดยเฉพาะเมื่อ Apple, Nvidia และ AMD ต่างก็ใช้ TSMC สำหรับชิประดับเรือธงของตน ที่น่าสนใจคือ Intel เองก็ยังต้องพึ่ง TSMC ในการผลิตบางส่วนของ Nova Lake ซึ่งเป็นแพลตฟอร์มใหม่ของ Intel โดยใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง—สะท้อนถึงความย้อนแย้งในแผนการของบริษัท ✅ คำพูดของ CEO Qualcomm ➡️ “Intel ยังไม่ใช่ตัวเลือกในวันนี้” สำหรับการผลิต Snapdragon X ➡️ “แต่เราก็อยากให้ Intel เป็นตัวเลือกในอนาคต” ➡️ สะท้อนถึงความไม่พร้อมของ Intel ในการเป็น foundry ระดับสูง ✅ การเลือกใช้ TSMC ของ Qualcomm ➡️ Snapdragon X ผลิตบน TSMC N4 ซึ่งเหมาะกับ mobile SoC ➡️ ใช้ในโน้ตบุ๊ก Arm ที่มีประสิทธิภาพด้านพลังงานสูง ➡️ แข่งขันกับ Intel ได้อย่างสูสี หรือเหนือกว่าในบางกรณี ✅ สถานการณ์ของ Intel ➡️ พยายามเปลี่ยนบทบาทเป็นผู้ผลิตชิปให้บริษัทอื่น ➡️ หวังให้ 18A เป็น node ที่นำกลับสู่ความเป็นผู้นำ ➡️ Nova Lake ใช้ TSMC N2 สำหรับชิประดับสูง และ Intel 18A สำหรับชิประดับล่าง ✅ บริบทของตลาด foundry ➡️ Apple, Nvidia, AMD ใช้ TSMC สำหรับชิประดับเรือธง ➡️ TSMC ครองตลาด node ขั้นสูงอย่างต่อเนื่อง ➡️ Intel ยังไม่สามารถดึงลูกค้ารายใหญ่เข้ามาได้ https://www.tomshardware.com/tech-industry/qualcomm-ceo-says-intel-not-an-option-for-chip-production
    WWW.TOMSHARDWARE.COM
    Qualcomm CEO says Intel ‘not an option’ for chip production — yet
    Cristiano Amon’s remarks underscore the gap between Intel’s ambitious foundry roadmap and reality.
    0 Comments 0 Shares 138 Views 0 Reviews
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 Comments 0 Shares 131 Views 0 Reviews
  • เรื่องเล่าจาก Nova Lake-S ถึง Zen 6: เมื่อ HWiNFO กลายเป็นผู้เปิดประตูสู่ยุคใหม่ของ CPU สายเดสก์ท็อป

    ใน release notes ของ HWiNFO เวอร์ชัน 8.31 มีการระบุว่าซอฟต์แวร์จะรองรับแพลตฟอร์มใหม่จากทั้ง Intel และ AMD โดยฝั่ง Intel คือ Nova Lake-S ซึ่งเป็นซีพียูเดสก์ท็อปที่ใช้ซ็อกเก็ตใหม่ LGA 1954 และมีรุ่นสูงสุดถึง 52 คอร์ ส่วนฝั่ง AMD คือ “Next-Gen Platform” ที่คาดว่าจะเป็นซีรีส์ 900 สำหรับ Zen 6 บนซ็อกเก็ต AM5 เช่นเดิม

    Nova Lake-S ถูกออกแบบมาให้เป็นการเปลี่ยนแปลงครั้งใหญ่ที่สุดของ Intel ในรอบหลายปี โดยใช้สถาปัตยกรรมแบบ multi-tile ที่ประกอบด้วย 16 P-cores, 32 E-cores และ 4 LP-E cores รวมเป็น 52 คอร์ในรุ่นสูงสุด โดยไม่มี SMT บน P-core และใช้เทคโนโลยีการผลิตแบบผสมระหว่าง Intel 14A และ TSMC N2 สำหรับบางส่วนของ SoC

    ซ็อกเก็ต LGA 1954 มีขนาดเท่ากับ LGA 1700 เดิม (45 × 37.5 มม.) แต่เพิ่มจำนวนขาเพื่อรองรับพลังงานและแบนด์วิดธ์ที่สูงขึ้น พร้อมเปิดตัวคู่กับชิปเซ็ต 900-series เช่น Z990 และ H970 ที่รองรับ DDR5-6400+, Wi-Fi 7, Bluetooth 5.4 และ Thunderbolt 5

    ฝั่ง AMD ก็ไม่น้อยหน้า โดย Zen 6 จะใช้ CCD บน TSMC N2P และ IOD บน N3P ซึ่งเป็นเทคโนโลยีระดับ 2nm และ 3nm ตามลำดับ โดยยังคงใช้ซ็อกเก็ต AM5 และคาดว่าจะเปิดตัวพร้อมกับเมนบอร์ดซีรีส์ 900 เช่น X970, B950 และ B940 ในช่วงครึ่งหลังของปี 2026

    การที่ HWiNFO เพิ่มการรองรับล่วงหน้า แสดงให้เห็นว่าแพลตฟอร์มเหล่านี้ใกล้เข้าสู่ช่วง Pre-QS หรือการทดสอบก่อนผลิตจริง และจะเป็นจุดเริ่มต้นของการแข่งขันรอบใหม่ระหว่าง Intel และ AMD ในตลาดเดสก์ท็อประดับสูง

    การอัปเดตของ HWiNFO
    เวอร์ชัน 8.31 จะรองรับ Intel Nova Lake-S และ AMD Next-Gen Platform
    เป็นครั้งแรกที่ Nova Lake-S ถูกระบุใน release notes ของซอฟต์แวร์

    Intel Nova Lake-S และซ็อกเก็ต LGA 1954
    ใช้สถาปัตยกรรม multi-tile: 16 P-cores + 32 E-cores + 4 LP-E cores
    ไม่มี SMT บน P-core และใช้ Intel 14A + TSMC N2
    ซ็อกเก็ต LGA 1954 มีขนาดเท่าเดิมแต่เพิ่มจำนวนขา
    เปิดตัวพร้อมชิปเซ็ต Z990, H970 รองรับ DDR5-6400+, Wi-Fi 7, Thunderbolt 5

    AMD Zen 6 และแพลตฟอร์ม 900-series
    ใช้ CCD บน TSMC N2P และ IOD บน N3P
    ยังคงใช้ซ็อกเก็ต AM5 และเปิดตัวพร้อม X970, B950, B940
    คาดว่าจะเปิดตัวในครึ่งหลังของปี 2026

    ความหมายต่อวงการเดสก์ท็อป
    เป็นการเปลี่ยนแปลงครั้งใหญ่ทั้งด้านสถาปัตยกรรมและ I/O
    HWiNFO เตรียมพร้อมสำหรับการตรวจสอบสเปกและการทดสอบเบื้องต้น
    จุดเริ่มต้นของการแข่งขันรอบใหม่ระหว่าง Intel และ AMD

    https://wccftech.com/hwinfo-to-add-support-for-nova-lake-s-and-next-gen-amd-platform-likely-hinting-towards-amd-900-series-for-zen-6/
    🎙️ เรื่องเล่าจาก Nova Lake-S ถึง Zen 6: เมื่อ HWiNFO กลายเป็นผู้เปิดประตูสู่ยุคใหม่ของ CPU สายเดสก์ท็อป ใน release notes ของ HWiNFO เวอร์ชัน 8.31 มีการระบุว่าซอฟต์แวร์จะรองรับแพลตฟอร์มใหม่จากทั้ง Intel และ AMD โดยฝั่ง Intel คือ Nova Lake-S ซึ่งเป็นซีพียูเดสก์ท็อปที่ใช้ซ็อกเก็ตใหม่ LGA 1954 และมีรุ่นสูงสุดถึง 52 คอร์ ส่วนฝั่ง AMD คือ “Next-Gen Platform” ที่คาดว่าจะเป็นซีรีส์ 900 สำหรับ Zen 6 บนซ็อกเก็ต AM5 เช่นเดิม Nova Lake-S ถูกออกแบบมาให้เป็นการเปลี่ยนแปลงครั้งใหญ่ที่สุดของ Intel ในรอบหลายปี โดยใช้สถาปัตยกรรมแบบ multi-tile ที่ประกอบด้วย 16 P-cores, 32 E-cores และ 4 LP-E cores รวมเป็น 52 คอร์ในรุ่นสูงสุด โดยไม่มี SMT บน P-core และใช้เทคโนโลยีการผลิตแบบผสมระหว่าง Intel 14A และ TSMC N2 สำหรับบางส่วนของ SoC ซ็อกเก็ต LGA 1954 มีขนาดเท่ากับ LGA 1700 เดิม (45 × 37.5 มม.) แต่เพิ่มจำนวนขาเพื่อรองรับพลังงานและแบนด์วิดธ์ที่สูงขึ้น พร้อมเปิดตัวคู่กับชิปเซ็ต 900-series เช่น Z990 และ H970 ที่รองรับ DDR5-6400+, Wi-Fi 7, Bluetooth 5.4 และ Thunderbolt 5 ฝั่ง AMD ก็ไม่น้อยหน้า โดย Zen 6 จะใช้ CCD บน TSMC N2P และ IOD บน N3P ซึ่งเป็นเทคโนโลยีระดับ 2nm และ 3nm ตามลำดับ โดยยังคงใช้ซ็อกเก็ต AM5 และคาดว่าจะเปิดตัวพร้อมกับเมนบอร์ดซีรีส์ 900 เช่น X970, B950 และ B940 ในช่วงครึ่งหลังของปี 2026 การที่ HWiNFO เพิ่มการรองรับล่วงหน้า แสดงให้เห็นว่าแพลตฟอร์มเหล่านี้ใกล้เข้าสู่ช่วง Pre-QS หรือการทดสอบก่อนผลิตจริง และจะเป็นจุดเริ่มต้นของการแข่งขันรอบใหม่ระหว่าง Intel และ AMD ในตลาดเดสก์ท็อประดับสูง ✅ การอัปเดตของ HWiNFO ➡️ เวอร์ชัน 8.31 จะรองรับ Intel Nova Lake-S และ AMD Next-Gen Platform ➡️ เป็นครั้งแรกที่ Nova Lake-S ถูกระบุใน release notes ของซอฟต์แวร์ ✅ Intel Nova Lake-S และซ็อกเก็ต LGA 1954 ➡️ ใช้สถาปัตยกรรม multi-tile: 16 P-cores + 32 E-cores + 4 LP-E cores ➡️ ไม่มี SMT บน P-core และใช้ Intel 14A + TSMC N2 ➡️ ซ็อกเก็ต LGA 1954 มีขนาดเท่าเดิมแต่เพิ่มจำนวนขา ➡️ เปิดตัวพร้อมชิปเซ็ต Z990, H970 รองรับ DDR5-6400+, Wi-Fi 7, Thunderbolt 5 ✅ AMD Zen 6 และแพลตฟอร์ม 900-series ➡️ ใช้ CCD บน TSMC N2P และ IOD บน N3P ➡️ ยังคงใช้ซ็อกเก็ต AM5 และเปิดตัวพร้อม X970, B950, B940 ➡️ คาดว่าจะเปิดตัวในครึ่งหลังของปี 2026 ✅ ความหมายต่อวงการเดสก์ท็อป ➡️ เป็นการเปลี่ยนแปลงครั้งใหญ่ทั้งด้านสถาปัตยกรรมและ I/O ➡️ HWiNFO เตรียมพร้อมสำหรับการตรวจสอบสเปกและการทดสอบเบื้องต้น ➡️ จุดเริ่มต้นของการแข่งขันรอบใหม่ระหว่าง Intel และ AMD https://wccftech.com/hwinfo-to-add-support-for-nova-lake-s-and-next-gen-amd-platform-likely-hinting-towards-amd-900-series-for-zen-6/
    WCCFTECH.COM
    HWiNFO To Add Support For Nova Lake-S And "Next-Gen" AMD Platform, Likely Hinting Towards AMD 900-Series For Zen 6
    The upcoming HWiNFO version 8.31 will add support for the next-gen Intel Nova Lake-S and AMD's next-gen platform support.
    0 Comments 0 Shares 122 Views 0 Reviews
  • เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด

    AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง

    ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%

    แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น

    AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference

    สเปกของ AMD MI500 MegaPod
    ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU
    แบ่งเป็น 64 compute tray และ 18 UALink switch tray
    ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน

    เทคโนโลยีที่ใช้ใน MI500 และ Verano
    MI500 ใช้ TSMC N2P node และ CoWoS-L packaging
    Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง
    รองรับ ROCm 7, FP8, Flash Attention 3

    การเปรียบเทียบกับ Nvidia NVL576
    NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS
    AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%
    ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ

    การออกแบบเพื่อประสิทธิภาพและความเย็น
    ใช้ liquid cooling ทั้ง compute และ networking tray
    ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่
    เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่

    https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    🎙️ เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference ✅ สเปกของ AMD MI500 MegaPod ➡️ ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU ➡️ แบ่งเป็น 64 compute tray และ 18 UALink switch tray ➡️ ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน ✅ เทคโนโลยีที่ใช้ใน MI500 และ Verano ➡️ MI500 ใช้ TSMC N2P node และ CoWoS-L packaging ➡️ Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง ➡️ รองรับ ROCm 7, FP8, Flash Attention 3 ✅ การเปรียบเทียบกับ Nvidia NVL576 ➡️ NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS ➡️ AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% ➡️ ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ ✅ การออกแบบเพื่อประสิทธิภาพและความเย็น ➡️ ใช้ liquid cooling ทั้ง compute และ networking tray ➡️ ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่ ➡️ เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่ https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    0 Comments 0 Shares 93 Views 0 Reviews
  • เรื่องเล่าจาก Mike Judge: เมื่อความฝันของการเขียนโค้ดด้วย AI กลายเป็นความผิดหวังที่มีหลักฐานรองรับ

    Mike Judge นักพัฒนาอาวุโสที่มีประสบการณ์กว่า 25 ปี ได้ทดลองใช้งาน AI coding tools อย่างจริงจัง และเริ่มตั้งคำถามหลังอ่านงานวิจัยจาก METR (Model Evaluation & Threat Research) ซึ่งพบว่า นักพัฒนาที่ใช้ AI coding tools ใช้เวลานานขึ้นถึง 19% ในการทำงานจริง—ขัดแย้งกับความเชื่อที่ว่า AI จะช่วยให้เร็วขึ้น

    Mike เริ่มทดลองด้วยตัวเอง โดยใช้วิธีสุ่มว่าจะใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ผลลัพธ์คือ ไม่มีความแตกต่างที่มีนัยสำคัญทางสถิติ และในหลายกรณี AI ทำให้เขาช้าลงถึง 21% ซึ่งสอดคล้องกับผลการศึกษาของ METR

    เขาตั้งคำถามว่า ถ้า AI coding tools ทำให้คนเขียนโค้ดเร็วขึ้นจริง ทำไมเราไม่เห็น “น้ำท่วม shovelware” หรือซอฟต์แวร์จำนวนมหาศาลที่ควรจะเกิดขึ้นจาก productivity ที่เพิ่มขึ้น? เขาใช้เงินและเวลาในการวิเคราะห์ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แล้วพบว่า—ไม่มีการเติบโตแบบ exponential ในการปล่อยซอฟต์แวร์ใหม่เลย

    ในขณะที่บริษัทเทคโนโลยีต่างพากัน rebrand เป็น “AI-first” และใช้ productivity narrative เพื่อ justify การปลดพนักงานหรือกดเงินเดือน นักพัฒนาหลายคนกลับรู้สึกกดดัน สับสน และผิดหวัง เพราะไม่สามารถใช้ AI ได้อย่างมีประสิทธิภาพตามที่อุตสาหกรรมโฆษณาไว้

    ผลการทดลองของ Mike Judge
    ใช้ AI coding tools แล้วช้าลงโดยเฉลี่ย 21%
    ทดลองสุ่มใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด
    ผลลัพธ์ไม่แตกต่างอย่างมีนัยสำคัญ และไม่เห็นการเพิ่ม productivity

    ข้อมูลจาก METR Study
    นักพัฒนาใช้ AI แล้วช้าลง 19% โดยเฉลี่ยในการทำงานจริง
    ขัดแย้งกับความคาดหวังที่ว่า AI จะช่วยให้เร็วขึ้น 20–25%
    ใช้การทดลองแบบสุ่มควบคุมกับนักพัฒนา open-source ที่มีประสบการณ์สูง

    การวิเคราะห์ข้อมูลการปล่อยซอฟต์แวร์
    ไม่มีการเพิ่มขึ้นของ shovelware หรือซอฟต์แวร์ใหม่จำนวนมาก
    ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แสดงกราฟที่ “แบน”
    ไม่มีสัญญาณของ indie boom หรือการปล่อยแอปแบบสายฟ้าแลบ

    ผลกระทบต่ออุตสาหกรรมและนักพัฒนา
    บริษัทใช้ narrative AI productivity เพื่อปลดพนักงานและลดเงินเดือน
    นักพัฒนารู้สึกกดดันและสับสนจากความคาดหวังที่ไม่ตรงกับความจริง
    การเรียนรู้ prompting ไม่ได้เพิ่มประสิทธิภาพอย่างมีนัยสำคัญ

    https://mikelovesrobots.substack.com/p/wheres-the-shovelware-why-ai-coding
    🎙️ เรื่องเล่าจาก Mike Judge: เมื่อความฝันของการเขียนโค้ดด้วย AI กลายเป็นความผิดหวังที่มีหลักฐานรองรับ Mike Judge นักพัฒนาอาวุโสที่มีประสบการณ์กว่า 25 ปี ได้ทดลองใช้งาน AI coding tools อย่างจริงจัง และเริ่มตั้งคำถามหลังอ่านงานวิจัยจาก METR (Model Evaluation & Threat Research) ซึ่งพบว่า นักพัฒนาที่ใช้ AI coding tools ใช้เวลานานขึ้นถึง 19% ในการทำงานจริง—ขัดแย้งกับความเชื่อที่ว่า AI จะช่วยให้เร็วขึ้น Mike เริ่มทดลองด้วยตัวเอง โดยใช้วิธีสุ่มว่าจะใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ผลลัพธ์คือ ไม่มีความแตกต่างที่มีนัยสำคัญทางสถิติ และในหลายกรณี AI ทำให้เขาช้าลงถึง 21% ซึ่งสอดคล้องกับผลการศึกษาของ METR เขาตั้งคำถามว่า ถ้า AI coding tools ทำให้คนเขียนโค้ดเร็วขึ้นจริง ทำไมเราไม่เห็น “น้ำท่วม shovelware” หรือซอฟต์แวร์จำนวนมหาศาลที่ควรจะเกิดขึ้นจาก productivity ที่เพิ่มขึ้น? เขาใช้เงินและเวลาในการวิเคราะห์ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แล้วพบว่า—ไม่มีการเติบโตแบบ exponential ในการปล่อยซอฟต์แวร์ใหม่เลย ในขณะที่บริษัทเทคโนโลยีต่างพากัน rebrand เป็น “AI-first” และใช้ productivity narrative เพื่อ justify การปลดพนักงานหรือกดเงินเดือน นักพัฒนาหลายคนกลับรู้สึกกดดัน สับสน และผิดหวัง เพราะไม่สามารถใช้ AI ได้อย่างมีประสิทธิภาพตามที่อุตสาหกรรมโฆษณาไว้ ✅ ผลการทดลองของ Mike Judge ➡️ ใช้ AI coding tools แล้วช้าลงโดยเฉลี่ย 21% ➡️ ทดลองสุ่มใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ➡️ ผลลัพธ์ไม่แตกต่างอย่างมีนัยสำคัญ และไม่เห็นการเพิ่ม productivity ✅ ข้อมูลจาก METR Study ➡️ นักพัฒนาใช้ AI แล้วช้าลง 19% โดยเฉลี่ยในการทำงานจริง ➡️ ขัดแย้งกับความคาดหวังที่ว่า AI จะช่วยให้เร็วขึ้น 20–25% ➡️ ใช้การทดลองแบบสุ่มควบคุมกับนักพัฒนา open-source ที่มีประสบการณ์สูง ✅ การวิเคราะห์ข้อมูลการปล่อยซอฟต์แวร์ ➡️ ไม่มีการเพิ่มขึ้นของ shovelware หรือซอฟต์แวร์ใหม่จำนวนมาก ➡️ ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แสดงกราฟที่ “แบน” ➡️ ไม่มีสัญญาณของ indie boom หรือการปล่อยแอปแบบสายฟ้าแลบ ✅ ผลกระทบต่ออุตสาหกรรมและนักพัฒนา ➡️ บริษัทใช้ narrative AI productivity เพื่อปลดพนักงานและลดเงินเดือน ➡️ นักพัฒนารู้สึกกดดันและสับสนจากความคาดหวังที่ไม่ตรงกับความจริง ➡️ การเรียนรู้ prompting ไม่ได้เพิ่มประสิทธิภาพอย่างมีนัยสำคัญ https://mikelovesrobots.substack.com/p/wheres-the-shovelware-why-ai-coding
    MIKELOVESROBOTS.SUBSTACK.COM
    Where's the Shovelware? Why AI Coding Claims Don't Add Up
    78% of developers claim AI makes them more productive. 14% say it's a 10x improvement. So where's the flood of new software? Turns out those productivity claims are bullshit.
    0 Comments 0 Shares 139 Views 0 Reviews
  • เรื่องเล่าจาก Citigroup Conference: เมื่อ AMD มองว่า AI คือโอกาสครั้งเดียวในชีวิต ไม่ใช่แค่กระแสชั่วคราว

    ในการประชุมกับนักลงทุนที่จัดโดย Citigroup เมื่อวันที่ 3 กันยายน 2025 Jean Hu (CFO ของ AMD) และ Matthew Ramsay (VP ฝ่ายนักลงทุนสัมพันธ์) ได้ตอบคำถามเกี่ยวกับสถานการณ์ตลาด AI, ความสัมพันธ์กับจีน, และราคาชิปที่เพิ่มขึ้นอย่างต่อเนื่อง

    Hu ยืนยันว่า AMD ไม่ได้เริ่มผลิตชิปใหม่สำหรับตลาดจีน แม้จะได้รับใบอนุญาตจากรัฐบาลสหรัฐฯ โดยระบุว่าบริษัทกำลังพิจารณาว่าลูกค้าจีนจะสามารถซื้อจากสหรัฐฯ ได้หรือไม่ และยังไม่เริ่มผลิต wafer สำหรับ MI308 ซึ่งเป็น GPU รุ่นเฉพาะสำหรับจีน

    Ramsay เสริมว่า “ความต้องการชิป AI ในจีนมีมากกว่าความสามารถในการผลิต” เนื่องจากผู้ผลิตชิปในจีนถูกจำกัดจากมาตรการคว่ำบาตร และ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้

    เมื่อถูกถามว่า AI เป็นฟองสบู่หรือไม่ Hu ตอบว่า “เรายังอยู่ในช่วงเริ่มต้นของการนำ AI ไปใช้” และชี้ไปที่การลงทุนของ hyperscaler รายใหญ่ในไตรมาสที่ผ่านมา รวมถึงการปรับปรุงประสิทธิภาพขององค์กรผ่าน AI ซึ่งสะท้อนว่า AI ไม่ใช่แค่ hype แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้าง

    AMD ประเมินว่า TAM (Total Addressable Market) ของ AI จะสูงถึง 500,000 ล้านดอลลาร์ โดย Ramsay ระบุว่า inference workload, ขนาดของ dataset และการขยายไปยังอุตสาหกรรมต่าง ๆ คือปัจจัยหลักที่ผลักดันตลาดนี้ พร้อมเสริมว่า “AI คือจุดเปลี่ยนที่ใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต”

    สำหรับราคาชิปที่เพิ่มขึ้น Hu อธิบายว่าเป็นผลจากการเพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น แต่ AMD พยายามรักษาสมดุลระหว่างราคาขายกับต้นทุนรวมของการเป็นเจ้าของ (TCO) เพื่อให้ลูกค้าได้รับความคุ้มค่าในระยะยาว

    AMD ปฏิเสธว่า AI เป็นฟองสบู่
    Hu ระบุว่า AI ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้
    การลงทุนของ hyperscaler และ productivity gains เป็นหลักฐานเชิงประจักษ์
    AI ถูกมองว่าเป็นโอกาสครั้งเดียวในชีวิตสำหรับอุตสาหกรรม

    การประเมินตลาด AI มูลค่า 500,000 ล้านดอลลาร์
    TAM ของ AI ถูกประเมินโดย AMD ว่าจะสูงถึง $500B
    ปัจจัยหลักคือ inference workload, dataset ขนาดใหญ่ และการขยายสู่อุตสาหกรรม
    Ramsay ระบุว่า AI คือจุดเปลี่ยนใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต

    สถานการณ์ในจีนและการจำกัดการผลิต
    AMD ยังไม่เริ่มผลิต MI308 GPU สำหรับจีน แม้ได้รับใบอนุญาต
    ความต้องการในจีนสูงกว่าความสามารถในการผลิตเนื่องจากข้อจำกัดจากสหรัฐฯ
    Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้

    เหตุผลของราคาชิปที่เพิ่มขึ้น
    AMD เพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น
    บริษัทเน้นการปรับปรุง TCO เพื่อให้ลูกค้าได้รับความคุ้มค่า
    ราคาขายสูงขึ้นเพื่อรักษา margin และความสามารถในการแข่งขัน

    https://wccftech.com/amd-rejects-ai-bubble-defends-500-billion-ai-market-says-chip-price-hikes-are-due-to-high-costs/
    🎙️ เรื่องเล่าจาก Citigroup Conference: เมื่อ AMD มองว่า AI คือโอกาสครั้งเดียวในชีวิต ไม่ใช่แค่กระแสชั่วคราว ในการประชุมกับนักลงทุนที่จัดโดย Citigroup เมื่อวันที่ 3 กันยายน 2025 Jean Hu (CFO ของ AMD) และ Matthew Ramsay (VP ฝ่ายนักลงทุนสัมพันธ์) ได้ตอบคำถามเกี่ยวกับสถานการณ์ตลาด AI, ความสัมพันธ์กับจีน, และราคาชิปที่เพิ่มขึ้นอย่างต่อเนื่อง Hu ยืนยันว่า AMD ไม่ได้เริ่มผลิตชิปใหม่สำหรับตลาดจีน แม้จะได้รับใบอนุญาตจากรัฐบาลสหรัฐฯ โดยระบุว่าบริษัทกำลังพิจารณาว่าลูกค้าจีนจะสามารถซื้อจากสหรัฐฯ ได้หรือไม่ และยังไม่เริ่มผลิต wafer สำหรับ MI308 ซึ่งเป็น GPU รุ่นเฉพาะสำหรับจีน Ramsay เสริมว่า “ความต้องการชิป AI ในจีนมีมากกว่าความสามารถในการผลิต” เนื่องจากผู้ผลิตชิปในจีนถูกจำกัดจากมาตรการคว่ำบาตร และ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้ เมื่อถูกถามว่า AI เป็นฟองสบู่หรือไม่ Hu ตอบว่า “เรายังอยู่ในช่วงเริ่มต้นของการนำ AI ไปใช้” และชี้ไปที่การลงทุนของ hyperscaler รายใหญ่ในไตรมาสที่ผ่านมา รวมถึงการปรับปรุงประสิทธิภาพขององค์กรผ่าน AI ซึ่งสะท้อนว่า AI ไม่ใช่แค่ hype แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้าง AMD ประเมินว่า TAM (Total Addressable Market) ของ AI จะสูงถึง 500,000 ล้านดอลลาร์ โดย Ramsay ระบุว่า inference workload, ขนาดของ dataset และการขยายไปยังอุตสาหกรรมต่าง ๆ คือปัจจัยหลักที่ผลักดันตลาดนี้ พร้อมเสริมว่า “AI คือจุดเปลี่ยนที่ใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต” สำหรับราคาชิปที่เพิ่มขึ้น Hu อธิบายว่าเป็นผลจากการเพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น แต่ AMD พยายามรักษาสมดุลระหว่างราคาขายกับต้นทุนรวมของการเป็นเจ้าของ (TCO) เพื่อให้ลูกค้าได้รับความคุ้มค่าในระยะยาว ✅ AMD ปฏิเสธว่า AI เป็นฟองสบู่ ➡️ Hu ระบุว่า AI ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้ ➡️ การลงทุนของ hyperscaler และ productivity gains เป็นหลักฐานเชิงประจักษ์ ➡️ AI ถูกมองว่าเป็นโอกาสครั้งเดียวในชีวิตสำหรับอุตสาหกรรม ✅ การประเมินตลาด AI มูลค่า 500,000 ล้านดอลลาร์ ➡️ TAM ของ AI ถูกประเมินโดย AMD ว่าจะสูงถึง $500B ➡️ ปัจจัยหลักคือ inference workload, dataset ขนาดใหญ่ และการขยายสู่อุตสาหกรรม ➡️ Ramsay ระบุว่า AI คือจุดเปลี่ยนใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต ✅ สถานการณ์ในจีนและการจำกัดการผลิต ➡️ AMD ยังไม่เริ่มผลิต MI308 GPU สำหรับจีน แม้ได้รับใบอนุญาต ➡️ ความต้องการในจีนสูงกว่าความสามารถในการผลิตเนื่องจากข้อจำกัดจากสหรัฐฯ ➡️ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้ ✅ เหตุผลของราคาชิปที่เพิ่มขึ้น ➡️ AMD เพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น ➡️ บริษัทเน้นการปรับปรุง TCO เพื่อให้ลูกค้าได้รับความคุ้มค่า ➡️ ราคาขายสูงขึ้นเพื่อรักษา margin และความสามารถในการแข่งขัน https://wccftech.com/amd-rejects-ai-bubble-defends-500-billion-ai-market-says-chip-price-hikes-are-due-to-high-costs/
    WCCFTECH.COM
    AMD Rejects 'AI Bubble,' Defends $500 Billion AI Market & Says Chip Price Hikes Are Due To High Costs
    AMD CFO Jean Hu confirms no new China chip production despite licenses and denies an AI bubble exists while discussing $500 billion TAM.
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก BlazeCore: เมื่อ CPU ที่ยังไม่เปิดตัวถูกใส่ไว้ในเครื่องขายจริง

    ต้นเดือนกันยายน 2025 มีผู้พบว่า BlazeCore ซึ่งเป็นผู้ผลิตพีซีเกมมิ่งแบบประกอบล่วงหน้า ได้ระบุ “Ryzen 7 9700F” ไว้ในรายละเอียดของเครื่องรุ่นหนึ่งที่ขายผ่านร้าน Microless ในสหรัฐอาหรับเอมิเรตส์ โดยในหน้าสเปกหลักยังคงระบุว่าใช้ Ryzen 7 9700X แต่เมื่อเลื่อนลงไปอ่านรายละเอียดกลับพบชื่อ 9700F โผล่ขึ้นมา

    Ryzen 7 9700F เป็นรุ่นที่ยังไม่มีการเปิดตัวจาก AMD แต่มีข้อมูลหลุดออกมาก่อนหน้านี้ว่าเป็นหนึ่งในสองรุ่นใหม่ในตระกูล Zen 5 ที่ไม่มีกราฟิกในตัว (F-series) โดยอีกตัวคือ Ryzen 5 9500F

    จากข้อมูลที่หลุดออกมา Ryzen 7 9700F มีสเปกใกล้เคียงกับ 9700X ทุกประการ: 8 คอร์ 16 เธรด, base clock 3.8 GHz, L3 cache 32MB แต่ boost clock ต่ำกว่าเล็กน้อยที่ 5.4 GHz (9700X อยู่ที่ 5.5 GHz) และไม่มี iGPU ซึ่งทำให้ราคาควรจะถูกกว่า แต่ในรายการสินค้ากลับตั้งไว้ที่ $294 ซึ่งสูงกว่าที่คาดไว้

    เมื่อดูจาก benchmark ล่าสุด พบว่า 9700F มีประสิทธิภาพใกล้เคียงกับ 9700X ทั้งในงาน multi-core และ single-core โดยต่างกันเพียงเล็กน้อยในคะแนน Cinebench และ Geekbench ซึ่งหมายความว่าในงานจริง เช่น การเล่นเกมหรือการตัดต่อวิดีโอ ความแตกต่างแทบไม่รู้สึกได้ หากใช้ GPU แยก

    การปรากฏตัวของ Ryzen 7 9700F
    ถูกระบุในรายละเอียดของเครื่อง BlazeCore บนร้าน Microless
    ยังไม่มีการประกาศอย่างเป็นทางการจาก AMD
    อาจเป็นการเตรียมเปลี่ยนสเปก หรือพิมพ์ผิดจากผู้ประกอบ

    สเปกของ Ryzen 7 9700F เทียบกับ 9700X
    8 คอร์ 16 เธรด, base clock 3.8 GHz, L3 cache 32MB เท่ากัน
    boost clock ต่ำกว่า 9700X เล็กน้อย (5.4 GHz vs 5.5 GHz)
    ไม่มี iGPU ซึ่งทำให้ราคาควรต่ำกว่า แต่กลับตั้งไว้ที่ $294

    ประสิทธิภาพจาก benchmark ล่าสุด
    คะแนน Cinebench และ Geekbench ต่างกันเพียง ~2% ใน single-core
    multi-core performance เท่ากันทุกประการ
    เหมาะกับผู้ใช้ที่มี GPU แยกและไม่ต้องการ iGPU

    บริบทของ Zen 5 และ F-series
    Ryzen 7 9700F และ 9500F เป็นรุ่นแรกของ Zen 5 ที่ไม่มีกราฟิกในตัว
    เหมาะกับตลาดที่เน้นประสิทธิภาพต่อราคา เช่น เกมมิ่งและ workstation
    อาจเป็นกลยุทธ์ของ AMD เพื่อลดต้นทุนและแข่งขันกับ Intel F-series

    https://wccftech.com/system-integrator-mentions-ryzen-7-9700f-with-boost-clock-of-5-4-ghz-configuration-still-boasts-9700x/
    🎙️ เรื่องเล่าจาก BlazeCore: เมื่อ CPU ที่ยังไม่เปิดตัวถูกใส่ไว้ในเครื่องขายจริง ต้นเดือนกันยายน 2025 มีผู้พบว่า BlazeCore ซึ่งเป็นผู้ผลิตพีซีเกมมิ่งแบบประกอบล่วงหน้า ได้ระบุ “Ryzen 7 9700F” ไว้ในรายละเอียดของเครื่องรุ่นหนึ่งที่ขายผ่านร้าน Microless ในสหรัฐอาหรับเอมิเรตส์ โดยในหน้าสเปกหลักยังคงระบุว่าใช้ Ryzen 7 9700X แต่เมื่อเลื่อนลงไปอ่านรายละเอียดกลับพบชื่อ 9700F โผล่ขึ้นมา Ryzen 7 9700F เป็นรุ่นที่ยังไม่มีการเปิดตัวจาก AMD แต่มีข้อมูลหลุดออกมาก่อนหน้านี้ว่าเป็นหนึ่งในสองรุ่นใหม่ในตระกูล Zen 5 ที่ไม่มีกราฟิกในตัว (F-series) โดยอีกตัวคือ Ryzen 5 9500F จากข้อมูลที่หลุดออกมา Ryzen 7 9700F มีสเปกใกล้เคียงกับ 9700X ทุกประการ: 8 คอร์ 16 เธรด, base clock 3.8 GHz, L3 cache 32MB แต่ boost clock ต่ำกว่าเล็กน้อยที่ 5.4 GHz (9700X อยู่ที่ 5.5 GHz) และไม่มี iGPU ซึ่งทำให้ราคาควรจะถูกกว่า แต่ในรายการสินค้ากลับตั้งไว้ที่ $294 ซึ่งสูงกว่าที่คาดไว้ เมื่อดูจาก benchmark ล่าสุด พบว่า 9700F มีประสิทธิภาพใกล้เคียงกับ 9700X ทั้งในงาน multi-core และ single-core โดยต่างกันเพียงเล็กน้อยในคะแนน Cinebench และ Geekbench ซึ่งหมายความว่าในงานจริง เช่น การเล่นเกมหรือการตัดต่อวิดีโอ ความแตกต่างแทบไม่รู้สึกได้ หากใช้ GPU แยก ✅ การปรากฏตัวของ Ryzen 7 9700F ➡️ ถูกระบุในรายละเอียดของเครื่อง BlazeCore บนร้าน Microless ➡️ ยังไม่มีการประกาศอย่างเป็นทางการจาก AMD ➡️ อาจเป็นการเตรียมเปลี่ยนสเปก หรือพิมพ์ผิดจากผู้ประกอบ ✅ สเปกของ Ryzen 7 9700F เทียบกับ 9700X ➡️ 8 คอร์ 16 เธรด, base clock 3.8 GHz, L3 cache 32MB เท่ากัน ➡️ boost clock ต่ำกว่า 9700X เล็กน้อย (5.4 GHz vs 5.5 GHz) ➡️ ไม่มี iGPU ซึ่งทำให้ราคาควรต่ำกว่า แต่กลับตั้งไว้ที่ $294 ✅ ประสิทธิภาพจาก benchmark ล่าสุด ➡️ คะแนน Cinebench และ Geekbench ต่างกันเพียง ~2% ใน single-core ➡️ multi-core performance เท่ากันทุกประการ ➡️ เหมาะกับผู้ใช้ที่มี GPU แยกและไม่ต้องการ iGPU ✅ บริบทของ Zen 5 และ F-series ➡️ Ryzen 7 9700F และ 9500F เป็นรุ่นแรกของ Zen 5 ที่ไม่มีกราฟิกในตัว ➡️ เหมาะกับตลาดที่เน้นประสิทธิภาพต่อราคา เช่น เกมมิ่งและ workstation ➡️ อาจเป็นกลยุทธ์ของ AMD เพื่อลดต้นทุนและแข่งขันกับ Intel F-series https://wccftech.com/system-integrator-mentions-ryzen-7-9700f-with-boost-clock-of-5-4-ghz-configuration-still-boasts-9700x/
    WCCFTECH.COM
    System Integrator Mentions Ryzen 7 9700F With Boost Clock Of 5.4 GHz; Configuration Still Boasts 9700X
    AMD's Ryzen 7 9700F with 5.4 GHz boost listed at $294 in pre-built systems, features identical specs to 9700X but lacks integrated graphics
    0 Comments 0 Shares 85 Views 0 Reviews
  • เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch

    แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026

    ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays

    แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง

    Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่

    โครงสร้างของ Instinct MI500 UAL256
    ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs
    แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking
    ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray

    สถาปัตยกรรมของ Verano CPU
    ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่
    ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet
    ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ

    เทคโนโลยีการเชื่อมต่อภายในระบบ
    Vulcano switch ผลิตบน TSMC 3nm node
    รองรับ external throughput ระดับ 800G
    ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU

    แผนการเปิดตัว
    MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026
    MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027
    เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC

    https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    🎙️ เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026 ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่ ✅ โครงสร้างของ Instinct MI500 UAL256 ➡️ ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs ➡️ แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking ➡️ ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray ✅ สถาปัตยกรรมของ Verano CPU ➡️ ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่ ➡️ ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet ➡️ ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ ✅ เทคโนโลยีการเชื่อมต่อภายในระบบ ➡️ Vulcano switch ผลิตบน TSMC 3nm node ➡️ รองรับ external throughput ระดับ 800G ➡️ ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU ✅ แผนการเปิดตัว ➡️ MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026 ➡️ MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027 ➡️ เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    WWW.TECHPOWERUP.COM
    AMD Instinct MI500 UAL256 Mega Pod to Scale up to 256 GPUs, 64 "Verano" CPUs
    While AMD hasn't launched its upcoming Instinct MI400 series of accelerators yet, the company has started preparing its supply chain for what comes after. Thanks to SemiAnalysis, we have a clearer picture of what AMD's Instinct MI500 UAL256 rack will look like. At the base of each compute node, ther...
    0 Comments 0 Shares 88 Views 0 Reviews
  • เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป

    ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป

    CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง

    การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300

    นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ

    https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    🎙️ เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300 นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    WCCFTECH.COM
    China's YMTC Reportedly Set to Enter the DRAM Segment by Partnering with Domestic Expert CXMT, Collaborating on HBM Technologies
    Chinese memory manufacturers are teaming up for HBM production, as the prominent NAND firm YMTC partners up with CXMT in a push towards HBM3.
    0 Comments 0 Shares 95 Views 0 Reviews
  • เรื่องเล่าจาก Peoria: เมื่อ Amkor สร้างโรงงานแพ็กชิปมูลค่า 2 พันล้าน เพื่ออุดช่องโหว่ของอเมริกา

    ในขณะที่สหรัฐฯ ทุ่มงบมหาศาลเพื่อดึงการผลิตชิปกลับสู่ประเทศผ่าน CHIPS Act โรงงานผลิตเวเฟอร์ของ TSMC และ Intel ก็เริ่มตั้งหลักในแอริโซนาแล้ว แต่ปัญหาคือ “หลังบ้าน” อย่างการประกอบ ทดสอบ และแพ็กเกจชิปยังต้องส่งกลับไปทำที่ไต้หวันหรือเกาหลีใต้ ทำให้เกิดคอขวดที่กระทบต่อทั้ง AI server และ GPU ระดับสูง

    Amkor Technology จึงประกาศสร้างโรงงานใหม่ใน Peoria, Arizona บนพื้นที่ 104 เอเคอร์ ด้วยงบลงทุนกว่า 2 พันล้านดอลลาร์ โดยมี Apple เป็นลูกค้ารายแรก และ TSMC เซ็น MOU เพื่อส่งเวเฟอร์จากโรงงานในฟีนิกซ์มาประกอบที่นี่โดยตรง ลดเวลารอจากหลายสัปดาห์เหลือไม่กี่วัน

    โรงงานนี้จะรองรับเทคโนโลยีแพ็กเกจระดับสูง เช่น CoWoS และ InFO ซึ่งเป็นหัวใจของชิป AI อย่าง Nvidia H100/H200 และ AMD MI300 รวมถึงชิป Apple M-series ที่ใช้ใน Mac และ iPad โดยได้รับเงินสนับสนุนจาก CHIPS Act กว่า 407 ล้านดอลลาร์ และสิทธิประโยชน์ทางภาษีจากรัฐบาลกลาง

    แต่แม้จะเป็นก้าวใหญ่ของอุตสาหกรรม โรงงานนี้จะเริ่มผลิตจริงในปี 2028 ซึ่งหมายความว่าคอขวดของการแพ็กชิปจะยังคงอยู่ไปอีกหลายปี และที่น่าห่วงกว่าคือปัญหาขาดแคลนแรงงาน—คาดว่าจะขาดคนงานถึง 70,000–90,000 คนทั่วสหรัฐฯ แม้จะมีระบบอัตโนมัติช่วยก็ตาม

    https://www.tomshardware.com/tech-industry/semiconductors/amkor-arizona-plant-plans-approved
    🎙️ เรื่องเล่าจาก Peoria: เมื่อ Amkor สร้างโรงงานแพ็กชิปมูลค่า 2 พันล้าน เพื่ออุดช่องโหว่ของอเมริกา ในขณะที่สหรัฐฯ ทุ่มงบมหาศาลเพื่อดึงการผลิตชิปกลับสู่ประเทศผ่าน CHIPS Act โรงงานผลิตเวเฟอร์ของ TSMC และ Intel ก็เริ่มตั้งหลักในแอริโซนาแล้ว แต่ปัญหาคือ “หลังบ้าน” อย่างการประกอบ ทดสอบ และแพ็กเกจชิปยังต้องส่งกลับไปทำที่ไต้หวันหรือเกาหลีใต้ ทำให้เกิดคอขวดที่กระทบต่อทั้ง AI server และ GPU ระดับสูง Amkor Technology จึงประกาศสร้างโรงงานใหม่ใน Peoria, Arizona บนพื้นที่ 104 เอเคอร์ ด้วยงบลงทุนกว่า 2 พันล้านดอลลาร์ โดยมี Apple เป็นลูกค้ารายแรก และ TSMC เซ็น MOU เพื่อส่งเวเฟอร์จากโรงงานในฟีนิกซ์มาประกอบที่นี่โดยตรง ลดเวลารอจากหลายสัปดาห์เหลือไม่กี่วัน โรงงานนี้จะรองรับเทคโนโลยีแพ็กเกจระดับสูง เช่น CoWoS และ InFO ซึ่งเป็นหัวใจของชิป AI อย่าง Nvidia H100/H200 และ AMD MI300 รวมถึงชิป Apple M-series ที่ใช้ใน Mac และ iPad โดยได้รับเงินสนับสนุนจาก CHIPS Act กว่า 407 ล้านดอลลาร์ และสิทธิประโยชน์ทางภาษีจากรัฐบาลกลาง แต่แม้จะเป็นก้าวใหญ่ของอุตสาหกรรม โรงงานนี้จะเริ่มผลิตจริงในปี 2028 ซึ่งหมายความว่าคอขวดของการแพ็กชิปจะยังคงอยู่ไปอีกหลายปี และที่น่าห่วงกว่าคือปัญหาขาดแคลนแรงงาน—คาดว่าจะขาดคนงานถึง 70,000–90,000 คนทั่วสหรัฐฯ แม้จะมีระบบอัตโนมัติช่วยก็ตาม https://www.tomshardware.com/tech-industry/semiconductors/amkor-arizona-plant-plans-approved
    0 Comments 0 Shares 111 Views 0 Reviews
  • เรื่องเล่าจาก Kazeta: เมื่อ Linux กลายเป็นคอนโซลยุค 90 ที่ไม่ต้องต่อเน็ต ไม่ต้องล็อกอิน แค่เสียบแล้วเล่น

    ในยุคที่เกมพีซีเต็มไปด้วย launcher, DRM, cloud save, subscription และ UI ที่ซับซ้อน Kazeta OS กลับเลือกเดินทางย้อนยุค—พัฒนา Linux OS ที่ให้ประสบการณ์แบบ “เสียบตลับ กดเปิด แล้วเล่น” เหมือนเครื่องเกมในยุค 1990s โดยไม่ต้องต่ออินเทอร์เน็ต ไม่ต้องล็อกอิน และไม่ต้องอัปเดตอะไรทั้งสิ้น

    Kazeta พัฒนาโดย Alesh Slovak ผู้สร้าง ChimeraOS มาก่อน โดยมีเป้าหมายเพื่อผู้เล่นที่เบื่อความซับซ้อนของ SteamOS หรือ digital storefronts และอยากเก็บเกมแบบ physical media ที่จับต้องได้ Kazeta จึงอนุญาตให้ผู้ใช้แปลงเกม DRM-free เช่นจาก GOG หรือ itch.io ให้กลายเป็น “ตลับเกม” บน SD card ที่เสียบแล้วเล่นได้ทันที

    เมื่อไม่มีตลับเสียบ เครื่องจะบูตเข้าสู่ BIOS สไตล์เรโทรที่ให้ผู้เล่นจัดการเซฟเกมได้อย่างง่ายดาย โดยเซฟจะเก็บไว้ในเครื่อง ส่วนตลับเกมจะเป็น read-only เพื่อรักษาความบริสุทธิ์ของไฟล์เกม

    แม้จะฟังดูเรียบง่าย แต่ Kazeta รองรับทั้งเกมใหม่และเกมเก่าผ่าน emulator และสามารถใช้กับพีซีทั่วไปที่มี GPU ระดับกลางขึ้นไป โดยมีข้อจำกัดบางอย่าง เช่น ไม่รองรับ dual boot, VM, hybrid graphics หรือ Bluetooth controller (แต่จะรองรับในอนาคต)

    แนวคิดหลักของ Kazeta OS
    สร้างประสบการณ์ “เสียบตลับแล้วเล่น” แบบคอนโซลยุค 90
    ไม่ต้องล็อกอิน, ไม่ต้องต่อเน็ต, ไม่มี launcher หรือ subscription
    รองรับเกม DRM-free จาก GOG, itch.io และ emulator

    วิธีใช้งาน
    ติดตั้ง Kazeta OS บนพีซีที่มีสเปกพอประมาณ
    เตรียม SD card เป็น “ตลับเกม” โดยใส่เกม DRM-free ทีละเกม
    เสียบ SD card แล้วเปิดเครื่องเพื่อเข้าเกมทันที
    หากไม่มีตลับ จะเข้าสู่ BIOS สไตล์เรโทรเพื่อจัดการเซฟเกม

    จุดเด่นด้านการเก็บเกม
    ตลับเกมเป็น read-only เพื่อรักษาไฟล์เกม
    เซฟเกมเก็บไว้ในเครื่อง และสามารถแบ็กอัปออกไปได้
    เหมาะสำหรับผู้ที่ต้องการเก็บเกมแบบ physical media

    ความเข้ากันได้ของระบบ
    รองรับ GPU: AMD RX 400+, NVIDIA GTX 1600+, Intel Gen 9+ (แต่ไม่แนะนำ)
    รองรับ controller: 8Bitdo Ultimate 2C (ผ่าน dongle หรือสาย)
    ไม่รองรับ VM, dual boot, hybrid graphics, Bluetooth controller (ยังไม่พร้อม)

    https://www.tomshardware.com/software/linux/linux-gaming-os-kazeta-promises-console-gaming-experience-of-the-1990s-for-pc-users-supports-almost-any-drm-free-game-past-or-present
    🎙️ เรื่องเล่าจาก Kazeta: เมื่อ Linux กลายเป็นคอนโซลยุค 90 ที่ไม่ต้องต่อเน็ต ไม่ต้องล็อกอิน แค่เสียบแล้วเล่น ในยุคที่เกมพีซีเต็มไปด้วย launcher, DRM, cloud save, subscription และ UI ที่ซับซ้อน Kazeta OS กลับเลือกเดินทางย้อนยุค—พัฒนา Linux OS ที่ให้ประสบการณ์แบบ “เสียบตลับ กดเปิด แล้วเล่น” เหมือนเครื่องเกมในยุค 1990s โดยไม่ต้องต่ออินเทอร์เน็ต ไม่ต้องล็อกอิน และไม่ต้องอัปเดตอะไรทั้งสิ้น Kazeta พัฒนาโดย Alesh Slovak ผู้สร้าง ChimeraOS มาก่อน โดยมีเป้าหมายเพื่อผู้เล่นที่เบื่อความซับซ้อนของ SteamOS หรือ digital storefronts และอยากเก็บเกมแบบ physical media ที่จับต้องได้ Kazeta จึงอนุญาตให้ผู้ใช้แปลงเกม DRM-free เช่นจาก GOG หรือ itch.io ให้กลายเป็น “ตลับเกม” บน SD card ที่เสียบแล้วเล่นได้ทันที เมื่อไม่มีตลับเสียบ เครื่องจะบูตเข้าสู่ BIOS สไตล์เรโทรที่ให้ผู้เล่นจัดการเซฟเกมได้อย่างง่ายดาย โดยเซฟจะเก็บไว้ในเครื่อง ส่วนตลับเกมจะเป็น read-only เพื่อรักษาความบริสุทธิ์ของไฟล์เกม แม้จะฟังดูเรียบง่าย แต่ Kazeta รองรับทั้งเกมใหม่และเกมเก่าผ่าน emulator และสามารถใช้กับพีซีทั่วไปที่มี GPU ระดับกลางขึ้นไป โดยมีข้อจำกัดบางอย่าง เช่น ไม่รองรับ dual boot, VM, hybrid graphics หรือ Bluetooth controller (แต่จะรองรับในอนาคต) ✅ แนวคิดหลักของ Kazeta OS ➡️ สร้างประสบการณ์ “เสียบตลับแล้วเล่น” แบบคอนโซลยุค 90 ➡️ ไม่ต้องล็อกอิน, ไม่ต้องต่อเน็ต, ไม่มี launcher หรือ subscription ➡️ รองรับเกม DRM-free จาก GOG, itch.io และ emulator ✅ วิธีใช้งาน ➡️ ติดตั้ง Kazeta OS บนพีซีที่มีสเปกพอประมาณ ➡️ เตรียม SD card เป็น “ตลับเกม” โดยใส่เกม DRM-free ทีละเกม ➡️ เสียบ SD card แล้วเปิดเครื่องเพื่อเข้าเกมทันที ➡️ หากไม่มีตลับ จะเข้าสู่ BIOS สไตล์เรโทรเพื่อจัดการเซฟเกม ✅ จุดเด่นด้านการเก็บเกม ➡️ ตลับเกมเป็น read-only เพื่อรักษาไฟล์เกม ➡️ เซฟเกมเก็บไว้ในเครื่อง และสามารถแบ็กอัปออกไปได้ ➡️ เหมาะสำหรับผู้ที่ต้องการเก็บเกมแบบ physical media ✅ ความเข้ากันได้ของระบบ ➡️ รองรับ GPU: AMD RX 400+, NVIDIA GTX 1600+, Intel Gen 9+ (แต่ไม่แนะนำ) ➡️ รองรับ controller: 8Bitdo Ultimate 2C (ผ่าน dongle หรือสาย) ➡️ ไม่รองรับ VM, dual boot, hybrid graphics, Bluetooth controller (ยังไม่พร้อม) https://www.tomshardware.com/software/linux/linux-gaming-os-kazeta-promises-console-gaming-experience-of-the-1990s-for-pc-users-supports-almost-any-drm-free-game-past-or-present
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว

    ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล

    แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม

    Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore

    แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end

    แนวคิด Software Defined Supercore (SDC)
    รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread
    แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน
    ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม

    เทคนิคที่ใช้ใน SDC
    wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์
    ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    inject คำสั่งพิเศษสำหรับ flow control และ register passing

    การจัดการโดย OS
    OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition
    ช่วยบาลานซ์ระหว่าง performance และ core availability

    เปรียบเทียบกับแนวทางเดิม
    x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle
    Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10
    SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์

    ความเชื่อมโยงกับแนวคิดเก่า
    คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD
    อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้

    https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    🎙️ เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end ✅ แนวคิด Software Defined Supercore (SDC) ➡️ รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread ➡️ แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน ➡️ ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม ✅ เทคนิคที่ใช้ใน SDC ➡️ wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์ ➡️ ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ inject คำสั่งพิเศษสำหรับ flow control และ register passing ✅ การจัดการโดย OS ➡️ OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition ➡️ ช่วยบาลานซ์ระหว่าง performance และ core availability ✅ เปรียบเทียบกับแนวทางเดิม ➡️ x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle ➡️ Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10 ➡️ SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์ ✅ ความเชื่อมโยงกับแนวคิดเก่า ➡️ คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD ➡️ อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้ https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    0 Comments 0 Shares 126 Views 0 Reviews
  • เรื่องเล่าจาก Intel: เมื่อยอมรับความพลาด และวางเดิมพันกับอนาคตที่ชื่อว่า Panther Lake

    David Zinsner, CFO ของ Intel ออกมายอมรับอย่างตรงไปตรงมาว่า CPU Desktop รุ่นบนของบริษัทในปี 2025 “ไม่สามารถแข่งขันได้” กับ AMD Ryzen 9000-series ได้เลย โดยเฉพาะในตลาด high-end ที่ Intel ขาดผลิตภัณฑ์ที่โดดเด่น ทำให้สูญเสียส่วนแบ่งรายได้ แม้จะยังรักษายอดขายในระดับ unit ได้อยู่

    แต่ Intel ไม่ได้ยอมแพ้ พวกเขากำลังวางแผนกลับมาอย่างเต็มรูปแบบผ่าน Panther Lake และ Nova Lake ซึ่งจะใช้เทคโนโลยีการผลิตระดับ 18A (1.8nm-class) ที่บริษัทพัฒนาขึ้นเอง โดย Panther Lake จะเริ่มเปิดตัวปลายปี 2025 และทยอยเพิ่ม SKU ในครึ่งแรกของปี 2026 ส่วน Nova Lake ซึ่งลือกันว่าจะมีถึง 52 คอร์ จะเปิดตัวในช่วงครึ่งหลังของปี 2026 เพื่อเจาะตลาด high-end desktop โดยเฉพาะ

    อย่างไรก็ตาม การปรับแต่งประสิทธิภาพของ Panther Lake ส่งผลให้ yield ของ 18A ลดลง ทำให้ต้องใช้เวลานานกว่าที่คาดไว้ในการปรับปรุงกระบวนการผลิต และแม้จะมีความคืบหน้า แต่ Intel ก็ยังไม่สามารถเปิดเผยได้ว่าปัญหาเกิดจาก functional yield หรือ parametric yield

    ในฝั่ง data center แม้ Xeon 6-series จะดีขึ้น แต่ก็ยังไม่สามารถหยุด AMD จากการแย่งส่วนแบ่งตลาดได้ Intel จึงฝากความหวังไว้กับ Diamond Rapids และ Coral Rapids ที่จะใช้ 18A เช่นกัน โดย Coral Rapids จะเป็นรุ่นแรกที่นำ SMT กลับมาใช้ใน P-core สำหรับเซิร์ฟเวอร์

    https://www.tomshardware.com/pc-components/cpus/intel-talks-about-its-lackluster-pc-chips-18a-yield-challenges-and-perforamnce-and-panther-lake-ramp
    🎙️ เรื่องเล่าจาก Intel: เมื่อยอมรับความพลาด และวางเดิมพันกับอนาคตที่ชื่อว่า Panther Lake David Zinsner, CFO ของ Intel ออกมายอมรับอย่างตรงไปตรงมาว่า CPU Desktop รุ่นบนของบริษัทในปี 2025 “ไม่สามารถแข่งขันได้” กับ AMD Ryzen 9000-series ได้เลย โดยเฉพาะในตลาด high-end ที่ Intel ขาดผลิตภัณฑ์ที่โดดเด่น ทำให้สูญเสียส่วนแบ่งรายได้ แม้จะยังรักษายอดขายในระดับ unit ได้อยู่ แต่ Intel ไม่ได้ยอมแพ้ พวกเขากำลังวางแผนกลับมาอย่างเต็มรูปแบบผ่าน Panther Lake และ Nova Lake ซึ่งจะใช้เทคโนโลยีการผลิตระดับ 18A (1.8nm-class) ที่บริษัทพัฒนาขึ้นเอง โดย Panther Lake จะเริ่มเปิดตัวปลายปี 2025 และทยอยเพิ่ม SKU ในครึ่งแรกของปี 2026 ส่วน Nova Lake ซึ่งลือกันว่าจะมีถึง 52 คอร์ จะเปิดตัวในช่วงครึ่งหลังของปี 2026 เพื่อเจาะตลาด high-end desktop โดยเฉพาะ อย่างไรก็ตาม การปรับแต่งประสิทธิภาพของ Panther Lake ส่งผลให้ yield ของ 18A ลดลง ทำให้ต้องใช้เวลานานกว่าที่คาดไว้ในการปรับปรุงกระบวนการผลิต และแม้จะมีความคืบหน้า แต่ Intel ก็ยังไม่สามารถเปิดเผยได้ว่าปัญหาเกิดจาก functional yield หรือ parametric yield ในฝั่ง data center แม้ Xeon 6-series จะดีขึ้น แต่ก็ยังไม่สามารถหยุด AMD จากการแย่งส่วนแบ่งตลาดได้ Intel จึงฝากความหวังไว้กับ Diamond Rapids และ Coral Rapids ที่จะใช้ 18A เช่นกัน โดย Coral Rapids จะเป็นรุ่นแรกที่นำ SMT กลับมาใช้ใน P-core สำหรับเซิร์ฟเวอร์ https://www.tomshardware.com/pc-components/cpus/intel-talks-about-its-lackluster-pc-chips-18a-yield-challenges-and-perforamnce-and-panther-lake-ramp
    0 Comments 0 Shares 118 Views 0 Reviews
  • เรื่องเล่าจาก LinkedIn: เมื่อ AMD เตรียมปลุกชีพ GPU แบบหลายชิ้นส่วนอีกครั้ง

    ในช่วงหลายปีที่ผ่านมา AMD ได้สร้างชื่อจากการใช้สถาปัตยกรรม chiplet ใน CPU อย่าง Ryzen และ EPYC ซึ่งช่วยลดต้นทุน เพิ่มประสิทธิภาพ และปรับขนาดได้ง่าย แต่ในโลกของ GPU การใช้ chiplet ยังเป็นเรื่องท้าทาย เพราะกราฟิกต้องการการประมวลผลแบบขนานที่เร็วและแม่นยำมากกว่าการคำนวณทั่วไป

    ล่าสุดจากโปรไฟล์ LinkedIn ของ Laks Pappu ซึ่งเป็น Chief SoC Architect ของ AMD มีการเปิดเผยว่าเขากำลังพัฒนา GPU แบบใหม่ที่ใช้เทคโนโลยี packaging แบบ 2.5D และ 3.5D โดยเฉพาะในสถาปัตยกรรม RDNA 5 (Navi 5x) และ Instinct MI500 สำหรับ data center และ cloud gaming

    สิ่งที่น่าสนใจคือ AMD อาจนำแนวคิด multi-tile GPU กลับมาใช้ในตลาด consumer อีกครั้ง ซึ่งเคยถูกจำกัดไว้เฉพาะใน data center เพราะปัญหาด้าน latency, coherency และการจัดการซอฟต์แวร์ที่ซับซ้อนมากในงานกราฟิก

    แต่ด้วยประสบการณ์จาก Navi 31 ที่ใช้ chiplet สำหรับ cache และ memory controller รวมถึงความก้าวหน้าด้าน interconnect อย่าง Infinity Fabric และ CoWoS ทำให้ AMD อาจพร้อมแล้วสำหรับการแยก compute core ออกเป็นหลาย tile และรวมกลับมาเป็น GPU เดียวที่ OS และเกมมองว่าเป็นชิ้นเดียว

    https://www.tomshardware.com/tech-industry/according-to-a-linkedin-profile-amd-is-working-on-another-chiplet-based-gpu-udna-could-herald-the-return-of-2-5d-3-5d-chiplet-based-configuration
    🎙️ เรื่องเล่าจาก LinkedIn: เมื่อ AMD เตรียมปลุกชีพ GPU แบบหลายชิ้นส่วนอีกครั้ง ในช่วงหลายปีที่ผ่านมา AMD ได้สร้างชื่อจากการใช้สถาปัตยกรรม chiplet ใน CPU อย่าง Ryzen และ EPYC ซึ่งช่วยลดต้นทุน เพิ่มประสิทธิภาพ และปรับขนาดได้ง่าย แต่ในโลกของ GPU การใช้ chiplet ยังเป็นเรื่องท้าทาย เพราะกราฟิกต้องการการประมวลผลแบบขนานที่เร็วและแม่นยำมากกว่าการคำนวณทั่วไป ล่าสุดจากโปรไฟล์ LinkedIn ของ Laks Pappu ซึ่งเป็น Chief SoC Architect ของ AMD มีการเปิดเผยว่าเขากำลังพัฒนา GPU แบบใหม่ที่ใช้เทคโนโลยี packaging แบบ 2.5D และ 3.5D โดยเฉพาะในสถาปัตยกรรม RDNA 5 (Navi 5x) และ Instinct MI500 สำหรับ data center และ cloud gaming สิ่งที่น่าสนใจคือ AMD อาจนำแนวคิด multi-tile GPU กลับมาใช้ในตลาด consumer อีกครั้ง ซึ่งเคยถูกจำกัดไว้เฉพาะใน data center เพราะปัญหาด้าน latency, coherency และการจัดการซอฟต์แวร์ที่ซับซ้อนมากในงานกราฟิก แต่ด้วยประสบการณ์จาก Navi 31 ที่ใช้ chiplet สำหรับ cache และ memory controller รวมถึงความก้าวหน้าด้าน interconnect อย่าง Infinity Fabric และ CoWoS ทำให้ AMD อาจพร้อมแล้วสำหรับการแยก compute core ออกเป็นหลาย tile และรวมกลับมาเป็น GPU เดียวที่ OS และเกมมองว่าเป็นชิ้นเดียว https://www.tomshardware.com/tech-industry/according-to-a-linkedin-profile-amd-is-working-on-another-chiplet-based-gpu-udna-could-herald-the-return-of-2-5d-3-5d-chiplet-based-configuration
    0 Comments 0 Shares 114 Views 0 Reviews
  • อาเซียนฮีลใจ สั่งแกร็บเลี้ยงไรเดอร์อินโดฯ

    แม้การชุมนุมในอินโดนีเซียจะนำมาซึ่งความสูญเสีย แต่ก็เกิดธารน้ำใจหลั่งไหลสู่ไรเดอร์ ที่ชาวอินโดนีเซียเรียกว่าโอโจล (Ojol) ในภาวะที่ยากลำบาก พร้อมกับช่วยเหลือร้านอาหารขนาดเล็กในอินโดนีเซีย ที่ยอดขายหายไปจากสภาวะเศรษฐกิจ และผลจากการบริหารประเทศของประธานาธิบดีปราโบโว ซูเบียนโต เมื่อผู้ใช้แพลตฟอร์มสั่งอาหารออนไลน์ แกร็บ (Grab) และโกเจ็ก (Gojek) ในประเทศสิงคโปร์ มาเลเซีย และประเทศอื่นๆ สั่งอาหารจากร้านอาหารขนาดเล็กในอินโดนีเซียเพื่อเลี้ยงไรเดอร์

    ที่ผ่านมาพบว่ามีผู้ใช้งานแกร็บและโกเจ็กในหลายประเทศ เช่น มาเลเซีย สิงคโปร์ ต่างช่วยเหลือไรเดอร์ และร้านอาหารในอินโดนีเซีย รวมทั้งบางคนซื้อสินค้าอุปโภคบริโภคให้ไรเดอร์ผ่านบริการ Grabmart ของแกร็บ หรือ GoMart ของโกเจ็ก โดยไรเดอร์ที่ได้รับอาหารต่างขอบคุณและอวยพรกลับมา ทั้งส่งข้อความส่วนตัวในแพลตฟอร์ม หรือโพสต์คลิปลงในแพลตฟอร์มโซเชียลฯ เช่น เอ็กซ์ ติ๊กต็อก เธรด อินสตาแกรม ฯลฯ เพื่อเป็นหลักฐานว่าได้รับอาหารแล้ว และขอบคุณในน้ำใจที่มีให้ แสดงให้เห็นว่าน้ำใจเกิดขึ้นได้โดยไม่มีพรมแดน และกระชับความสัมพันธ์ในฐานะเพื่อนร่วมชาติสมาชิกประชาคมอาเซียน

    ผู้ใช้งานแกร็บในประเทศมาเลเซีย สิงคโปร์ ฟิลิปปินส์ ไทย เมียนมา และกัมพูชา สามารถเลือกประเทศอินโดนีเซีย เพื่อสั่งอาหารช่วยเหลือไรเดอร์ข้ามประเทศได้ โดยชำระผ่านบัตรเครดิต ระบุข้อความถึงร้านอาหาร และข้อความถึงคนขับ เป็นภาษาอินโดนีเซียว่า "Pak/Bu, makanannya untuk abang/kakak driver & teman-teman" (คุณครับ อาหารนี้สำหรับคนขับและเพื่อนๆ ครับ) เพื่อให้ทราบว่าอาหารดังกล่าวสำหรับคนขับไรเดอร์และเพื่อนๆ

    อีกด้านหนึ่ง เมื่อวันที่ 1 ก.ย. นายแอนโทนี ตัน (Anthony Tan) ซีอีโอและผู้ร่วมก่อตั้งแกร็บ เดินทางจากสิงคโปร์มายังเมืองมากัสซาร์ จังหวัดซูลาเวซีใต้ เพื่อเยี่ยมครอบครัวของนายรุสดัมเดียนสยาห์ (Rusdamdiansyah) หรือ ดันดี (Dandi) ชายวัย 26 ปี ไรเดอร์แกร็บซึ่งเสียชีวิตเมื่อวันที่ 29 ส.ค. โดยจะให้การช่วยเหลือทางการเงินและอื่นๆ ในระยะยาว พร้อมกันนี้ยังได้เปิดสายด่วนฉุกเฉินเกอร์เซป (GERCEP หรือ Grab Respon Cepat) และโครงการตรักเตียร์ ไดร์ฟเวอร์ (Traktir Driver) ให้ผู้ใช้งานสามารถซื้ออาหารให้กับไรเดอร์โดยตรงได้อีกด้วย

    สำหรับผู้เสียชีวิตจากการชุมนุมอย่างน้อย 6 คน นอกจากนายรุสดัมเดียนสยาห์แล้ว ยังมีนายอัฟฟาน คูรเนียวัน (Affan Kurniawan) วัย 21 ปี ผู้ขับขี่แพลตฟอร์มโกเจ็ก ถูกรถหุ้มเกราะควบคุมฝูงชน (Brimob) พุ่งชนเสียชีวิตเมื่อค่ำวันที่ 28 ส.ค.ที่ที่กรุงจาการ์ตา

    #Newskit
    อาเซียนฮีลใจ สั่งแกร็บเลี้ยงไรเดอร์อินโดฯ แม้การชุมนุมในอินโดนีเซียจะนำมาซึ่งความสูญเสีย แต่ก็เกิดธารน้ำใจหลั่งไหลสู่ไรเดอร์ ที่ชาวอินโดนีเซียเรียกว่าโอโจล (Ojol) ในภาวะที่ยากลำบาก พร้อมกับช่วยเหลือร้านอาหารขนาดเล็กในอินโดนีเซีย ที่ยอดขายหายไปจากสภาวะเศรษฐกิจ และผลจากการบริหารประเทศของประธานาธิบดีปราโบโว ซูเบียนโต เมื่อผู้ใช้แพลตฟอร์มสั่งอาหารออนไลน์ แกร็บ (Grab) และโกเจ็ก (Gojek) ในประเทศสิงคโปร์ มาเลเซีย และประเทศอื่นๆ สั่งอาหารจากร้านอาหารขนาดเล็กในอินโดนีเซียเพื่อเลี้ยงไรเดอร์ ที่ผ่านมาพบว่ามีผู้ใช้งานแกร็บและโกเจ็กในหลายประเทศ เช่น มาเลเซีย สิงคโปร์ ต่างช่วยเหลือไรเดอร์ และร้านอาหารในอินโดนีเซีย รวมทั้งบางคนซื้อสินค้าอุปโภคบริโภคให้ไรเดอร์ผ่านบริการ Grabmart ของแกร็บ หรือ GoMart ของโกเจ็ก โดยไรเดอร์ที่ได้รับอาหารต่างขอบคุณและอวยพรกลับมา ทั้งส่งข้อความส่วนตัวในแพลตฟอร์ม หรือโพสต์คลิปลงในแพลตฟอร์มโซเชียลฯ เช่น เอ็กซ์ ติ๊กต็อก เธรด อินสตาแกรม ฯลฯ เพื่อเป็นหลักฐานว่าได้รับอาหารแล้ว และขอบคุณในน้ำใจที่มีให้ แสดงให้เห็นว่าน้ำใจเกิดขึ้นได้โดยไม่มีพรมแดน และกระชับความสัมพันธ์ในฐานะเพื่อนร่วมชาติสมาชิกประชาคมอาเซียน ผู้ใช้งานแกร็บในประเทศมาเลเซีย สิงคโปร์ ฟิลิปปินส์ ไทย เมียนมา และกัมพูชา สามารถเลือกประเทศอินโดนีเซีย เพื่อสั่งอาหารช่วยเหลือไรเดอร์ข้ามประเทศได้ โดยชำระผ่านบัตรเครดิต ระบุข้อความถึงร้านอาหาร และข้อความถึงคนขับ เป็นภาษาอินโดนีเซียว่า "Pak/Bu, makanannya untuk abang/kakak driver & teman-teman" (คุณครับ อาหารนี้สำหรับคนขับและเพื่อนๆ ครับ) เพื่อให้ทราบว่าอาหารดังกล่าวสำหรับคนขับไรเดอร์และเพื่อนๆ อีกด้านหนึ่ง เมื่อวันที่ 1 ก.ย. นายแอนโทนี ตัน (Anthony Tan) ซีอีโอและผู้ร่วมก่อตั้งแกร็บ เดินทางจากสิงคโปร์มายังเมืองมากัสซาร์ จังหวัดซูลาเวซีใต้ เพื่อเยี่ยมครอบครัวของนายรุสดัมเดียนสยาห์ (Rusdamdiansyah) หรือ ดันดี (Dandi) ชายวัย 26 ปี ไรเดอร์แกร็บซึ่งเสียชีวิตเมื่อวันที่ 29 ส.ค. โดยจะให้การช่วยเหลือทางการเงินและอื่นๆ ในระยะยาว พร้อมกันนี้ยังได้เปิดสายด่วนฉุกเฉินเกอร์เซป (GERCEP หรือ Grab Respon Cepat) และโครงการตรักเตียร์ ไดร์ฟเวอร์ (Traktir Driver) ให้ผู้ใช้งานสามารถซื้ออาหารให้กับไรเดอร์โดยตรงได้อีกด้วย สำหรับผู้เสียชีวิตจากการชุมนุมอย่างน้อย 6 คน นอกจากนายรุสดัมเดียนสยาห์แล้ว ยังมีนายอัฟฟาน คูรเนียวัน (Affan Kurniawan) วัย 21 ปี ผู้ขับขี่แพลตฟอร์มโกเจ็ก ถูกรถหุ้มเกราะควบคุมฝูงชน (Brimob) พุ่งชนเสียชีวิตเมื่อค่ำวันที่ 28 ส.ค.ที่ที่กรุงจาการ์ตา #Newskit
    1 Comments 0 Shares 148 Views 0 Reviews
  • AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย

    ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop

    หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้

    AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ

    แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล

    การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย

    สรุปเนื้อหาเป็นหัวข้อ
    AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก
    ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo
    รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์
    R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core
    รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark
    ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้
    R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ
    Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต
    เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ
    การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น

    ข้อมูลเสริมจากภายนอก
    R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ
    R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด
    SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก
    Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก
    Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS

    https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    🧠 AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้ AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก ➡️ ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo ➡️ รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์ ➡️ R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core ➡️ รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark ➡️ ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้ ➡️ R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ ➡️ Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต ➡️ เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ ➡️ การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ ➡️ R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด ➡️ SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก ➡️ Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก ➡️ Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    0 Comments 0 Shares 191 Views 0 Reviews
  • Framework Laptop 16 ปี 2025 — โน้ตบุ๊กที่ไม่แค่แรง แต่ “ปรับแต่งได้ทุกส่วน”

    Framework Laptop 16 รุ่นใหม่ปี 2025 ไม่ใช่แค่การอัปเกรดสเปกธรรมดา แต่เป็นการยกระดับแนวคิด “โน้ตบุ๊กที่คุณประกอบเองได้” ไปอีกขั้น ด้วยการเปลี่ยนแปลงแทบทุกส่วน ตั้งแต่กราฟิก ซีพียู ระบบระบายความร้อน ไปจนถึงที่ชาร์จ

    หัวใจของการอัปเกรดคือกราฟิกโมดูลใหม่ — NVIDIA GeForce RTX 5070 Laptop GPU ที่ใช้สถาปัตยกรรม Blackwell พร้อมแรม GDDR7 ขนาด 8GB ให้ประสิทธิภาพเพิ่มขึ้น 30–40% จากรุ่นเดิม RX 7700S โดยยังคงใช้พลังงานเท่าเดิมที่ 100W TGP

    Framework ยังปรับปรุงระบบระบายความร้อนด้วยแผ่น Honeywell phase change และพัดลมที่ออกแบบใบพัดใหม่ พร้อม IC ควบคุมที่ลดเสียงรบกวน และยังรองรับการส่งสัญญาณภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง

    ที่น่าตื่นเต้นคือกราฟิกโมดูล RTX 5070 นี้สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ด้วย ทำให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องซื้อเครื่องใหม่ทั้งหมด

    ด้านซีพียู Framework เลือกใช้ AMD Ryzen AI 300 Series รุ่นใหม่ ได้แก่ Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้สถาปัตยกรรม Zen 5 พร้อมรองรับการทำงานที่ TDP 45W อย่างต่อเนื่อง

    และเพื่อรองรับพลังงานที่เพิ่มขึ้น Framework ได้เปิดตัวอะแดปเตอร์ชาร์จ USB-C แบบ 240W ซึ่งถือเป็นรุ่นแรกของโลกที่รองรับมาตรฐาน USB-PD 3.1 ในระดับนี้

    นอกจากนี้ยังมีการอัปเกรดจอภาพให้รองรับ G-Sync, เพิ่มความแข็งแรงของฝาเครื่องด้วยอะลูมิเนียมใหม่, ปรับปรุงกล้องเว็บแคม และออกแบบลายคีย์บอร์ดใหม่ทั้งหมด

    สรุปเนื้อหาเป็นหัวข้อ
    Framework Laptop 16 รุ่นปี 2025 ได้รับการอัปเกรดครั้งใหญ่ในทุกส่วนของเครื่อง
    ใช้กราฟิกโมดูล RTX 5070 Laptop GPU พร้อมแรม GDDR7 ขนาด 8GB
    ประสิทธิภาพกราฟิกเพิ่มขึ้น 30–40% จาก RX 7700S โดยใช้พลังงานเท่าเดิม
    ระบบระบายความร้อนใหม่ใช้แผ่น Honeywell phase change และพัดลมใบพัดใหม่
    รองรับการส่งภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง
    กราฟิกโมดูล RTX 5070 สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้
    มีตัวเลือกซีพียู Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้ Zen 5
    เปิดตัวอะแดปเตอร์ชาร์จ USB-C 240W รองรับ USB-PD 3.1
    จอภาพ 165Hz 2560x1600 รองรับ G-Sync ผ่าน mux switch
    ฝาเครื่องอะลูมิเนียมใหม่เพิ่มความแข็งแรง และกล้องเว็บแคมรุ่นที่สองให้ภาพชัดขึ้น

    ข้อมูลเสริมจากภายนอก
    RTX 5070 Laptop GPU ใช้สถาปัตยกรรม Blackwell ซึ่งเป็นรุ่นล่าสุดจาก NVIDIA
    Ryzen AI 300 Series มี NPU สำหรับงาน AI และรองรับการประมวลผลแบบ local
    USB-PD 3.1 รองรับการชาร์จสูงสุดถึง 240W ผ่านสาย Type-C เส้นเดียว
    Framework เป็นแบรนด์เดียวที่ให้ผู้ใช้เปลี่ยนกราฟิกโมดูลได้เองในโน้ตบุ๊ก
    ระบบ Expansion Bay ของ Framework ช่วยให้ผู้ใช้เลือกใช้ GPU หรือ shell เปล่าได้ตามต้องการ

    https://www.tomshardware.com/laptops/framework-laptop-16-gets-a-2025-upgrade-modular-notebook-gets-rtx-5070-graphics-zen-5-cpu-options-and-240w-type-c-charger
    💻 Framework Laptop 16 ปี 2025 — โน้ตบุ๊กที่ไม่แค่แรง แต่ “ปรับแต่งได้ทุกส่วน” Framework Laptop 16 รุ่นใหม่ปี 2025 ไม่ใช่แค่การอัปเกรดสเปกธรรมดา แต่เป็นการยกระดับแนวคิด “โน้ตบุ๊กที่คุณประกอบเองได้” ไปอีกขั้น ด้วยการเปลี่ยนแปลงแทบทุกส่วน ตั้งแต่กราฟิก ซีพียู ระบบระบายความร้อน ไปจนถึงที่ชาร์จ หัวใจของการอัปเกรดคือกราฟิกโมดูลใหม่ — NVIDIA GeForce RTX 5070 Laptop GPU ที่ใช้สถาปัตยกรรม Blackwell พร้อมแรม GDDR7 ขนาด 8GB ให้ประสิทธิภาพเพิ่มขึ้น 30–40% จากรุ่นเดิม RX 7700S โดยยังคงใช้พลังงานเท่าเดิมที่ 100W TGP Framework ยังปรับปรุงระบบระบายความร้อนด้วยแผ่น Honeywell phase change และพัดลมที่ออกแบบใบพัดใหม่ พร้อม IC ควบคุมที่ลดเสียงรบกวน และยังรองรับการส่งสัญญาณภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง ที่น่าตื่นเต้นคือกราฟิกโมดูล RTX 5070 นี้สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ด้วย ทำให้ผู้ใช้สามารถอัปเกรดได้โดยไม่ต้องซื้อเครื่องใหม่ทั้งหมด ด้านซีพียู Framework เลือกใช้ AMD Ryzen AI 300 Series รุ่นใหม่ ได้แก่ Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้สถาปัตยกรรม Zen 5 พร้อมรองรับการทำงานที่ TDP 45W อย่างต่อเนื่อง และเพื่อรองรับพลังงานที่เพิ่มขึ้น Framework ได้เปิดตัวอะแดปเตอร์ชาร์จ USB-C แบบ 240W ซึ่งถือเป็นรุ่นแรกของโลกที่รองรับมาตรฐาน USB-PD 3.1 ในระดับนี้ นอกจากนี้ยังมีการอัปเกรดจอภาพให้รองรับ G-Sync, เพิ่มความแข็งแรงของฝาเครื่องด้วยอะลูมิเนียมใหม่, ปรับปรุงกล้องเว็บแคม และออกแบบลายคีย์บอร์ดใหม่ทั้งหมด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Framework Laptop 16 รุ่นปี 2025 ได้รับการอัปเกรดครั้งใหญ่ในทุกส่วนของเครื่อง ➡️ ใช้กราฟิกโมดูล RTX 5070 Laptop GPU พร้อมแรม GDDR7 ขนาด 8GB ➡️ ประสิทธิภาพกราฟิกเพิ่มขึ้น 30–40% จาก RX 7700S โดยใช้พลังงานเท่าเดิม ➡️ ระบบระบายความร้อนใหม่ใช้แผ่น Honeywell phase change และพัดลมใบพัดใหม่ ➡️ รองรับการส่งภาพและพลังงานผ่านพอร์ต USB-C ด้านหลัง ➡️ กราฟิกโมดูล RTX 5070 สามารถใช้งานกับ Framework Laptop 16 รุ่นเดิมได้ ➡️ มีตัวเลือกซีพียู Ryzen AI 9 HX 370 และ Ryzen AI 7 HX 350 ที่ใช้ Zen 5 ➡️ เปิดตัวอะแดปเตอร์ชาร์จ USB-C 240W รองรับ USB-PD 3.1 ➡️ จอภาพ 165Hz 2560x1600 รองรับ G-Sync ผ่าน mux switch ➡️ ฝาเครื่องอะลูมิเนียมใหม่เพิ่มความแข็งแรง และกล้องเว็บแคมรุ่นที่สองให้ภาพชัดขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 Laptop GPU ใช้สถาปัตยกรรม Blackwell ซึ่งเป็นรุ่นล่าสุดจาก NVIDIA ➡️ Ryzen AI 300 Series มี NPU สำหรับงาน AI และรองรับการประมวลผลแบบ local ➡️ USB-PD 3.1 รองรับการชาร์จสูงสุดถึง 240W ผ่านสาย Type-C เส้นเดียว ➡️ Framework เป็นแบรนด์เดียวที่ให้ผู้ใช้เปลี่ยนกราฟิกโมดูลได้เองในโน้ตบุ๊ก ➡️ ระบบ Expansion Bay ของ Framework ช่วยให้ผู้ใช้เลือกใช้ GPU หรือ shell เปล่าได้ตามต้องการ https://www.tomshardware.com/laptops/framework-laptop-16-gets-a-2025-upgrade-modular-notebook-gets-rtx-5070-graphics-zen-5-cpu-options-and-240w-type-c-charger
    0 Comments 0 Shares 175 Views 0 Reviews
  • เมื่อซีพียูทะลุ 9 GHz และมนุษย์ยังไม่หยุดท้าทายขีดจำกัด

    ในโลกของการโอเวอร์คล็อก ซีพียูที่เร็วที่สุดไม่ใช่แค่เรื่องของประสิทธิภาพ แต่เป็นการแสดงออกถึงความกล้าท้าทายขีดจำกัดของเทคโนโลยี และล่าสุด นักโอเวอร์คล็อกจากจีนชื่อ wytiwx ได้สร้างประวัติศาสตร์ใหม่ด้วยการดัน Intel Core i9-14900KF ไปถึง 9,130.33 MHz หรือ 9.13 GHz ซึ่งเป็นความเร็วสูงสุดที่เคยมีการบันทึกอย่างเป็นทางการ

    การทำลายสถิตินี้ใช้เทคนิคสุดขั้ว — ระบายความร้อนด้วย “ฮีเลียมเหลว” ซึ่งเย็นกว่าลิควิดไนโตรเจน และต้องใช้แรงดันไฟสูงถึง 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดโต่งนี้ โดยใช้เมนบอร์ด ASUS ROG Maximus Z790 Apex ที่ออกแบบมาเพื่อการโอเวอร์คล็อกโดยเฉพาะ พร้อมแรม DDR5-5744 จาก Corsair และการ์ดจอ RTX 3050 เพื่อให้ระบบทำงานครบถ้วน

    ก่อนหน้านี้ สถิติสูงสุดอยู่ที่ 9.117 GHz โดย Elmor และ 9.121 GHz โดย wytiwx เองในรอบก่อน แต่ครั้งนี้เขาแซงตัวเองไปอีก 13 MHz ซึ่งในโลกของโอเวอร์คล็อก นั่นถือว่า “เยอะมาก”

    แม้จะเป็นความสำเร็จที่น่าทึ่ง แต่ก็มีข้อจำกัดที่ต้องเข้าใจ — การโอเวอร์คล็อกระดับนี้ไม่สามารถใช้งานจริงในชีวิตประจำวันได้ และอาจทำให้ชิปเสียหายถาวมหากไม่ควบคุมอย่างถูกต้อง

    สรุปเนื้อหาเป็นหัวข้อ
    wytiwx นักโอเวอร์คล็อกจากจีนทำลายสถิติโลกด้วยการดัน Core i9-14900KF ไปถึง 9.13 GHz
    ใช้ฮีเลียมเหลวในการระบายความร้อน ซึ่งเย็นกว่าลิควิดไนโตรเจน
    ใช้แรงดันไฟ 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดขั้ว
    เมนบอร์ดที่ใช้คือ ASUS ROG Maximus Z790 Apex พร้อมแรม Corsair DDR5-5744
    การ์ดจอที่ใช้คือ RTX 3050 และพาวเวอร์ซัพพลาย Corsair HX1200i
    สถิติใหม่แซงสถิติเดิมของ Core i9-14900KS ไป 13 MHz
    สถิตินี้ได้รับการรับรองโดย HWBot และ CPU-Z
    ซีพียูรุ่น Raptor Lake Refresh มีศักยภาพในการโอเวอร์คล็อกสูงกว่ารุ่นก่อน
    AMD เคยครองสถิติด้วย FX-8370 ที่ 8.722 GHz นานถึง 9 ปี
    Intel Raptor Lake ยังเป็นตัวเลือกยอดนิยมสำหรับนักโอเวอร์คล็อกทั่วโลก

    ข้อมูลเสริมจากภายนอก
    ฮีเลียมเหลวมีจุดเดือดต่ำกว่าลิควิดไนโตรเจนมาก ทำให้สามารถลดอุณหภูมิได้ถึง -269°C
    HWBot เป็นแพลตฟอร์มที่ใช้บันทึกและรับรองสถิติการโอเวอร์คล็อกระดับโลก
    การโอเวอร์คล็อกระดับ extreme ต้องใช้ระบบไฟฟ้าและความเย็นที่ออกแบบเฉพาะ
    CPU-Z เป็นเครื่องมือมาตรฐานในการตรวจสอบความเร็วและแรงดันของซีพียู
    การโอเวอร์คล็อกแบบนี้มักใช้ Windows 7 เพราะมี latency ต่ำและเสถียรกว่าในบางกรณี

    https://www.tomshardware.com/pc-components/cpus/core-i9-14900kf-overclocked-to-9-13-ghz-to-become-the-highest-clocked-cpu-of-all-time-13-mhz-faster-than-the-previous-record-holder
    ⚡ เมื่อซีพียูทะลุ 9 GHz และมนุษย์ยังไม่หยุดท้าทายขีดจำกัด ในโลกของการโอเวอร์คล็อก ซีพียูที่เร็วที่สุดไม่ใช่แค่เรื่องของประสิทธิภาพ แต่เป็นการแสดงออกถึงความกล้าท้าทายขีดจำกัดของเทคโนโลยี และล่าสุด นักโอเวอร์คล็อกจากจีนชื่อ wytiwx ได้สร้างประวัติศาสตร์ใหม่ด้วยการดัน Intel Core i9-14900KF ไปถึง 9,130.33 MHz หรือ 9.13 GHz ซึ่งเป็นความเร็วสูงสุดที่เคยมีการบันทึกอย่างเป็นทางการ การทำลายสถิตินี้ใช้เทคนิคสุดขั้ว — ระบายความร้อนด้วย “ฮีเลียมเหลว” ซึ่งเย็นกว่าลิควิดไนโตรเจน และต้องใช้แรงดันไฟสูงถึง 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดโต่งนี้ โดยใช้เมนบอร์ด ASUS ROG Maximus Z790 Apex ที่ออกแบบมาเพื่อการโอเวอร์คล็อกโดยเฉพาะ พร้อมแรม DDR5-5744 จาก Corsair และการ์ดจอ RTX 3050 เพื่อให้ระบบทำงานครบถ้วน ก่อนหน้านี้ สถิติสูงสุดอยู่ที่ 9.117 GHz โดย Elmor และ 9.121 GHz โดย wytiwx เองในรอบก่อน แต่ครั้งนี้เขาแซงตัวเองไปอีก 13 MHz ซึ่งในโลกของโอเวอร์คล็อก นั่นถือว่า “เยอะมาก” แม้จะเป็นความสำเร็จที่น่าทึ่ง แต่ก็มีข้อจำกัดที่ต้องเข้าใจ — การโอเวอร์คล็อกระดับนี้ไม่สามารถใช้งานจริงในชีวิตประจำวันได้ และอาจทำให้ชิปเสียหายถาวมหากไม่ควบคุมอย่างถูกต้อง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ wytiwx นักโอเวอร์คล็อกจากจีนทำลายสถิติโลกด้วยการดัน Core i9-14900KF ไปถึง 9.13 GHz ➡️ ใช้ฮีเลียมเหลวในการระบายความร้อน ซึ่งเย็นกว่าลิควิดไนโตรเจน ➡️ ใช้แรงดันไฟ 1.388V เพื่อให้ซีพียูเสถียรในสภาวะสุดขั้ว ➡️ เมนบอร์ดที่ใช้คือ ASUS ROG Maximus Z790 Apex พร้อมแรม Corsair DDR5-5744 ➡️ การ์ดจอที่ใช้คือ RTX 3050 และพาวเวอร์ซัพพลาย Corsair HX1200i ➡️ สถิติใหม่แซงสถิติเดิมของ Core i9-14900KS ไป 13 MHz ➡️ สถิตินี้ได้รับการรับรองโดย HWBot และ CPU-Z ➡️ ซีพียูรุ่น Raptor Lake Refresh มีศักยภาพในการโอเวอร์คล็อกสูงกว่ารุ่นก่อน ➡️ AMD เคยครองสถิติด้วย FX-8370 ที่ 8.722 GHz นานถึง 9 ปี ➡️ Intel Raptor Lake ยังเป็นตัวเลือกยอดนิยมสำหรับนักโอเวอร์คล็อกทั่วโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ ฮีเลียมเหลวมีจุดเดือดต่ำกว่าลิควิดไนโตรเจนมาก ทำให้สามารถลดอุณหภูมิได้ถึง -269°C ➡️ HWBot เป็นแพลตฟอร์มที่ใช้บันทึกและรับรองสถิติการโอเวอร์คล็อกระดับโลก ➡️ การโอเวอร์คล็อกระดับ extreme ต้องใช้ระบบไฟฟ้าและความเย็นที่ออกแบบเฉพาะ ➡️ CPU-Z เป็นเครื่องมือมาตรฐานในการตรวจสอบความเร็วและแรงดันของซีพียู ➡️ การโอเวอร์คล็อกแบบนี้มักใช้ Windows 7 เพราะมี latency ต่ำและเสถียรกว่าในบางกรณี https://www.tomshardware.com/pc-components/cpus/core-i9-14900kf-overclocked-to-9-13-ghz-to-become-the-highest-clocked-cpu-of-all-time-13-mhz-faster-than-the-previous-record-holder
    0 Comments 0 Shares 164 Views 0 Reviews
  • เมื่อ AMD จับมือ IBM สร้างสมองกลแห่งอนาคตที่คิดได้ลึกกว่าเดิม

    ในโลกที่ข้อมูลมหาศาลหลั่งไหลเข้ามาทุกวินาที และ AI ต้องการพลังประมวลผลที่มากขึ้นเรื่อย ๆ การประมวลผลแบบเดิมเริ่มถึงขีดจำกัด IBM และ AMD จึงร่วมมือกันสร้าง “Quantum-Centric Supercomputing” ซึ่งเป็นการรวมพลังของคอมพิวเตอร์ควอนตัมกับระบบ HPC และ AI accelerator เพื่อให้สามารถแก้ปัญหาที่ซับซ้อนระดับโมเลกุลหรือการจำลองธรรมชาติได้อย่างแม่นยำและรวดเร็ว

    IBM มี Quantum System Two ซึ่งเป็นคอมพิวเตอร์ควอนตัมแบบโมดูลาร์ที่สามารถทำงานร่วมกับซูเปอร์คอมพิวเตอร์คลาสสิกอย่าง Fugaku ได้แล้ว และ AMD จะนำ EPYC CPU, Instinct GPU และ FPGA เข้ามาเสริมพลังให้ระบบนี้สามารถประมวลผลแบบไฮบริดได้อย่างเต็มรูปแบบ

    แนวคิดนี้ไม่ใช่แค่การรวมฮาร์ดแวร์ แต่เป็นการสร้างสถาปัตยกรรมใหม่ที่สามารถเลือกใช้เครื่องมือที่เหมาะสมกับแต่ละปัญหา เช่น ใช้ควอนตัมในการจำลองพฤติกรรมของอะตอม และใช้ HPC ในการวิเคราะห์ข้อมูลขนาดใหญ่ ซึ่งจะช่วยให้การค้นพบทางวิทยาศาสตร์ การออกแบบยา และการวางแผนโลจิสติกส์มีความแม่นยำและเร็วขึ้นอย่างที่ไม่เคยเป็นมาก่อน

    https://wccftech.com/amd-to-collaborate-with-ibm-to-develop-quantum-centric-supercomputing/
    🧠 เมื่อ AMD จับมือ IBM สร้างสมองกลแห่งอนาคตที่คิดได้ลึกกว่าเดิม ในโลกที่ข้อมูลมหาศาลหลั่งไหลเข้ามาทุกวินาที และ AI ต้องการพลังประมวลผลที่มากขึ้นเรื่อย ๆ การประมวลผลแบบเดิมเริ่มถึงขีดจำกัด IBM และ AMD จึงร่วมมือกันสร้าง “Quantum-Centric Supercomputing” ซึ่งเป็นการรวมพลังของคอมพิวเตอร์ควอนตัมกับระบบ HPC และ AI accelerator เพื่อให้สามารถแก้ปัญหาที่ซับซ้อนระดับโมเลกุลหรือการจำลองธรรมชาติได้อย่างแม่นยำและรวดเร็ว IBM มี Quantum System Two ซึ่งเป็นคอมพิวเตอร์ควอนตัมแบบโมดูลาร์ที่สามารถทำงานร่วมกับซูเปอร์คอมพิวเตอร์คลาสสิกอย่าง Fugaku ได้แล้ว และ AMD จะนำ EPYC CPU, Instinct GPU และ FPGA เข้ามาเสริมพลังให้ระบบนี้สามารถประมวลผลแบบไฮบริดได้อย่างเต็มรูปแบบ แนวคิดนี้ไม่ใช่แค่การรวมฮาร์ดแวร์ แต่เป็นการสร้างสถาปัตยกรรมใหม่ที่สามารถเลือกใช้เครื่องมือที่เหมาะสมกับแต่ละปัญหา เช่น ใช้ควอนตัมในการจำลองพฤติกรรมของอะตอม และใช้ HPC ในการวิเคราะห์ข้อมูลขนาดใหญ่ ซึ่งจะช่วยให้การค้นพบทางวิทยาศาสตร์ การออกแบบยา และการวางแผนโลจิสติกส์มีความแม่นยำและเร็วขึ้นอย่างที่ไม่เคยเป็นมาก่อน https://wccftech.com/amd-to-collaborate-with-ibm-to-develop-quantum-centric-supercomputing/
    WCCFTECH.COM
    AMD To Collaborate With IBM To Develop 'Quantum-Centric' Supercomputing, Opening The Gateway To a New Computational Era
    AMD is expected to enter the realm of quantum computing with IBM, with plans to develop next-gen HPC machines.
    0 Comments 0 Shares 153 Views 0 Reviews
  • GPU ที่ปรับแต่งได้เหมือนเลโก้ พร้อมพลังที่ฉลาดขึ้น

    ลองจินตนาการว่า GPU ไม่ใช่แค่ชิปกราฟิกธรรมดา แต่เป็นเหมือนชุดเลโก้ที่สามารถประกอบใหม่ได้ตามความต้องการของตลาด นั่นคือแนวคิดของ AMD RDNA 4 ที่ใช้การออกแบบแบบ Modular SoC ซึ่งสามารถ “ตัดต่อ” ส่วนประกอบภายในได้อย่างอิสระ ไม่ว่าจะเป็น Shader Engine, Memory Controller หรือแม้แต่ระบบรักษาความปลอดภัยภายในชิป

    AMD ได้เปิดเผยว่า Navi 44 ซึ่งเป็นหนึ่งใน GPU ตระกูล RDNA 4 ใช้การออกแบบที่มี Shader Engine 2 ตัว และ Memory Controller แบบ 128-bit GDDR6 ซึ่งสามารถขยายหรือย่อขนาดได้ตามต้องการ เช่น ถ้าต้องการรุ่นแรงขึ้น ก็เพิ่ม Shader Engine และ Memory Controller เข้าไปได้เลย

    นอกจากนี้ AMD ยังได้พัฒนาเทคนิคการบีบอัดข้อมูลภายใน GPU ที่ช่วยลดการใช้แบนด์วิดท์ของ Infinity Fabric ลงถึง 25% และเพิ่มประสิทธิภาพการเรนเดอร์ภาพแบบ raster ได้ถึง 15% โดยไม่ต้องพึ่งพาซอฟต์แวร์ภายนอกในการจัดการการบีบอัดอีกต่อไป

    สิ่งที่น่าสนใจคือการออกแบบนี้ยังช่วยให้ AMD สามารถสร้าง GPU ได้หลายรุ่นจากแผนผังเดียวกัน เช่น RX 9070 XT ที่ใช้ Navi 48 ก็เป็นผลลัพธ์จากการขยายโครงสร้างเดียวกันนี้

    สรุปเนื้อหาเป็นหัวข้อ
    AMD เปิดเผยรายละเอียด RDNA 4 เพิ่มเติมในงาน Hot Chips 2025
    RDNA 4 ใช้การออกแบบ Modular SoC ที่สามารถปรับแต่งได้ตามความต้องการ
    Navi 44 มี Shader Engine 2 ตัว และ Memory Controller แบบ 128-bit GDDR6
    Modular SoC สามารถขยายเป็น Navi 48 สำหรับ RX 9070 XT ได้
    Infinity Fabric มีแบนด์วิดท์ 1KB/clock และความถี่ 1.5–2.5 GHz
    ระบบ GL2 Cache และ LLC ช่วยให้การสื่อสารภายในชิปมีประสิทธิภาพ
    RDNA 4 มีการฝังระบบรักษาความปลอดภัยและการจัดการพลังงานไว้ในชิป
    มีการใช้เทคนิคบีบอัดข้อมูลใหม่ที่ช่วยลดการใช้แบนด์วิดท์ลง 25%
    ประสิทธิภาพการเรนเดอร์ภาพแบบ raster เพิ่มขึ้น 15%
    AMD มี Navi 44 และ Navi 48 หลาย SKU ที่แตกต่างกันตามการปรับแต่ง

    ข้อมูลเสริมจากภายนอก
    RDNA 4 ไม่มีรุ่นเดสก์ท็อประดับสูงอย่าง Navi 4C ตามข่าวลือก่อนเปิดตัว
    AMD ใช้เทคนิค “Harvesting” เพื่อปรับแต่ง GPU เช่น ปิด Shader Engine หรือลด Memory Bus
    RDNA 4 ยังไม่มีรุ่นสำหรับโน้ตบุ๊กหรือแบบฝังตัว แม้เคยมีข่าวลือก่อนเปิดตัว RX 9000
    การออกแบบ Modular ช่วยให้ AMD ลดต้นทุนการผลิตและเพิ่มความยืดหยุ่นในการจัดจำหน่าย

    https://wccftech.com/amd-rdna-4-modular-soc-flexible-configurability-helps-spawn-smaller-gpus-navi-44-features-to-reduce-memory-bandwidth/
    🎮 GPU ที่ปรับแต่งได้เหมือนเลโก้ พร้อมพลังที่ฉลาดขึ้น ลองจินตนาการว่า GPU ไม่ใช่แค่ชิปกราฟิกธรรมดา แต่เป็นเหมือนชุดเลโก้ที่สามารถประกอบใหม่ได้ตามความต้องการของตลาด นั่นคือแนวคิดของ AMD RDNA 4 ที่ใช้การออกแบบแบบ Modular SoC ซึ่งสามารถ “ตัดต่อ” ส่วนประกอบภายในได้อย่างอิสระ ไม่ว่าจะเป็น Shader Engine, Memory Controller หรือแม้แต่ระบบรักษาความปลอดภัยภายในชิป AMD ได้เปิดเผยว่า Navi 44 ซึ่งเป็นหนึ่งใน GPU ตระกูล RDNA 4 ใช้การออกแบบที่มี Shader Engine 2 ตัว และ Memory Controller แบบ 128-bit GDDR6 ซึ่งสามารถขยายหรือย่อขนาดได้ตามต้องการ เช่น ถ้าต้องการรุ่นแรงขึ้น ก็เพิ่ม Shader Engine และ Memory Controller เข้าไปได้เลย นอกจากนี้ AMD ยังได้พัฒนาเทคนิคการบีบอัดข้อมูลภายใน GPU ที่ช่วยลดการใช้แบนด์วิดท์ของ Infinity Fabric ลงถึง 25% และเพิ่มประสิทธิภาพการเรนเดอร์ภาพแบบ raster ได้ถึง 15% โดยไม่ต้องพึ่งพาซอฟต์แวร์ภายนอกในการจัดการการบีบอัดอีกต่อไป สิ่งที่น่าสนใจคือการออกแบบนี้ยังช่วยให้ AMD สามารถสร้าง GPU ได้หลายรุ่นจากแผนผังเดียวกัน เช่น RX 9070 XT ที่ใช้ Navi 48 ก็เป็นผลลัพธ์จากการขยายโครงสร้างเดียวกันนี้ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD เปิดเผยรายละเอียด RDNA 4 เพิ่มเติมในงาน Hot Chips 2025 ➡️ RDNA 4 ใช้การออกแบบ Modular SoC ที่สามารถปรับแต่งได้ตามความต้องการ ➡️ Navi 44 มี Shader Engine 2 ตัว และ Memory Controller แบบ 128-bit GDDR6 ➡️ Modular SoC สามารถขยายเป็น Navi 48 สำหรับ RX 9070 XT ได้ ➡️ Infinity Fabric มีแบนด์วิดท์ 1KB/clock และความถี่ 1.5–2.5 GHz ➡️ ระบบ GL2 Cache และ LLC ช่วยให้การสื่อสารภายในชิปมีประสิทธิภาพ ➡️ RDNA 4 มีการฝังระบบรักษาความปลอดภัยและการจัดการพลังงานไว้ในชิป ➡️ มีการใช้เทคนิคบีบอัดข้อมูลใหม่ที่ช่วยลดการใช้แบนด์วิดท์ลง 25% ➡️ ประสิทธิภาพการเรนเดอร์ภาพแบบ raster เพิ่มขึ้น 15% ➡️ AMD มี Navi 44 และ Navi 48 หลาย SKU ที่แตกต่างกันตามการปรับแต่ง ✅ ข้อมูลเสริมจากภายนอก ➡️ RDNA 4 ไม่มีรุ่นเดสก์ท็อประดับสูงอย่าง Navi 4C ตามข่าวลือก่อนเปิดตัว ➡️ AMD ใช้เทคนิค “Harvesting” เพื่อปรับแต่ง GPU เช่น ปิด Shader Engine หรือลด Memory Bus ➡️ RDNA 4 ยังไม่มีรุ่นสำหรับโน้ตบุ๊กหรือแบบฝังตัว แม้เคยมีข่าวลือก่อนเปิดตัว RX 9000 ➡️ การออกแบบ Modular ช่วยให้ AMD ลดต้นทุนการผลิตและเพิ่มความยืดหยุ่นในการจัดจำหน่าย https://wccftech.com/amd-rdna-4-modular-soc-flexible-configurability-helps-spawn-smaller-gpus-navi-44-features-to-reduce-memory-bandwidth/
    WCCFTECH.COM
    AMD RDNA 4's Modular SoC Nature & Flexible Configurability Helps Spawn Smaller & Diverse GPUs Such as Navi 44, Highlights Features To Reduce Memory & Bandwidth Needs
    AMD further detailed its RDNA 4 GPU architecture and its Modular SoC design, along with new memory & bandwidth compression techniques.
    0 Comments 0 Shares 200 Views 0 Reviews
  • Intel กับดีลพลิกเกม — เงินจากรัฐบาลสหรัฐฯ กับความหวังครั้งใหม่

    ในเดือนสิงหาคม 2025 Intel ได้รับเงินสนับสนุนจากรัฐบาลสหรัฐฯ มูลค่า 8.9 พันล้านดอลลาร์ ผ่านโครงการ CHIPS Act และ Secure Enclave ซึ่งถูกเปลี่ยนรูปแบบจาก “เงินช่วยเหลือ” เป็น “การถือหุ้น” โดยรัฐบาลจะได้หุ้นใหม่ของ Intel จำนวน 433.3 ล้านหุ้น ในราคาหุ้นละ $20.47 คิดเป็นสัดส่วน 9.9% ของบริษัท

    แม้จะไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด แต่รัฐบาลยังได้สิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปีข้างหน้า ซึ่งเป็นการป้องกันไม่ให้ Intel แยกธุรกิจสำคัญออกไปโดยง่าย

    Kevin Hassett ที่ปรึกษาเศรษฐกิจของทำเนียบขาวเชื่อว่าเงินก้อนนี้จะช่วยให้ Intel “กลับมาตั้งหลักได้” และอาจเป็นต้นแบบของการสร้าง sovereign wealth fund ของสหรัฐฯ เพื่อถือหุ้นในบริษัทเทคโนโลยีอื่นในอนาคต เช่น AMD หรือ TSMC

    แต่ Morgan Stanley กลับมองต่าง โดยชี้ว่า Intel ยังไม่มี “ทางลัด” สู่การฟื้นตัว และควรเริ่มจากการปรับปรุงแผนพัฒนาไมโครโปรเซสเซอร์ก่อน เพราะหากไม่สามารถรักษาส่วนแบ่งตลาดได้ ก็ยากที่จะลงทุนในเทคโนโลยีขั้นสูงอย่าง 14A node ได้อย่างมีประสิทธิภาพ

    ที่น่ากังวลคือธุรกิจ foundry ของ Intel ขาดทุนกว่า 10 พันล้านดอลลาร์ต่อปี และมีหนี้สุทธิเกิน 20 พันล้านดอลลาร์ ทำให้การฟื้นตัวเต็มรูปแบบยังไม่แน่นอน แม้จะมีการพิจารณาเปลี่ยนโมเดลธุรกิจจาก IDM 2.0 ไปเป็น “fab lite” หรือกลับไปใช้ IDM 1.0 ก็ตาม

    สรุปเนื้อหาเป็นหัวข้อ
    รัฐบาลสหรัฐฯ เปลี่ยนเงินช่วยเหลือ $8.9 พันล้าน เป็นการถือหุ้น 9.9% ใน Intel
    หุ้นที่ซื้อมีราคาต่ำกว่าตลาด และไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด
    มีสิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปี
    Kevin Hassett มองดีลนี้เป็นจุดเริ่มต้นของ sovereign wealth fund ของสหรัฐฯ
    ประธานาธิบดี Trump สนับสนุนดีลนี้ และเตรียมทำข้อตกลงลักษณะเดียวกันกับบริษัทอื่น
    Morgan Stanley ชี้ว่า Intel ต้องเริ่มจากการปรับปรุง roadmap ของไมโครโปรเซสเซอร์
    ธุรกิจ foundry ของ Intel ขาดทุนกว่า $10 พันล้าน และมีหนี้สุทธิเกิน $20 พันล้าน
    Intel พิจารณาเปลี่ยนโมเดลธุรกิจระหว่าง IDM 2.0, IDM 1.0 และ fab lite

    ข้อมูลเสริมจากภายนอก
    CHIPS Act เป็นกฎหมายที่ออกในยุค Biden เพื่อส่งเสริมการผลิตชิปในสหรัฐฯ
    Secure Enclave เป็นโครงการที่เน้นการพัฒนาชิปที่ปลอดภัยสำหรับการใช้งานทางทหารและความมั่นคง
    Sovereign wealth fund เป็นกองทุนที่รัฐบาลใช้ลงทุนในสินทรัพย์ต่างๆ เพื่อสร้างรายได้ระยะยาว เช่น กองทุนของนอร์เวย์
    การถือหุ้นในบริษัทเทคโนโลยีอาจเป็นกลยุทธ์ใหม่ของรัฐบาลสหรัฐฯ ในการสร้างอำนาจทางเศรษฐกิจและเทคโนโลยี

    https://wccftech.com/hassett-thinks-intel-will-get-its-act-together-with-cash-inflow-but-morgan-stanley-contends-theres-no-quick-fix/
    🎙️ Intel กับดีลพลิกเกม — เงินจากรัฐบาลสหรัฐฯ กับความหวังครั้งใหม่ ในเดือนสิงหาคม 2025 Intel ได้รับเงินสนับสนุนจากรัฐบาลสหรัฐฯ มูลค่า 8.9 พันล้านดอลลาร์ ผ่านโครงการ CHIPS Act และ Secure Enclave ซึ่งถูกเปลี่ยนรูปแบบจาก “เงินช่วยเหลือ” เป็น “การถือหุ้น” โดยรัฐบาลจะได้หุ้นใหม่ของ Intel จำนวน 433.3 ล้านหุ้น ในราคาหุ้นละ $20.47 คิดเป็นสัดส่วน 9.9% ของบริษัท แม้จะไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด แต่รัฐบาลยังได้สิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปีข้างหน้า ซึ่งเป็นการป้องกันไม่ให้ Intel แยกธุรกิจสำคัญออกไปโดยง่าย Kevin Hassett ที่ปรึกษาเศรษฐกิจของทำเนียบขาวเชื่อว่าเงินก้อนนี้จะช่วยให้ Intel “กลับมาตั้งหลักได้” และอาจเป็นต้นแบบของการสร้าง sovereign wealth fund ของสหรัฐฯ เพื่อถือหุ้นในบริษัทเทคโนโลยีอื่นในอนาคต เช่น AMD หรือ TSMC แต่ Morgan Stanley กลับมองต่าง โดยชี้ว่า Intel ยังไม่มี “ทางลัด” สู่การฟื้นตัว และควรเริ่มจากการปรับปรุงแผนพัฒนาไมโครโปรเซสเซอร์ก่อน เพราะหากไม่สามารถรักษาส่วนแบ่งตลาดได้ ก็ยากที่จะลงทุนในเทคโนโลยีขั้นสูงอย่าง 14A node ได้อย่างมีประสิทธิภาพ ที่น่ากังวลคือธุรกิจ foundry ของ Intel ขาดทุนกว่า 10 พันล้านดอลลาร์ต่อปี และมีหนี้สุทธิเกิน 20 พันล้านดอลลาร์ ทำให้การฟื้นตัวเต็มรูปแบบยังไม่แน่นอน แม้จะมีการพิจารณาเปลี่ยนโมเดลธุรกิจจาก IDM 2.0 ไปเป็น “fab lite” หรือกลับไปใช้ IDM 1.0 ก็ตาม 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ รัฐบาลสหรัฐฯ เปลี่ยนเงินช่วยเหลือ $8.9 พันล้าน เป็นการถือหุ้น 9.9% ใน Intel ➡️ หุ้นที่ซื้อมีราคาต่ำกว่าตลาด และไม่มีสิทธิ์บริหารหรือมีตัวแทนในบอร์ด ➡️ มีสิทธิ์ซื้อหุ้นเพิ่มอีก 5% หาก Intel ขายธุรกิจ foundry เกิน 49% ภายใน 5 ปี ➡️ Kevin Hassett มองดีลนี้เป็นจุดเริ่มต้นของ sovereign wealth fund ของสหรัฐฯ ➡️ ประธานาธิบดี Trump สนับสนุนดีลนี้ และเตรียมทำข้อตกลงลักษณะเดียวกันกับบริษัทอื่น ➡️ Morgan Stanley ชี้ว่า Intel ต้องเริ่มจากการปรับปรุง roadmap ของไมโครโปรเซสเซอร์ ➡️ ธุรกิจ foundry ของ Intel ขาดทุนกว่า $10 พันล้าน และมีหนี้สุทธิเกิน $20 พันล้าน ➡️ Intel พิจารณาเปลี่ยนโมเดลธุรกิจระหว่าง IDM 2.0, IDM 1.0 และ fab lite ✅ ข้อมูลเสริมจากภายนอก ➡️ CHIPS Act เป็นกฎหมายที่ออกในยุค Biden เพื่อส่งเสริมการผลิตชิปในสหรัฐฯ ➡️ Secure Enclave เป็นโครงการที่เน้นการพัฒนาชิปที่ปลอดภัยสำหรับการใช้งานทางทหารและความมั่นคง ➡️ Sovereign wealth fund เป็นกองทุนที่รัฐบาลใช้ลงทุนในสินทรัพย์ต่างๆ เพื่อสร้างรายได้ระยะยาว เช่น กองทุนของนอร์เวย์ ➡️ การถือหุ้นในบริษัทเทคโนโลยีอาจเป็นกลยุทธ์ใหม่ของรัฐบาลสหรัฐฯ ในการสร้างอำนาจทางเศรษฐกิจและเทคโนโลยี https://wccftech.com/hassett-thinks-intel-will-get-its-act-together-with-cash-inflow-but-morgan-stanley-contends-theres-no-quick-fix/
    WCCFTECH.COM
    Hassett Thinks Intel Will "Get Its Act Together" With Cash Inflow, But Morgan Stanley Contends There's No "Quick Fix"
    Morgan Stanley's Joseph Moore believes that Intel's turnaround would be a lengthy affair, with no simple remedies available.
    0 Comments 0 Shares 189 Views 0 Reviews
  • Humain กับภารกิจเปลี่ยนซาอุฯ ให้เป็นมหาอำนาจ AI ด้วยชิปจากสหรัฐฯ

    กลางปี 2025 ซาอุดีอาระเบียเปิดตัวบริษัทใหม่ชื่อว่า “Humain” ภายใต้การสนับสนุนจากกองทุนความมั่งคั่งแห่งชาติ (Public Investment Fund) โดยมีเป้าหมายชัดเจน: เปลี่ยนประเทศให้กลายเป็นศูนย์กลางด้านปัญญาประดิษฐ์ของภูมิภาค

    Humain เริ่มต้นด้วยการสร้างศูนย์ข้อมูล (data centers) ขนาดใหญ่ในสองเมืองหลักคือ ริยาดและดัมมาม โดยแต่ละแห่งจะมีความสามารถในการใช้พลังงานสูงถึง 100 เมกะวัตต์ และมีกำหนดเปิดใช้งานในช่วงไตรมาสที่สองของปี 2026

    สิ่งที่น่าสนใจคือ Humain เลือกใช้ชิป AI จากบริษัทสหรัฐฯ เช่น NVIDIA และ AMD โดยได้รับอนุมัติให้นำเข้า “Blackwell” chips รุ่นล่าสุดจำนวน 18,000 ชิ้น ซึ่งถือเป็นการลงทุนเชิงกลยุทธ์ที่สะท้อนถึงความร่วมมือระหว่างซาอุฯ กับสหรัฐฯ ที่ลึกซึ้งขึ้นเรื่อยๆ

    นอกจากนี้ Humain ยังมีแผนขยายศูนย์ข้อมูลให้มีขนาดรวมถึง 1.9 กิกะวัตต์ภายในปี 2030 และร่วมมือกับบริษัทเทคโนโลยีระดับโลกอย่าง Qualcomm, Cisco และแม้แต่ xAI ของ Elon Musk เพื่อสร้างโครงสร้างพื้นฐานด้าน AI ที่ครอบคลุมทั้งฮาร์ดแวร์และซอฟต์แวร์

    เบื้องหลังทั้งหมดนี้คือวิสัยทัศน์ของมกุฎราชกุมาร Mohammed bin Salman ที่ต้องการผลักดันประเทศให้พ้นจากการพึ่งพาน้ำมัน และเข้าสู่เศรษฐกิจแห่งอนาคตผ่าน “Vision 2030”

    สรุปเนื้อหาเป็นหัวข้อ
    Humain เป็นบริษัท AI ใหม่ของซาอุดีอาระเบีย เปิดตัวในเดือนพฤษภาคม 2025
    เริ่มสร้างศูนย์ข้อมูลในริยาดและดัมมาม กำหนดเปิดใช้งานต้นปี 2026
    แต่ละแห่งมีความสามารถเริ่มต้นที่ 100 เมกะวัตต์
    ใช้ชิป AI จากสหรัฐฯ เช่น NVIDIA และ AMD
    ได้รับอนุมัติให้นำเข้า Blackwell chips จำนวน 18,000 ชิ้น
    มีแผนขยายศูนย์ข้อมูลรวมถึง 1.9 กิกะวัตต์ภายในปี 2030
    ร่วมมือกับบริษัทเทคโนโลยีระดับโลก เช่น Qualcomm, Cisco และ xAI
    Humain อยู่ภายใต้การดูแลของกองทุน PIF และมกุฎราชกุมาร Mohammed bin Salman
    เป้าหมายคือสร้างโครงสร้างพื้นฐาน AI และโมเดลขั้นสูงในภูมิภาค
    การเปิดตัว Humain เกิดขึ้นพร้อมกับการเยือนของประธานาธิบดีทรัมป์ ซึ่งมีการตกลงมูลค่า 600 พันล้านดอลลาร์กับบริษัทสหรัฐฯ

    ข้อมูลเสริมจากภายนอก
    Blackwell chips ของ NVIDIA เป็นชิป AI รุ่นใหม่ที่ออกแบบมาเพื่องานประมวลผลขนาดใหญ่ เช่น LLM และการฝึกโมเดล deep learning
    การใช้ชิปจากสหรัฐฯ สะท้อนถึงการพึ่งพาเทคโนโลยีตะวันตกในช่วงเปลี่ยนผ่านของซาอุฯ
    Vision 2030 เป็นแผนยุทธศาสตร์ของซาอุฯ ที่มุ่งเน้นการลดการพึ่งพาน้ำมันและส่งเสริมเทคโนโลยี
    การลงทุนใน AI ยังรวมถึงการฝึกอบรมบุคลากร 20,000 คนภายในปี 2030
    การสร้างศูนย์ข้อมูลขนาดใหญ่ช่วยให้ซาอุฯ มีอำนาจในการประมวลผลข้อมูลในระดับภูมิภาค

    https://www.thestar.com.my/tech/tech-news/2025/08/26/saudi039s-humain-to-launch-data-centers-with-us-chips-in-early-2026-bloomberg-news-reports
    🎙️ Humain กับภารกิจเปลี่ยนซาอุฯ ให้เป็นมหาอำนาจ AI ด้วยชิปจากสหรัฐฯ กลางปี 2025 ซาอุดีอาระเบียเปิดตัวบริษัทใหม่ชื่อว่า “Humain” ภายใต้การสนับสนุนจากกองทุนความมั่งคั่งแห่งชาติ (Public Investment Fund) โดยมีเป้าหมายชัดเจน: เปลี่ยนประเทศให้กลายเป็นศูนย์กลางด้านปัญญาประดิษฐ์ของภูมิภาค Humain เริ่มต้นด้วยการสร้างศูนย์ข้อมูล (data centers) ขนาดใหญ่ในสองเมืองหลักคือ ริยาดและดัมมาม โดยแต่ละแห่งจะมีความสามารถในการใช้พลังงานสูงถึง 100 เมกะวัตต์ และมีกำหนดเปิดใช้งานในช่วงไตรมาสที่สองของปี 2026 สิ่งที่น่าสนใจคือ Humain เลือกใช้ชิป AI จากบริษัทสหรัฐฯ เช่น NVIDIA และ AMD โดยได้รับอนุมัติให้นำเข้า “Blackwell” chips รุ่นล่าสุดจำนวน 18,000 ชิ้น ซึ่งถือเป็นการลงทุนเชิงกลยุทธ์ที่สะท้อนถึงความร่วมมือระหว่างซาอุฯ กับสหรัฐฯ ที่ลึกซึ้งขึ้นเรื่อยๆ นอกจากนี้ Humain ยังมีแผนขยายศูนย์ข้อมูลให้มีขนาดรวมถึง 1.9 กิกะวัตต์ภายในปี 2030 และร่วมมือกับบริษัทเทคโนโลยีระดับโลกอย่าง Qualcomm, Cisco และแม้แต่ xAI ของ Elon Musk เพื่อสร้างโครงสร้างพื้นฐานด้าน AI ที่ครอบคลุมทั้งฮาร์ดแวร์และซอฟต์แวร์ เบื้องหลังทั้งหมดนี้คือวิสัยทัศน์ของมกุฎราชกุมาร Mohammed bin Salman ที่ต้องการผลักดันประเทศให้พ้นจากการพึ่งพาน้ำมัน และเข้าสู่เศรษฐกิจแห่งอนาคตผ่าน “Vision 2030” 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Humain เป็นบริษัท AI ใหม่ของซาอุดีอาระเบีย เปิดตัวในเดือนพฤษภาคม 2025 ➡️ เริ่มสร้างศูนย์ข้อมูลในริยาดและดัมมาม กำหนดเปิดใช้งานต้นปี 2026 ➡️ แต่ละแห่งมีความสามารถเริ่มต้นที่ 100 เมกะวัตต์ ➡️ ใช้ชิป AI จากสหรัฐฯ เช่น NVIDIA และ AMD ➡️ ได้รับอนุมัติให้นำเข้า Blackwell chips จำนวน 18,000 ชิ้น ➡️ มีแผนขยายศูนย์ข้อมูลรวมถึง 1.9 กิกะวัตต์ภายในปี 2030 ➡️ ร่วมมือกับบริษัทเทคโนโลยีระดับโลก เช่น Qualcomm, Cisco และ xAI ➡️ Humain อยู่ภายใต้การดูแลของกองทุน PIF และมกุฎราชกุมาร Mohammed bin Salman ➡️ เป้าหมายคือสร้างโครงสร้างพื้นฐาน AI และโมเดลขั้นสูงในภูมิภาค ➡️ การเปิดตัว Humain เกิดขึ้นพร้อมกับการเยือนของประธานาธิบดีทรัมป์ ซึ่งมีการตกลงมูลค่า 600 พันล้านดอลลาร์กับบริษัทสหรัฐฯ ✅ ข้อมูลเสริมจากภายนอก ➡️ Blackwell chips ของ NVIDIA เป็นชิป AI รุ่นใหม่ที่ออกแบบมาเพื่องานประมวลผลขนาดใหญ่ เช่น LLM และการฝึกโมเดล deep learning ➡️ การใช้ชิปจากสหรัฐฯ สะท้อนถึงการพึ่งพาเทคโนโลยีตะวันตกในช่วงเปลี่ยนผ่านของซาอุฯ ➡️ Vision 2030 เป็นแผนยุทธศาสตร์ของซาอุฯ ที่มุ่งเน้นการลดการพึ่งพาน้ำมันและส่งเสริมเทคโนโลยี ➡️ การลงทุนใน AI ยังรวมถึงการฝึกอบรมบุคลากร 20,000 คนภายในปี 2030 ➡️ การสร้างศูนย์ข้อมูลขนาดใหญ่ช่วยให้ซาอุฯ มีอำนาจในการประมวลผลข้อมูลในระดับภูมิภาค https://www.thestar.com.my/tech/tech-news/2025/08/26/saudi039s-humain-to-launch-data-centers-with-us-chips-in-early-2026-bloomberg-news-reports
    WWW.THESTAR.COM.MY
    Saudi's Humain to launch data centers with US chips in early 2026, Bloomberg News reports
    (Reuters) -Humain, Saudi Arabia's new artificial intelligence company, has begun construction of its first data centers in the kingdom, and plans to bring them online in early 2026 using semiconductors imported from the U.S., Bloomberg News reported on Monday.
    0 Comments 0 Shares 183 Views 0 Reviews
  • Lisuan G100 – การ์ดจอเกมจากจีนที่กลายเป็นเครื่องมือ AI อย่างไม่คาดคิด

    ในอดีต GPU จากจีนมักถูกมองว่าเป็นของเล่นที่ยังไม่พร้อมแข่งกับแบรนด์ระดับโลกอย่าง NVIDIA หรือ AMD แต่วันนี้ Lisuan G100 ได้เปลี่ยนภาพนั้นไปอย่างสิ้นเชิง

    Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology โดยใช้สถาปัตยกรรมที่เรียกว่า “TrueGPU Tiantu” ซึ่งเป็นการออกแบบภายในทั้งหมด ไม่พึ่งพา IP จากต่างประเทศ และมีซอฟต์แวร์ของตัวเองที่รองรับ DirectX 12, Vulkan 1.3 และ OpenCL 3.0

    ในด้านเกม G100 ทำคะแนน Geekbench OpenCL ได้ถึง 111,290 คะแนน ซึ่งใกล้เคียงกับ RTX 4060 และเหนือกว่า RX 9060 XT และ Intel Arc A770 โดยมี 48 Compute Units, VRAM 12GB และความเร็วสัญญาณนาฬิกา 2000 MHz

    แต่สิ่งที่ทำให้ G100 น่าสนใจยิ่งกว่าคือการรองรับ INT8 operations ซึ่งเป็นฟีเจอร์สำคัญสำหรับงาน AI โดยเฉพาะการ inferencing และ edge computing ทำให้ G100 ไม่ใช่แค่การ์ดจอเกม แต่เป็นเครื่องมือสำหรับงาน AI ระดับผู้ใช้ทั่วไป

    Lisuan ยังมีแผนพัฒนาอัลกอริธึม upscaling ของตัวเองชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ซึ่งเป็นสิ่งจำเป็นในตลาดเกมยุคใหม่ และมีแนวโน้มจะเข้าสู่ตลาด accelerator สำหรับงาน AI หากการเปิดตัว G100 ประสบความสำเร็จ

    สรุปเนื้อหาเป็นหัวข้อ
    Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology
    ใช้สถาปัตยกรรม TrueGPU Tiantu และซอฟต์แวร์ของตัวเอง
    รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 และ OpenCL 3.0
    ทำคะแนน Geekbench OpenCL ได้ 111,290 ใกล้เคียง RTX 4060
    มี 48 Compute Units, VRAM 12GB และความเร็ว 2000 MHz
    รองรับ INT8 operations สำหรับงาน AI inferencing และ edge computing
    เป็น GPU จีนรุ่นแรกที่รองรับ INT8 อย่างเป็นทางการ
    มีแผนพัฒนาอัลกอริธึม upscaling ชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR
    อาจเข้าสู่ตลาด accelerator หาก G100 เปิดตัวได้สำเร็จ
    การผลิตจำนวนมากเริ่มแล้ว และคาดว่าจะวางขายปลายปี 2025

    ข้อมูลเสริมจากภายนอก
    INT8 เป็นรูปแบบการคำนวณที่ใช้ในงาน AI inferencing เพื่อประหยัดพลังงานและเพิ่มความเร็ว
    GPU ที่รองรับ INT8 มักใช้ใน edge devices เช่นกล้องอัจฉริยะหรือหุ่นยนต์
    การพัฒนา GPU ภายในประเทศช่วยลดการพึ่งพาเทคโนโลยีต่างชาติ
    สถาปัตยกรรม TrueGPU อาจเป็นก้าวแรกของจีนในการสร้าง GPU แบบ fully independent
    การรองรับ OpenCL 3.0 ช่วยให้สามารถใช้งานกับซอฟต์แวร์ AI ได้หลากหลาย
    การแข่งขันกับ RTX 4060 แสดงถึงความก้าวหน้าของอุตสาหกรรม GPU ในจีน

    https://wccftech.com/chinas-most-capable-gaming-gpu-the-lisuan-g100-becomes-the-first-domestic-offering-to-support-fp8-operations/
    🎙️ Lisuan G100 – การ์ดจอเกมจากจีนที่กลายเป็นเครื่องมือ AI อย่างไม่คาดคิด ในอดีต GPU จากจีนมักถูกมองว่าเป็นของเล่นที่ยังไม่พร้อมแข่งกับแบรนด์ระดับโลกอย่าง NVIDIA หรือ AMD แต่วันนี้ Lisuan G100 ได้เปลี่ยนภาพนั้นไปอย่างสิ้นเชิง Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology โดยใช้สถาปัตยกรรมที่เรียกว่า “TrueGPU Tiantu” ซึ่งเป็นการออกแบบภายในทั้งหมด ไม่พึ่งพา IP จากต่างประเทศ และมีซอฟต์แวร์ของตัวเองที่รองรับ DirectX 12, Vulkan 1.3 และ OpenCL 3.0 ในด้านเกม G100 ทำคะแนน Geekbench OpenCL ได้ถึง 111,290 คะแนน ซึ่งใกล้เคียงกับ RTX 4060 และเหนือกว่า RX 9060 XT และ Intel Arc A770 โดยมี 48 Compute Units, VRAM 12GB และความเร็วสัญญาณนาฬิกา 2000 MHz แต่สิ่งที่ทำให้ G100 น่าสนใจยิ่งกว่าคือการรองรับ INT8 operations ซึ่งเป็นฟีเจอร์สำคัญสำหรับงาน AI โดยเฉพาะการ inferencing และ edge computing ทำให้ G100 ไม่ใช่แค่การ์ดจอเกม แต่เป็นเครื่องมือสำหรับงาน AI ระดับผู้ใช้ทั่วไป Lisuan ยังมีแผนพัฒนาอัลกอริธึม upscaling ของตัวเองชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ซึ่งเป็นสิ่งจำเป็นในตลาดเกมยุคใหม่ และมีแนวโน้มจะเข้าสู่ตลาด accelerator สำหรับงาน AI หากการเปิดตัว G100 ประสบความสำเร็จ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology ➡️ ใช้สถาปัตยกรรม TrueGPU Tiantu และซอฟต์แวร์ของตัวเอง ➡️ รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 และ OpenCL 3.0 ➡️ ทำคะแนน Geekbench OpenCL ได้ 111,290 ใกล้เคียง RTX 4060 ➡️ มี 48 Compute Units, VRAM 12GB และความเร็ว 2000 MHz ➡️ รองรับ INT8 operations สำหรับงาน AI inferencing และ edge computing ➡️ เป็น GPU จีนรุ่นแรกที่รองรับ INT8 อย่างเป็นทางการ ➡️ มีแผนพัฒนาอัลกอริธึม upscaling ชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ➡️ อาจเข้าสู่ตลาด accelerator หาก G100 เปิดตัวได้สำเร็จ ➡️ การผลิตจำนวนมากเริ่มแล้ว และคาดว่าจะวางขายปลายปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ INT8 เป็นรูปแบบการคำนวณที่ใช้ในงาน AI inferencing เพื่อประหยัดพลังงานและเพิ่มความเร็ว ➡️ GPU ที่รองรับ INT8 มักใช้ใน edge devices เช่นกล้องอัจฉริยะหรือหุ่นยนต์ ➡️ การพัฒนา GPU ภายในประเทศช่วยลดการพึ่งพาเทคโนโลยีต่างชาติ ➡️ สถาปัตยกรรม TrueGPU อาจเป็นก้าวแรกของจีนในการสร้าง GPU แบบ fully independent ➡️ การรองรับ OpenCL 3.0 ช่วยให้สามารถใช้งานกับซอฟต์แวร์ AI ได้หลากหลาย ➡️ การแข่งขันกับ RTX 4060 แสดงถึงความก้าวหน้าของอุตสาหกรรม GPU ในจีน https://wccftech.com/chinas-most-capable-gaming-gpu-the-lisuan-g100-becomes-the-first-domestic-offering-to-support-fp8-operations/
    WCCFTECH.COM
    China's Most Capable Gaming GPU, the Lisuan G100, Now Also Supports INT8 Operations, Becoming Ideal For AI Workloads
    The Chinese GPU Lisuan G100, which recently made headlines for its competitive performance, is now claimed to support INT8 operations.
    0 Comments 0 Shares 200 Views 0 Reviews
More Results