• C6P: ซีพียูจีนที่มี “หัวใจ” เป็น Intel Xeon 6P

    Montage Technology บริษัทผู้ผลิตชิปในจีน เปิดตัวซีพียูเซิร์ฟเวอร์รุ่นใหม่ “C6P” ซึ่งแท้จริงแล้วเป็นการนำ Intel Xeon 6700P จากตระกูล Granite Rapids มาปรับแบรนด์ใหม่ โดยยังคงใช้สถาปัตยกรรม Redwood Cove P-Core เหมือนที่ใช้ใน Meteor Lake

    C6P รองรับสูงสุด 86 คอร์ 172 เธรด พร้อมแคช L3 ขนาด 336MB และรองรับการใช้งานแบบซ็อกเก็ตเดียวหรือสองซ็อกเก็ต มีแบนด์วิดธ์สูงถึง 24 GT/s ผ่าน UPI interconnects และรองรับหน่วยความจำ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s

    จุดเด่นคือการรองรับ PCIe 5.0 ถึง 88 เลน พร้อม CXL 2.0 สำหรับเชื่อมต่อกับ GPU หรือ FPGA และยังคงใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6 ทำให้สามารถอัปเกรดจากรุ่นก่อนหน้าได้ทันทีโดยไม่ต้องเปลี่ยนเมนบอร์ด

    Montage ยังเสริมฟีเจอร์ด้านความปลอดภัยระดับชิป เช่น การเข้ารหัสข้อมูล การตรวจสอบความน่าเชื่อถือของแพลตฟอร์ม และการป้องกันการแก้ไขข้อมูล เหมาะกับอุตสาหกรรมที่ต้องการความมั่นคง เช่น การเงิน รัฐบาล และการแพทย์

    ข้อมูลพื้นฐานของ C6P CPU
    เป็นซีพียูที่ปรับแบรนด์จาก Intel Xeon 6700P
    ใช้สถาปัตยกรรม Redwood Cove P-Core แบบเดียวกับ Meteor Lake
    รองรับสูงสุด 86 คอร์ 172 เธรด และแคช L3 ขนาด 336MB

    ความสามารถด้านการเชื่อมต่อและหน่วยความจำ
    รองรับระบบซ็อกเก็ตเดียวและสองซ็อกเก็ต
    ใช้ UPI interconnects 4 ช่อง ความเร็วสูงสุด 24 GT/s
    รองรับ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s
    มี PCIe 5.0 จำนวน 88 เลน และรองรับ CXL 2.0

    ความเข้ากันได้และการอัปเกรด
    ใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6
    รองรับ x86 instruction set เต็มรูปแบบ
    สามารถอัปเกรดจาก Sierra Forest หรือ Emerald Rapids ได้ทันที

    ฟีเจอร์ด้านความปลอดภัยและการใช้งานในอุตสาหกรรม
    มีระบบเข้ารหัสข้อมูลและการตรวจสอบความน่าเชื่อถือ
    ป้องกันการแก้ไขข้อมูลและการรั่วไหลในระดับชิป
    เหมาะกับอุตสาหกรรมการเงิน รัฐบาล และการแพทย์
    รองรับระบบปฏิบัติการโอเพ่นซอร์ส เช่น openEuler และ OpenCloudOS

    https://wccftech.com/montage-technology-rebadges-intel-granite-rapids-xeon-6p-cpus-china-domestic-server-market/
    🖥️ C6P: ซีพียูจีนที่มี “หัวใจ” เป็น Intel Xeon 6P Montage Technology บริษัทผู้ผลิตชิปในจีน เปิดตัวซีพียูเซิร์ฟเวอร์รุ่นใหม่ “C6P” ซึ่งแท้จริงแล้วเป็นการนำ Intel Xeon 6700P จากตระกูล Granite Rapids มาปรับแบรนด์ใหม่ โดยยังคงใช้สถาปัตยกรรม Redwood Cove P-Core เหมือนที่ใช้ใน Meteor Lake C6P รองรับสูงสุด 86 คอร์ 172 เธรด พร้อมแคช L3 ขนาด 336MB และรองรับการใช้งานแบบซ็อกเก็ตเดียวหรือสองซ็อกเก็ต มีแบนด์วิดธ์สูงถึง 24 GT/s ผ่าน UPI interconnects และรองรับหน่วยความจำ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s จุดเด่นคือการรองรับ PCIe 5.0 ถึง 88 เลน พร้อม CXL 2.0 สำหรับเชื่อมต่อกับ GPU หรือ FPGA และยังคงใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6 ทำให้สามารถอัปเกรดจากรุ่นก่อนหน้าได้ทันทีโดยไม่ต้องเปลี่ยนเมนบอร์ด Montage ยังเสริมฟีเจอร์ด้านความปลอดภัยระดับชิป เช่น การเข้ารหัสข้อมูล การตรวจสอบความน่าเชื่อถือของแพลตฟอร์ม และการป้องกันการแก้ไขข้อมูล เหมาะกับอุตสาหกรรมที่ต้องการความมั่นคง เช่น การเงิน รัฐบาล และการแพทย์ ✅ ข้อมูลพื้นฐานของ C6P CPU ➡️ เป็นซีพียูที่ปรับแบรนด์จาก Intel Xeon 6700P ➡️ ใช้สถาปัตยกรรม Redwood Cove P-Core แบบเดียวกับ Meteor Lake ➡️ รองรับสูงสุด 86 คอร์ 172 เธรด และแคช L3 ขนาด 336MB ✅ ความสามารถด้านการเชื่อมต่อและหน่วยความจำ ➡️ รองรับระบบซ็อกเก็ตเดียวและสองซ็อกเก็ต ➡️ ใช้ UPI interconnects 4 ช่อง ความเร็วสูงสุด 24 GT/s ➡️ รองรับ DDR5 แบบ 8 ช่อง ความเร็วสูงสุด 8000 MT/s ➡️ มี PCIe 5.0 จำนวน 88 เลน และรองรับ CXL 2.0 ✅ ความเข้ากันได้และการอัปเกรด ➡️ ใช้แพ็กเกจและขาแบบเดียวกับ Intel Xeon 6 ➡️ รองรับ x86 instruction set เต็มรูปแบบ ➡️ สามารถอัปเกรดจาก Sierra Forest หรือ Emerald Rapids ได้ทันที ✅ ฟีเจอร์ด้านความปลอดภัยและการใช้งานในอุตสาหกรรม ➡️ มีระบบเข้ารหัสข้อมูลและการตรวจสอบความน่าเชื่อถือ ➡️ ป้องกันการแก้ไขข้อมูลและการรั่วไหลในระดับชิป ➡️ เหมาะกับอุตสาหกรรมการเงิน รัฐบาล และการแพทย์ ➡️ รองรับระบบปฏิบัติการโอเพ่นซอร์ส เช่น openEuler และ OpenCloudOS https://wccftech.com/montage-technology-rebadges-intel-granite-rapids-xeon-6p-cpus-china-domestic-server-market/
    WCCFTECH.COM
    Montage Technology Rebadges Intel's Granite Rapids "Xeon 6P" CPUs For China's Domestic Server Segment: Offers Up To 86 Cores Under The "C6P" Series
    China's Montage Technology, has launched its new C6P server CPUs with up to 86 cores, which are rebadged Intel Granite Rapids Xeon chips.
    0 ความคิดเห็น 0 การแบ่งปัน 17 มุมมอง 0 รีวิว
  • MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร

    MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB

    การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ

    จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว

    แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก

    สเปกและการออกแบบของ Arc Pro B60 Dual
    ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6
    มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s
    ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21
    เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน
    ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate

    จุดเด่นด้านการใช้งาน
    เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง
    รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV
    ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation
    ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์

    การวางจำหน่ายและราคา
    เปิดตัววันที่ 18 สิงหาคม 2025
    ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU
    ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป
    หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090

    Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด
    ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด
    ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น
    การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป
    หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์

    https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    🧠 MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก ✅ สเปกและการออกแบบของ Arc Pro B60 Dual ➡️ ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6 ➡️ มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s ➡️ ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 ➡️ เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน ➡️ ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate ✅ จุดเด่นด้านการใช้งาน ➡️ เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง ➡️ รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV ➡️ ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation ➡️ ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์ ✅ การวางจำหน่ายและราคา ➡️ เปิดตัววันที่ 18 สิงหาคม 2025 ➡️ ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU ➡️ ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป ➡️ หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090 ⛔ Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด ⛔ ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด ⛔ ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น ⛔ การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป ⛔ หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์ https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    WCCFTECH.COM
    As MAXSUN Prepares To Launch Arc Pro B60 Dual GPU Next Week, Intel Is Supposedly Facing Inventory Issues With B60
    According to a conversation between a company and MAXSUN's manager, the GPU manufacturer is expected to launch the Arc Pro B60 Dual next week
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • Intel โชว์ชิป Arm บนเทคโนโลยี 18A: เกมใหม่ของโรงงานผลิตชิป

    ในโลกที่ Intel เคยเป็นเจ้าพ่อแห่ง x86 การที่บริษัทลุกขึ้นมาสร้างชิป Arm ด้วยตัวเองถือเป็นการเปลี่ยนเกมครั้งใหญ่ และนั่นคือสิ่งที่เกิดขึ้นกับ “Deer Creek Falls”—ชิป SoC ต้นแบบที่ผลิตบนเทคโนโลยี 18A ซึ่งเป็นกระบวนการผลิตระดับล้ำยุคของ Intel

    ชิปนี้มีโครงสร้างแบบ hybrid ประกอบด้วย 7 คอร์: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน และ 4 คอร์ประหยัดพลังงานขั้นสุด พร้อม PCIe และ memory controller ที่ได้จากพันธมิตรใน ecosystem ซึ่งแสดงให้เห็นว่า Intel พร้อมเปิดรับการออกแบบจากภายนอก ไม่ใช่แค่ x86 อีกต่อไป

    แม้ Intel จะไม่พูดตรง ๆ ว่าเป็นชิป Arm แต่ในวิดีโอที่โชว์การปรับแต่งประสิทธิภาพ มีการพูดถึง AArch64 ซึ่งเป็นชุดคำสั่ง 64-bit ของ Arm อย่างชัดเจน แถมยังโชว์เครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ซึ่งสวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือรองรับลูกค้าภายนอก

    แม้ชิปนี้จะยังไม่ใช่ผลิตภัณฑ์เชิงพาณิชย์ แต่มันคือการส่งสัญญาณว่า Intel Foundry พร้อมรับงานจากลูกค้า Arm และอาจใช้ชิปนี้เป็นตัวดึงดูดให้ Apple หรือ NVIDIA หันมาพิจารณาเทคโนโลยี 14A ที่กำลังจะมา

    การออกแบบของ Deer Creek Falls SoC
    ใช้โครงสร้าง hybrid: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน, 4 คอร์ประหยัดพลังงานขั้นสุด
    รวม PCIe controller และ memory controller จากพันธมิตรใน ecosystem
    ใช้เทคโนโลยี 18A ซึ่งมี RibbonFET และ PowerVia เพิ่มประสิทธิภาพต่อวัตต์

    การยืนยันว่าเป็นชิป Arm
    มีการกล่าวถึง AArch64 ในวิดีโอ ซึ่งเป็นชุดคำสั่งของ Arm
    โครงสร้างคอร์แบบสามระดับคล้าย Snapdragon 8 จาก Qualcomm
    Intel ไม่พูดตรง ๆ ว่าเป็น Arm แต่โครงสร้างและคำศัพท์บ่งชี้ชัดเจน

    เครื่องมือปรับแต่งประสิทธิภาพสำหรับ Arm
    Intel โชว์ชุดเครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ
    แสดงให้เห็นว่า Intel Foundry พร้อมรองรับลูกค้าภายนอก
    สวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือสำหรับ Arm

    เป้าหมายของ Intel Foundry
    ใช้ Deer Creek Falls เป็นตัวโชว์ศักยภาพของโรงงาน
    หวังดึงดูดลูกค้าอย่าง Apple และ NVIDIA ให้ใช้เทคโนโลยี 14A
    รัฐบาลสหรัฐฯ ให้ความสนใจ อาจผลักดันให้เกิดการใช้งานจริงเร็วขึ้น

    https://www.techpowerup.com/339952/intel-showcases-reference-arm-based-soc-manufactured-on-18a-node
    🧠 Intel โชว์ชิป Arm บนเทคโนโลยี 18A: เกมใหม่ของโรงงานผลิตชิป ในโลกที่ Intel เคยเป็นเจ้าพ่อแห่ง x86 การที่บริษัทลุกขึ้นมาสร้างชิป Arm ด้วยตัวเองถือเป็นการเปลี่ยนเกมครั้งใหญ่ และนั่นคือสิ่งที่เกิดขึ้นกับ “Deer Creek Falls”—ชิป SoC ต้นแบบที่ผลิตบนเทคโนโลยี 18A ซึ่งเป็นกระบวนการผลิตระดับล้ำยุคของ Intel ชิปนี้มีโครงสร้างแบบ hybrid ประกอบด้วย 7 คอร์: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน และ 4 คอร์ประหยัดพลังงานขั้นสุด พร้อม PCIe และ memory controller ที่ได้จากพันธมิตรใน ecosystem ซึ่งแสดงให้เห็นว่า Intel พร้อมเปิดรับการออกแบบจากภายนอก ไม่ใช่แค่ x86 อีกต่อไป แม้ Intel จะไม่พูดตรง ๆ ว่าเป็นชิป Arm แต่ในวิดีโอที่โชว์การปรับแต่งประสิทธิภาพ มีการพูดถึง AArch64 ซึ่งเป็นชุดคำสั่ง 64-bit ของ Arm อย่างชัดเจน แถมยังโชว์เครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ซึ่งสวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือรองรับลูกค้าภายนอก แม้ชิปนี้จะยังไม่ใช่ผลิตภัณฑ์เชิงพาณิชย์ แต่มันคือการส่งสัญญาณว่า Intel Foundry พร้อมรับงานจากลูกค้า Arm และอาจใช้ชิปนี้เป็นตัวดึงดูดให้ Apple หรือ NVIDIA หันมาพิจารณาเทคโนโลยี 14A ที่กำลังจะมา ✅ การออกแบบของ Deer Creek Falls SoC ➡️ ใช้โครงสร้าง hybrid: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน, 4 คอร์ประหยัดพลังงานขั้นสุด ➡️ รวม PCIe controller และ memory controller จากพันธมิตรใน ecosystem ➡️ ใช้เทคโนโลยี 18A ซึ่งมี RibbonFET และ PowerVia เพิ่มประสิทธิภาพต่อวัตต์ ✅ การยืนยันว่าเป็นชิป Arm ➡️ มีการกล่าวถึง AArch64 ในวิดีโอ ซึ่งเป็นชุดคำสั่งของ Arm ➡️ โครงสร้างคอร์แบบสามระดับคล้าย Snapdragon 8 จาก Qualcomm ➡️ Intel ไม่พูดตรง ๆ ว่าเป็น Arm แต่โครงสร้างและคำศัพท์บ่งชี้ชัดเจน ✅ เครื่องมือปรับแต่งประสิทธิภาพสำหรับ Arm ➡️ Intel โชว์ชุดเครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ➡️ แสดงให้เห็นว่า Intel Foundry พร้อมรองรับลูกค้าภายนอก ➡️ สวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือสำหรับ Arm ✅ เป้าหมายของ Intel Foundry ➡️ ใช้ Deer Creek Falls เป็นตัวโชว์ศักยภาพของโรงงาน ➡️ หวังดึงดูดลูกค้าอย่าง Apple และ NVIDIA ให้ใช้เทคโนโลยี 14A ➡️ รัฐบาลสหรัฐฯ ให้ความสนใจ อาจผลักดันให้เกิดการใช้งานจริงเร็วขึ้น https://www.techpowerup.com/339952/intel-showcases-reference-arm-based-soc-manufactured-on-18a-node
    WWW.TECHPOWERUP.COM
    Intel Showcases Reference Arm-based SoC Manufactured on 18A Node
    Intel Foundry has been releasing content on its products and services, and today, an interesting update came across. Intel showed a reference "Deer Creek Falls" SoC of what they call a "non-x86" design, manufactured on the 18A node. However, the design is actually Arm-based SoC. Consisting of seven ...
    0 ความคิดเห็น 0 การแบ่งปัน 20 มุมมอง 0 รีวิว
  • ⚡️ เมื่อ AI กลายเป็นตัวดูดพลังงาน: จีนพร้อม แต่สหรัฐฯ ยังติดหล่ม

    ลองจินตนาการว่าโลกกำลังเข้าสู่ยุคที่ AI ไม่ใช่แค่ซอฟต์แวร์อัจฉริยะ แต่เป็นเครื่องจักรที่กินไฟมหาศาลเหมือนสัตว์ประหลาดในโรงงานไฟฟ้า และในสงครามเทคโนโลยีนี้ จีนดูเหมือนจะเตรียมตัวมาดีกว่าสหรัฐฯ หลายช่วงตัว

    จีนลงทุนมหาศาลในพลังงานสะอาด ทั้งพลังน้ำ พลังงานนิวเคลียร์ และโซลาร์ฟาร์มขนาดยักษ์ ทำให้มีพลังงานสำรองถึง 80–100% พร้อมรองรับการสร้างศูนย์ข้อมูล AI ใหม่ได้ทันที ในขณะที่สหรัฐฯ กลับต้องเผชิญกับปัญหาโครงสร้างพื้นฐานไฟฟ้าที่ไม่ทันความต้องการ จนบริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง หรือหันไปพัฒนานิวเคลียร์ขนาดเล็ก

    แม้จีนจะมีข้อครหาว่าใช้โรงไฟฟ้าถ่านหิน แต่ก็มีแผนรองรับด้วยการลงทุนในพลังงานหมุนเวียน และสามารถเปิดโรงไฟฟ้าสำรองได้ทันทีหากจำเป็น ขณะที่สหรัฐฯ ยังต้องเผชิญกับความล่าช้าในการอนุมัติโครงการใหม่ และความไม่แน่นอนของระบบสายส่ง

    ที่น่าสนใจคือ แม้จีนจะมีพลังงานเหลือเฟือ แต่ศูนย์ข้อมูลหลายแห่งกลับยังไม่ได้ใช้งานเต็มที่ จึงกำลังพัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างกัน ส่วนสหรัฐฯ หากไม่เร่งแก้ปัญหา อาจเสียเปรียบในสงคราม AI แม้จะมีฮาร์ดแวร์ที่ดีกว่า เพราะ “ไม่มีไฟ ก็ไม่มี AI”

    จีนเตรียมพร้อมด้านพลังงานเพื่อรองรับ AI
    มีพลังงานสำรอง 80–100% รองรับการสร้างศูนย์ข้อมูลใหม่
    ลงทุนในพลังงานสะอาด เช่น พลังน้ำ นิวเคลียร์ และโซลาร์
    วางแผนพลังงานล่วงหน้าเพื่อรองรับความต้องการในอนาคต
    สามารถเปิดโรงไฟฟ้าถ่านหินสำรองได้ทันทีหากจำเป็น
    พัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างศูนย์ข้อมูล

    สหรัฐฯ เผชิญปัญหาโครงสร้างพื้นฐานไฟฟ้า
    ศูนย์ข้อมูล AI ทำให้ระบบไฟฟ้าสหรัฐฯ ตึงเครียด
    บริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง เช่น Elon Musk
    ลงทุนในนิวเคลียร์ขนาดเล็กเพื่อรองรับความต้องการ
    ความล่าช้าในการอนุมัติโครงการใหม่เป็นอุปสรรคใหญ่
    ระบบสายส่งยังไม่พร้อมรองรับการขยายตัวของ AI

    ผลกระทบต่อการแข่งขันด้าน AI
    จีนสามารถใช้พลังงานมหาศาลเพื่อเร่งการประมวลผล AI
    สหรัฐฯ แม้มีฮาร์ดแวร์ที่ดีกว่า แต่ขาดพลังงานอาจเสียเปรียบ
    Huawei CloudMatrix ใช้พลังงานมหาศาลเพื่อเอาชนะ Nvidia GB200

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-experts-warn-that-china-is-miles-ahead-of-the-us-in-electricity-generation-lack-of-supply-and-infrastructure-threatens-the-uss-long-term-ai-plans
    ⚡️ เมื่อ AI กลายเป็นตัวดูดพลังงาน: จีนพร้อม แต่สหรัฐฯ ยังติดหล่ม ลองจินตนาการว่าโลกกำลังเข้าสู่ยุคที่ AI ไม่ใช่แค่ซอฟต์แวร์อัจฉริยะ แต่เป็นเครื่องจักรที่กินไฟมหาศาลเหมือนสัตว์ประหลาดในโรงงานไฟฟ้า และในสงครามเทคโนโลยีนี้ จีนดูเหมือนจะเตรียมตัวมาดีกว่าสหรัฐฯ หลายช่วงตัว จีนลงทุนมหาศาลในพลังงานสะอาด ทั้งพลังน้ำ พลังงานนิวเคลียร์ และโซลาร์ฟาร์มขนาดยักษ์ ทำให้มีพลังงานสำรองถึง 80–100% พร้อมรองรับการสร้างศูนย์ข้อมูล AI ใหม่ได้ทันที ในขณะที่สหรัฐฯ กลับต้องเผชิญกับปัญหาโครงสร้างพื้นฐานไฟฟ้าที่ไม่ทันความต้องการ จนบริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง หรือหันไปพัฒนานิวเคลียร์ขนาดเล็ก แม้จีนจะมีข้อครหาว่าใช้โรงไฟฟ้าถ่านหิน แต่ก็มีแผนรองรับด้วยการลงทุนในพลังงานหมุนเวียน และสามารถเปิดโรงไฟฟ้าสำรองได้ทันทีหากจำเป็น ขณะที่สหรัฐฯ ยังต้องเผชิญกับความล่าช้าในการอนุมัติโครงการใหม่ และความไม่แน่นอนของระบบสายส่ง ที่น่าสนใจคือ แม้จีนจะมีพลังงานเหลือเฟือ แต่ศูนย์ข้อมูลหลายแห่งกลับยังไม่ได้ใช้งานเต็มที่ จึงกำลังพัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างกัน ส่วนสหรัฐฯ หากไม่เร่งแก้ปัญหา อาจเสียเปรียบในสงคราม AI แม้จะมีฮาร์ดแวร์ที่ดีกว่า เพราะ “ไม่มีไฟ ก็ไม่มี AI” ✅ จีนเตรียมพร้อมด้านพลังงานเพื่อรองรับ AI ➡️ มีพลังงานสำรอง 80–100% รองรับการสร้างศูนย์ข้อมูลใหม่ ➡️ ลงทุนในพลังงานสะอาด เช่น พลังน้ำ นิวเคลียร์ และโซลาร์ ➡️ วางแผนพลังงานล่วงหน้าเพื่อรองรับความต้องการในอนาคต ➡️ สามารถเปิดโรงไฟฟ้าถ่านหินสำรองได้ทันทีหากจำเป็น ➡️ พัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างศูนย์ข้อมูล ✅ สหรัฐฯ เผชิญปัญหาโครงสร้างพื้นฐานไฟฟ้า ➡️ ศูนย์ข้อมูล AI ทำให้ระบบไฟฟ้าสหรัฐฯ ตึงเครียด ➡️ บริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง เช่น Elon Musk ➡️ ลงทุนในนิวเคลียร์ขนาดเล็กเพื่อรองรับความต้องการ ➡️ ความล่าช้าในการอนุมัติโครงการใหม่เป็นอุปสรรคใหญ่ ➡️ ระบบสายส่งยังไม่พร้อมรองรับการขยายตัวของ AI ✅ ผลกระทบต่อการแข่งขันด้าน AI ➡️ จีนสามารถใช้พลังงานมหาศาลเพื่อเร่งการประมวลผล AI ➡️ สหรัฐฯ แม้มีฮาร์ดแวร์ที่ดีกว่า แต่ขาดพลังงานอาจเสียเปรียบ ➡️ Huawei CloudMatrix ใช้พลังงานมหาศาลเพื่อเอาชนะ Nvidia GB200 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-experts-warn-that-china-is-miles-ahead-of-the-us-in-electricity-generation-lack-of-supply-and-infrastructure-threatens-the-uss-long-term-ai-plans
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY

    เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit

    แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY

    การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด

    เทียบกับคู่แข่ง: Nvidia และ Intel

    แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด

    ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก

    การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY
    เดิมจำกัดการขายเฉพาะ OEM และ SI
    ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก
    ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง

    สเปกเด่นของ R9700
    ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators
    VRAM ขนาด 32GB GDDR6 บนบัส 256-bit
    ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4

    การออกแบบและการใช้งาน
    ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์
    รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local
    ใช้ PCIe 5.0 x16 และมีขนาด 2-slot

    เปรียบเทียบกับคู่แข่ง
    RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999
    Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200
    R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI

    https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    🧠 Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด 📊 เทียบกับคู่แข่ง: Nvidia และ Intel แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก ✅ การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY ➡️ เดิมจำกัดการขายเฉพาะ OEM และ SI ➡️ ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก ➡️ ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง ✅ สเปกเด่นของ R9700 ➡️ ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators ➡️ VRAM ขนาด 32GB GDDR6 บนบัส 256-bit ➡️ ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4 ✅ การออกแบบและการใช้งาน ➡️ ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์ ➡️ รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local ➡️ ใช้ PCIe 5.0 x16 และมีขนาด 2-slot ✅ เปรียบเทียบกับคู่แข่ง ➡️ RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999 ➡️ Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200 ➡️ R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    0 ความคิดเห็น 0 การแบ่งปัน 18 มุมมอง 0 รีวิว
  • เมื่อ iGPU ได้พลังเพิ่ม: Intel เปิดให้ปรับ VRAM ได้สูงสุดถึง 87% ของ RAM

    ในเดือนสิงหาคม 2025 Intel ได้ปล่อยไดรเวอร์กราฟิกเวอร์ชัน 32.0.101.6987 ที่มาพร้อมฟีเจอร์ใหม่ชื่อว่า “Shared GPU Memory Override” ซึ่งเปิดให้ผู้ใช้โน้ตบุ๊กที่มีชิป Intel Core Ultra ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง

    โดยปกติ iGPU จะใช้ RAM ร่วมกับระบบ และ Windows จะจัดสรรให้ประมาณครึ่งหนึ่งของ RAM ทั้งหมด แต่ฟีเจอร์ใหม่นี้เปิดให้ผู้ใช้ปรับได้สูงสุดถึง 87% ของ RAM ทั้งหมด เพื่อใช้เป็น VRAM สำหรับงานกราฟิก เช่น เล่นเกม หรือรันโมเดล AI ขนาดใหญ่

    ผู้ใช้สามารถปรับผ่านแอป Intel Graphics Software ด้วยการเลื่อนสไลเดอร์ แล้วรีบูตเครื่องเพื่อให้การตั้งค่ามีผล ฟีเจอร์นี้รองรับเฉพาะ Core Ultra Series 2 (Arrow Lake) และต้องมี RAM อย่างน้อย 10GB

    ฟีเจอร์นี้คล้ายกับที่ AMD เคยเปิดให้ใช้ใน Ryzen AI Max+ ซึ่งสามารถจัดสรรได้ถึง 112GB จาก 128GB สำหรับงาน AI โดยเฉพาะ

    อย่างไรก็ตาม การจัดสรร RAM มากเกินไปให้กับ iGPU อาจทำให้ CPU ขาดแคลนหน่วยความจำ ส่งผลให้ระบบช้าลง โดยเฉพาะในงานที่ใช้ CPU หนัก หรือเปิดหลายโปรแกรมพร้อมกัน

    สรุปเนื้อหาเป็นหัวข้อ
    ฟีเจอร์ Shared GPU Memory Override จาก Intel
    เปิดให้ผู้ใช้ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง
    รองรับสูงสุดถึง 87% ของ RAM ทั้งหมด
    ใช้งานผ่าน Intel Graphics Software โดยต้องรีบูตเครื่องหลังปรับ

    เงื่อนไขการใช้งาน
    รองรับเฉพาะ Intel Core Ultra Series 2 (Arrow Lake)
    ต้องมี RAM อย่างน้อย 10GB
    ใช้ได้เฉพาะกับ iGPU ในเครื่องที่ไม่มีการ์ดจอแยก

    ประโยชน์ที่ได้รับ
    เพิ่มประสิทธิภาพในการเล่นเกมที่ใช้ VRAM สูง เช่น Doom: The Dark Ages, Battlefield 6
    รองรับงาน AI เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local
    ปรับแต่งได้ตาม workload ที่ต้องการ เช่น ray tracing หรือ AI inference

    การเปรียบเทียบกับ AMD
    AMD มีฟีเจอร์คล้ายกันชื่อ Variable Graphics Memory
    Ryzen AI Max+ สามารถจัดสรรได้ถึง 112GB จาก 128GB
    Intel เริ่มตามทันในด้านการจัดการ unified memory สำหรับงาน AI

    https://www.tomshardware.com/pc-components/gpu-drivers/intels-new-graphics-driver-lets-you-dedicate-up-to-87-percent-of-laptop-memory-capacity-to-the-igpu-for-vram-core-ultra-cpus-get-shared-gpu-memory-override-feature
    🧠 เมื่อ iGPU ได้พลังเพิ่ม: Intel เปิดให้ปรับ VRAM ได้สูงสุดถึง 87% ของ RAM ในเดือนสิงหาคม 2025 Intel ได้ปล่อยไดรเวอร์กราฟิกเวอร์ชัน 32.0.101.6987 ที่มาพร้อมฟีเจอร์ใหม่ชื่อว่า “Shared GPU Memory Override” ซึ่งเปิดให้ผู้ใช้โน้ตบุ๊กที่มีชิป Intel Core Ultra ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง โดยปกติ iGPU จะใช้ RAM ร่วมกับระบบ และ Windows จะจัดสรรให้ประมาณครึ่งหนึ่งของ RAM ทั้งหมด แต่ฟีเจอร์ใหม่นี้เปิดให้ผู้ใช้ปรับได้สูงสุดถึง 87% ของ RAM ทั้งหมด เพื่อใช้เป็น VRAM สำหรับงานกราฟิก เช่น เล่นเกม หรือรันโมเดล AI ขนาดใหญ่ ผู้ใช้สามารถปรับผ่านแอป Intel Graphics Software ด้วยการเลื่อนสไลเดอร์ แล้วรีบูตเครื่องเพื่อให้การตั้งค่ามีผล ฟีเจอร์นี้รองรับเฉพาะ Core Ultra Series 2 (Arrow Lake) และต้องมี RAM อย่างน้อย 10GB ฟีเจอร์นี้คล้ายกับที่ AMD เคยเปิดให้ใช้ใน Ryzen AI Max+ ซึ่งสามารถจัดสรรได้ถึง 112GB จาก 128GB สำหรับงาน AI โดยเฉพาะ อย่างไรก็ตาม การจัดสรร RAM มากเกินไปให้กับ iGPU อาจทำให้ CPU ขาดแคลนหน่วยความจำ ส่งผลให้ระบบช้าลง โดยเฉพาะในงานที่ใช้ CPU หนัก หรือเปิดหลายโปรแกรมพร้อมกัน 📌 สรุปเนื้อหาเป็นหัวข้อ ✅ ฟีเจอร์ Shared GPU Memory Override จาก Intel ➡️ เปิดให้ผู้ใช้ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง ➡️ รองรับสูงสุดถึง 87% ของ RAM ทั้งหมด ➡️ ใช้งานผ่าน Intel Graphics Software โดยต้องรีบูตเครื่องหลังปรับ ✅ เงื่อนไขการใช้งาน ➡️ รองรับเฉพาะ Intel Core Ultra Series 2 (Arrow Lake) ➡️ ต้องมี RAM อย่างน้อย 10GB ➡️ ใช้ได้เฉพาะกับ iGPU ในเครื่องที่ไม่มีการ์ดจอแยก ✅ ประโยชน์ที่ได้รับ ➡️ เพิ่มประสิทธิภาพในการเล่นเกมที่ใช้ VRAM สูง เช่น Doom: The Dark Ages, Battlefield 6 ➡️ รองรับงาน AI เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local ➡️ ปรับแต่งได้ตาม workload ที่ต้องการ เช่น ray tracing หรือ AI inference ✅ การเปรียบเทียบกับ AMD ➡️ AMD มีฟีเจอร์คล้ายกันชื่อ Variable Graphics Memory ➡️ Ryzen AI Max+ สามารถจัดสรรได้ถึง 112GB จาก 128GB ➡️ Intel เริ่มตามทันในด้านการจัดการ unified memory สำหรับงาน AI https://www.tomshardware.com/pc-components/gpu-drivers/intels-new-graphics-driver-lets-you-dedicate-up-to-87-percent-of-laptop-memory-capacity-to-the-igpu-for-vram-core-ultra-cpus-get-shared-gpu-memory-override-feature
    0 ความคิดเห็น 0 การแบ่งปัน 14 มุมมอง 0 รีวิว
  • เมื่ออัจฉริยะรวมตัวกัน: Meta กับภารกิจสร้าง AI เหนือมนุษย์ และความท้าทายในการบริหารทีมระดับเทพ

    ในปี 2025 Meta ได้เปิดตัว “Superintelligence Lab” โดยรวบรวมสุดยอดนักวิจัย AI จาก OpenAI, DeepMind, Anthropic และ Scale AI เพื่อเร่งพัฒนา AI ที่มีความสามารถใกล้เคียงหรือเหนือกว่ามนุษย์ หรือที่เรียกว่า Artificial General Intelligence (AGI)

    Mark Zuckerberg ทุ่มงบมหาศาล พร้อมเสนอค่าตอบแทนระดับ $100–300 ล้านต่อคน เพื่อดึงตัวนักวิจัยระดับโลกมาร่วมทีม โดยมี Alexandr Wang อดีต CEO ของ Scale AI และ Nat Friedman อดีต CEO ของ GitHub เป็นผู้นำทีม

    แต่การรวมตัวของอัจฉริยะจำนวนมากไม่ได้หมายถึงความสำเร็จเสมอไป งานวิจัยจาก Harvard และ MIT ชี้ว่า ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้ง อีโก้ชนกัน และประสิทธิภาพลดลง หากไม่มีการบริหารจัดการที่ดี

    นักวิชาการแนะนำว่า การบริหารทีมระดับสูงต้องมี “การแบ่งหน้าที่ชัดเจน” และ “โครงสร้างอำนาจที่โปร่งใส” เพื่อป้องกันการแย่งอำนาจและความขัดแย้งภายใน นอกจากนี้ยังต้องสร้าง “เคมีของทีม” ผ่านความไว้วางใจและเป้าหมายร่วมกัน

    Meta ยังต้องรับมือกับความท้าทายด้านวัฒนธรรมองค์กร การรวมคนจากหลากหลายประเทศและภูมิหลัง เช่น ทีมที่มีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75% อาจเกิดความขัดแย้งเชิงวัฒนธรรมและการสื่อสาร

    การสร้างทีม Superintelligence ของ Meta
    รวมตัวนักวิจัยจาก OpenAI, DeepMind, Anthropic และ Scale AI
    นำโดย Alexandr Wang และ Nat Friedman
    เป้าหมายคือสร้าง AGI ที่มีความสามารถเหนือมนุษย์

    กลยุทธ์การดึงตัวบุคลากร
    เสนอค่าตอบแทนสูงถึง $300 ล้านต่อคน
    Zuckerberg เข้าร่วมกระบวนการสรรหาด้วยตัวเอง
    ลงทุน $14.3 พันล้านใน Scale AI เพื่อดึง Wang มาร่วมทีม

    ความท้าทายด้านการบริหารทีมอัจฉริยะ
    ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้งและประสิทธิภาพลดลง
    ต้องมีการแบ่งหน้าที่ชัดเจนและโครงสร้างอำนาจที่โปร่งใส
    การสร้างเคมีของทีมต้องใช้เวลาและความอดทนจากผู้นำ

    ข้อเสนอจากนักวิชาการด้านการบริหารทีม
    กำหนด “เลน” ของแต่ละคนให้ชัดเจน
    สร้างโครงสร้างอำนาจที่ยืดหยุ่นแต่ชัดเจน
    สร้างความไว้วางใจและเป้าหมายร่วมกันในทีม

    ความหลากหลายของทีมและผลกระทบ
    ทีมมีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75%
    ความหลากหลายช่วยเพิ่มมุมมอง แต่ต้องจัดการความขัดแย้งทางวัฒนธรรม
    การสื่อสารและความเข้าใจระหว่างสมาชิกเป็นหัวใจสำคัญ

    https://www.thestar.com.my/tech/tech-news/2025/08/16/metas-superintelligence-dream-team-will-be-management-challenge-of-the-century
    🧠 เมื่ออัจฉริยะรวมตัวกัน: Meta กับภารกิจสร้าง AI เหนือมนุษย์ และความท้าทายในการบริหารทีมระดับเทพ ในปี 2025 Meta ได้เปิดตัว “Superintelligence Lab” โดยรวบรวมสุดยอดนักวิจัย AI จาก OpenAI, DeepMind, Anthropic และ Scale AI เพื่อเร่งพัฒนา AI ที่มีความสามารถใกล้เคียงหรือเหนือกว่ามนุษย์ หรือที่เรียกว่า Artificial General Intelligence (AGI) Mark Zuckerberg ทุ่มงบมหาศาล พร้อมเสนอค่าตอบแทนระดับ $100–300 ล้านต่อคน เพื่อดึงตัวนักวิจัยระดับโลกมาร่วมทีม โดยมี Alexandr Wang อดีต CEO ของ Scale AI และ Nat Friedman อดีต CEO ของ GitHub เป็นผู้นำทีม แต่การรวมตัวของอัจฉริยะจำนวนมากไม่ได้หมายถึงความสำเร็จเสมอไป งานวิจัยจาก Harvard และ MIT ชี้ว่า ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้ง อีโก้ชนกัน และประสิทธิภาพลดลง หากไม่มีการบริหารจัดการที่ดี นักวิชาการแนะนำว่า การบริหารทีมระดับสูงต้องมี “การแบ่งหน้าที่ชัดเจน” และ “โครงสร้างอำนาจที่โปร่งใส” เพื่อป้องกันการแย่งอำนาจและความขัดแย้งภายใน นอกจากนี้ยังต้องสร้าง “เคมีของทีม” ผ่านความไว้วางใจและเป้าหมายร่วมกัน Meta ยังต้องรับมือกับความท้าทายด้านวัฒนธรรมองค์กร การรวมคนจากหลากหลายประเทศและภูมิหลัง เช่น ทีมที่มีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75% อาจเกิดความขัดแย้งเชิงวัฒนธรรมและการสื่อสาร ✅ การสร้างทีม Superintelligence ของ Meta ➡️ รวมตัวนักวิจัยจาก OpenAI, DeepMind, Anthropic และ Scale AI ➡️ นำโดย Alexandr Wang และ Nat Friedman ➡️ เป้าหมายคือสร้าง AGI ที่มีความสามารถเหนือมนุษย์ ✅ กลยุทธ์การดึงตัวบุคลากร ➡️ เสนอค่าตอบแทนสูงถึง $300 ล้านต่อคน ➡️ Zuckerberg เข้าร่วมกระบวนการสรรหาด้วยตัวเอง ➡️ ลงทุน $14.3 พันล้านใน Scale AI เพื่อดึง Wang มาร่วมทีม ✅ ความท้าทายด้านการบริหารทีมอัจฉริยะ ➡️ ทีมที่มีแต่คนเก่งอาจเกิดความขัดแย้งและประสิทธิภาพลดลง ➡️ ต้องมีการแบ่งหน้าที่ชัดเจนและโครงสร้างอำนาจที่โปร่งใส ➡️ การสร้างเคมีของทีมต้องใช้เวลาและความอดทนจากผู้นำ ✅ ข้อเสนอจากนักวิชาการด้านการบริหารทีม ➡️ กำหนด “เลน” ของแต่ละคนให้ชัดเจน ➡️ สร้างโครงสร้างอำนาจที่ยืดหยุ่นแต่ชัดเจน ➡️ สร้างความไว้วางใจและเป้าหมายร่วมกันในทีม ✅ ความหลากหลายของทีมและผลกระทบ ➡️ ทีมมีสมาชิกเชื้อสายจีนกว่า 50% และถือ PhD ถึง 75% ➡️ ความหลากหลายช่วยเพิ่มมุมมอง แต่ต้องจัดการความขัดแย้งทางวัฒนธรรม ➡️ การสื่อสารและความเข้าใจระหว่างสมาชิกเป็นหัวใจสำคัญ https://www.thestar.com.my/tech/tech-news/2025/08/16/metas-superintelligence-dream-team-will-be-management-challenge-of-the-century
    WWW.THESTAR.COM.MY
    Meta’s superintelligence dream team will be management challenge of the century
    Without expert management, too much talent in one group can lead to diminishing returns – or even outright failure – if egos clash and the chemistry is poor enough.
    0 ความคิดเห็น 0 การแบ่งปัน 44 มุมมอง 0 รีวิว
  • Microsoft เปิดทางให้เกมเมอร์สาย Arm ได้เล่นเกม Xbox แบบติดตั้งจริง

    ก่อนหน้านี้ ถ้าใครใช้คอมพิวเตอร์ที่ใช้ชิป Arm เช่น Snapdragon X Elite หรือ Surface Laptop 7 แล้วอยากเล่นเกม Xbox บน Windows 11 ก็ต้องพึ่งพา “Xbox Cloud Gaming” เท่านั้น ซึ่งหมายความว่าต้องมีอินเทอร์เน็ตแรง ๆ และไม่สามารถเล่นแบบออฟไลน์ได้เลย

    แต่ตอนนี้ Microsoft ได้ปล่อยอัปเดตใหม่ให้กับแอป Xbox บน Windows 11 ที่ใช้ชิป Arm โดยเปิดให้ “ดาวน์โหลดเกมและเล่นแบบ native” ได้แล้ว!

    ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบสำหรับผู้ที่เข้าร่วมโปรแกรม Windows Insider และ Xbox Insider เท่านั้น โดยต้องอัปเดตแอป Xbox PC เป็นเวอร์ชัน 2508.1001.27.0 ขึ้นไป

    การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่องเล็ก ๆ เพราะมันเป็นสัญญาณว่า Microsoft กำลังเตรียมตัวรับมือกับการเปลี่ยนแปลงครั้งใหญ่ในฮาร์ดแวร์ โดยเฉพาะการมาของชิป Arm จาก Nvidia ที่ร่วมมือกับ MediaTek ซึ่งมีข่าวลือว่าจะเปิดตัวในปี 2025–2026 พร้อม GPU ระดับ RTX 5070!

    นอกจากนี้ Microsoft ยังร่วมมือกับ Epic Games เพื่อให้ระบบ Easy Anti-Cheat รองรับ Arm แล้ว ทำให้เกมออนไลน์หลายเกม เช่น Fortnite หรือ DOTA 2 สามารถเล่นได้บนเครื่อง Arm โดยไม่โดนบล็อกจากระบบป้องกันโกง

    แม้ว่า Arm จะยังไม่แรงเท่า x86 จาก Intel หรือ AMD แต่การพัฒนาเหล่านี้กำลังเปลี่ยนภาพของ “เกมเมอร์สายประหยัดพลังงาน” ให้กลายเป็นกลุ่มที่น่าจับตามองในอนาคต

    Microsoft เปิดให้เล่นเกม Xbox แบบ native บน Windows 11 ที่ใช้ชิป Arm
    ต้องเข้าร่วมโปรแกรม Windows Insider และ Xbox Insider
    ใช้แอป Xbox PC เวอร์ชัน 2508.1001.27.0 ขึ้นไป
    สามารถดาวน์โหลดเกมจาก Game Pass และเล่นแบบออฟไลน์ได้

    ความร่วมมือระหว่าง Windows และ Xbox เพื่อขยายเกมที่รองรับ
    Microsoft กำลังพัฒนาให้เกมใน Game Pass เล่นได้บน Arm มากขึ้น
    มีการปรับปรุงระบบเพื่อรองรับ anti-cheat บน Arm เช่น Easy Anti-Cheat

    การมาของชิป Arm จาก Nvidia อาจเปลี่ยนเกมในตลาด PC
    Nvidia ร่วมมือกับ MediaTek พัฒนาชิป N1X และ N1 สำหรับ Windows
    N1X อาจมี GPU ระดับ Blackwell เทียบเท่า RTX 5070
    คาดว่าจะเปิดตัวในช่วงปลายปี 2025 ถึงต้นปี 2026

    https://www.tomshardware.com/video-games/pc-gaming/microsoft-brings-native-xbox-app-gaming-to-windows-on-arm-pcs-hints-at-bigger-hardware-shift-ahead
    🎮 Microsoft เปิดทางให้เกมเมอร์สาย Arm ได้เล่นเกม Xbox แบบติดตั้งจริง ก่อนหน้านี้ ถ้าใครใช้คอมพิวเตอร์ที่ใช้ชิป Arm เช่น Snapdragon X Elite หรือ Surface Laptop 7 แล้วอยากเล่นเกม Xbox บน Windows 11 ก็ต้องพึ่งพา “Xbox Cloud Gaming” เท่านั้น ซึ่งหมายความว่าต้องมีอินเทอร์เน็ตแรง ๆ และไม่สามารถเล่นแบบออฟไลน์ได้เลย แต่ตอนนี้ Microsoft ได้ปล่อยอัปเดตใหม่ให้กับแอป Xbox บน Windows 11 ที่ใช้ชิป Arm โดยเปิดให้ “ดาวน์โหลดเกมและเล่นแบบ native” ได้แล้ว! 🎉 ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบสำหรับผู้ที่เข้าร่วมโปรแกรม Windows Insider และ Xbox Insider เท่านั้น โดยต้องอัปเดตแอป Xbox PC เป็นเวอร์ชัน 2508.1001.27.0 ขึ้นไป การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่องเล็ก ๆ เพราะมันเป็นสัญญาณว่า Microsoft กำลังเตรียมตัวรับมือกับการเปลี่ยนแปลงครั้งใหญ่ในฮาร์ดแวร์ โดยเฉพาะการมาของชิป Arm จาก Nvidia ที่ร่วมมือกับ MediaTek ซึ่งมีข่าวลือว่าจะเปิดตัวในปี 2025–2026 พร้อม GPU ระดับ RTX 5070! นอกจากนี้ Microsoft ยังร่วมมือกับ Epic Games เพื่อให้ระบบ Easy Anti-Cheat รองรับ Arm แล้ว ทำให้เกมออนไลน์หลายเกม เช่น Fortnite หรือ DOTA 2 สามารถเล่นได้บนเครื่อง Arm โดยไม่โดนบล็อกจากระบบป้องกันโกง แม้ว่า Arm จะยังไม่แรงเท่า x86 จาก Intel หรือ AMD แต่การพัฒนาเหล่านี้กำลังเปลี่ยนภาพของ “เกมเมอร์สายประหยัดพลังงาน” ให้กลายเป็นกลุ่มที่น่าจับตามองในอนาคต ✅ Microsoft เปิดให้เล่นเกม Xbox แบบ native บน Windows 11 ที่ใช้ชิป Arm ➡️ ต้องเข้าร่วมโปรแกรม Windows Insider และ Xbox Insider ➡️ ใช้แอป Xbox PC เวอร์ชัน 2508.1001.27.0 ขึ้นไป ➡️ สามารถดาวน์โหลดเกมจาก Game Pass และเล่นแบบออฟไลน์ได้ ✅ ความร่วมมือระหว่าง Windows และ Xbox เพื่อขยายเกมที่รองรับ ➡️ Microsoft กำลังพัฒนาให้เกมใน Game Pass เล่นได้บน Arm มากขึ้น ➡️ มีการปรับปรุงระบบเพื่อรองรับ anti-cheat บน Arm เช่น Easy Anti-Cheat ✅ การมาของชิป Arm จาก Nvidia อาจเปลี่ยนเกมในตลาด PC ➡️ Nvidia ร่วมมือกับ MediaTek พัฒนาชิป N1X และ N1 สำหรับ Windows ➡️ N1X อาจมี GPU ระดับ Blackwell เทียบเท่า RTX 5070 ➡️ คาดว่าจะเปิดตัวในช่วงปลายปี 2025 ถึงต้นปี 2026 https://www.tomshardware.com/video-games/pc-gaming/microsoft-brings-native-xbox-app-gaming-to-windows-on-arm-pcs-hints-at-bigger-hardware-shift-ahead
    0 ความคิดเห็น 0 การแบ่งปัน 84 มุมมอง 0 รีวิว
  • ⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น

    ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล”

    จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน

    หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก

    และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน

    นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์

    แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด

    GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล
    การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง
    GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า

    ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน
    ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน
    การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง

    ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI
    ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง
    ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน

    ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI
    ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล
    การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก

    คำเตือนเกี่ยวกับการใช้พลังงานของ AI
    การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร
    ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming

    ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม
    บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า
    การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity
    ⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล” จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์ แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด ✅ GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล ➡️ การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง ➡️ GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า ✅ ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน ➡️ ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน ➡️ การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง ✅ ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI ➡️ ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง ➡️ ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน ✅ ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI ➡️ ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล ➡️ การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก ‼️ คำเตือนเกี่ยวกับการใช้พลังงานของ AI ⛔ การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร ⛔ ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming ‼️ ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม ⛔ บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า ⛔ การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์ https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity
    0 ความคิดเห็น 0 การแบ่งปัน 91 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไอที: จากเงินเดือนแสนห้า สู่การสมัครงานที่ Chipotle

    ย้อนกลับไปเมื่อสิบปีก่อน ถ้าคุณเรียนจบด้านคอมพิวเตอร์ วิทยาการข้อมูล หรือวิศวกรรมซอฟต์แวร์ คุณแทบจะเลือกได้เลยว่าจะทำงานที่ไหน เงินเดือนเริ่มต้นทะลุ $100,000 พร้อมโบนัสและหุ้นอีกหลายหมื่นดอลลาร์ หลายคนจึงมุ่งหน้าเข้าสู่สายนี้ด้วยความหวังว่าจะได้งานดี เงินดี และชีวิตมั่นคง

    แต่ในปี 2025 ภาพนั้นกลับเปลี่ยนไปอย่างสิ้นเชิง

    นักศึกษาจบใหม่อย่าง Manasi Mishra จากมหาวิทยาลัย Purdue เล่าว่าเธอเรียนเขียนโค้ดมาตั้งแต่เด็ก ทำเว็บไซต์ตั้งแต่ประถม และตั้งใจเรียนสายคอมเต็มที่ แต่หลังจากจบการศึกษา เธอกลับไม่ได้รับข้อเสนอจากบริษัทเทคโนโลยีเลย มีเพียง Chipotle ร้านอาหารที่เรียกเธอไปสัมภาษณ์

    เหตุผลหลักคือบริษัทเทคโนโลยีใหญ่ ๆ อย่าง Amazon, Microsoft, Meta และ Intel ต่างลดจำนวนพนักงาน และหันไปใช้เครื่องมือ AI ที่สามารถเขียนโค้ดได้เอง เช่น GitHub Copilot, CodeRabbit หรือ Devin จาก Cognition AI ซึ่งสามารถเขียนและดีบักโค้ดได้จากคำสั่งภาษาธรรมชาติ

    ผลคือ ตำแหน่งงานระดับเริ่มต้นที่เคยเปิดรับนักศึกษาจบใหม่ ถูกแทนที่ด้วยระบบอัตโนมัติ และทำให้คนรุ่นใหม่ต้องหางานนอกสายที่เรียนมา บางคนสมัครงานที่ McDonald’s แต่ยังถูกปฏิเสธเพราะ “ไม่มีประสบการณ์”

    แม้จะมีความหวังว่า AI จะสร้างโอกาสใหม่ ๆ แต่ในระยะสั้น นักศึกษาจบใหม่กำลังเผชิญกับความท้าทายครั้งใหญ่ ทั้งจากการแข่งขันที่รุนแรง การคัดกรองด้วยระบบอัตโนมัติ และความรู้สึกว่าถูก “หลอก” ให้เรียนในสายที่ไม่มีงานรองรับ

    ความเปลี่ยนแปลงในตลาดแรงงานสายเทคโนโลยี
    บริษัทเทคโนโลยีใหญ่ ๆ ลดจำนวนพนักงานและหันไปใช้ AI coding tools
    ตำแหน่งงานระดับเริ่มต้นถูกลดลงอย่างมาก ทำให้นักศึกษาจบใหม่หางานยาก

    ความคาดหวังในอดีตที่ไม่เป็นจริง
    นักศึกษาถูกกระตุ้นให้เรียนเขียนโค้ดด้วยสัญญาว่าจะได้งานเงินเดือนสูง
    จำนวนผู้เรียนสายคอมพิวเตอร์เพิ่มขึ้นกว่าเท่าตัวในช่วง 10 ปีที่ผ่านมา

    การใช้ AI ในการเขียนโค้ดและคัดกรองผู้สมัคร
    เครื่องมืออย่าง GitHub Copilot, CodeRabbit, Devin สามารถเขียนโค้ดได้จากคำสั่งภาษา
    บริษัทใช้ AI คัดกรองใบสมัคร ทำให้ผู้สมัครถูกปฏิเสธโดยไม่มีโอกาสแสดงความสามารถ

    ความพยายามปรับตัวของนักศึกษาจบใหม่
    บางคนหันไปเน้นทักษะมนุษย์ เช่น ความคิดสร้างสรรค์ เพื่อให้โดดเด่น
    บางคนเปลี่ยนสายงาน เช่น Mishra ที่หันไปทำงานด้านการขายเทคโนโลยี

    https://www.thestar.com.my/tech/tech-news/2025/08/14/goodbye-us165000-tech-jobs-student-coders-seek-work-at-chipotle
    🎙️เรื่องเล่าจากโลกไอที: จากเงินเดือนแสนห้า สู่การสมัครงานที่ Chipotle ย้อนกลับไปเมื่อสิบปีก่อน ถ้าคุณเรียนจบด้านคอมพิวเตอร์ วิทยาการข้อมูล หรือวิศวกรรมซอฟต์แวร์ คุณแทบจะเลือกได้เลยว่าจะทำงานที่ไหน เงินเดือนเริ่มต้นทะลุ $100,000 พร้อมโบนัสและหุ้นอีกหลายหมื่นดอลลาร์ หลายคนจึงมุ่งหน้าเข้าสู่สายนี้ด้วยความหวังว่าจะได้งานดี เงินดี และชีวิตมั่นคง แต่ในปี 2025 ภาพนั้นกลับเปลี่ยนไปอย่างสิ้นเชิง นักศึกษาจบใหม่อย่าง Manasi Mishra จากมหาวิทยาลัย Purdue เล่าว่าเธอเรียนเขียนโค้ดมาตั้งแต่เด็ก ทำเว็บไซต์ตั้งแต่ประถม และตั้งใจเรียนสายคอมเต็มที่ แต่หลังจากจบการศึกษา เธอกลับไม่ได้รับข้อเสนอจากบริษัทเทคโนโลยีเลย มีเพียง Chipotle ร้านอาหารที่เรียกเธอไปสัมภาษณ์ เหตุผลหลักคือบริษัทเทคโนโลยีใหญ่ ๆ อย่าง Amazon, Microsoft, Meta และ Intel ต่างลดจำนวนพนักงาน และหันไปใช้เครื่องมือ AI ที่สามารถเขียนโค้ดได้เอง เช่น GitHub Copilot, CodeRabbit หรือ Devin จาก Cognition AI ซึ่งสามารถเขียนและดีบักโค้ดได้จากคำสั่งภาษาธรรมชาติ ผลคือ ตำแหน่งงานระดับเริ่มต้นที่เคยเปิดรับนักศึกษาจบใหม่ ถูกแทนที่ด้วยระบบอัตโนมัติ และทำให้คนรุ่นใหม่ต้องหางานนอกสายที่เรียนมา บางคนสมัครงานที่ McDonald’s แต่ยังถูกปฏิเสธเพราะ “ไม่มีประสบการณ์” แม้จะมีความหวังว่า AI จะสร้างโอกาสใหม่ ๆ แต่ในระยะสั้น นักศึกษาจบใหม่กำลังเผชิญกับความท้าทายครั้งใหญ่ ทั้งจากการแข่งขันที่รุนแรง การคัดกรองด้วยระบบอัตโนมัติ และความรู้สึกว่าถูก “หลอก” ให้เรียนในสายที่ไม่มีงานรองรับ ✅ ความเปลี่ยนแปลงในตลาดแรงงานสายเทคโนโลยี ➡️ บริษัทเทคโนโลยีใหญ่ ๆ ลดจำนวนพนักงานและหันไปใช้ AI coding tools ➡️ ตำแหน่งงานระดับเริ่มต้นถูกลดลงอย่างมาก ทำให้นักศึกษาจบใหม่หางานยาก ✅ ความคาดหวังในอดีตที่ไม่เป็นจริง ➡️ นักศึกษาถูกกระตุ้นให้เรียนเขียนโค้ดด้วยสัญญาว่าจะได้งานเงินเดือนสูง ➡️ จำนวนผู้เรียนสายคอมพิวเตอร์เพิ่มขึ้นกว่าเท่าตัวในช่วง 10 ปีที่ผ่านมา ✅ การใช้ AI ในการเขียนโค้ดและคัดกรองผู้สมัคร ➡️ เครื่องมืออย่าง GitHub Copilot, CodeRabbit, Devin สามารถเขียนโค้ดได้จากคำสั่งภาษา ➡️ บริษัทใช้ AI คัดกรองใบสมัคร ทำให้ผู้สมัครถูกปฏิเสธโดยไม่มีโอกาสแสดงความสามารถ ✅ ความพยายามปรับตัวของนักศึกษาจบใหม่ ➡️ บางคนหันไปเน้นทักษะมนุษย์ เช่น ความคิดสร้างสรรค์ เพื่อให้โดดเด่น ➡️ บางคนเปลี่ยนสายงาน เช่น Mishra ที่หันไปทำงานด้านการขายเทคโนโลยี https://www.thestar.com.my/tech/tech-news/2025/08/14/goodbye-us165000-tech-jobs-student-coders-seek-work-at-chipotle
    WWW.THESTAR.COM.MY
    Goodbye, US$165,000 tech jobs. Student coders seek work at Chipotle.
    As companies like Amazon and Microsoft lay off workers and embrace A.I. coding tools, computer science graduates say they're struggling to land tech jobs.
    0 ความคิดเห็น 0 การแบ่งปัน 87 มุมมอง 0 รีวิว
  • เล่าให้ฟังใหม่: Intel เปิดตัวแคมเปญ “USAI” — เมื่อชิปกลายเป็นเรื่องของความมั่นคงชาติ

    Intel กำลังผลักดันแคมเปญใหม่ชื่อว่า “USAI” (United States Artificial Intelligence) เพื่อแสดงจุดยืนว่าเป็นบริษัทเดียวที่ผลิตชิปขั้นสูงบนแผ่นดินอเมริกา โดยเน้นความรักชาติ ความมั่นคง และความร่วมมือกับรัฐบาลสหรัฐฯ ทั้งในภาคพลเรือนและทหาร

    แคมเปญนี้เกิดขึ้นหลังจากซีอีโอคนใหม่ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน ซึ่งสร้างความกังวลด้านความมั่นคง Intel จึงต้องแสดงให้เห็นถึงความจงรักภักดีต่อสหรัฐฯ โดยเฉพาะในยุคที่ TSMC และ Samsung ครองตลาดชิปขั้นสูง

    Intel ยังประกาศความร่วมมือกับ EdgeRunner AI เพื่อพัฒนา “AI agents” สำหรับกองทัพสหรัฐฯ โดยใช้ชิปที่ทำงานแบบ air-gapped (ไม่เชื่อมต่ออินเทอร์เน็ต) เพื่อความปลอดภัยสูงสุด

    แม้จะมีความพยายามสร้างภาพลักษณ์ใหม่ แต่ Intel ยังเผชิญกับความท้าทายหลายด้าน ทั้งการล้าหลังด้านเทคโนโลยี การสูญเสียบุคลากรสำคัญ และความไม่มั่นใจจากพนักงานภายในองค์กร

    Intel เปิดตัวแคมเปญ “USAI” เพื่อแสดงความจงรักภักดีต่อสหรัฐฯ
    เน้นการผลิตชิปขั้นสูงบนแผ่นดินอเมริกา

    ซีอีโอ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน
    พบกับประธานาธิบดี Trump เพื่อเคลียร์ข้อสงสัย

    Intel ร่วมมือกับ EdgeRunner AI พัฒนา AI agents สำหรับกองทัพ
    ใช้ชิปแบบ air-gapped เพื่อความปลอดภัย

    Intel ระบุว่าเป็นบริษัทเดียวในสหรัฐฯ ที่ผลิตชิปขั้นสูงเอง
    ต่างจากบริษัทอื่นที่พึ่งพาโรงงานในต่างประเทศ

    แคมเปญ USAI มุ่งสร้างภาพลักษณ์ใหม่หลังถูก TSMC แซงหน้า
    หวังดึงความเชื่อมั่นจากรัฐบาลและตลาด

    https://wccftech.com/intel-unveils-usai-narrative-emphasizing-its-patriotic-mission/
    🇺🇸🔧 เล่าให้ฟังใหม่: Intel เปิดตัวแคมเปญ “USAI” — เมื่อชิปกลายเป็นเรื่องของความมั่นคงชาติ Intel กำลังผลักดันแคมเปญใหม่ชื่อว่า “USAI” (United States Artificial Intelligence) เพื่อแสดงจุดยืนว่าเป็นบริษัทเดียวที่ผลิตชิปขั้นสูงบนแผ่นดินอเมริกา โดยเน้นความรักชาติ ความมั่นคง และความร่วมมือกับรัฐบาลสหรัฐฯ ทั้งในภาคพลเรือนและทหาร แคมเปญนี้เกิดขึ้นหลังจากซีอีโอคนใหม่ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน ซึ่งสร้างความกังวลด้านความมั่นคง Intel จึงต้องแสดงให้เห็นถึงความจงรักภักดีต่อสหรัฐฯ โดยเฉพาะในยุคที่ TSMC และ Samsung ครองตลาดชิปขั้นสูง Intel ยังประกาศความร่วมมือกับ EdgeRunner AI เพื่อพัฒนา “AI agents” สำหรับกองทัพสหรัฐฯ โดยใช้ชิปที่ทำงานแบบ air-gapped (ไม่เชื่อมต่ออินเทอร์เน็ต) เพื่อความปลอดภัยสูงสุด แม้จะมีความพยายามสร้างภาพลักษณ์ใหม่ แต่ Intel ยังเผชิญกับความท้าทายหลายด้าน ทั้งการล้าหลังด้านเทคโนโลยี การสูญเสียบุคลากรสำคัญ และความไม่มั่นใจจากพนักงานภายในองค์กร ✅ Intel เปิดตัวแคมเปญ “USAI” เพื่อแสดงความจงรักภักดีต่อสหรัฐฯ ➡️ เน้นการผลิตชิปขั้นสูงบนแผ่นดินอเมริกา ✅ ซีอีโอ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน ➡️ พบกับประธานาธิบดี Trump เพื่อเคลียร์ข้อสงสัย ✅ Intel ร่วมมือกับ EdgeRunner AI พัฒนา AI agents สำหรับกองทัพ ➡️ ใช้ชิปแบบ air-gapped เพื่อความปลอดภัย ✅ Intel ระบุว่าเป็นบริษัทเดียวในสหรัฐฯ ที่ผลิตชิปขั้นสูงเอง ➡️ ต่างจากบริษัทอื่นที่พึ่งพาโรงงานในต่างประเทศ ✅ แคมเปญ USAI มุ่งสร้างภาพลักษณ์ใหม่หลังถูก TSMC แซงหน้า ➡️ หวังดึงความเชื่อมั่นจากรัฐบาลและตลาด https://wccftech.com/intel-unveils-usai-narrative-emphasizing-its-patriotic-mission/
    WCCFTECH.COM
    Intel Unveils ‘USAI’ Narrative, Emphasizing Its Patriotic Mission and Positioning Team Blue as America’s Sole Option for Advanced Chip Manufacturing
    Intel is now in the pursuit of showcasing its commitment to US manufacturing, especially after the recent political situation.
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน

    ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่

    APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake

    จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย

    Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด

    Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร
    แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป

    APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม
    โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์

    APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023
    และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200

    APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู
    ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ

    Intel ใช้ระบบทดสอบแบบ stock configuration
    หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล

    รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม
    แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2

    มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache
    เพื่อแข่งกับ Ryzen X3D ในด้านเกม

    https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    🎮⚙️ เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่ APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด ✅ Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร ➡️ แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป ✅ APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม ➡️ โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์ ✅ APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023 ➡️ และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200 ✅ APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู ➡️ ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ ✅ Intel ใช้ระบบทดสอบแบบ stock configuration ➡️ หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล ✅ รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม ➡️ แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2 ✅ มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache ➡️ เพื่อแข่งกับ Ryzen X3D ในด้านเกม https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    0 ความคิดเห็น 0 การแบ่งปัน 123 มุมมอง 0 รีวิว
  • Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix

    ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก

    LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า

    ฟีเจอร์เด่น ได้แก่:
    - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น
    - รองรับ speculative decoding และ torch.compile แบบ experimental
    - รองรับ embedding, rerank model และ multi-modal model
    - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้

    Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ

    Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix
    เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว

    รองรับ multi-GPU scaling และ PCIe P2P data transfer
    เพิ่มประสิทธิภาพสูงสุดถึง 80%

    ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B

    มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile
    ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล

    รองรับ embedding, rerank model และ multi-modal model
    ขยายขอบเขตการใช้งาน AI ได้หลากหลาย

    มีระบบ XPU Manager สำหรับจัดการ GPU
    ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้

    เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้
    รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่

    Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU
    ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+

    ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack
    ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น

    มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร
    ลดความเสี่ยงจากการทำงานผิดพลาด

    Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้
    โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า

    ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental
    เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร

    การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม
    หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ

    Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่
    ต้องรอรุ่น hardened และ full feature set ใน Q4

    การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม
    เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่

    https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    🧠⚙️ Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า ฟีเจอร์เด่น ได้แก่: - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น - รองรับ speculative decoding และ torch.compile แบบ experimental - รองรับ embedding, rerank model และ multi-modal model - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้ Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ ✅ Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix ➡️ เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว ✅ รองรับ multi-GPU scaling และ PCIe P2P data transfer ➡️ เพิ่มประสิทธิภาพสูงสุดถึง 80% ✅ ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens ➡️ ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B ✅ มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile ➡️ ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล ✅ รองรับ embedding, rerank model และ multi-modal model ➡️ ขยายขอบเขตการใช้งาน AI ได้หลากหลาย ✅ มีระบบ XPU Manager สำหรับจัดการ GPU ➡️ ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้ ✅ เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้ ➡️ รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่ ✅ Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU ➡️ ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+ ✅ ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack ➡️ ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น ✅ มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร ➡️ ลดความเสี่ยงจากการทำงานผิดพลาด ✅ Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้ ➡️ โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า ‼️ ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental ⛔ เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร ‼️ การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม ⛔ หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ ‼️ Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่ ⛔ ต้องรอรุ่น hardened และ full feature set ใน Q4 ‼️ การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม ⛔ เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่ https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    WCCFTECH.COM
    Intel's Project Battlematrix For Arc Pro GPUs Gets First Major Software Update: LLM Scaler v1.0 With Up To 80% Performance Uplift, Enhanced Support & More
    Intel has released the first major software for its Arc Pro "Project Battlematrix" solution, the LLM Scaler v1.0, with massive improvements.
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงาน Intel: เมื่อยักษ์ใหญ่ต้องสู้เพื่อความอยู่รอด

    Intel เคยเป็นผู้นำในโลกของชิปคอมพิวเตอร์ แต่วันนี้กลับต้องเผชิญกับแรงกดดันรอบด้าน ทั้งจากคู่แข่งอย่าง TSMC และ AMD, ปัญหาด้านเทคโนโลยีการผลิต, ความล้มเหลวในการออกแบบชิปใหม่, และแรงกดดันทางการเมืองและการเงิน

    หนึ่งในความหวังของ Intel คือเทคโนโลยีการผลิตใหม่ที่เรียกว่า “18A” ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร ที่มาพร้อมนวัตกรรม RibbonFET และ PowerVia เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน แต่การผลิตจริงกลับเต็มไปด้วยปัญหา “yield” หรืออัตราชิปที่ใช้งานได้ต่ำมาก บางช่วงอยู่ที่เพียง 5–10% เท่านั้น ซึ่งห่างไกลจากเป้าหมาย 70–80% ที่จำเป็นต่อการทำกำไร

    Intel จึงต้องชะลอการเปิดตัวชิป Panther Lake ที่ใช้ 18A ไปเป็นปี 2026 และอาจต้องหันไปพัฒนาเทคโนโลยีใหม่อย่าง “14A” แทน หากไม่สามารถดึงลูกค้าภายนอกมาใช้บริการ foundry ได้

    ทั้งหมดนี้เกิดขึ้นภายใต้ยุทธศาสตร์ IDM 2.0 ที่เปิดตัวในปี 2021 โดยอดีต CEO Pat Gelsinger ซึ่งตั้งเป้าให้ Intel กลับมาเป็นผู้นำด้านการผลิตชิปอีกครั้ง ทั้งในสหรัฐฯ และยุโรป แต่การเปลี่ยนแปลงนี้กลับนำไปสู่การปลดพนักงานกว่า 25,000 คน และการยกเลิกโครงการโรงงานหลายแห่งในเยอรมนีและโปแลนด์

    CEO คนใหม่ Lip-Bu Tan จึงต้องนำพา Intel ผ่านช่วงเวลาแห่งความเปลี่ยนแปลง ด้วยปรัชญา “ไม่มีเช็คเปล่า” และการเน้นผลลัพธ์มากกว่าการตลาด

    https://www.tomshardware.com/pc-components/cpus/all-the-pains-of-intel-from-cpu-design-and-process-technologies-to-internal-clashes-and-political-pressure
    🧠⚙️ เรื่องเล่าจากโรงงาน Intel: เมื่อยักษ์ใหญ่ต้องสู้เพื่อความอยู่รอด Intel เคยเป็นผู้นำในโลกของชิปคอมพิวเตอร์ แต่วันนี้กลับต้องเผชิญกับแรงกดดันรอบด้าน ทั้งจากคู่แข่งอย่าง TSMC และ AMD, ปัญหาด้านเทคโนโลยีการผลิต, ความล้มเหลวในการออกแบบชิปใหม่, และแรงกดดันทางการเมืองและการเงิน หนึ่งในความหวังของ Intel คือเทคโนโลยีการผลิตใหม่ที่เรียกว่า “18A” ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร ที่มาพร้อมนวัตกรรม RibbonFET และ PowerVia เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน แต่การผลิตจริงกลับเต็มไปด้วยปัญหา “yield” หรืออัตราชิปที่ใช้งานได้ต่ำมาก บางช่วงอยู่ที่เพียง 5–10% เท่านั้น ซึ่งห่างไกลจากเป้าหมาย 70–80% ที่จำเป็นต่อการทำกำไร Intel จึงต้องชะลอการเปิดตัวชิป Panther Lake ที่ใช้ 18A ไปเป็นปี 2026 และอาจต้องหันไปพัฒนาเทคโนโลยีใหม่อย่าง “14A” แทน หากไม่สามารถดึงลูกค้าภายนอกมาใช้บริการ foundry ได้ ทั้งหมดนี้เกิดขึ้นภายใต้ยุทธศาสตร์ IDM 2.0 ที่เปิดตัวในปี 2021 โดยอดีต CEO Pat Gelsinger ซึ่งตั้งเป้าให้ Intel กลับมาเป็นผู้นำด้านการผลิตชิปอีกครั้ง ทั้งในสหรัฐฯ และยุโรป แต่การเปลี่ยนแปลงนี้กลับนำไปสู่การปลดพนักงานกว่า 25,000 คน และการยกเลิกโครงการโรงงานหลายแห่งในเยอรมนีและโปแลนด์ CEO คนใหม่ Lip-Bu Tan จึงต้องนำพา Intel ผ่านช่วงเวลาแห่งความเปลี่ยนแปลง ด้วยปรัชญา “ไม่มีเช็คเปล่า” และการเน้นผลลัพธ์มากกว่าการตลาด https://www.tomshardware.com/pc-components/cpus/all-the-pains-of-intel-from-cpu-design-and-process-technologies-to-internal-clashes-and-political-pressure
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชั้นในของชิป: CT scan เผยความลับของ Intel 386 ที่ซ่อนอยู่ใต้เซรามิก

    ในยุคที่ชิปสมัยใหม่มีขนาดเล็กลงและซับซ้อนขึ้นเรื่อย ๆ Ken Shirriff นักวิจัยด้านฮาร์ดแวร์ได้ใช้เทคโนโลยี CT scan เพื่อเปิดเผยโครงสร้างภายในของ Intel 386—ชิประดับตำนานจากยุค 1980 ที่ถือเป็นจุดเริ่มต้นของ x86 แบบ 32 บิต

    แม้ภายนอกจะดูเหมือนเซรามิกสีเทาพร้อมขา 132 ขา แต่ภายในกลับซ่อนวิศวกรรมระดับสูงไว้มากมาย โดย CT scan ให้ภาพ X-ray หลายร้อยชั้นที่สามารถรวมเป็นโมเดล 3D เพื่อหมุน ดู และ “ลอก” ชั้นต่าง ๆ ได้แบบดิจิทัล

    สิ่งที่พบมีตั้งแต่สายทองคำขนาด 35 ไมโครเมตรที่เชื่อมระหว่าง die กับแผงวงจร ไปจนถึงโครงสร้างวงจร 6 ชั้นที่ซ่อนอยู่ภายในเซรามิก ซึ่งประกอบด้วย 2 ชั้นสำหรับสัญญาณ และ 4 ชั้นสำหรับพลังงานและกราวด์ โดยใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่นของการเชื่อมต่อ

    นอกจากนี้ยังพบสายไฟข้างชิปที่ใช้ในขั้นตอนชุบทอง ซึ่งปกติจะไม่ปรากฏให้เห็น รวมถึงการออกแบบที่รองรับการกระจายความร้อนด้วยอีพ็อกซีผสมเงินใต้ die เพื่อให้ชิปทำงานได้เสถียร

    ที่น่าสนใจคือ มีขาบางขาในแพ็กเกจที่ระบุว่า “No Connect” แต่จริง ๆ แล้วมีการเชื่อมต่อภายใน die ซึ่งอาจใช้สำหรับการทดสอบหรือฟังก์ชันลับที่ Intel ไม่เคยเปิดเผย

    Ken Shirriff ใช้ CT scan สำรวจโครงสร้างภายในของ Intel 386 CPU
    สร้างโมเดล 3D ที่สามารถหมุนและลอกชั้นต่าง ๆ ได้แบบดิจิทัล

    พบสายทองคำขนาด 35 µm เชื่อมระหว่าง die กับแผงวงจร
    บางจุดมีถึง 5 เส้นเพื่อรองรับกระแสไฟสูง

    แพ็กเกจภายในเป็นวงจร 6 ชั้น: 2 ชั้นสัญญาณ + 4 ชั้นพลังงาน
    ใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่น

    พบสายไฟด้านข้างที่ใช้ชุบทองในขั้นตอนการผลิต
    ยืนยันด้วยการขัดเซรามิกให้ตรงกับภาพ CT

    ใต้ die มีอีพ็อกซีผสมเงินเพื่อระบายความร้อนและเชื่อมกราวด์
    ช่วยให้ชิปทำงานได้เสถียรภายใต้โหลด

    พบขา “No Connect” ที่มีการเชื่อมต่อภายใน die จริง
    อาจใช้สำหรับการทดสอบหรือฟังก์ชันลับของ Intel

    https://www.tomshardware.com/pc-components/cpus/ct-scan-peels-back-the-layers-of-time-to-reveal-the-engineering-within-intels-iconic-386-cpu-exposing-intricate-pin-mapping-hidden-power-planes-and-more
    🔬💾 เรื่องเล่าจากชั้นในของชิป: CT scan เผยความลับของ Intel 386 ที่ซ่อนอยู่ใต้เซรามิก ในยุคที่ชิปสมัยใหม่มีขนาดเล็กลงและซับซ้อนขึ้นเรื่อย ๆ Ken Shirriff นักวิจัยด้านฮาร์ดแวร์ได้ใช้เทคโนโลยี CT scan เพื่อเปิดเผยโครงสร้างภายในของ Intel 386—ชิประดับตำนานจากยุค 1980 ที่ถือเป็นจุดเริ่มต้นของ x86 แบบ 32 บิต แม้ภายนอกจะดูเหมือนเซรามิกสีเทาพร้อมขา 132 ขา แต่ภายในกลับซ่อนวิศวกรรมระดับสูงไว้มากมาย โดย CT scan ให้ภาพ X-ray หลายร้อยชั้นที่สามารถรวมเป็นโมเดล 3D เพื่อหมุน ดู และ “ลอก” ชั้นต่าง ๆ ได้แบบดิจิทัล สิ่งที่พบมีตั้งแต่สายทองคำขนาด 35 ไมโครเมตรที่เชื่อมระหว่าง die กับแผงวงจร ไปจนถึงโครงสร้างวงจร 6 ชั้นที่ซ่อนอยู่ภายในเซรามิก ซึ่งประกอบด้วย 2 ชั้นสำหรับสัญญาณ และ 4 ชั้นสำหรับพลังงานและกราวด์ โดยใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่นของการเชื่อมต่อ นอกจากนี้ยังพบสายไฟข้างชิปที่ใช้ในขั้นตอนชุบทอง ซึ่งปกติจะไม่ปรากฏให้เห็น รวมถึงการออกแบบที่รองรับการกระจายความร้อนด้วยอีพ็อกซีผสมเงินใต้ die เพื่อให้ชิปทำงานได้เสถียร ที่น่าสนใจคือ มีขาบางขาในแพ็กเกจที่ระบุว่า “No Connect” แต่จริง ๆ แล้วมีการเชื่อมต่อภายใน die ซึ่งอาจใช้สำหรับการทดสอบหรือฟังก์ชันลับที่ Intel ไม่เคยเปิดเผย ✅ Ken Shirriff ใช้ CT scan สำรวจโครงสร้างภายในของ Intel 386 CPU ➡️ สร้างโมเดล 3D ที่สามารถหมุนและลอกชั้นต่าง ๆ ได้แบบดิจิทัล ✅ พบสายทองคำขนาด 35 µm เชื่อมระหว่าง die กับแผงวงจร ➡️ บางจุดมีถึง 5 เส้นเพื่อรองรับกระแสไฟสูง ✅ แพ็กเกจภายในเป็นวงจร 6 ชั้น: 2 ชั้นสัญญาณ + 4 ชั้นพลังงาน ➡️ ใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่น ✅ พบสายไฟด้านข้างที่ใช้ชุบทองในขั้นตอนการผลิต ➡️ ยืนยันด้วยการขัดเซรามิกให้ตรงกับภาพ CT ✅ ใต้ die มีอีพ็อกซีผสมเงินเพื่อระบายความร้อนและเชื่อมกราวด์ ➡️ ช่วยให้ชิปทำงานได้เสถียรภายใต้โหลด ✅ พบขา “No Connect” ที่มีการเชื่อมต่อภายใน die จริง ➡️ อาจใช้สำหรับการทดสอบหรือฟังก์ชันลับของ Intel https://www.tomshardware.com/pc-components/cpus/ct-scan-peels-back-the-layers-of-time-to-reveal-the-engineering-within-intels-iconic-386-cpu-exposing-intricate-pin-mapping-hidden-power-planes-and-more
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเบื้องหลังเบราว์เซอร์: Firefox กับ AI ที่กินซีพียูจนเครื่องแทบไหม้

    Mozilla เปิดตัวฟีเจอร์ใหม่ใน Firefox เวอร์ชัน 141.x ที่ชื่อว่า “AI-enhanced tab groups” โดยใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บที่คล้ายกันและตั้งชื่อกลุ่มให้อัตโนมัติ จุดเด่นคือทุกอย่างทำงานบนเครื่องผู้ใช้ ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ เพื่อรักษาความเป็นส่วนตัว

    แต่แทนที่จะได้รับคำชม กลับเกิดเสียงบ่นจากผู้ใช้จำนวนมาก โดยเฉพาะใน Reddit ที่พบว่า CPU และพลังงานถูกใช้มากผิดปกติจาก process ที่ชื่อว่า “Inference” ซึ่งบางครั้งกิน CPU ถึง 130% และทำให้แบตเตอรี่หมดเร็วอย่างเห็นได้ชัด

    ผู้ใช้บางคนพยายาม kill process นี้ แต่ Firefox กลับ crash ทันที ทำให้เกิดความไม่พอใจว่า “แค่จัดกลุ่มแท็บ ทำไมต้องใช้พลังงานขนาดนี้?” หลายคนเรียกร้องให้ Mozilla เพิ่มตัวเลือกเปิด/ปิดฟีเจอร์นี้ได้ง่ายขึ้น

    แม้ Mozilla จะใช้วิธี progressive rollout คือเปิดฟีเจอร์นี้ทีละกลุ่มผู้ใช้เพื่อเก็บ feedback แต่ก็ยังไม่มีการแก้ไขใน release notes ล่าสุด และยังไม่มีคำชี้แจงชัดเจนเรื่องการใช้ทรัพยากรที่สูงเกินไป

    Firefox เวอร์ชัน 141.x เปิดตัวฟีเจอร์ AI-enhanced tab groups
    ใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บและตั้งชื่อให้อัตโนมัติ

    ฟีเจอร์นี้ทำงานบนเครื่องผู้ใช้ทั้งหมดเพื่อรักษาความเป็นส่วนตัว
    ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Mozilla

    ผู้ใช้พบว่า process ชื่อ “Inference” ใช้ CPU สูงผิดปกติ
    บางครั้งพุ่งถึง 130% และทำให้แบตเตอรี่หมดเร็ว

    การ kill process “Inference” ทำให้ Firefox crash ทันที
    แสดงถึงการพึ่งพา process นี้อย่างหนักในระบบ

    Mozilla ใช้วิธี progressive rollout เพื่อเปิดฟีเจอร์ทีละกลุ่ม
    หวังเก็บ feedback เพื่อปรับปรุงก่อนปล่อยเต็มรูปแบบ

    ไม่มีการกล่าวถึง bug นี้ใน release notes ล่าสุด
    ผู้ใช้ยังไม่แน่ใจว่า Mozilla รับรู้ปัญหานี้หรือไม่

    ระบบ AI ใช้ embedding model เพื่อวิเคราะห์ชื่อแท็บ
    สร้าง vector แล้วใช้ clustering algorithm เพื่อจัดกลุ่ม

    การตั้งชื่อกลุ่มใช้ smart-tab-topic model ที่อิงจาก Google T5
    วิเคราะห์ metadata และชื่อแท็บเพื่อเสนอชื่อกลุ่ม

    Firefox ใช้ ONNX format สำหรับโมเดล AI
    บางคนเสนอว่า GGUF อาจมีประสิทธิภาพดีกว่า

    ฟีเจอร์นี้คล้ายกับ Tab Organizer ของ Chrome แต่เน้นความเป็นส่วนตัว
    Chrome ส่งข้อมูลไปเซิร์ฟเวอร์ Google ขณะที่ Firefox ทำงานบนเครื่อง

    Mozilla ยังไม่ออก patch หรือคำชี้แจงอย่างเป็นทางการ
    อาจทำให้ความเชื่อมั่นใน Firefox ลดลงในกลุ่มผู้ใช้ที่เน้นประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/new-local-ai-integration-into-firefox-spurs-complaints-of-cpu-going-nuts-chip-and-power-spikes-plague-new-version-141-x
    🧠🔥 เรื่องเล่าจากเบื้องหลังเบราว์เซอร์: Firefox กับ AI ที่กินซีพียูจนเครื่องแทบไหม้ Mozilla เปิดตัวฟีเจอร์ใหม่ใน Firefox เวอร์ชัน 141.x ที่ชื่อว่า “AI-enhanced tab groups” โดยใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บที่คล้ายกันและตั้งชื่อกลุ่มให้อัตโนมัติ จุดเด่นคือทุกอย่างทำงานบนเครื่องผู้ใช้ ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ เพื่อรักษาความเป็นส่วนตัว แต่แทนที่จะได้รับคำชม กลับเกิดเสียงบ่นจากผู้ใช้จำนวนมาก โดยเฉพาะใน Reddit ที่พบว่า CPU และพลังงานถูกใช้มากผิดปกติจาก process ที่ชื่อว่า “Inference” ซึ่งบางครั้งกิน CPU ถึง 130% และทำให้แบตเตอรี่หมดเร็วอย่างเห็นได้ชัด ผู้ใช้บางคนพยายาม kill process นี้ แต่ Firefox กลับ crash ทันที ทำให้เกิดความไม่พอใจว่า “แค่จัดกลุ่มแท็บ ทำไมต้องใช้พลังงานขนาดนี้?” หลายคนเรียกร้องให้ Mozilla เพิ่มตัวเลือกเปิด/ปิดฟีเจอร์นี้ได้ง่ายขึ้น แม้ Mozilla จะใช้วิธี progressive rollout คือเปิดฟีเจอร์นี้ทีละกลุ่มผู้ใช้เพื่อเก็บ feedback แต่ก็ยังไม่มีการแก้ไขใน release notes ล่าสุด และยังไม่มีคำชี้แจงชัดเจนเรื่องการใช้ทรัพยากรที่สูงเกินไป ✅ Firefox เวอร์ชัน 141.x เปิดตัวฟีเจอร์ AI-enhanced tab groups ➡️ ใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บและตั้งชื่อให้อัตโนมัติ ✅ ฟีเจอร์นี้ทำงานบนเครื่องผู้ใช้ทั้งหมดเพื่อรักษาความเป็นส่วนตัว ➡️ ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Mozilla ✅ ผู้ใช้พบว่า process ชื่อ “Inference” ใช้ CPU สูงผิดปกติ ➡️ บางครั้งพุ่งถึง 130% และทำให้แบตเตอรี่หมดเร็ว ✅ การ kill process “Inference” ทำให้ Firefox crash ทันที ➡️ แสดงถึงการพึ่งพา process นี้อย่างหนักในระบบ ✅ Mozilla ใช้วิธี progressive rollout เพื่อเปิดฟีเจอร์ทีละกลุ่ม ➡️ หวังเก็บ feedback เพื่อปรับปรุงก่อนปล่อยเต็มรูปแบบ ✅ ไม่มีการกล่าวถึง bug นี้ใน release notes ล่าสุด ➡️ ผู้ใช้ยังไม่แน่ใจว่า Mozilla รับรู้ปัญหานี้หรือไม่ ✅ ระบบ AI ใช้ embedding model เพื่อวิเคราะห์ชื่อแท็บ ➡️ สร้าง vector แล้วใช้ clustering algorithm เพื่อจัดกลุ่ม ✅ การตั้งชื่อกลุ่มใช้ smart-tab-topic model ที่อิงจาก Google T5 ➡️ วิเคราะห์ metadata และชื่อแท็บเพื่อเสนอชื่อกลุ่ม ✅ Firefox ใช้ ONNX format สำหรับโมเดล AI ➡️ บางคนเสนอว่า GGUF อาจมีประสิทธิภาพดีกว่า ✅ ฟีเจอร์นี้คล้ายกับ Tab Organizer ของ Chrome แต่เน้นความเป็นส่วนตัว ➡️ Chrome ส่งข้อมูลไปเซิร์ฟเวอร์ Google ขณะที่ Firefox ทำงานบนเครื่อง ‼️ Mozilla ยังไม่ออก patch หรือคำชี้แจงอย่างเป็นทางการ ⛔ อาจทำให้ความเชื่อมั่นใน Firefox ลดลงในกลุ่มผู้ใช้ที่เน้นประสิทธิภาพ https://www.tomshardware.com/tech-industry/artificial-intelligence/new-local-ai-integration-into-firefox-spurs-complaints-of-cpu-going-nuts-chip-and-power-spikes-plague-new-version-141-x
    WWW.TOMSHARDWARE.COM
    New local AI integration into Firefox spurs complaints of ‘CPU going nuts’ — chip and power spikes plague new version 141.x
    CPU and power spikes appear to come from inference process related to ‘AI-enhanced tab groups.’
    0 ความคิดเห็น 0 การแบ่งปัน 191 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนามเกม: Copilot Gaming ผู้ช่วย AI ที่เข้าใจเกมของคุณ

    Microsoft กำลังเปลี่ยนวิธีที่เราสื่อสารกับเกม ด้วยการเปิดตัว “Copilot for Gaming” เวอร์ชัน Beta สำหรับผู้ใช้ Xbox Insiders บน Windows PC ผ่าน Game Bar โดยเป้าหมายคือการสร้าง “ผู้ช่วยเกม” ที่รู้ว่าเรากำลังเล่นอะไร และสามารถให้คำแนะนำแบบเรียลไทม์เมื่อเราติดอยู่ในด่านยากหรือไม่รู้จะทำอะไรต่อ

    ฟีเจอร์เด่นของ Copilot Gaming ได้แก่:
    - Voice Mode: พูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม โดยไม่ต้องพิมพ์หรือออกจากหน้าจอ
    - Screenshot Analysis: AI สามารถดูภาพหน้าจอของเกมที่เรากำลังเล่น เพื่อให้คำแนะนำที่ตรงจุด
    - Game Awareness: รู้ว่าเรากำลังเล่นเกมอะไร และสามารถให้คำแนะนำเฉพาะเกม เช่น วิธีผ่านบอส หรือเลือกตัวละครที่เหมาะกับทีม

    Copilot ยังสามารถตอบคำถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่ที่น่าสนใจ โดยไม่ต้องออกจากเกมหรือเปิดเบราว์เซอร์ค้นหา

    แม้จะยังอยู่ในช่วง Beta และเปิดให้ใช้เฉพาะบางประเทศ เช่น สหรัฐฯ ญี่ปุ่น สิงคโปร์ และออสเตรเลีย แต่ Microsoft มีแผนจะขยายฟีเจอร์นี้ไปยังผู้ใช้ทั่วไปในอนาคต พร้อมเพิ่มความสามารถด้านการโค้ชเกมแบบ proactive และการปรับแต่งตามผู้เล่นแต่ละคน

    Microsoft เปิดตัว Copilot for Gaming (Beta) สำหรับ Xbox Insiders บน Windows PC
    ใช้งานผ่าน Game Bar โดยกด Windows + G แล้วเลือกไอคอน Gaming Copilot

    ฟีเจอร์ Voice Mode ช่วยให้ผู้เล่นพูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม
    ไม่ต้องพิมพ์หรือออกจากหน้าจอเกม

    AI สามารถวิเคราะห์ภาพหน้าจอเพื่อให้คำแนะนำที่ตรงจุด
    เช่น วิธีผ่านด่านหรือแก้ปริศนา

    Copilot รู้ว่าเรากำลังเล่นเกมอะไร และให้คำแนะนำเฉพาะเกม
    เช่น Minecraft, Overwatch 2, หรือเกมอื่น ๆ ที่รองรับ

    ผู้ใช้สามารถถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่
    ทำให้ประสบการณ์เกมเป็นส่วนตัวมากขึ้น

    เปิดให้ใช้เฉพาะบางประเทศและเฉพาะผู้ที่อายุ 18 ปีขึ้นไป
    เช่น สหรัฐฯ ออสเตรเลีย ญี่ปุ่น สิงคโปร์ และอื่น ๆ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-brings-ai-powered-assistance-to-gaming-copilot-gaming-beta-and-copilot-3d-creative-features-went-live-this-week
    🎮🤖 เรื่องเล่าจากสนามเกม: Copilot Gaming ผู้ช่วย AI ที่เข้าใจเกมของคุณ Microsoft กำลังเปลี่ยนวิธีที่เราสื่อสารกับเกม ด้วยการเปิดตัว “Copilot for Gaming” เวอร์ชัน Beta สำหรับผู้ใช้ Xbox Insiders บน Windows PC ผ่าน Game Bar โดยเป้าหมายคือการสร้าง “ผู้ช่วยเกม” ที่รู้ว่าเรากำลังเล่นอะไร และสามารถให้คำแนะนำแบบเรียลไทม์เมื่อเราติดอยู่ในด่านยากหรือไม่รู้จะทำอะไรต่อ ฟีเจอร์เด่นของ Copilot Gaming ได้แก่: - Voice Mode: พูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม โดยไม่ต้องพิมพ์หรือออกจากหน้าจอ - Screenshot Analysis: AI สามารถดูภาพหน้าจอของเกมที่เรากำลังเล่น เพื่อให้คำแนะนำที่ตรงจุด - Game Awareness: รู้ว่าเรากำลังเล่นเกมอะไร และสามารถให้คำแนะนำเฉพาะเกม เช่น วิธีผ่านบอส หรือเลือกตัวละครที่เหมาะกับทีม Copilot ยังสามารถตอบคำถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่ที่น่าสนใจ โดยไม่ต้องออกจากเกมหรือเปิดเบราว์เซอร์ค้นหา แม้จะยังอยู่ในช่วง Beta และเปิดให้ใช้เฉพาะบางประเทศ เช่น สหรัฐฯ ญี่ปุ่น สิงคโปร์ และออสเตรเลีย แต่ Microsoft มีแผนจะขยายฟีเจอร์นี้ไปยังผู้ใช้ทั่วไปในอนาคต พร้อมเพิ่มความสามารถด้านการโค้ชเกมแบบ proactive และการปรับแต่งตามผู้เล่นแต่ละคน ✅ Microsoft เปิดตัว Copilot for Gaming (Beta) สำหรับ Xbox Insiders บน Windows PC ➡️ ใช้งานผ่าน Game Bar โดยกด Windows + G แล้วเลือกไอคอน Gaming Copilot ✅ ฟีเจอร์ Voice Mode ช่วยให้ผู้เล่นพูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม ➡️ ไม่ต้องพิมพ์หรือออกจากหน้าจอเกม ✅ AI สามารถวิเคราะห์ภาพหน้าจอเพื่อให้คำแนะนำที่ตรงจุด ➡️ เช่น วิธีผ่านด่านหรือแก้ปริศนา ✅ Copilot รู้ว่าเรากำลังเล่นเกมอะไร และให้คำแนะนำเฉพาะเกม ➡️ เช่น Minecraft, Overwatch 2, หรือเกมอื่น ๆ ที่รองรับ ✅ ผู้ใช้สามารถถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่ ➡️ ทำให้ประสบการณ์เกมเป็นส่วนตัวมากขึ้น ✅ เปิดให้ใช้เฉพาะบางประเทศและเฉพาะผู้ที่อายุ 18 ปีขึ้นไป ➡️ เช่น สหรัฐฯ ออสเตรเลีย ญี่ปุ่น สิงคโปร์ และอื่น ๆ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-brings-ai-powered-assistance-to-gaming-copilot-gaming-beta-and-copilot-3d-creative-features-went-live-this-week
    0 ความคิดเห็น 0 การแบ่งปัน 171 มุมมอง 0 รีวิว
  • เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล

    ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์

    Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร

    นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์

    แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง

    Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026
    เป็นส่วนหนึ่งของ Core Ultra 400 Series

    รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E)
    พร้อม GPU Xe3 จำนวน 4 คอร์

    รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์
    เหมาะสำหรับโน้ตบุ๊กระดับกลาง

    รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์
    ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์

    ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU)
    รองรับงาน AI, ML และ cloud computing

    https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    🧠💻 เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์ Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์ แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง ✅ Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026 ➡️ เป็นส่วนหนึ่งของ Core Ultra 400 Series ✅ รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E) ➡️ พร้อม GPU Xe3 จำนวน 4 คอร์ ✅ รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ➡️ เหมาะสำหรับโน้ตบุ๊กระดับกลาง ✅ รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์ ➡️ ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์ ✅ ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU) ➡️ รองรับงาน AI, ML และ cloud computing https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    WCCFTECH.COM
    Intel Nova Lake Mobile CPU Lineup Leaks Out: Entry-Level SKUs Starting at 6 Cores, Nova Lake-HX With 28 Cores
    Core configurations of Intel's next-generation Nova Lake CPUs have leaked out, which point to up to 28 CPU cores & 12 GPU cores.
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเชื่อมต่อ: XConn เปิดตัว Apollo 2 สวิตช์ PCIe Gen 6.2 + CXL 3.1 ที่อาจเปลี่ยนโฉมศูนย์ข้อมูล AI

    ในงาน Future of Memory and Storage Summit (FMS25) ปี 2025 บริษัท XConn Technologies ได้เปิดตัว Apollo 2 ซึ่งเป็นสวิตช์ไฮบริดตัวแรกของโลกที่รวมเทคโนโลยี PCIe Gen 6.2 และ CXL 3.1 ไว้ในชิปเดียว จุดประสงค์คือเพื่อรองรับความต้องการด้าน bandwidth และ latency ที่สูงขึ้นในงานประมวลผล AI และศูนย์ข้อมูลยุคใหม่

    Apollo 2 ถูกออกแบบมาเพื่อแก้ปัญหาคอขวดของหน่วยความจำ และเพิ่มความยืดหยุ่นในการออกแบบระบบ โดยสามารถเชื่อมต่อระหว่าง CPU, GPU, และ accelerator ได้อย่างมีประสิทธิภาพผ่าน shared memory pool ด้วย CXL 3.1 ขณะเดียวกัน PCIe Gen 6.2 ก็ช่วยให้การส่งข้อมูลระหว่างอุปกรณ์เร็วขึ้นถึงระดับ 128GB/s แบบ bidirectional

    XConn ยังร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างระบบที่สามารถใช้งานได้จริงในระดับ production โดยมีเป้าหมายเพื่อสร้างโครงสร้างพื้นฐานที่พร้อมสำหรับ AI/ML training, cloud computing และ composable infrastructure

    แม้จะมีความหวังสูง แต่ก็ยังไม่มีข้อมูล benchmark ที่ชัดเจนว่าประสิทธิภาพจะเหนือกว่า PCIe Gen 5 มากแค่ไหน และการใช้งานจริงยังต้องรอการพิสูจน์ในภาคสนาม

    XConn เปิดตัว Apollo 2 สวิตช์ไฮบริดที่รวม PCIe Gen 6.2 และ CXL 3.1
    เป็นชิปตัวแรกที่รวมสองเทคโนโลยีไว้ในตัวเดียว

    เปิดตัวในงาน FMS25 เพื่อโชว์การทำงานแบบ end-to-end
    รองรับ AI/ML training, cloud computing และ composable infrastructure

    ร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack
    เพื่อสร้างระบบที่ใช้งานได้จริงในระดับ production

    Apollo 2 รองรับการเชื่อมต่อตั้งแต่ 64 ถึง 260 lanes
    เพิ่มความสามารถในการปรับขนาดและความหนาแน่นของระบบ

    มีการร่วมมือกับ ScaleFlux เพื่อปรับปรุงการทำงานร่วมกับ CXL 3.1
    เพื่อรองรับงาน AI และ cloud infrastructure ได้ดียิ่งขึ้น

    https://www.techradar.com/pro/the-next-stage-in-ai-power-xconn-set-to-reveal-end-to-end-pcie-gen-6-offering-higher-bandwidth-than-ever
    🚀🔗 เรื่องเล่าจากชิปเชื่อมต่อ: XConn เปิดตัว Apollo 2 สวิตช์ PCIe Gen 6.2 + CXL 3.1 ที่อาจเปลี่ยนโฉมศูนย์ข้อมูล AI ในงาน Future of Memory and Storage Summit (FMS25) ปี 2025 บริษัท XConn Technologies ได้เปิดตัว Apollo 2 ซึ่งเป็นสวิตช์ไฮบริดตัวแรกของโลกที่รวมเทคโนโลยี PCIe Gen 6.2 และ CXL 3.1 ไว้ในชิปเดียว จุดประสงค์คือเพื่อรองรับความต้องการด้าน bandwidth และ latency ที่สูงขึ้นในงานประมวลผล AI และศูนย์ข้อมูลยุคใหม่ Apollo 2 ถูกออกแบบมาเพื่อแก้ปัญหาคอขวดของหน่วยความจำ และเพิ่มความยืดหยุ่นในการออกแบบระบบ โดยสามารถเชื่อมต่อระหว่าง CPU, GPU, และ accelerator ได้อย่างมีประสิทธิภาพผ่าน shared memory pool ด้วย CXL 3.1 ขณะเดียวกัน PCIe Gen 6.2 ก็ช่วยให้การส่งข้อมูลระหว่างอุปกรณ์เร็วขึ้นถึงระดับ 128GB/s แบบ bidirectional XConn ยังร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างระบบที่สามารถใช้งานได้จริงในระดับ production โดยมีเป้าหมายเพื่อสร้างโครงสร้างพื้นฐานที่พร้อมสำหรับ AI/ML training, cloud computing และ composable infrastructure แม้จะมีความหวังสูง แต่ก็ยังไม่มีข้อมูล benchmark ที่ชัดเจนว่าประสิทธิภาพจะเหนือกว่า PCIe Gen 5 มากแค่ไหน และการใช้งานจริงยังต้องรอการพิสูจน์ในภาคสนาม ✅ XConn เปิดตัว Apollo 2 สวิตช์ไฮบริดที่รวม PCIe Gen 6.2 และ CXL 3.1 ➡️ เป็นชิปตัวแรกที่รวมสองเทคโนโลยีไว้ในตัวเดียว ✅ เปิดตัวในงาน FMS25 เพื่อโชว์การทำงานแบบ end-to-end ➡️ รองรับ AI/ML training, cloud computing และ composable infrastructure ✅ ร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ➡️ เพื่อสร้างระบบที่ใช้งานได้จริงในระดับ production ✅ Apollo 2 รองรับการเชื่อมต่อตั้งแต่ 64 ถึง 260 lanes ➡️ เพิ่มความสามารถในการปรับขนาดและความหนาแน่นของระบบ ✅ มีการร่วมมือกับ ScaleFlux เพื่อปรับปรุงการทำงานร่วมกับ CXL 3.1 ➡️ เพื่อรองรับงาน AI และ cloud infrastructure ได้ดียิ่งขึ้น https://www.techradar.com/pro/the-next-stage-in-ai-power-xconn-set-to-reveal-end-to-end-pcie-gen-6-offering-higher-bandwidth-than-ever
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องประชุม Intel: เมื่อประธานบอร์ดพยายามขายโรงงานให้ TSMC แต่ซีอีโอขัดขวางเต็มกำลัง

    ในช่วงต้นปี 2025 เกิดความขัดแย้งครั้งใหญ่ภายใน Intel เมื่อ Frank Yeary ประธานบอร์ดของบริษัทพยายามผลักดันแผนการขายหรือแยกกิจการโรงงานผลิตชิป (Intel Foundry) ไปให้ TSMC หรือสร้างบริษัทร่วมทุนกับ Broadcom และ Nvidia โดยให้ TSMC เข้ามาควบคุมการผลิตและ “แก้ไข” เทคโนโลยีของ Intel ที่ล่าช้า

    แต่ Lip-Bu Tan ซีอีโอคนใหม่ที่เพิ่งเข้ารับตำแหน่งในเดือนมีนาคม กลับมองว่าการผลิตชิปภายในเป็นหัวใจของความสามารถในการแข่งขันของ Intel และเป็นสิ่งสำคัญต่อความมั่นคงของห่วงโซ่อุปทานของสหรัฐฯ เขาจึงคัดค้านแผนนี้อย่างหนัก ทำให้เกิดความขัดแย้งในบอร์ดบริหาร และส่งผลให้แผนกลยุทธ์หลายอย่างของ Tan ถูกชะลอหรือถูกขัดขวาง

    แม้บอร์ดจะยังแสดงการสนับสนุน Tan อย่างเป็นทางการ แต่แรงกดดันภายในและภายนอกก็เพิ่มขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ TSMC เองก็ไม่สนใจซื้อโรงงานของ Intel เนื่องจากความแตกต่างด้านเทคโนโลยี เช่น ระบบ EUV ที่ใช้ต่างกัน และความเสี่ยงด้านธุรกิจที่ไม่คุ้มค่าการลงทุน

    Frank Yeary ประธานบอร์ด Intel พยายามขายหรือแยกกิจการโรงงานผลิตชิปให้ TSMC
    เสนอให้ TSMC และบริษัท fabless อย่าง Broadcom/Nvidia ร่วมลงทุน

    Lip-Bu Tan ซีอีโอคนใหม่คัดค้านแผนนี้อย่างหนัก
    เห็นว่าการผลิตภายในเป็นสิ่งสำคัญต่อความสามารถแข่งขันและความมั่นคงของสหรัฐฯ

    ความขัดแย้งในบอร์ดทำให้แผนกลยุทธ์ของ Tan ถูกชะลอหรือถูกขัดขวาง
    รวมถึงแผนระดมทุนและการเข้าซื้อบริษัท AI เพื่อแข่งกับ Nvidia และ AMD

    TSMC ไม่สนใจซื้อโรงงานของ Intel ด้วยเหตุผลทางเทคนิคและธุรกิจ
    เช่น ความแตกต่างด้าน EUV, เครื่องมือ, วัสดุ และความเสี่ยงด้าน yield

    Intel และ TSMC ใช้ระบบการผลิตที่แตกต่างกันแม้จะใช้เครื่องมือจาก ASML เหมือนกัน
    การย้ายเทคโนโลยีข้ามบริษัทอาจทำให้เกิด yield loss และต้นทุนสูง

    TSMC สนใจลงทุนในโรงงานสหรัฐฯ ของตัวเองมากกว่า
    ประกาศลงทุนสูงถึง $165B เพื่อหลีกเลี่ยงภาษีจากรัฐบาลสหรัฐฯ

    Intel Foundry เป็นความพยายามของ Intel ที่จะกลับมาแข่งขันในตลาดการผลิตชิป
    โดยเน้นเทคโนโลยี Intel 3 และ Intel 18A

    การแยกกิจการโรงงานอาจทำให้ Intel สูญเสียการควบคุมด้านเทคโนโลยี
    และกลายเป็นบริษัท fabless ที่ต้องพึ่งพาผู้ผลิตภายนอก

    การร่วมทุนกับ TSMC อาจทำให้เกิดความขัดแย้งด้านการจัดสรรทรัพยากร
    เช่น การแบ่ง capacity ระหว่างลูกค้า Intel และ TSMC

    การล่าช้าในการเข้าซื้อบริษัท AI ทำให้ Intel เสียโอกาสในการแข่งขัน
    บริษัทเป้าหมายถูกซื้อโดยบริษัทเทคโนโลยีอื่นแทน

    https://www.tomshardware.com/tech-industry/semiconductors/intels-chairman-reportedly-tried-to-broker-a-deal-to-sell-fabs-to-tsmc-ceo-lip-bu-tan-opposed
    🏭⚔️ เรื่องเล่าจากห้องประชุม Intel: เมื่อประธานบอร์ดพยายามขายโรงงานให้ TSMC แต่ซีอีโอขัดขวางเต็มกำลัง ในช่วงต้นปี 2025 เกิดความขัดแย้งครั้งใหญ่ภายใน Intel เมื่อ Frank Yeary ประธานบอร์ดของบริษัทพยายามผลักดันแผนการขายหรือแยกกิจการโรงงานผลิตชิป (Intel Foundry) ไปให้ TSMC หรือสร้างบริษัทร่วมทุนกับ Broadcom และ Nvidia โดยให้ TSMC เข้ามาควบคุมการผลิตและ “แก้ไข” เทคโนโลยีของ Intel ที่ล่าช้า แต่ Lip-Bu Tan ซีอีโอคนใหม่ที่เพิ่งเข้ารับตำแหน่งในเดือนมีนาคม กลับมองว่าการผลิตชิปภายในเป็นหัวใจของความสามารถในการแข่งขันของ Intel และเป็นสิ่งสำคัญต่อความมั่นคงของห่วงโซ่อุปทานของสหรัฐฯ เขาจึงคัดค้านแผนนี้อย่างหนัก ทำให้เกิดความขัดแย้งในบอร์ดบริหาร และส่งผลให้แผนกลยุทธ์หลายอย่างของ Tan ถูกชะลอหรือถูกขัดขวาง แม้บอร์ดจะยังแสดงการสนับสนุน Tan อย่างเป็นทางการ แต่แรงกดดันภายในและภายนอกก็เพิ่มขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ TSMC เองก็ไม่สนใจซื้อโรงงานของ Intel เนื่องจากความแตกต่างด้านเทคโนโลยี เช่น ระบบ EUV ที่ใช้ต่างกัน และความเสี่ยงด้านธุรกิจที่ไม่คุ้มค่าการลงทุน ✅ Frank Yeary ประธานบอร์ด Intel พยายามขายหรือแยกกิจการโรงงานผลิตชิปให้ TSMC ➡️ เสนอให้ TSMC และบริษัท fabless อย่าง Broadcom/Nvidia ร่วมลงทุน ✅ Lip-Bu Tan ซีอีโอคนใหม่คัดค้านแผนนี้อย่างหนัก ➡️ เห็นว่าการผลิตภายในเป็นสิ่งสำคัญต่อความสามารถแข่งขันและความมั่นคงของสหรัฐฯ ✅ ความขัดแย้งในบอร์ดทำให้แผนกลยุทธ์ของ Tan ถูกชะลอหรือถูกขัดขวาง ➡️ รวมถึงแผนระดมทุนและการเข้าซื้อบริษัท AI เพื่อแข่งกับ Nvidia และ AMD ✅ TSMC ไม่สนใจซื้อโรงงานของ Intel ด้วยเหตุผลทางเทคนิคและธุรกิจ ➡️ เช่น ความแตกต่างด้าน EUV, เครื่องมือ, วัสดุ และความเสี่ยงด้าน yield ✅ Intel และ TSMC ใช้ระบบการผลิตที่แตกต่างกันแม้จะใช้เครื่องมือจาก ASML เหมือนกัน ➡️ การย้ายเทคโนโลยีข้ามบริษัทอาจทำให้เกิด yield loss และต้นทุนสูง ✅ TSMC สนใจลงทุนในโรงงานสหรัฐฯ ของตัวเองมากกว่า ➡️ ประกาศลงทุนสูงถึง $165B เพื่อหลีกเลี่ยงภาษีจากรัฐบาลสหรัฐฯ ✅ Intel Foundry เป็นความพยายามของ Intel ที่จะกลับมาแข่งขันในตลาดการผลิตชิป ➡️ โดยเน้นเทคโนโลยี Intel 3 และ Intel 18A ✅ การแยกกิจการโรงงานอาจทำให้ Intel สูญเสียการควบคุมด้านเทคโนโลยี ➡️ และกลายเป็นบริษัท fabless ที่ต้องพึ่งพาผู้ผลิตภายนอก ✅ การร่วมทุนกับ TSMC อาจทำให้เกิดความขัดแย้งด้านการจัดสรรทรัพยากร ➡️ เช่น การแบ่ง capacity ระหว่างลูกค้า Intel และ TSMC ✅ การล่าช้าในการเข้าซื้อบริษัท AI ทำให้ Intel เสียโอกาสในการแข่งขัน ➡️ บริษัทเป้าหมายถูกซื้อโดยบริษัทเทคโนโลยีอื่นแทน https://www.tomshardware.com/tech-industry/semiconductors/intels-chairman-reportedly-tried-to-broker-a-deal-to-sell-fabs-to-tsmc-ceo-lip-bu-tan-opposed
    0 ความคิดเห็น 0 การแบ่งปัน 238 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องเซิร์ฟเวอร์: Samsung ปลุกชีพ Z-NAND เพื่อปฏิวัติศูนย์ข้อมูล AI ด้วยความเร็วเหนือชั้น

    ย้อนกลับไปในช่วงกลางทศวรรษ 2010 Samsung เคยเปิดตัว Z-NAND เพื่อแข่งกับ Intel Optane โดยเน้นลด latency และเพิ่มความเร็วในการเข้าถึงข้อมูลแบบ SSD ที่ใกล้เคียง DRAM แต่หลังจากเงียบหายไปหลายปี ล่าสุด Samsung กลับมาพร้อม Z-NAND รุ่นใหม่ที่แรงกว่าเดิมถึง 15 เท่า และกินไฟน้อยลงถึง 80% เมื่อเทียบกับ NAND ทั่วไป

    จุดเด่นของ Z-NAND รุ่นใหม่คือการใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS) ที่ให้ GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง โดยไม่ต้องผ่าน CPU หรือ DRAM ซึ่งช่วยลด latency ได้มหาศาล เหมาะกับงาน AI ที่ต้องการประมวลผลข้อมูลจำนวนมากแบบเรียลไทม์

    Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC ที่ลดขนาด page เหลือเพียง 2–4KB ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วกว่า SSD ทั่วไปที่ใช้ page ขนาด 8–16KB และในยุคนั้นก็เร็วกว่า SSD ปกติถึง 6–10 เท่า แต่ในรุ่นใหม่ Samsung ตั้งเป้าไว้ที่ 15 เท่า พร้อมรองรับการใช้งานในศูนย์ข้อมูล AI โดยเฉพาะ

    Samsung เปิดตัว Z-NAND รุ่นใหม่ที่เร็วกว่า NAND ทั่วไปถึง 15 เท่า
    พร้อมลดการใช้พลังงานลงถึง 80%

    ใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS)
    GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง ไม่ผ่าน CPU หรือ DRAM

    Z-NAND รุ่นใหม่ออกแบบมาเพื่อใช้งานกับ AI GPU โดยเฉพาะ
    เน้นลด latency และเพิ่ม throughput สำหรับงาน AI

    Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC และลดขนาด page เหลือ 2–4KB
    ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วและแม่นยำมากขึ้น

    หากเป้าหมายของ Samsung สำเร็จ Z-NAND จะเร็วกว่า NVMe SSD ปัจจุบันถึง 15 เท่า
    เป็นทางเลือกใหม่สำหรับศูนย์ข้อมูล AI ที่ต้องการประสิทธิภาพสูง

    https://www.tomshardware.com/pc-components/storage/samsungs-revived-z-nand-targets-15x-performance-increase-over-traditional-nand-once-a-competitor-to-intels-optane-z-nand-makes-a-play-for-ai-datacenters
    ⚡🧠 เรื่องเล่าจากห้องเซิร์ฟเวอร์: Samsung ปลุกชีพ Z-NAND เพื่อปฏิวัติศูนย์ข้อมูล AI ด้วยความเร็วเหนือชั้น ย้อนกลับไปในช่วงกลางทศวรรษ 2010 Samsung เคยเปิดตัว Z-NAND เพื่อแข่งกับ Intel Optane โดยเน้นลด latency และเพิ่มความเร็วในการเข้าถึงข้อมูลแบบ SSD ที่ใกล้เคียง DRAM แต่หลังจากเงียบหายไปหลายปี ล่าสุด Samsung กลับมาพร้อม Z-NAND รุ่นใหม่ที่แรงกว่าเดิมถึง 15 เท่า และกินไฟน้อยลงถึง 80% เมื่อเทียบกับ NAND ทั่วไป จุดเด่นของ Z-NAND รุ่นใหม่คือการใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS) ที่ให้ GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง โดยไม่ต้องผ่าน CPU หรือ DRAM ซึ่งช่วยลด latency ได้มหาศาล เหมาะกับงาน AI ที่ต้องการประมวลผลข้อมูลจำนวนมากแบบเรียลไทม์ Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC ที่ลดขนาด page เหลือเพียง 2–4KB ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วกว่า SSD ทั่วไปที่ใช้ page ขนาด 8–16KB และในยุคนั้นก็เร็วกว่า SSD ปกติถึง 6–10 เท่า แต่ในรุ่นใหม่ Samsung ตั้งเป้าไว้ที่ 15 เท่า พร้อมรองรับการใช้งานในศูนย์ข้อมูล AI โดยเฉพาะ ✅ Samsung เปิดตัว Z-NAND รุ่นใหม่ที่เร็วกว่า NAND ทั่วไปถึง 15 เท่า ➡️ พร้อมลดการใช้พลังงานลงถึง 80% ✅ ใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS) ➡️ GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง ไม่ผ่าน CPU หรือ DRAM ✅ Z-NAND รุ่นใหม่ออกแบบมาเพื่อใช้งานกับ AI GPU โดยเฉพาะ ➡️ เน้นลด latency และเพิ่ม throughput สำหรับงาน AI ✅ Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC และลดขนาด page เหลือ 2–4KB ➡️ ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วและแม่นยำมากขึ้น ✅ หากเป้าหมายของ Samsung สำเร็จ Z-NAND จะเร็วกว่า NVMe SSD ปัจจุบันถึง 15 เท่า ➡️ เป็นทางเลือกใหม่สำหรับศูนย์ข้อมูล AI ที่ต้องการประสิทธิภาพสูง https://www.tomshardware.com/pc-components/storage/samsungs-revived-z-nand-targets-15x-performance-increase-over-traditional-nand-once-a-competitor-to-intels-optane-z-nand-makes-a-play-for-ai-datacenters
    0 ความคิดเห็น 0 การแบ่งปัน 165 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องประชุม Intel: เมื่อ CEO ถูกเรียกร้องให้ลาออกจากข้อกล่าวหาเรื่องผลประโยชน์ทับซ้อนกับจีน

    Lip-Bu Tan ซีอีโอของ Intel กำลังเผชิญกับแรงกดดันทางการเมืองอย่างหนัก หลังจากอดีตประธานาธิบดี Donald Trump เรียกร้องให้เขาลาออกโดยอ้างว่า “มีผลประโยชน์ทับซ้อนอย่างรุนแรง” จากการลงทุนในบริษัทเทคโนโลยีจีน ซึ่งบางแห่งมีความเชื่อมโยงกับกองทัพจีน

    Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel โดยยืนยันว่าเขาทำงานด้วย “มาตรฐานทางกฎหมายและจริยธรรมสูงสุด” และกล่าวว่าข้อกล่าวหานั้นเป็น “ข้อมูลผิด” พร้อมระบุว่า Intel กำลังร่วมมือกับรัฐบาลสหรัฐฯ เพื่อชี้แจงข้อเท็จจริง

    เอกสารทางการเงินเผยว่า Tan มีการควบคุมหรือถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited ซึ่งบางแห่งมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐบาลท้องถิ่นของจีน

    แม้ Intel จะยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์เชิงยุทธศาสตร์ของสหรัฐฯ และยังคงลงทุนในเทคโนโลยีการผลิตชิปขั้นสูงในประเทศ เช่น Intel 18A node แต่คำถามเรื่องความปลอดภัยระดับชาติยังคงอยู่ โดยมีวุฒิสมาชิก Tom Cotton ส่งจดหมายเตือนคณะกรรมการ Intel ถึงความเสี่ยงที่อาจเกิดขึ้น

    Donald Trump เรียกร้องให้ Lip-Bu Tan ลาออกจากตำแหน่ง CEO ของ Intel
    อ้างว่า Tan มีผลประโยชน์ทับซ้อนจากการลงทุนในบริษัทจีน

    Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel ว่าเขาทำงานด้วยจริยธรรมสูงสุด
    พร้อมระบุว่าข้อกล่าวหาเป็น “ข้อมูลผิด” และกำลังร่วมมือกับรัฐบาลสหรัฐฯ

    Tan มีการถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง มูลค่ารวมกว่า $200 ล้าน
    ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited

    บางบริษัทที่ Tan ลงทุนมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐ
    ทำให้เกิดข้อกังวลด้านความมั่นคงระดับชาติ

    Intel ยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์ของสหรัฐฯ
    พร้อมเน้นการลงทุนในโรงงานผลิตชิปในรัฐแอริโซนา

    คณะกรรมการของ Intel แสดงการสนับสนุน Tan อย่างเต็มที่
    ยืนยันว่าเขายังคงเป็นผู้นำที่เหมาะสมในช่วงเวลาสำคัญของบริษัท

    Tan เคยเป็น CEO ของ Cadence Design Systems ซึ่งมีคดีละเมิดกฎหมายส่งออก
    เกี่ยวข้องกับการขายเทคโนโลยีให้มหาวิทยาลัยทหารของจีน

    Intel ได้รับเงินสนับสนุนจำนวนมากจาก CHIPS Act ของรัฐบาลสหรัฐฯ
    ทำให้การมี CEO ที่มีความเกี่ยวข้องกับจีนกลายเป็นประเด็นทางการเมือง

    Tan มีประสบการณ์ในอุตสาหกรรมกว่า 40 ปี และอาศัยอยู่ในสหรัฐฯ มากกว่า 4 ทศวรรษ
    ได้รับการศึกษาจาก MIT และ University of San Francisco

    Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังลงทุนในเทคโนโลยีการผลิตชิประดับสูง
    เช่น Intel 18A และ 14A ที่แข่งขันกับ TSMC และ Samsung

    https://www.tomshardware.com/pc-components/cpus/intel-ceo-lip-bu-tan-responds-to-trump-allegations-in-letter-i-have-always-operated-within-the-highest-legal-and-ethical-standards
    🏛️💼 เรื่องเล่าจากห้องประชุม Intel: เมื่อ CEO ถูกเรียกร้องให้ลาออกจากข้อกล่าวหาเรื่องผลประโยชน์ทับซ้อนกับจีน Lip-Bu Tan ซีอีโอของ Intel กำลังเผชิญกับแรงกดดันทางการเมืองอย่างหนัก หลังจากอดีตประธานาธิบดี Donald Trump เรียกร้องให้เขาลาออกโดยอ้างว่า “มีผลประโยชน์ทับซ้อนอย่างรุนแรง” จากการลงทุนในบริษัทเทคโนโลยีจีน ซึ่งบางแห่งมีความเชื่อมโยงกับกองทัพจีน Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel โดยยืนยันว่าเขาทำงานด้วย “มาตรฐานทางกฎหมายและจริยธรรมสูงสุด” และกล่าวว่าข้อกล่าวหานั้นเป็น “ข้อมูลผิด” พร้อมระบุว่า Intel กำลังร่วมมือกับรัฐบาลสหรัฐฯ เพื่อชี้แจงข้อเท็จจริง เอกสารทางการเงินเผยว่า Tan มีการควบคุมหรือถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited ซึ่งบางแห่งมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐบาลท้องถิ่นของจีน แม้ Intel จะยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์เชิงยุทธศาสตร์ของสหรัฐฯ และยังคงลงทุนในเทคโนโลยีการผลิตชิปขั้นสูงในประเทศ เช่น Intel 18A node แต่คำถามเรื่องความปลอดภัยระดับชาติยังคงอยู่ โดยมีวุฒิสมาชิก Tom Cotton ส่งจดหมายเตือนคณะกรรมการ Intel ถึงความเสี่ยงที่อาจเกิดขึ้น ✅ Donald Trump เรียกร้องให้ Lip-Bu Tan ลาออกจากตำแหน่ง CEO ของ Intel ➡️ อ้างว่า Tan มีผลประโยชน์ทับซ้อนจากการลงทุนในบริษัทจีน ✅ Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel ว่าเขาทำงานด้วยจริยธรรมสูงสุด ➡️ พร้อมระบุว่าข้อกล่าวหาเป็น “ข้อมูลผิด” และกำลังร่วมมือกับรัฐบาลสหรัฐฯ ✅ Tan มีการถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง มูลค่ารวมกว่า $200 ล้าน ➡️ ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited ✅ บางบริษัทที่ Tan ลงทุนมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐ ➡️ ทำให้เกิดข้อกังวลด้านความมั่นคงระดับชาติ ✅ Intel ยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์ของสหรัฐฯ ➡️ พร้อมเน้นการลงทุนในโรงงานผลิตชิปในรัฐแอริโซนา ✅ คณะกรรมการของ Intel แสดงการสนับสนุน Tan อย่างเต็มที่ ➡️ ยืนยันว่าเขายังคงเป็นผู้นำที่เหมาะสมในช่วงเวลาสำคัญของบริษัท ✅ Tan เคยเป็น CEO ของ Cadence Design Systems ซึ่งมีคดีละเมิดกฎหมายส่งออก ➡️ เกี่ยวข้องกับการขายเทคโนโลยีให้มหาวิทยาลัยทหารของจีน ✅ Intel ได้รับเงินสนับสนุนจำนวนมากจาก CHIPS Act ของรัฐบาลสหรัฐฯ ➡️ ทำให้การมี CEO ที่มีความเกี่ยวข้องกับจีนกลายเป็นประเด็นทางการเมือง ✅ Tan มีประสบการณ์ในอุตสาหกรรมกว่า 40 ปี และอาศัยอยู่ในสหรัฐฯ มากกว่า 4 ทศวรรษ ➡️ ได้รับการศึกษาจาก MIT และ University of San Francisco ✅ Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังลงทุนในเทคโนโลยีการผลิตชิประดับสูง ➡️ เช่น Intel 18A และ 14A ที่แข่งขันกับ TSMC และ Samsung https://www.tomshardware.com/pc-components/cpus/intel-ceo-lip-bu-tan-responds-to-trump-allegations-in-letter-i-have-always-operated-within-the-highest-legal-and-ethical-standards
    0 ความคิดเห็น 0 การแบ่งปัน 228 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องวิจัย Tesla: เมื่อ Dojo ซูเปอร์คอมพิวเตอร์ต้องยุติลง และ Elon หันไปพึ่ง Nvidia กับ AMD

    ย้อนกลับไปในปี 2021 Tesla เปิดตัวโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิปแบบ wafer-scale เพื่อฝึก AI สำหรับระบบขับเคลื่อนอัตโนมัติ (FSD) และหุ่นยนต์ Optimus โดยหวังว่าจะลดการพึ่งพา Nvidia และสร้างฮาร์ดแวร์ของตัวเองเพื่อควบคุมทุกมิติของการประมวลผล AI

    แต่ล่าสุด Elon Musk ตัดสินใจยุติโครงการ Dojo อย่างเป็นทางการ โดยมีการยุบทีมงานและย้ายบุคลากรไปยังแผนกอื่นภายใน Tesla ขณะเดียวกัน Peter Bannon หัวหน้าโครงการ Dojo ก็เตรียมลาออก และมีสมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI

    Tesla จะหันไปพึ่งพา Nvidia และ AMD มากขึ้น โดย TSMC จะผลิตชิป AI5 สำหรับรถ Tesla รุ่นใหม่ในปี 2025 และ Samsung จะผลิต AI6 รุ่นถัดไปในช่วงปลายทศวรรษ Musk ยังกล่าวว่าเขาอยากให้ชิปที่ใช้ในรถยนต์และเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน เพื่อความสะดวกในการพัฒนาและใช้งานร่วมกัน

    Tesla ยุติโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิป wafer-scale
    โครงการเริ่มในปี 2021 เพื่อฝึก AI สำหรับ FSD และ Optimus

    Elon Musk สั่งยุบทีม Dojo และย้ายบุคลากรไปยังแผนกอื่น
    Peter Bannon หัวหน้าโครงการเตรียมลาออก

    สมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI
    เน้นพัฒนา AI สำหรับหุ่นยนต์และยานยนต์

    Tesla จะเพิ่มการพึ่งพา Nvidia และ AMD สำหรับฮาร์ดแวร์ AI
    Nvidia ยังคงเป็นผู้จัดหา GPU ส่วน AMD จะมีบทบาทมากขึ้น

    TSMC จะผลิตชิป AI5 สำหรับ Tesla ในปี 2025
    Samsung จะผลิตชิป AI6 รุ่นถัดไปในช่วงปลายทศวรรษ

    Musk ต้องการให้ชิปในรถและเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน
    เพื่อใช้ร่วมกันได้ทั้งใน Optimus และระบบคลัสเตอร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/tesla-scraps-custom-dojo-wafer-level-processor-initiative-dismantles-team-musk-to-lean-on-nvidia-and-amd-more
    🚗🧠 เรื่องเล่าจากห้องวิจัย Tesla: เมื่อ Dojo ซูเปอร์คอมพิวเตอร์ต้องยุติลง และ Elon หันไปพึ่ง Nvidia กับ AMD ย้อนกลับไปในปี 2021 Tesla เปิดตัวโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิปแบบ wafer-scale เพื่อฝึก AI สำหรับระบบขับเคลื่อนอัตโนมัติ (FSD) และหุ่นยนต์ Optimus โดยหวังว่าจะลดการพึ่งพา Nvidia และสร้างฮาร์ดแวร์ของตัวเองเพื่อควบคุมทุกมิติของการประมวลผล AI แต่ล่าสุด Elon Musk ตัดสินใจยุติโครงการ Dojo อย่างเป็นทางการ โดยมีการยุบทีมงานและย้ายบุคลากรไปยังแผนกอื่นภายใน Tesla ขณะเดียวกัน Peter Bannon หัวหน้าโครงการ Dojo ก็เตรียมลาออก และมีสมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI Tesla จะหันไปพึ่งพา Nvidia และ AMD มากขึ้น โดย TSMC จะผลิตชิป AI5 สำหรับรถ Tesla รุ่นใหม่ในปี 2025 และ Samsung จะผลิต AI6 รุ่นถัดไปในช่วงปลายทศวรรษ Musk ยังกล่าวว่าเขาอยากให้ชิปที่ใช้ในรถยนต์และเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน เพื่อความสะดวกในการพัฒนาและใช้งานร่วมกัน ✅ Tesla ยุติโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิป wafer-scale ➡️ โครงการเริ่มในปี 2021 เพื่อฝึก AI สำหรับ FSD และ Optimus ✅ Elon Musk สั่งยุบทีม Dojo และย้ายบุคลากรไปยังแผนกอื่น ➡️ Peter Bannon หัวหน้าโครงการเตรียมลาออก ✅ สมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI ➡️ เน้นพัฒนา AI สำหรับหุ่นยนต์และยานยนต์ ✅ Tesla จะเพิ่มการพึ่งพา Nvidia และ AMD สำหรับฮาร์ดแวร์ AI ➡️ Nvidia ยังคงเป็นผู้จัดหา GPU ส่วน AMD จะมีบทบาทมากขึ้น ✅ TSMC จะผลิตชิป AI5 สำหรับ Tesla ในปี 2025 ➡️ Samsung จะผลิตชิป AI6 รุ่นถัดไปในช่วงปลายทศวรรษ ✅ Musk ต้องการให้ชิปในรถและเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน ➡️ เพื่อใช้ร่วมกันได้ทั้งใน Optimus และระบบคลัสเตอร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/tesla-scraps-custom-dojo-wafer-level-processor-initiative-dismantles-team-musk-to-lean-on-nvidia-and-amd-more
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • เรื่องนี้ลุงเห็นด้วยกับพี่ตั๊มป์

    เรื่องเล่าจากโลกการเมืองและเทคโนโลยี: เมื่อทรัมป์เรียกร้องให้ซีอีโอ Intel ลาออก เพราะ “ขัดแย้งผลประโยชน์” กับจีน

    ในวันที่ 7 สิงหาคม 2025 อดีตประธานาธิบดีโดนัลด์ ทรัมป์ ได้โพสต์บน Truth Social เรียกร้องให้ Lip-Bu Tan ซีอีโอคนใหม่ของ Intel ลาออกทันที โดยกล่าวว่าเขา “ขัดแย้งผลประโยชน์อย่างรุนแรง” เนื่องจากมีความเกี่ยวข้องกับบริษัทเทคโนโลยีจีนหลายแห่ง รวมถึงบางแห่งที่มีความเชื่อมโยงกับกองทัพจีนและพรรคคอมมิวนิสต์จีน

    คำเรียกร้องนี้เกิดขึ้นหลังจากวุฒิสมาชิก Tom Cotton ส่งจดหมายถึงคณะกรรมการบริหารของ Intel เพื่อสอบถามว่า Tan ได้ขายหุ้นหรือถอนตัวจากบริษัทจีนที่อาจเป็นภัยต่อความมั่นคงของสหรัฐหรือไม่ โดยเฉพาะเมื่อ Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์เพื่อสร้างโรงงานในสหรัฐ

    Tan ซึ่งเข้ารับตำแหน่งในเดือนมีนาคม 2025 เคยเป็นซีอีโอของ Cadence Design Systems ซึ่งเพิ่งถูกปรับ 140 ล้านดอลลาร์จากการละเมิดข้อจำกัดการส่งออก โดยขายเทคโนโลยีให้กับมหาวิทยาลัยทหารของจีน

    Intel ตอบโต้ด้วยแถลงการณ์ว่า “บริษัทและ Tan มุ่งมั่นต่อความมั่นคงของชาติสหรัฐ” และยังคงลงทุนในโรงงานผลิตชิปในประเทศ เช่น โรงงานใหม่ในรัฐแอริโซนา อย่างไรก็ตาม หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์

    ทรัมป์เรียกร้องให้ Lip-Bu Tan ซีอีโอของ Intel ลาออกทันที
    ระบุว่าเขา “ขัดแย้งผลประโยชน์” จากความเกี่ยวข้องกับบริษัทจีน

    วุฒิสมาชิก Tom Cotton ส่งจดหมายสอบถามคณะกรรมการ Intel
    ตั้งคำถามเกี่ยวกับการลงทุนของ Tan ในบริษัทจีนที่มีความเกี่ยวข้องกับกองทัพ

    Cadence Design Systems ซึ่ง Tan เคยเป็นซีอีโอ ถูกปรับ 140 ล้านดอลลาร์
    จากการละเมิดข้อจำกัดการส่งออกไปยังมหาวิทยาลัยทหารของจีน

    Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์
    เพื่อสร้างโรงงานผลิตชิปในสหรัฐ เช่น ในรัฐโอไฮโอและแอริโซนา

    Intel ออกแถลงการณ์ยืนยันความมุ่งมั่นต่อความมั่นคงของชาติ
    ระบุว่า Tan และบริษัทมีเป้าหมายสอดคล้องกับนโยบาย America First

    หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์
    สะท้อนความกังวลของนักลงทุนต่อความไม่แน่นอนในผู้นำองค์กร

    https://www.tomshardware.com/tech-industry/big-tech/trump-calls-for-intel-ceo-to-resign-claims-lip-bu-tan-is-conflicted
    เรื่องนี้ลุงเห็นด้วยกับพี่ตั๊มป์ 🇺🇸💼 เรื่องเล่าจากโลกการเมืองและเทคโนโลยี: เมื่อทรัมป์เรียกร้องให้ซีอีโอ Intel ลาออก เพราะ “ขัดแย้งผลประโยชน์” กับจีน ในวันที่ 7 สิงหาคม 2025 อดีตประธานาธิบดีโดนัลด์ ทรัมป์ ได้โพสต์บน Truth Social เรียกร้องให้ Lip-Bu Tan ซีอีโอคนใหม่ของ Intel ลาออกทันที โดยกล่าวว่าเขา “ขัดแย้งผลประโยชน์อย่างรุนแรง” เนื่องจากมีความเกี่ยวข้องกับบริษัทเทคโนโลยีจีนหลายแห่ง รวมถึงบางแห่งที่มีความเชื่อมโยงกับกองทัพจีนและพรรคคอมมิวนิสต์จีน คำเรียกร้องนี้เกิดขึ้นหลังจากวุฒิสมาชิก Tom Cotton ส่งจดหมายถึงคณะกรรมการบริหารของ Intel เพื่อสอบถามว่า Tan ได้ขายหุ้นหรือถอนตัวจากบริษัทจีนที่อาจเป็นภัยต่อความมั่นคงของสหรัฐหรือไม่ โดยเฉพาะเมื่อ Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์เพื่อสร้างโรงงานในสหรัฐ Tan ซึ่งเข้ารับตำแหน่งในเดือนมีนาคม 2025 เคยเป็นซีอีโอของ Cadence Design Systems ซึ่งเพิ่งถูกปรับ 140 ล้านดอลลาร์จากการละเมิดข้อจำกัดการส่งออก โดยขายเทคโนโลยีให้กับมหาวิทยาลัยทหารของจีน Intel ตอบโต้ด้วยแถลงการณ์ว่า “บริษัทและ Tan มุ่งมั่นต่อความมั่นคงของชาติสหรัฐ” และยังคงลงทุนในโรงงานผลิตชิปในประเทศ เช่น โรงงานใหม่ในรัฐแอริโซนา อย่างไรก็ตาม หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์ ✅ ทรัมป์เรียกร้องให้ Lip-Bu Tan ซีอีโอของ Intel ลาออกทันที ➡️ ระบุว่าเขา “ขัดแย้งผลประโยชน์” จากความเกี่ยวข้องกับบริษัทจีน ✅ วุฒิสมาชิก Tom Cotton ส่งจดหมายสอบถามคณะกรรมการ Intel ➡️ ตั้งคำถามเกี่ยวกับการลงทุนของ Tan ในบริษัทจีนที่มีความเกี่ยวข้องกับกองทัพ ✅ Cadence Design Systems ซึ่ง Tan เคยเป็นซีอีโอ ถูกปรับ 140 ล้านดอลลาร์ ➡️ จากการละเมิดข้อจำกัดการส่งออกไปยังมหาวิทยาลัยทหารของจีน ✅ Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์ ➡️ เพื่อสร้างโรงงานผลิตชิปในสหรัฐ เช่น ในรัฐโอไฮโอและแอริโซนา ✅ Intel ออกแถลงการณ์ยืนยันความมุ่งมั่นต่อความมั่นคงของชาติ ➡️ ระบุว่า Tan และบริษัทมีเป้าหมายสอดคล้องกับนโยบาย America First ✅ หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์ ➡️ สะท้อนความกังวลของนักลงทุนต่อความไม่แน่นอนในผู้นำองค์กร https://www.tomshardware.com/tech-industry/big-tech/trump-calls-for-intel-ceo-to-resign-claims-lip-bu-tan-is-conflicted
    WWW.TOMSHARDWARE.COM
    Trump calls for Intel CEO to resign — claims Lip-Bu Tan is 'conflicted' (Update)
    The Truth Social post comes as a senator scrutinizes Tan's ties to Chinese tech firms.
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029

    ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า

    Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth

    แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป

    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4
    เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC

    Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s
    ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น

    ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS
    เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด

    ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่
    ลด latency และเพิ่ม bandwidth ในการใช้งานจริง

    คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030
    ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC

    PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน
    เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่

    คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS
    ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization

    SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู
    ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้

    เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น
    ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต

    https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    🚀💾 เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029 ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป ✅ Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4 ➡️ เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC ✅ Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s ➡️ ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น ✅ ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS ➡️ เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด ✅ ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่ ➡️ ลด latency และเพิ่ม bandwidth ในการใช้งานจริง ✅ คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030 ➡️ ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC ✅ PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน ➡️ เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่ ✅ คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS ➡️ ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization ✅ SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู ➡️ ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้ ✅ เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น ➡️ ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
Pages Boosts