• Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น

    Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์

    แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ

    ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน

    Intel Core Ultra 5 338H
    ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก)
    ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X
    คะแนน Vulkan บน Geekbench: 39,406
    สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M

    สถาปัตยกรรม Panther Lake
    ใช้ Xe3 GPU จาก Battlemage IP
    มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่
    รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H
    Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน

    ความหมายของการไม่มี “X”
    ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง
    เหมาะกับงานทั่วไปและเกมระดับกลาง
    ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    🧠 Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์ แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน ✅ Intel Core Ultra 5 338H ➡️ ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก) ➡️ ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X ➡️ คะแนน Vulkan บน Geekbench: 39,406 ➡️ สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M ✅ สถาปัตยกรรม Panther Lake ➡️ ใช้ Xe3 GPU จาก Battlemage IP ➡️ มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่ ➡️ รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H ➡️ Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน ✅ ความหมายของการไม่มี “X” ➡️ ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง ➡️ เหมาะกับงานทั่วไปและเกมระดับกลาง ➡️ ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    0 Comments 0 Shares 42 Views 0 Reviews
  • Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้

    Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น

    Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A

    Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake

    การเปิดตัวสถาปัตยกรรม Nova Lake
    เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake
    ออกแบบใหม่ทั้ง CPU และ GPU
    รองรับการประมวลผล AI และ edge computing
    ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm)

    การเปิดตัวชิป Panther Lake
    เป็นชิปรุ่นแรกในไลน์ Nova Lake
    เตรียมเปิดตัวภายในปีนี้
    ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel

    การอัปเกรดซอฟต์แวร์
    Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake
    เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing
    ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ

    ข้อควรระวังและความท้าทาย
    การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake
    การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก
    การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel

    https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    ⚙️ Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้ Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake ✅ การเปิดตัวสถาปัตยกรรม Nova Lake ➡️ เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake ➡️ ออกแบบใหม่ทั้ง CPU และ GPU ➡️ รองรับการประมวลผล AI และ edge computing ➡️ ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm) ✅ การเปิดตัวชิป Panther Lake ➡️ เป็นชิปรุ่นแรกในไลน์ Nova Lake ➡️ เตรียมเปิดตัวภายในปีนี้ ➡️ ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel ✅ การอัปเกรดซอฟต์แวร์ ➡️ Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake ➡️ เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing ➡️ ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ ‼️ ข้อควรระวังและความท้าทาย ⛔ การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake ⛔ การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก ⛔ การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    WCCFTECH.COM
    Intel Nova Lake CPUs Bring New Architecture & Software Upgrades, First Panther Lake SKUs This Year, 18A To Cover At least Next-Three Client & Server Products
    Intel talked about its upcoming Panther Lake, Nova Lake, Coral Rapids CPUs, and its Foundry plans involving 18A & 14A during its Q3 call.
    0 Comments 0 Shares 65 Views 0 Reviews
  • Google ยอมรับกลาย ๆ ว่า GPU ของ Tensor G5 ยังต้องปรับจูน – เตรียมเพิ่มประสิทธิภาพก่อนเปิดตัว Pixel รุ่นใหม่

    Google กำลังพัฒนา Tensor G5 ซึ่งเป็นชิปเซ็ตรุ่นใหม่ที่จะใช้ใน Pixel รุ่นถัดไป โดยมีรายงานว่า GPU ที่ใช้ใน Tensor G5 ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ และต้องการการปรับแต่งเพิ่มเติมก่อนจะพร้อมใช้งานจริง

    แม้ Google จะยังไม่ประกาศอย่างเป็นทางการ แต่ข้อมูลจากเอกสารภายในและการเคลื่อนไหวของทีมพัฒนาเผยว่า GPU ที่ใช้ใน Tensor G5 ซึ่งเป็นสถาปัตยกรรมจากบริษัท Imagination Technologies ยังต้องการการปรับจูนเพื่อให้เหมาะกับการใช้งานบน Android และแอปต่าง ๆ ของ Google โดยเฉพาะด้านการประมวลผลกราฟิกและ AI

    Tensor G5 ถือเป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ โดยใช้โรงงาน TSMC ในการผลิตด้วยเทคโนโลยี 3nm ซึ่งต่างจาก Tensor รุ่นก่อนที่ร่วมพัฒนากับ Samsung การเปลี่ยนมาใช้ GPU จาก Imagination แทน ARM Mali ก็เป็นการเปลี่ยนแปลงครั้งใหญ่ที่ต้องใช้เวลาในการปรับแต่งให้เข้ากับ ecosystem ของ Google

    การพัฒนา Tensor G5 โดย Google
    เป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ
    ผลิตโดย TSMC ด้วยเทคโนโลยี 3nm
    ใช้ GPU จาก Imagination Technologies แทน ARM Mali

    ความท้าทายด้าน GPU
    GPU ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ
    ต้องการการปรับจูนเพื่อรองรับ Android และแอปของ Google
    ทีมพัฒนากำลังเร่งแก้ไขก่อนเปิดตัว Pixel รุ่นใหม่

    การเปลี่ยนแปลงจาก Tensor รุ่นก่อน
    Tensor G5 ไม่ร่วมพัฒนากับ Samsung เหมือนรุ่นก่อน
    เปลี่ยนสถาปัตยกรรม GPU เป็นครั้งแรก
    มุ่งเน้นการควบคุมคุณภาพและประสิทธิภาพโดย Google เอง

    ข้อควรระวังและข้อจำกัด
    การเปลี่ยน GPU อาจทำให้เกิดปัญหาความเข้ากันได้กับแอปบางตัว
    หากปรับจูนไม่ทัน อาจส่งผลต่อประสิทธิภาพของ Pixel รุ่นใหม่
    การพัฒนา GPU ภายในต้องใช้ทรัพยากรและเวลามาก
    ความคาดหวังสูงจากผู้ใช้ Pixel อาจกดดันทีมพัฒนา

    https://wccftech.com/google-tacitly-admits-to-the-need-for-optimizing-the-tensor-g5s-gpu/
    📱 Google ยอมรับกลาย ๆ ว่า GPU ของ Tensor G5 ยังต้องปรับจูน – เตรียมเพิ่มประสิทธิภาพก่อนเปิดตัว Pixel รุ่นใหม่ Google กำลังพัฒนา Tensor G5 ซึ่งเป็นชิปเซ็ตรุ่นใหม่ที่จะใช้ใน Pixel รุ่นถัดไป โดยมีรายงานว่า GPU ที่ใช้ใน Tensor G5 ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ และต้องการการปรับแต่งเพิ่มเติมก่อนจะพร้อมใช้งานจริง แม้ Google จะยังไม่ประกาศอย่างเป็นทางการ แต่ข้อมูลจากเอกสารภายในและการเคลื่อนไหวของทีมพัฒนาเผยว่า GPU ที่ใช้ใน Tensor G5 ซึ่งเป็นสถาปัตยกรรมจากบริษัท Imagination Technologies ยังต้องการการปรับจูนเพื่อให้เหมาะกับการใช้งานบน Android และแอปต่าง ๆ ของ Google โดยเฉพาะด้านการประมวลผลกราฟิกและ AI Tensor G5 ถือเป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ โดยใช้โรงงาน TSMC ในการผลิตด้วยเทคโนโลยี 3nm ซึ่งต่างจาก Tensor รุ่นก่อนที่ร่วมพัฒนากับ Samsung การเปลี่ยนมาใช้ GPU จาก Imagination แทน ARM Mali ก็เป็นการเปลี่ยนแปลงครั้งใหญ่ที่ต้องใช้เวลาในการปรับแต่งให้เข้ากับ ecosystem ของ Google ✅ การพัฒนา Tensor G5 โดย Google ➡️ เป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ ➡️ ผลิตโดย TSMC ด้วยเทคโนโลยี 3nm ➡️ ใช้ GPU จาก Imagination Technologies แทน ARM Mali ✅ ความท้าทายด้าน GPU ➡️ GPU ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ ➡️ ต้องการการปรับจูนเพื่อรองรับ Android และแอปของ Google ➡️ ทีมพัฒนากำลังเร่งแก้ไขก่อนเปิดตัว Pixel รุ่นใหม่ ✅ การเปลี่ยนแปลงจาก Tensor รุ่นก่อน ➡️ Tensor G5 ไม่ร่วมพัฒนากับ Samsung เหมือนรุ่นก่อน ➡️ เปลี่ยนสถาปัตยกรรม GPU เป็นครั้งแรก ➡️ มุ่งเน้นการควบคุมคุณภาพและประสิทธิภาพโดย Google เอง ‼️ ข้อควรระวังและข้อจำกัด ⛔ การเปลี่ยน GPU อาจทำให้เกิดปัญหาความเข้ากันได้กับแอปบางตัว ⛔ หากปรับจูนไม่ทัน อาจส่งผลต่อประสิทธิภาพของ Pixel รุ่นใหม่ ⛔ การพัฒนา GPU ภายในต้องใช้ทรัพยากรและเวลามาก ⛔ ความคาดหวังสูงจากผู้ใช้ Pixel อาจกดดันทีมพัฒนา https://wccftech.com/google-tacitly-admits-to-the-need-for-optimizing-the-tensor-g5s-gpu/
    WCCFTECH.COM
    Google Tacitly Admits To The Need For Optimizing The Tensor G5's GPU
    While Google has worked with Imagination to develop the IMG DXT-48-1536 GPU for the Tensor G5, Imagination retains full proprietary control.
    0 Comments 0 Shares 82 Views 0 Reviews
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 Comments 0 Shares 106 Views 0 Reviews
  • “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป

    รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference

    หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย

    มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า

    AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx”
    ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก
    อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2

    ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4
    ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้

    มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025
    ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5

    หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป
    เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU

    https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    🧠 “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2 Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า ✅ AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ➡️ ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2 ✅ Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก ➡️ อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2 ✅ ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4 ➡️ ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้ ✅ มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025 ➡️ ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ✅ หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป ➡️ เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    WCCFTECH.COM
    AMD Krackan Point Is Reportedly Coming To AM5; New AGESA BIOS Adds Support For Zen 5 APUs
    A new document leak has shown that AMD's Krackan Point APUs might come to the desktop AM5 platform as well.
    0 Comments 0 Shares 73 Views 0 Reviews
  • “Intel เปิดตัว Crescent Island — GPU สำหรับงาน AI inference ที่ใช้ LPDDR5X 160GB เน้นประหยัดพลังงานและต้นทุน” — เมื่อการประมวลผล AI ไม่จำเป็นต้องใช้ HBM หรือระบบระบายความร้อนสุดหรู

    Intel เปิดตัว GPU ใหม่สำหรับดาต้าเซ็นเตอร์ชื่อว่า “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยเน้นความคุ้มค่าและการใช้งานในเซิร์ฟเวอร์ที่ใช้ระบบระบายความร้อนด้วยอากาศ (air-cooled) แทนที่จะใช้ระบบน้ำหรือโครงสร้างพิเศษ

    Crescent Island ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นเวอร์ชันปรับปรุงจาก Xe3 ที่ใช้ในซีพียู Panther Lake และมาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ซึ่งถือว่าแปลกใหม่มากสำหรับ GPU ดาต้าเซ็นเตอร์ เพราะปกติจะใช้ GDDR6 หรือ HBM

    การเลือกใช้ LPDDR5X ช่วยลดต้นทุนและการใช้พลังงาน แต่ก็มีข้อจำกัด เช่น ไม่สามารถทำงานแบบ butterfly mode ได้เหมือน GDDR6/GDDR7 ทำให้ bandwidth อาจต่ำกว่ารุ่นที่ออกแบบมาสำหรับ training โดยตรง

    Intel ระบุว่า Crescent Island จะเริ่มส่งตัวอย่างให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่ชี้ว่า GPU นี้เหมาะกับองค์กรที่ต้องการ inference ที่คุ้มค่าและไม่ต้องการระบบระบายความร้อนซับซ้อน

    Intel เปิดตัว GPU ใหม่ชื่อ Crescent Island สำหรับงาน AI inference
    เน้นความคุ้มค่าและใช้งานในเซิร์ฟเวอร์แบบ air-cooled

    ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นรุ่นปรับปรุงจาก Xe3
    มีความเชื่อมโยงกับซีพียู Panther Lake

    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    เป็นการเลือกที่เน้นต้นทุนต่ำและประหยัดพลังงาน

    LPDDR5X ไม่รองรับ butterfly mode เหมือน GDDR6/GDDR7
    อาจมี bandwidth ต่ำกว่ารุ่นที่เน้น training

    GPU นี้เหมาะกับงาน inference ที่ไม่ต้องการ throughput สูงสุด
    เช่น การรันโมเดลที่ฝึกมาแล้วในระบบที่มีข้อจำกัดด้านพลังงาน

    Crescent Island จะเริ่มส่งตัวอย่างในครึ่งหลังของปี 2026
    ยังไม่มีตัวเลข benchmark อย่างเป็นทางการ

    https://www.techradar.com/pro/yay-intel-has-a-new-ai-gpu-with-160gb-of-lpddr5x-crescent-island-does-inference-only-uses-cheaper-memory-and-targets-value-air-cooled-enterprise-servers
    🧠 “Intel เปิดตัว Crescent Island — GPU สำหรับงาน AI inference ที่ใช้ LPDDR5X 160GB เน้นประหยัดพลังงานและต้นทุน” — เมื่อการประมวลผล AI ไม่จำเป็นต้องใช้ HBM หรือระบบระบายความร้อนสุดหรู Intel เปิดตัว GPU ใหม่สำหรับดาต้าเซ็นเตอร์ชื่อว่า “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยเน้นความคุ้มค่าและการใช้งานในเซิร์ฟเวอร์ที่ใช้ระบบระบายความร้อนด้วยอากาศ (air-cooled) แทนที่จะใช้ระบบน้ำหรือโครงสร้างพิเศษ Crescent Island ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นเวอร์ชันปรับปรุงจาก Xe3 ที่ใช้ในซีพียู Panther Lake และมาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ซึ่งถือว่าแปลกใหม่มากสำหรับ GPU ดาต้าเซ็นเตอร์ เพราะปกติจะใช้ GDDR6 หรือ HBM การเลือกใช้ LPDDR5X ช่วยลดต้นทุนและการใช้พลังงาน แต่ก็มีข้อจำกัด เช่น ไม่สามารถทำงานแบบ butterfly mode ได้เหมือน GDDR6/GDDR7 ทำให้ bandwidth อาจต่ำกว่ารุ่นที่ออกแบบมาสำหรับ training โดยตรง Intel ระบุว่า Crescent Island จะเริ่มส่งตัวอย่างให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่ชี้ว่า GPU นี้เหมาะกับองค์กรที่ต้องการ inference ที่คุ้มค่าและไม่ต้องการระบบระบายความร้อนซับซ้อน ✅ Intel เปิดตัว GPU ใหม่ชื่อ Crescent Island สำหรับงาน AI inference ➡️ เน้นความคุ้มค่าและใช้งานในเซิร์ฟเวอร์แบบ air-cooled ✅ ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นรุ่นปรับปรุงจาก Xe3 ➡️ มีความเชื่อมโยงกับซีพียู Panther Lake ✅ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ เป็นการเลือกที่เน้นต้นทุนต่ำและประหยัดพลังงาน ✅ LPDDR5X ไม่รองรับ butterfly mode เหมือน GDDR6/GDDR7 ➡️ อาจมี bandwidth ต่ำกว่ารุ่นที่เน้น training ✅ GPU นี้เหมาะกับงาน inference ที่ไม่ต้องการ throughput สูงสุด ➡️ เช่น การรันโมเดลที่ฝึกมาแล้วในระบบที่มีข้อจำกัดด้านพลังงาน ✅ Crescent Island จะเริ่มส่งตัวอย่างในครึ่งหลังของปี 2026 ➡️ ยังไม่มีตัวเลข benchmark อย่างเป็นทางการ https://www.techradar.com/pro/yay-intel-has-a-new-ai-gpu-with-160gb-of-lpddr5x-crescent-island-does-inference-only-uses-cheaper-memory-and-targets-value-air-cooled-enterprise-servers
    0 Comments 0 Shares 80 Views 0 Reviews
  • “APU แบบ Compute-in-Memory จาก GSI ทำงานเร็วเท่ากับ GPU แต่ใช้พลังงานน้อยกว่า 98%” — เมื่อการประมวลผลแบบใหม่อาจเปลี่ยนเกม AI ทั้งในหุ่นยนต์, IoT และอวกาศ

    GSI Technology ร่วมกับทีมวิจัยจากมหาวิทยาลัย Cornell เผยผลการทดสอบ APU (Associative Processing Unit) รุ่น Gemini-I ซึ่งใช้สถาปัตยกรรม Compute-in-Memory (CIM) ในการประมวลผล AI โดยไม่ต้องแยกหน่วยความจำออกจากหน่วยคำนวณเหมือน CPU หรือ GPU แบบเดิม

    ผลการทดสอบ Retrieval-Augmented Generation (RAG) บนชุดข้อมูลขนาด 10–200 GB พบว่า Gemini-I มีประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU แต่ใช้พลังงานน้อยกว่าถึง 98% และเร็วกว่า CPU ทั่วไปถึง 80% ในงานค้นคืนข้อมูล

    เทคโนโลยีนี้เหมาะกับงานที่ต้องการประสิทธิภาพต่อวัตต์สูง เช่น:

    หุ่นยนต์และโดรนที่ใช้ Edge AI
    อุปกรณ์ IoT ที่มีข้อจำกัดด้านพลังงาน
    ระบบป้องกันประเทศและอวกาศที่ต้องการความเย็นต่ำและความเร็วสูง

    GSI ยังเผยว่า Gemini-II ซึ่งเป็นรุ่นถัดไปจะเร็วขึ้นอีก 10 เท่า และ Plato ซึ่งอยู่ในขั้นพัฒนา จะเน้นงาน embedded edge ที่ใช้พลังงานต่ำแต่ต้องการความสามารถสูง

    Gemini-I APU จาก GSI ใช้สถาปัตยกรรม Compute-in-Memory
    รวมหน่วยความจำและประมวลผลไว้ในชิปเดียว

    ประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU ในงาน RAG
    แต่ใช้พลังงานน้อยกว่าถึง 98%

    เร็วกว่า CPU ทั่วไปถึง 80% ในงาน retrieval
    เหมาะกับงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน

    Gemini-II จะเร็วขึ้นอีก 10 เท่าและลด latency
    เหมาะกับงาน memory-intensive

    Plato จะเน้น embedded edge AI ที่ใช้พลังงานต่ำ
    เช่น หุ่นยนต์, IoT, อุปกรณ์พกพา

    งานวิจัยตีพิมพ์ใน ACM และนำเสนอที่งาน Micro '25
    เป็นการประเมินเชิงลึกครั้งแรกของอุปกรณ์ CIM เชิงพาณิชย์

    https://www.techpowerup.com/342054/compute-in-memory-apu-achieves-gpu-class-ai-performance-at-a-fraction-of-the-energy-cost
    ⚡ “APU แบบ Compute-in-Memory จาก GSI ทำงานเร็วเท่ากับ GPU แต่ใช้พลังงานน้อยกว่า 98%” — เมื่อการประมวลผลแบบใหม่อาจเปลี่ยนเกม AI ทั้งในหุ่นยนต์, IoT และอวกาศ GSI Technology ร่วมกับทีมวิจัยจากมหาวิทยาลัย Cornell เผยผลการทดสอบ APU (Associative Processing Unit) รุ่น Gemini-I ซึ่งใช้สถาปัตยกรรม Compute-in-Memory (CIM) ในการประมวลผล AI โดยไม่ต้องแยกหน่วยความจำออกจากหน่วยคำนวณเหมือน CPU หรือ GPU แบบเดิม ผลการทดสอบ Retrieval-Augmented Generation (RAG) บนชุดข้อมูลขนาด 10–200 GB พบว่า Gemini-I มีประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU แต่ใช้พลังงานน้อยกว่าถึง 98% และเร็วกว่า CPU ทั่วไปถึง 80% ในงานค้นคืนข้อมูล เทคโนโลยีนี้เหมาะกับงานที่ต้องการประสิทธิภาพต่อวัตต์สูง เช่น: 🔋 หุ่นยนต์และโดรนที่ใช้ Edge AI 🔋 อุปกรณ์ IoT ที่มีข้อจำกัดด้านพลังงาน 🔋 ระบบป้องกันประเทศและอวกาศที่ต้องการความเย็นต่ำและความเร็วสูง GSI ยังเผยว่า Gemini-II ซึ่งเป็นรุ่นถัดไปจะเร็วขึ้นอีก 10 เท่า และ Plato ซึ่งอยู่ในขั้นพัฒนา จะเน้นงาน embedded edge ที่ใช้พลังงานต่ำแต่ต้องการความสามารถสูง ✅ Gemini-I APU จาก GSI ใช้สถาปัตยกรรม Compute-in-Memory ➡️ รวมหน่วยความจำและประมวลผลไว้ในชิปเดียว ✅ ประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU ในงาน RAG ➡️ แต่ใช้พลังงานน้อยกว่าถึง 98% ✅ เร็วกว่า CPU ทั่วไปถึง 80% ในงาน retrieval ➡️ เหมาะกับงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน ✅ Gemini-II จะเร็วขึ้นอีก 10 เท่าและลด latency ➡️ เหมาะกับงาน memory-intensive ✅ Plato จะเน้น embedded edge AI ที่ใช้พลังงานต่ำ ➡️ เช่น หุ่นยนต์, IoT, อุปกรณ์พกพา ✅ งานวิจัยตีพิมพ์ใน ACM และนำเสนอที่งาน Micro '25 ➡️ เป็นการประเมินเชิงลึกครั้งแรกของอุปกรณ์ CIM เชิงพาณิชย์ https://www.techpowerup.com/342054/compute-in-memory-apu-achieves-gpu-class-ai-performance-at-a-fraction-of-the-energy-cost
    WWW.TECHPOWERUP.COM
    Compute-In-Memory APU Achieves GPU-Class AI Performance at a Fraction of the Energy Cost
    GSI Technology, Inc. (Nasdaq: GSIT), the inventor of the Associative Processing Unit (APU), a paradigm shift in artificial intelligence (AI) and high-performance compute (HPC) processing providing true compute-in-memory technology, announced the publication of a paper led by researchers at Cornell U...
    0 Comments 0 Shares 86 Views 0 Reviews
  • "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4"

    Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป

    Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด

    ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages

    นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple

    ความคืบหน้าของ Siri ใหม่ใน iOS 26.4
    ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด
    เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness
    คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026

    ความกังวลจากวิศวกร Apple
    ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร
    การใช้งานข้ามแอปยังไม่ราบรื่น
    มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้

    คำเตือนจากการเปลี่ยนสถาปัตยกรรม
    V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร
    หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple
    การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน

    ฟีเจอร์ที่น่าสนใจของ Siri ใหม่
    สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ
    ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ
    อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT

    สาระเพิ่มเติมจากภายนอก:
    ความท้าทายของการพัฒนา AI ผู้ช่วย
    ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล
    การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว

    การแข่งขันในตลาดผู้ช่วย AI
    Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว
    Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง

    https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    🗣️ "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4" Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple ✅ ความคืบหน้าของ Siri ใหม่ใน iOS 26.4 ➡️ ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด ➡️ เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness ➡️ คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026 ✅ ความกังวลจากวิศวกร Apple ➡️ ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร ➡️ การใช้งานข้ามแอปยังไม่ราบรื่น ➡️ มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้ ‼️ คำเตือนจากการเปลี่ยนสถาปัตยกรรม ⛔ V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร ⛔ หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple ⛔ การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน ✅ ฟีเจอร์ที่น่าสนใจของ Siri ใหม่ ➡️ สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ ➡️ ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ ➡️ อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความท้าทายของการพัฒนา AI ผู้ช่วย ➡️ ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล ➡️ การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว ✅ การแข่งขันในตลาดผู้ช่วย AI ➡️ Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว ➡️ Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    WCCFTECH.COM
    Some Apple Engineers Voice Concerns About The Performance Of The New AI-Powered Siri In Early Builds Of iOS 26.4
    Today's report offers a possible motive for the sudden departure of Ke Yang, the head of Apple's AKI team, who has now been poached by Meta.
    0 Comments 0 Shares 179 Views 0 Reviews
  • "Intel i386 ครบรอบ 40 ปี: จุดเปลี่ยนของโลกคอมพิวเตอร์ที่ยังส่งผลถึงทุกวันนี้"

    ย้อนกลับไปในเดือนตุลาคมปี 1985 Intel ได้เปิดตัวชิป i386 หรือที่รู้จักกันในชื่อ 80386 ซึ่งเป็นโปรเซสเซอร์ x86 รุ่นที่สาม และเป็นชิป 32 บิตตัวแรกในสายผลิตภัณฑ์ของ Intel จุดเริ่มต้นของชุดคำสั่ง IA-32 ที่กลายเป็นรากฐานของระบบปฏิบัติการ Windows และ Linux มานานหลายทศวรรษ

    i386 มีทรานซิสเตอร์ถึง 275,000 ตัว และทำงานที่ความเร็วสูงสุด 16 MHz ซึ่งถือว่าเร็วมากในยุคนั้น แต่สิ่งที่เปลี่ยนโลกจริง ๆ คือการรองรับ protected mode, virtual 8086 mode และ hardware paging ซึ่งเปิดทางให้ระบบ multitasking และ virtual memory บน x86 เป็นไปได้จริง

    Compaq เป็นบริษัทแรกที่นำ i386 มาใช้ในเครื่อง Deskpro i386 โดยเอาชนะ IBM ที่ปฏิเสธชิปนี้ไปก่อนหน้า ทำให้ Compaq กลายเป็นผู้นำตลาด PC ในช่วงเวลานั้น

    Linux เองก็ถือกำเนิดบน i386 โดย Linus Torvalds พัฒนา kernel แรกให้ทำงานบนฮาร์ดแวร์ 386-AT โดยเฉพาะ ก่อนจะยุติการรองรับในปี 2012 หลังจากใช้งานมานานกว่า 20 ปี

    แม้ i386 จะถูกแทนที่ด้วย i486 และรุ่นใหม่ ๆ แต่สถาปัตยกรรม IA-32 ที่มันวางรากฐานไว้ยังคงปรากฏอยู่ใน emulator, VM และระบบ legacy จนถึงทุกวันนี้

    จุดเด่นของ Intel i386
    เปิดตัวในปี 1985 เป็นชิป 32 บิตตัวแรกของ Intel
    มี 275,000 ทรานซิสเตอร์ ทำงานที่ 16 MHz
    รองรับ protected mode, virtual 8086 และ paging

    ผลกระทบต่อระบบปฏิบัติการ
    Windows 3.0 ใช้ฟีเจอร์ “386 Enhanced Mode” เพื่อรันหลาย DOS session พร้อมกัน
    Linux kernel รุ่นแรกพัฒนาสำหรับ i386 โดยเฉพาะ

    การนำไปใช้งานเชิงพาณิชย์
    Compaq เปิดตัว Deskpro i386 ก่อน IBM ถึง 1 ปี
    ราคาเริ่มต้นที่ $6,499 ถือเป็นจุดเปลี่ยนของตลาด PC

    มรดกของ i386
    IA-32 กลายเป็นพื้นฐานของ Windows และ Linux จนถึงยุค 2010s
    ยังปรากฏใน emulator, VM และระบบ legacy
    Intel ยุติการผลิตชิป i386 ในปี 2007
    🎇 "Intel i386 ครบรอบ 40 ปี: จุดเปลี่ยนของโลกคอมพิวเตอร์ที่ยังส่งผลถึงทุกวันนี้" ย้อนกลับไปในเดือนตุลาคมปี 1985 Intel ได้เปิดตัวชิป i386 หรือที่รู้จักกันในชื่อ 80386 ซึ่งเป็นโปรเซสเซอร์ x86 รุ่นที่สาม และเป็นชิป 32 บิตตัวแรกในสายผลิตภัณฑ์ของ Intel จุดเริ่มต้นของชุดคำสั่ง IA-32 ที่กลายเป็นรากฐานของระบบปฏิบัติการ Windows และ Linux มานานหลายทศวรรษ i386 มีทรานซิสเตอร์ถึง 275,000 ตัว และทำงานที่ความเร็วสูงสุด 16 MHz ซึ่งถือว่าเร็วมากในยุคนั้น แต่สิ่งที่เปลี่ยนโลกจริง ๆ คือการรองรับ protected mode, virtual 8086 mode และ hardware paging ซึ่งเปิดทางให้ระบบ multitasking และ virtual memory บน x86 เป็นไปได้จริง Compaq เป็นบริษัทแรกที่นำ i386 มาใช้ในเครื่อง Deskpro i386 โดยเอาชนะ IBM ที่ปฏิเสธชิปนี้ไปก่อนหน้า ทำให้ Compaq กลายเป็นผู้นำตลาด PC ในช่วงเวลานั้น Linux เองก็ถือกำเนิดบน i386 โดย Linus Torvalds พัฒนา kernel แรกให้ทำงานบนฮาร์ดแวร์ 386-AT โดยเฉพาะ ก่อนจะยุติการรองรับในปี 2012 หลังจากใช้งานมานานกว่า 20 ปี แม้ i386 จะถูกแทนที่ด้วย i486 และรุ่นใหม่ ๆ แต่สถาปัตยกรรม IA-32 ที่มันวางรากฐานไว้ยังคงปรากฏอยู่ใน emulator, VM และระบบ legacy จนถึงทุกวันนี้ ✅ จุดเด่นของ Intel i386 ➡️ เปิดตัวในปี 1985 เป็นชิป 32 บิตตัวแรกของ Intel ➡️ มี 275,000 ทรานซิสเตอร์ ทำงานที่ 16 MHz ➡️ รองรับ protected mode, virtual 8086 และ paging ✅ ผลกระทบต่อระบบปฏิบัติการ ➡️ Windows 3.0 ใช้ฟีเจอร์ “386 Enhanced Mode” เพื่อรันหลาย DOS session พร้อมกัน ➡️ Linux kernel รุ่นแรกพัฒนาสำหรับ i386 โดยเฉพาะ ✅ การนำไปใช้งานเชิงพาณิชย์ ➡️ Compaq เปิดตัว Deskpro i386 ก่อน IBM ถึง 1 ปี ➡️ ราคาเริ่มต้นที่ $6,499 ถือเป็นจุดเปลี่ยนของตลาด PC ✅ มรดกของ i386 ➡️ IA-32 กลายเป็นพื้นฐานของ Windows และ Linux จนถึงยุค 2010s ➡️ ยังปรากฏใน emulator, VM และระบบ legacy ➡️ Intel ยุติการผลิตชิป i386 ในปี 2007
    0 Comments 0 Shares 89 Views 0 Reviews
  • “PeaZip 10.7 เพิ่มฟีเจอร์ดูภาพในไฟล์ — ครบเครื่องทั้งบีบอัดและพรีวิว”

    PeaZip 10.7 เวอร์ชันล่าสุดของโปรแกรมจัดการไฟล์แบบโอเพ่นซอร์ส ได้เปิดตัวพร้อมฟีเจอร์ใหม่ที่น่าสนใจ: ตัวดูภาพ (image viewer) ที่สามารถพรีวิวภาพภายในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์ออกมาก่อน

    ฟีเจอร์ใหม่นี้อยู่ในเมนู “File manager > View images” และรองรับการซูม, โหมด immersive, การเปลี่ยนชื่อ, ลบไฟล์ และการนำทางภาพแบบพื้นฐาน นอกจากนี้ยังสามารถแสดง thumbnail ของภาพในตัวจัดการไฟล์ได้ทุกแพลตฟอร์ม

    PeaZip 10.7 ยังปรับปรุงการทำงานร่วมกับ ClamAV (แอนตี้ไวรัสโอเพ่นซอร์ส), เพิ่มการพรีวิวไฟล์ในฟอร์แมต Zpaq, และปรับปรุงการเรียกดูไฟล์ .pkg รวมถึงเพิ่มตัวเลือก “Quick Look” บน macOS

    ฟีเจอร์อื่น ๆ ที่น่าสนใจ ได้แก่:

    การสำรวจ path ของไฟล์พรีวิวผ่านเบราว์เซอร์ของระบบ
    การพรีวิวข้อความพร้อมฟีเจอร์ค้นหา, นับจำนวนคำ/บรรทัด/ตัวอักษร, เปลี่ยน encoding และ word wrap
    ปรับปรุงธีม “Line custom”
    เพิ่มตัวเลือกให้เก็บไฟล์ไว้แม้การแตกไฟล์ล้มเหลว (เฉพาะ backend Zstd)
    ปรับปรุงการรายงานระดับการบีบอัดของ Brotli และ Zpaq
    ปรับปรุงการตั้งชื่อหน่วยและรายการต่าง ๆ
    ปรับปรุงเมนู “Functions” ให้เรียงตามตัวอักษรและใช้งานง่ายขึ้น
    อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรม non-x86/x86_64

    PeaZip 10.7 พร้อมให้ดาวน์โหลดทั้งเวอร์ชัน GTK และ Qt รวมถึง Flatpak ผ่าน Flathub

    PeaZip 10.7 เพิ่มฟีเจอร์ image viewer
    ดูภาพและพรีวิวภาพในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์

    รองรับการแสดง thumbnail ใน file manager ทุกแพลตฟอร์ม
    ช่วยให้ดูภาพในไฟล์บีบอัดได้สะดวกขึ้น

    ปรับปรุงการทำงานร่วมกับ ClamAV
    เพิ่มความปลอดภัยในการจัดการไฟล์

    รองรับการพรีวิวไฟล์ Zpaq และ .pkg
    ขยายความสามารถในการจัดการฟอร์แมตเฉพาะ

    เพิ่ม Quick Look บน macOS และปรับปรุง Text preview
    รองรับการค้นหา, นับคำ, เปลี่ยน encoding ฯลฯ

    ปรับปรุงเมนู Functions และธีม Line custom
    ใช้งานง่ายและดูสบายตายิ่งขึ้น

    เพิ่มตัวเลือกเก็บไฟล์แม้แตกไฟล์ล้มเหลว (Zstd)
    ป้องกันการสูญหายของข้อมูล

    อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรมหลากหลาย
    เพิ่มความเข้ากันได้กับระบบที่ไม่ใช่ x86

    https://9to5linux.com/peazip-10-7-open-source-archive-manager-introduces-an-image-viewer
    🗂️ “PeaZip 10.7 เพิ่มฟีเจอร์ดูภาพในไฟล์ — ครบเครื่องทั้งบีบอัดและพรีวิว” PeaZip 10.7 เวอร์ชันล่าสุดของโปรแกรมจัดการไฟล์แบบโอเพ่นซอร์ส ได้เปิดตัวพร้อมฟีเจอร์ใหม่ที่น่าสนใจ: ตัวดูภาพ (image viewer) ที่สามารถพรีวิวภาพภายในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์ออกมาก่อน ฟีเจอร์ใหม่นี้อยู่ในเมนู “File manager > View images” และรองรับการซูม, โหมด immersive, การเปลี่ยนชื่อ, ลบไฟล์ และการนำทางภาพแบบพื้นฐาน นอกจากนี้ยังสามารถแสดง thumbnail ของภาพในตัวจัดการไฟล์ได้ทุกแพลตฟอร์ม PeaZip 10.7 ยังปรับปรุงการทำงานร่วมกับ ClamAV (แอนตี้ไวรัสโอเพ่นซอร์ส), เพิ่มการพรีวิวไฟล์ในฟอร์แมต Zpaq, และปรับปรุงการเรียกดูไฟล์ .pkg รวมถึงเพิ่มตัวเลือก “Quick Look” บน macOS ฟีเจอร์อื่น ๆ ที่น่าสนใจ ได้แก่: 🛄 การสำรวจ path ของไฟล์พรีวิวผ่านเบราว์เซอร์ของระบบ 🛄 การพรีวิวข้อความพร้อมฟีเจอร์ค้นหา, นับจำนวนคำ/บรรทัด/ตัวอักษร, เปลี่ยน encoding และ word wrap 🛄 ปรับปรุงธีม “Line custom” 🛄 เพิ่มตัวเลือกให้เก็บไฟล์ไว้แม้การแตกไฟล์ล้มเหลว (เฉพาะ backend Zstd) 🛄 ปรับปรุงการรายงานระดับการบีบอัดของ Brotli และ Zpaq 🛄 ปรับปรุงการตั้งชื่อหน่วยและรายการต่าง ๆ 🛄 ปรับปรุงเมนู “Functions” ให้เรียงตามตัวอักษรและใช้งานง่ายขึ้น 🛄 อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรม non-x86/x86_64 PeaZip 10.7 พร้อมให้ดาวน์โหลดทั้งเวอร์ชัน GTK และ Qt รวมถึง Flatpak ผ่าน Flathub ✅ PeaZip 10.7 เพิ่มฟีเจอร์ image viewer ➡️ ดูภาพและพรีวิวภาพในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์ ✅ รองรับการแสดง thumbnail ใน file manager ทุกแพลตฟอร์ม ➡️ ช่วยให้ดูภาพในไฟล์บีบอัดได้สะดวกขึ้น ✅ ปรับปรุงการทำงานร่วมกับ ClamAV ➡️ เพิ่มความปลอดภัยในการจัดการไฟล์ ✅ รองรับการพรีวิวไฟล์ Zpaq และ .pkg ➡️ ขยายความสามารถในการจัดการฟอร์แมตเฉพาะ ✅ เพิ่ม Quick Look บน macOS และปรับปรุง Text preview ➡️ รองรับการค้นหา, นับคำ, เปลี่ยน encoding ฯลฯ ✅ ปรับปรุงเมนู Functions และธีม Line custom ➡️ ใช้งานง่ายและดูสบายตายิ่งขึ้น ✅ เพิ่มตัวเลือกเก็บไฟล์แม้แตกไฟล์ล้มเหลว (Zstd) ➡️ ป้องกันการสูญหายของข้อมูล ✅ อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรมหลากหลาย ➡️ เพิ่มความเข้ากันได้กับระบบที่ไม่ใช่ x86 https://9to5linux.com/peazip-10-7-open-source-archive-manager-introduces-an-image-viewer
    9TO5LINUX.COM
    PeaZip 10.7 Open-Source Archive Manager Introduces an Image Viewer - 9to5Linux
    PeaZip 10.7 open-source archive manager is now available for download with a new image viewer component and various improvements.
    0 Comments 0 Shares 145 Views 0 Reviews
  • “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ

    ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน

    Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7

    Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด

    Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10
    วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน

    ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน
    ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4)

    มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB
    รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก.
    พกพาสะดวกแต่ทรงพลัง

    พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet
    รองรับการใช้งานระดับมืออาชีพ

    รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7
    ขยายการประมวลผลแบบ local ได้

    https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    🖥️ “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด ✅ Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10 ➡️ วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน ✅ ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน ➡️ ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4) ✅ มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB ➡️ รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ ✅ ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก. ➡️ พกพาสะดวกแต่ทรงพลัง ✅ พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet ➡️ รองรับการใช้งานระดับมืออาชีพ ✅ รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 ➡️ ขยายการประมวลผลแบบ local ได้ https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    0 Comments 0 Shares 181 Views 0 Reviews
  • “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่

    Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า

    HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD

    นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin

    Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ

    ข้อมูลในข่าว
    Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s
    ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack
    เร็วกว่า HBM3E ถึง 2.5 เท่า
    ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า
    ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง
    ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin
    HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps
    เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026
    Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี
    คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง

    https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    🚀 “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่ Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ ✅ ข้อมูลในข่าว ➡️ Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s ➡️ ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack ➡️ เร็วกว่า HBM3E ถึง 2.5 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า ➡️ ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง ➡️ ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin ➡️ HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps ➡️ เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ➡️ Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี ➡️ คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    WCCFTECH.COM
    Samsung’s HBM4E Set to Deliver 3.25 TB/s Bandwidth; Nearly 2.5× Faster Than HBM3E, Driving AI Computing to New Levels
    Samsung has become one of the first HBM manufacturers to announce progress on HBM4E at the OCP, showcasing significant upgrades.
    0 Comments 0 Shares 170 Views 0 Reviews
  • “Synaptics เปิดตัว Astra SL2600” — โปรเซสเซอร์ Edge AI ยุคใหม่ที่รวมพลังมัลติโหมดและ RISC-V เพื่อโลก IoT อัจฉริยะ

    Synaptics ประกาศเปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่ที่ออกแบบมาเพื่อรองรับอุปกรณ์อัจฉริยะในยุค Internet of Things (IoT) โดยเน้นการประมวลผลแบบมัลติโหมด (multimodal) ที่รวมภาพ เสียง เซ็นเซอร์ และข้อมูลเครือข่ายไว้ในชิปเดียว

    ชิป SL2610 ซึ่งเป็นรุ่นแรกในซีรีส์นี้ ใช้แพลตฟอร์ม Torq Edge AI ที่รวมสถาปัตยกรรม NPU แบบ RISC-V จาก Coral ของ Google พร้อมคอมไพเลอร์แบบ open-source (IREE/MLIR) เพื่อให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้อย่างยืดหยุ่นและมีประสิทธิภาพ

    SL2610 ยังรวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU เพื่อรองรับงานประมวลผลทั่วไปและกราฟิก พร้อมระบบความปลอดภัยในตัว เช่น root of trust, threat detection และ crypto coprocessor สำหรับงาน AI ที่ต้องการความปลอดภัยสูง

    ซีรีส์นี้มีทั้งหมด 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617 และ SL2619 ซึ่งออกแบบให้ pin-to-pin compatible เพื่อให้ง่ายต่อการเปลี่ยนรุ่นตามความต้องการของอุปกรณ์ ตั้งแต่แบบใช้แบตเตอรี่ไปจนถึงระบบวิชั่นอุตสาหกรรม

    ชิปยังรองรับการเชื่อมต่อผ่าน Synaptics Veros Connectivity เช่น Wi-Fi 6/6E/7, Bluetooth/BLE, Thread และ UWB เพื่อให้การพัฒนาอุปกรณ์ IoT เป็นไปอย่างรวดเร็วและครบวงจร

    Synaptics ได้รับความร่วมมือจากพันธมิตรระดับโลก เช่น Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm ซึ่งต่างยืนยันถึงความสามารถของ Astra SL2600 ในการผลักดันนวัตกรรม Edge AI

    ข้อมูลในข่าว
    Synaptics เปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่
    SL2610 ใช้แพลตฟอร์ม Torq Edge AI ที่รวม Coral NPU จาก Google
    ใช้คอมไพเลอร์ open-source IREE/MLIR เพื่อความยืดหยุ่นในการพัฒนา
    รวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU
    มีระบบความปลอดภัยในตัว เช่น root of trust และ crypto coprocessor
    มี 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617, SL2619 ที่ pin-to-pin compatible
    รองรับการเชื่อมต่อผ่าน Veros Connectivity: Wi-Fi 6/6E/7, BT/BLE, Thread, UWB
    เหมาะสำหรับอุปกรณ์ IoT เช่น เครื่องใช้ไฟฟ้า, ระบบอัตโนมัติ, UAV, เกม, POS, หุ่นยนต์
    ได้รับความร่วมมือจาก Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm
    ชิปเริ่มส่งตัวอย่างให้ลูกค้าแล้ว และจะวางจำหน่ายทั่วไปในไตรมาส 2 ปี 2026

    https://www.techpowerup.com/341933/synaptics-launches-the-next-generation-of-astra-multimodal-genai-edge-processors
    🧠 “Synaptics เปิดตัว Astra SL2600” — โปรเซสเซอร์ Edge AI ยุคใหม่ที่รวมพลังมัลติโหมดและ RISC-V เพื่อโลก IoT อัจฉริยะ Synaptics ประกาศเปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่ที่ออกแบบมาเพื่อรองรับอุปกรณ์อัจฉริยะในยุค Internet of Things (IoT) โดยเน้นการประมวลผลแบบมัลติโหมด (multimodal) ที่รวมภาพ เสียง เซ็นเซอร์ และข้อมูลเครือข่ายไว้ในชิปเดียว ชิป SL2610 ซึ่งเป็นรุ่นแรกในซีรีส์นี้ ใช้แพลตฟอร์ม Torq Edge AI ที่รวมสถาปัตยกรรม NPU แบบ RISC-V จาก Coral ของ Google พร้อมคอมไพเลอร์แบบ open-source (IREE/MLIR) เพื่อให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้อย่างยืดหยุ่นและมีประสิทธิภาพ SL2610 ยังรวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU เพื่อรองรับงานประมวลผลทั่วไปและกราฟิก พร้อมระบบความปลอดภัยในตัว เช่น root of trust, threat detection และ crypto coprocessor สำหรับงาน AI ที่ต้องการความปลอดภัยสูง ซีรีส์นี้มีทั้งหมด 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617 และ SL2619 ซึ่งออกแบบให้ pin-to-pin compatible เพื่อให้ง่ายต่อการเปลี่ยนรุ่นตามความต้องการของอุปกรณ์ ตั้งแต่แบบใช้แบตเตอรี่ไปจนถึงระบบวิชั่นอุตสาหกรรม ชิปยังรองรับการเชื่อมต่อผ่าน Synaptics Veros Connectivity เช่น Wi-Fi 6/6E/7, Bluetooth/BLE, Thread และ UWB เพื่อให้การพัฒนาอุปกรณ์ IoT เป็นไปอย่างรวดเร็วและครบวงจร Synaptics ได้รับความร่วมมือจากพันธมิตรระดับโลก เช่น Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm ซึ่งต่างยืนยันถึงความสามารถของ Astra SL2600 ในการผลักดันนวัตกรรม Edge AI ✅ ข้อมูลในข่าว ➡️ Synaptics เปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่ ➡️ SL2610 ใช้แพลตฟอร์ม Torq Edge AI ที่รวม Coral NPU จาก Google ➡️ ใช้คอมไพเลอร์ open-source IREE/MLIR เพื่อความยืดหยุ่นในการพัฒนา ➡️ รวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU ➡️ มีระบบความปลอดภัยในตัว เช่น root of trust และ crypto coprocessor ➡️ มี 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617, SL2619 ที่ pin-to-pin compatible ➡️ รองรับการเชื่อมต่อผ่าน Veros Connectivity: Wi-Fi 6/6E/7, BT/BLE, Thread, UWB ➡️ เหมาะสำหรับอุปกรณ์ IoT เช่น เครื่องใช้ไฟฟ้า, ระบบอัตโนมัติ, UAV, เกม, POS, หุ่นยนต์ ➡️ ได้รับความร่วมมือจาก Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm ➡️ ชิปเริ่มส่งตัวอย่างให้ลูกค้าแล้ว และจะวางจำหน่ายทั่วไปในไตรมาส 2 ปี 2026 https://www.techpowerup.com/341933/synaptics-launches-the-next-generation-of-astra-multimodal-genai-edge-processors
    WWW.TECHPOWERUP.COM
    Synaptics Launches the Next Generation of Astra Multimodal GenAI Edge Processors
    Synaptics Incorporated (Nasdaq: SYNA), announces the new Astra SL2600 Series of multimodal Edge AI processors designed to deliver exceptional power and performance. The Astra SL2600 series enables a new generation of cost-effective intelligent devices that make the cognitive Internet of Things (IoT)...
    0 Comments 0 Shares 153 Views 0 Reviews
  • “MIPS I8500: โปรเซสเซอร์ยุคใหม่เพื่อขับเคลื่อน Physical AI” — สถาปัตยกรรม RISC-V ที่ออกแบบมาเพื่อการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ

    บริษัท MIPS ซึ่งเป็นบริษัทในเครือของ GlobalFoundries ได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า MIPS I8500 โดยเน้นการจัดการข้อมูลแบบเรียลไทม์สำหรับแพลตฟอร์มที่ต้องการการตอบสนองทันที เช่น ระบบ AI ที่ทำงานนอกศูนย์ข้อมูล (Physical AI), โครงสร้างพื้นฐานด้านการสื่อสาร, อุตสาหกรรม, ยานยนต์ และระบบจัดเก็บข้อมูล

    I8500 ถูกออกแบบบนสถาปัตยกรรม RISC-V และมีความสามารถในการประมวลผลแบบ multithread สูงถึง 24 threads ต่อ cluster โดยมี 4 threads ต่อ core และรองรับการทำงานแบบ multi-cluster เพื่อเพิ่มความยืดหยุ่นในการใช้งาน

    จุดเด่นของ I8500 คือการเคลื่อนย้ายข้อมูลแบบ deterministic (กำหนดได้แน่นอน) และมี latency ต่ำมาก พร้อมระบบความปลอดภัยในตัว เหมาะสำหรับการจัดการ packet flows ระหว่าง accelerator ต่าง ๆ และการสื่อสารระหว่างมนุษย์กับระบบคอมพิวเตอร์

    โปรเซสเซอร์นี้ยังรองรับระบบปฏิบัติการ Linux และ Real-Time OS พร้อมความสามารถในการทำงานร่วมกับโปรไฟล์ RVA23 ซึ่งช่วยให้พัฒนาแอปพลิเคชันได้ง่ายขึ้นในระบบนิเวศของ RISC-V

    Steven Dickens จาก HyperFRAME Research กล่าวว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven ที่ตอบโจทย์ตลาดใหม่ เช่น ยานยนต์อัตโนมัติและระบบควบคุมอุตสาหกรรม

    ข้อมูลในข่าว
    MIPS เปิดตัวโปรเซสเซอร์ I8500 สำหรับงาน Physical AI และการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ
    ใช้สถาปัตยกรรม RISC-V พร้อม multithread สูงสุด 24 threads ต่อ cluster
    รองรับ multi-cluster deployments เพื่อเพิ่มความยืดหยุ่นในการใช้งาน
    มี latency ต่ำและ deterministic data movement พร้อมระบบความปลอดภัยในตัว
    เหมาะสำหรับงานในศูนย์ข้อมูล, ยานยนต์, อุตสาหกรรม และระบบสื่อสาร
    รองรับ Linux และ Real-Time OS พร้อมโปรไฟล์ RVA23
    ช่วยให้การพัฒนาแอปพลิเคชันในระบบ RISC-V เป็นไปอย่างราบรื่น
    Steven Dickens ระบุว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven
    มี Atlas Explorer Core Model สำหรับการทดสอบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์
    เตรียมเปิดตัวในงาน RISC-V Summit North America วันที่ 22–23 ตุลาคม

    https://www.techpowerup.com/341911/mips-i8500-processor-orchestrates-data-movement-for-the-ai-era
    ⚙️ “MIPS I8500: โปรเซสเซอร์ยุคใหม่เพื่อขับเคลื่อน Physical AI” — สถาปัตยกรรม RISC-V ที่ออกแบบมาเพื่อการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ บริษัท MIPS ซึ่งเป็นบริษัทในเครือของ GlobalFoundries ได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า MIPS I8500 โดยเน้นการจัดการข้อมูลแบบเรียลไทม์สำหรับแพลตฟอร์มที่ต้องการการตอบสนองทันที เช่น ระบบ AI ที่ทำงานนอกศูนย์ข้อมูล (Physical AI), โครงสร้างพื้นฐานด้านการสื่อสาร, อุตสาหกรรม, ยานยนต์ และระบบจัดเก็บข้อมูล I8500 ถูกออกแบบบนสถาปัตยกรรม RISC-V และมีความสามารถในการประมวลผลแบบ multithread สูงถึง 24 threads ต่อ cluster โดยมี 4 threads ต่อ core และรองรับการทำงานแบบ multi-cluster เพื่อเพิ่มความยืดหยุ่นในการใช้งาน จุดเด่นของ I8500 คือการเคลื่อนย้ายข้อมูลแบบ deterministic (กำหนดได้แน่นอน) และมี latency ต่ำมาก พร้อมระบบความปลอดภัยในตัว เหมาะสำหรับการจัดการ packet flows ระหว่าง accelerator ต่าง ๆ และการสื่อสารระหว่างมนุษย์กับระบบคอมพิวเตอร์ โปรเซสเซอร์นี้ยังรองรับระบบปฏิบัติการ Linux และ Real-Time OS พร้อมความสามารถในการทำงานร่วมกับโปรไฟล์ RVA23 ซึ่งช่วยให้พัฒนาแอปพลิเคชันได้ง่ายขึ้นในระบบนิเวศของ RISC-V Steven Dickens จาก HyperFRAME Research กล่าวว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven ที่ตอบโจทย์ตลาดใหม่ เช่น ยานยนต์อัตโนมัติและระบบควบคุมอุตสาหกรรม ✅ ข้อมูลในข่าว ➡️ MIPS เปิดตัวโปรเซสเซอร์ I8500 สำหรับงาน Physical AI และการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ ➡️ ใช้สถาปัตยกรรม RISC-V พร้อม multithread สูงสุด 24 threads ต่อ cluster ➡️ รองรับ multi-cluster deployments เพื่อเพิ่มความยืดหยุ่นในการใช้งาน ➡️ มี latency ต่ำและ deterministic data movement พร้อมระบบความปลอดภัยในตัว ➡️ เหมาะสำหรับงานในศูนย์ข้อมูล, ยานยนต์, อุตสาหกรรม และระบบสื่อสาร ➡️ รองรับ Linux และ Real-Time OS พร้อมโปรไฟล์ RVA23 ➡️ ช่วยให้การพัฒนาแอปพลิเคชันในระบบ RISC-V เป็นไปอย่างราบรื่น ➡️ Steven Dickens ระบุว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven ➡️ มี Atlas Explorer Core Model สำหรับการทดสอบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ ➡️ เตรียมเปิดตัวในงาน RISC-V Summit North America วันที่ 22–23 ตุลาคม https://www.techpowerup.com/341911/mips-i8500-processor-orchestrates-data-movement-for-the-ai-era
    WWW.TECHPOWERUP.COM
    MIPS I8500 Processor Orchestrates Data Movement for the AI Era
    MIPS, a GlobalFoundries company, announced today the MIPS I8500 processor is now sampling to lead customers. Featured at GlobalFoundries' Technology Summit in Munich, Germany today, the I8500 represents a class of intelligent data movement processor IP designed for real-time, event-driven computing ...
    0 Comments 0 Shares 150 Views 0 Reviews
  • 🛳 Jakarta Cruise Port ท่าเรือสำราญที่ใหญ่ที่สุดในอินโดนีเซีย ตั้งอยู่ในเขต North Jakarta ซึ่งเป็นศูนย์กลางการขนส่งสินค้าทางทะเลที่สำคัญของประเทศ ท่าเรือแห่งนี้มีความสามารถในการรองรับเรือสำราญทั้งขนาดใหญ่และขนาดกลาง ทำให้เป็นจุดจอดของเรือสำราญต่างชาติหลายสายที่มุ่งมายังเมืองจาการ์ตา ⭕️

    Monas โมนัส
    หนึ่งในสัญลักษณ์สำคัญของจาการ์ตา สร้างขึ้นในปี 1961 เพื่อเฉลิมฉลองการประกาศอิสรภาพของอินโดนีเซียจากเนเธอร์แลนด์ ตัวอนุสาวรีย์มีความสูง 132 เมตร

    Kota Tua เมืองเก่าจาการ์ตา
    เมืองเก่าจาการ์ตา หรือที่เรียกกันว่า Kota Tua เป็นแหล่งรวมสถาปัตยกรรมยุคอาณานิคมดัตช์ โดยในอดีตเป็นศูนย์กลางการค้าสำคัญของบริษัท Dutch East India Company

    Istiqlal Mosque มัสยิดอิสติกลัล
    มัสยิดอิสติกลัลเป็นมัสยิดที่ใหญ่ที่สุดในเอเชียตะวันออกเฉียงใต้ สร้างขึ้นในปี 1978 ตัวอาคารมีสถาปัตยกรรมที่โดดเด่นด้วยโดมขนาดใหญ่และหออะซานสูงตระหง่าน

    National Museum of Indonesia พิพิธภัณฑ์แห่งชาติอินโดนีเซีย
    พิพิธภัณฑ์แห่งชาติอินโดนีเซีย หรือที่เรียกกันว่า พิพิธภัณฑ์ช้าง เนื่องจากมีรูปปั้นช้างที่ทางเข้า ก่อตั้งขึ้นในปี 1862 โดยภายในมีการจัดแสดงสิ่งของโบราณและวัตถุทางวัฒนธรรมที่สำคัญของอินโดนีเซีย

    สอบถามเพิ่มเติมหรือจองแพ็คเกจได้ทันที!
    https://cruisedomain.com/
    LINE ID: @CruiseDomain 78s.me/c54029
    Facebook: CruiseDomain 78s.me/b8a121
    Youtube : CruiseDomain 78s.me/8af620
    : 0 2116 9696

    #JakartaCruisePort #INDONESIA #Monas #KotaTua #IstiqlalMosque #NationalMuseumofIndonesia #port #cruisedomain #thaitimes
    🛳 Jakarta Cruise Port ท่าเรือสำราญที่ใหญ่ที่สุดในอินโดนีเซีย ตั้งอยู่ในเขต North Jakarta ซึ่งเป็นศูนย์กลางการขนส่งสินค้าทางทะเลที่สำคัญของประเทศ ท่าเรือแห่งนี้มีความสามารถในการรองรับเรือสำราญทั้งขนาดใหญ่และขนาดกลาง ทำให้เป็นจุดจอดของเรือสำราญต่างชาติหลายสายที่มุ่งมายังเมืองจาการ์ตา 🏁⭕️ ✔️ Monas ➡️ โมนัส หนึ่งในสัญลักษณ์สำคัญของจาการ์ตา สร้างขึ้นในปี 1961 เพื่อเฉลิมฉลองการประกาศอิสรภาพของอินโดนีเซียจากเนเธอร์แลนด์ ตัวอนุสาวรีย์มีความสูง 132 เมตร ✔️ Kota Tua ➡️ เมืองเก่าจาการ์ตา เมืองเก่าจาการ์ตา หรือที่เรียกกันว่า Kota Tua เป็นแหล่งรวมสถาปัตยกรรมยุคอาณานิคมดัตช์ โดยในอดีตเป็นศูนย์กลางการค้าสำคัญของบริษัท Dutch East India Company ✔️ Istiqlal Mosque ➡️ มัสยิดอิสติกลัล มัสยิดอิสติกลัลเป็นมัสยิดที่ใหญ่ที่สุดในเอเชียตะวันออกเฉียงใต้ สร้างขึ้นในปี 1978 ตัวอาคารมีสถาปัตยกรรมที่โดดเด่นด้วยโดมขนาดใหญ่และหออะซานสูงตระหง่าน ✔️ National Museum of Indonesia ➡️ พิพิธภัณฑ์แห่งชาติอินโดนีเซีย พิพิธภัณฑ์แห่งชาติอินโดนีเซีย หรือที่เรียกกันว่า พิพิธภัณฑ์ช้าง เนื่องจากมีรูปปั้นช้างที่ทางเข้า ก่อตั้งขึ้นในปี 1862 โดยภายในมีการจัดแสดงสิ่งของโบราณและวัตถุทางวัฒนธรรมที่สำคัญของอินโดนีเซีย 📩 สอบถามเพิ่มเติมหรือจองแพ็คเกจได้ทันที! https://cruisedomain.com/ LINE ID: @CruiseDomain 78s.me/c54029 Facebook: CruiseDomain 78s.me/b8a121 Youtube : CruiseDomain 78s.me/8af620 ☎️: 0 2116 9696 #JakartaCruisePort #INDONESIA #Monas #KotaTua #IstiqlalMosque #NationalMuseumofIndonesia #port #cruisedomain #thaitimes
    0 Comments 0 Shares 206 Views 0 Reviews
  • “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P

    Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ

    Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่

    Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว

    การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก

    ข้อมูลในข่าว
    Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ
    ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series
    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ
    รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service
    พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous
    เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026

    คำเตือนจากข้อมูลข่าว
    การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี
    หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง
    การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD
    การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก

    https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    🧠 “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่ Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก ✅ ข้อมูลในข่าว ➡️ Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ ➡️ ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series ➡️ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ➡️ รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service ➡️ พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ➡️ เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026 ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี ⛔ หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง ⛔ การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD ⛔ การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    WCCFTECH.COM
    Intel Crescent Island GPU Unveiled: Features Next-Gen Xe3P Graphics Architecture, 160 GB LPDDR5X For AI Inference
    Intel has unveiled its brand new AI inference GPU solution for data centers, codenamed Crescent Island, which features the Xe3P architecture.
    0 Comments 0 Shares 152 Views 0 Reviews
  • “MSI โชว์นวัตกรรมศูนย์ข้อมูล” — เปิดตัว ORv3, DC-MHS และ MGX ที่งาน OCP Global Summit 2025

    ในงาน OCP Global Summit ปี 2025 MSI ได้เปิดตัวโซลูชันศูนย์ข้อมูลรุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานระดับ hyperscale และ AI โดยเน้นการผสานเทคโนโลยีแบบเปิดกับการเร่งความเร็วด้วย GPU เพื่อสร้างศูนย์ข้อมูลที่มีประสิทธิภาพสูงและดูแลรักษาได้ง่าย

    หนึ่งในไฮไลต์คือ ORv3 Rack ขนาด 21 นิ้ว 44OU ที่มาพร้อมระบบพลังงาน 48V แบบรวมศูนย์ และเซิร์ฟเวอร์แบบ dual-node 16 ตัว ซึ่งช่วยเพิ่มพื้นที่สำหรับ CPU, RAM และ Storage พร้อมระบบระบายความร้อนที่มีประสิทธิภาพสูง

    MSI ยังเปิดตัวเซิร์ฟเวอร์ DC-MHS ที่รองรับทั้ง Intel Xeon 6 และ AMD EPYC 9005 โดยใช้โมดูล DC-SCM เพื่อให้สามารถใช้งานร่วมกันระหว่างผู้ผลิตได้ง่ายขึ้น พร้อมรองรับ PCIe 5.0 และ DDR5 สำหรับงานที่ต้องการความเร็วสูง

    ในด้าน GPU MSI ใช้สถาปัตยกรรม MGX ของ NVIDIA โดยมีรุ่น CG481-S6053 ที่รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว และ CG290-S3063 ที่ออกแบบมาเพื่องาน inference และ fine-tuning โดยใช้ GPU PCIe 5.0 จำนวน 4 ตัว

    ทั้งหมดนี้สะท้อนถึงแนวทางของ MSI ที่ต้องการสร้างศูนย์ข้อมูลที่สามารถปรับขนาดได้ง่าย รองรับงาน AI และ cloud ได้อย่างมีประสิทธิภาพ พร้อมลดความซับซ้อนในการติดตั้งและดูแลรักษา

    ข้อมูลในข่าว
    MSI เปิดตัว ORv3 Rack ขนาด 21 นิ้ว 44OU พร้อมระบบพลังงานรวมศูนย์ 48V
    รองรับเซิร์ฟเวอร์แบบ dual-node 16 ตัว พร้อม I/O ด้านหน้าเพื่อการดูแลจาก cold aisle
    เซิร์ฟเวอร์ DC-MHS รองรับ Intel Xeon 6 และ AMD EPYC 9005 ด้วยโมดูล DC-SCM
    รองรับ PCIe 5.0, DDR5 และ NVMe แบบ front-service
    GPU server ใช้สถาปัตยกรรม MGX ของ NVIDIA
    รุ่น CG481-S6053 รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว
    รุ่น CG290-S3063 รองรับ GPU PCIe 5.0 จำนวน 4 ตัว สำหรับงาน inference
    ออกแบบมาเพื่อศูนย์ข้อมูล AI และ cloud ที่ต้องการความยืดหยุ่นและประสิทธิภาพสูง

    คำเตือนจากข้อมูลข่าว
    การใช้ GPU จำนวนมากต้องมีระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพ
    หากไม่ใช้โมดูล DC-SCM อาจทำให้เกิดปัญหาความเข้ากันได้ระหว่างผู้ผลิต
    การออกแบบศูนย์ข้อมูลแบบ rack-scale ต้องมีการวางแผนล่วงหน้าอย่างละเอียด
    การเปลี่ยนไปใช้ PCIe 6.0 ต้องตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม

    https://www.techpowerup.com/341907/msi-highlights-orv3-dc-mhs-and-mgx-solutions-at-2025-ocp-global-summit
    🏢 “MSI โชว์นวัตกรรมศูนย์ข้อมูล” — เปิดตัว ORv3, DC-MHS และ MGX ที่งาน OCP Global Summit 2025 ในงาน OCP Global Summit ปี 2025 MSI ได้เปิดตัวโซลูชันศูนย์ข้อมูลรุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานระดับ hyperscale และ AI โดยเน้นการผสานเทคโนโลยีแบบเปิดกับการเร่งความเร็วด้วย GPU เพื่อสร้างศูนย์ข้อมูลที่มีประสิทธิภาพสูงและดูแลรักษาได้ง่าย หนึ่งในไฮไลต์คือ ORv3 Rack ขนาด 21 นิ้ว 44OU ที่มาพร้อมระบบพลังงาน 48V แบบรวมศูนย์ และเซิร์ฟเวอร์แบบ dual-node 16 ตัว ซึ่งช่วยเพิ่มพื้นที่สำหรับ CPU, RAM และ Storage พร้อมระบบระบายความร้อนที่มีประสิทธิภาพสูง MSI ยังเปิดตัวเซิร์ฟเวอร์ DC-MHS ที่รองรับทั้ง Intel Xeon 6 และ AMD EPYC 9005 โดยใช้โมดูล DC-SCM เพื่อให้สามารถใช้งานร่วมกันระหว่างผู้ผลิตได้ง่ายขึ้น พร้อมรองรับ PCIe 5.0 และ DDR5 สำหรับงานที่ต้องการความเร็วสูง ในด้าน GPU MSI ใช้สถาปัตยกรรม MGX ของ NVIDIA โดยมีรุ่น CG481-S6053 ที่รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว และ CG290-S3063 ที่ออกแบบมาเพื่องาน inference และ fine-tuning โดยใช้ GPU PCIe 5.0 จำนวน 4 ตัว ทั้งหมดนี้สะท้อนถึงแนวทางของ MSI ที่ต้องการสร้างศูนย์ข้อมูลที่สามารถปรับขนาดได้ง่าย รองรับงาน AI และ cloud ได้อย่างมีประสิทธิภาพ พร้อมลดความซับซ้อนในการติดตั้งและดูแลรักษา ✅ ข้อมูลในข่าว ➡️ MSI เปิดตัว ORv3 Rack ขนาด 21 นิ้ว 44OU พร้อมระบบพลังงานรวมศูนย์ 48V ➡️ รองรับเซิร์ฟเวอร์แบบ dual-node 16 ตัว พร้อม I/O ด้านหน้าเพื่อการดูแลจาก cold aisle ➡️ เซิร์ฟเวอร์ DC-MHS รองรับ Intel Xeon 6 และ AMD EPYC 9005 ด้วยโมดูล DC-SCM ➡️ รองรับ PCIe 5.0, DDR5 และ NVMe แบบ front-service ➡️ GPU server ใช้สถาปัตยกรรม MGX ของ NVIDIA ➡️ รุ่น CG481-S6053 รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว ➡️ รุ่น CG290-S3063 รองรับ GPU PCIe 5.0 จำนวน 4 ตัว สำหรับงาน inference ➡️ ออกแบบมาเพื่อศูนย์ข้อมูล AI และ cloud ที่ต้องการความยืดหยุ่นและประสิทธิภาพสูง ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ GPU จำนวนมากต้องมีระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพ ⛔ หากไม่ใช้โมดูล DC-SCM อาจทำให้เกิดปัญหาความเข้ากันได้ระหว่างผู้ผลิต ⛔ การออกแบบศูนย์ข้อมูลแบบ rack-scale ต้องมีการวางแผนล่วงหน้าอย่างละเอียด ⛔ การเปลี่ยนไปใช้ PCIe 6.0 ต้องตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม https://www.techpowerup.com/341907/msi-highlights-orv3-dc-mhs-and-mgx-solutions-at-2025-ocp-global-summit
    WWW.TECHPOWERUP.COM
    MSI Highlights ORv3, DC-MHS, and MGX Solutions at 2025 OCP Global Summit
    At 2025 OCP Global Summit (Booth #A55), MSI, a leading global provider of high-performance server solutions, highlights the ORv3 21" 44OU rack, OCP DC-MHS platforms, and GPU servers built on NVIDIA MGX architecture, accelerated by the latest NVIDIA Hopper GPUs and NVIDIA RTX PRO 6000 Blackwell Serve...
    0 Comments 0 Shares 160 Views 0 Reviews
  • “NVIDIA จับมือ Samsung Foundry” — เปิดทางสู่ยุคใหม่ของชิป AI ด้วย NVLink Fusion

    ในงาน OCP Global Summit ล่าสุด NVIDIA ได้ประกาศความร่วมมือกับ Samsung Foundry เพื่อเข้าร่วมในระบบ NVLink Fusion ซึ่งเป็นโครงสร้างพื้นฐานด้านการเชื่อมต่อความเร็วสูงสำหรับศูนย์ข้อมูล AI โดย Samsung จะมีบทบาททั้งด้านการออกแบบและผลิตชิปแบบ custom CPU และ XPU ที่สามารถเชื่อมต่อโดยตรงกับสถาปัตยกรรม MGX และ OCP rack ของ NVIDIA

    NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างเต็มรูปแบบ โดยใช้เทคโนโลยี chiplet และ IP ที่รองรับการสื่อสารผ่าน NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s ซึ่งช่วยให้การเชื่อมต่อระหว่าง CPU และ GPU มีประสิทธิภาพมากขึ้น

    การนำ Samsung เข้ามาในระบบนี้ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเปิดทางให้บริษัทต่าง ๆ สามารถพัฒนาโปรเซสเซอร์ที่เหมาะกับงานเฉพาะ เช่นโมเดลภาษาใหญ่ (LLM) และ AI เชิงตัวแทน (agentic AI) ได้รวดเร็วขึ้น

    อย่างไรก็ตาม NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญที่ใช้ในการจัดการการเชื่อมต่อ เช่น communication controller และ PHY layer รวมถึงการใช้ NVLink Switch chips ที่ต้องได้รับใบอนุญาตจาก NVIDIA ซึ่งหมายความว่าบริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง

    ข้อมูลในข่าว
    NVIDIA ร่วมมือกับ Samsung Foundry ในระบบ NVLink Fusion
    Samsung จะออกแบบและผลิตชิป custom CPU และ XPU สำหรับศูนย์ข้อมูล AI
    NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นเชื่อมต่อกับระบบ NVIDIA ได้
    ใช้ NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s เพื่อเชื่อมต่อ CPU-GPU
    ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเร่งการพัฒนาโปรเซสเซอร์เฉพาะทาง
    Samsung เสริมทั้งกำลังการผลิตและบริการออกแบบในระบบ NVLink

    คำเตือนจากข้อมูลข่าว
    ชิปที่พัฒนาในระบบนี้ต้องเชื่อมต่อกับผลิตภัณฑ์ของ NVIDIA เท่านั้น
    NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญในการจัดการการเชื่อมต่อ
    บริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง
    การใช้ NVLink Switch chips ต้องได้รับใบอนุญาตจาก NVIDIA

    https://www.techpowerup.com/341889/nvidia-taps-samsung-foundry-for-custom-silicon-manufacturing
    🔗 “NVIDIA จับมือ Samsung Foundry” — เปิดทางสู่ยุคใหม่ของชิป AI ด้วย NVLink Fusion ในงาน OCP Global Summit ล่าสุด NVIDIA ได้ประกาศความร่วมมือกับ Samsung Foundry เพื่อเข้าร่วมในระบบ NVLink Fusion ซึ่งเป็นโครงสร้างพื้นฐานด้านการเชื่อมต่อความเร็วสูงสำหรับศูนย์ข้อมูล AI โดย Samsung จะมีบทบาททั้งด้านการออกแบบและผลิตชิปแบบ custom CPU และ XPU ที่สามารถเชื่อมต่อโดยตรงกับสถาปัตยกรรม MGX และ OCP rack ของ NVIDIA NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างเต็มรูปแบบ โดยใช้เทคโนโลยี chiplet และ IP ที่รองรับการสื่อสารผ่าน NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s ซึ่งช่วยให้การเชื่อมต่อระหว่าง CPU และ GPU มีประสิทธิภาพมากขึ้น การนำ Samsung เข้ามาในระบบนี้ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเปิดทางให้บริษัทต่าง ๆ สามารถพัฒนาโปรเซสเซอร์ที่เหมาะกับงานเฉพาะ เช่นโมเดลภาษาใหญ่ (LLM) และ AI เชิงตัวแทน (agentic AI) ได้รวดเร็วขึ้น อย่างไรก็ตาม NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญที่ใช้ในการจัดการการเชื่อมต่อ เช่น communication controller และ PHY layer รวมถึงการใช้ NVLink Switch chips ที่ต้องได้รับใบอนุญาตจาก NVIDIA ซึ่งหมายความว่าบริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง ✅ ข้อมูลในข่าว ➡️ NVIDIA ร่วมมือกับ Samsung Foundry ในระบบ NVLink Fusion ➡️ Samsung จะออกแบบและผลิตชิป custom CPU และ XPU สำหรับศูนย์ข้อมูล AI ➡️ NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นเชื่อมต่อกับระบบ NVIDIA ได้ ➡️ ใช้ NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s เพื่อเชื่อมต่อ CPU-GPU ➡️ ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเร่งการพัฒนาโปรเซสเซอร์เฉพาะทาง ➡️ Samsung เสริมทั้งกำลังการผลิตและบริการออกแบบในระบบ NVLink ‼️ คำเตือนจากข้อมูลข่าว ⛔ ชิปที่พัฒนาในระบบนี้ต้องเชื่อมต่อกับผลิตภัณฑ์ของ NVIDIA เท่านั้น ⛔ NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญในการจัดการการเชื่อมต่อ ⛔ บริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง ⛔ การใช้ NVLink Switch chips ต้องได้รับใบอนุญาตจาก NVIDIA https://www.techpowerup.com/341889/nvidia-taps-samsung-foundry-for-custom-silicon-manufacturing
    WWW.TECHPOWERUP.COM
    NVIDIA Taps Samsung Foundry for Custom Silicon Manufacturing
    NVIDIA announced at the OCP Global Summit that Samsung Foundry is joining its NVLink Fusion ecosystem, bringing Samsung's design and manufacturing muscle into the fold for custom CPUs and XPUs. The partnership positions Samsung to offer end-to-end support. Everything from silicon design and verifica...
    0 Comments 0 Shares 142 Views 0 Reviews
  • “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB

    Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลโดยเฉพาะในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน inference หรือการประมวลผลโมเดล AI ที่ผ่านการฝึกมาแล้ว โดยใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งเคยใช้ในซีพียู Core Ultra 300-series รุ่น Panther Lake

    จุดเด่นของ Crescent Island คือการมาพร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งมากกว่าการ์ดจอทั่วไปหลายเท่า โดยใช้ชิป LPDDR5X จำนวน 20 ตัว ซึ่งแต่ละตัวมีความจุ 8Gb และเชื่อมต่อผ่านอินเทอร์เฟซรวม 640 บิต หรืออาจเป็นการแบ่งเป็น 2 GPU ที่เชื่อมต่อผ่าน 320 บิตต่อฝั่ง

    การออกแบบนี้ช่วยให้สามารถรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น และยังเหมาะกับการใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ซึ่งช่วยลดต้นทุนและพลังงาน

    Intel วางแผนจะเริ่มส่งตัวอย่าง Crescent Island ให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และอาจเปิดเผยข้อมูลเพิ่มเติมในงาน OCP หรือ SC25 ที่จะจัดขึ้นในอนาคต

    ข้อมูลในข่าว
    Intel เปิดตัว GPU “Crescent Island” สำหรับงาน inference โดยเฉพาะ
    ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3
    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    ใช้ชิป LPDDR5X จำนวน 20 ตัว เชื่อมต่อผ่านอินเทอร์เฟซ 640 บิต หรือแบ่งเป็น 2 GPU
    รองรับข้อมูลหลากหลายประเภทสำหรับงาน AI
    ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ
    เริ่มส่งตัวอย่างในครึ่งหลังของปี 2026

    คำเตือนจากข้อมูลข่าว
    ยังไม่มีข้อมูลประสิทธิภาพที่ชัดเจนจาก Intel
    การใช้ LPDDR5X อาจมีข้อจำกัดด้านการเชื่อมต่อเมื่อเทียบกับ GDDR6
    หากใช้ 2 GPU ต้องมีการจัดการซอฟต์แวร์ที่ซับซ้อนมากขึ้น
    การใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศอาจมีข้อจำกัดด้านพลังงานและความร้อนในบางกรณี

    https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
    🧠 “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลโดยเฉพาะในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน inference หรือการประมวลผลโมเดล AI ที่ผ่านการฝึกมาแล้ว โดยใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งเคยใช้ในซีพียู Core Ultra 300-series รุ่น Panther Lake จุดเด่นของ Crescent Island คือการมาพร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งมากกว่าการ์ดจอทั่วไปหลายเท่า โดยใช้ชิป LPDDR5X จำนวน 20 ตัว ซึ่งแต่ละตัวมีความจุ 8Gb และเชื่อมต่อผ่านอินเทอร์เฟซรวม 640 บิต หรืออาจเป็นการแบ่งเป็น 2 GPU ที่เชื่อมต่อผ่าน 320 บิตต่อฝั่ง การออกแบบนี้ช่วยให้สามารถรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น และยังเหมาะกับการใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ซึ่งช่วยลดต้นทุนและพลังงาน Intel วางแผนจะเริ่มส่งตัวอย่าง Crescent Island ให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และอาจเปิดเผยข้อมูลเพิ่มเติมในงาน OCP หรือ SC25 ที่จะจัดขึ้นในอนาคต ✅ ข้อมูลในข่าว ➡️ Intel เปิดตัว GPU “Crescent Island” สำหรับงาน inference โดยเฉพาะ ➡️ ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ➡️ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ ใช้ชิป LPDDR5X จำนวน 20 ตัว เชื่อมต่อผ่านอินเทอร์เฟซ 640 บิต หรือแบ่งเป็น 2 GPU ➡️ รองรับข้อมูลหลากหลายประเภทสำหรับงาน AI ➡️ ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ➡️ เริ่มส่งตัวอย่างในครึ่งหลังของปี 2026 ‼️ คำเตือนจากข้อมูลข่าว ⛔ ยังไม่มีข้อมูลประสิทธิภาพที่ชัดเจนจาก Intel ⛔ การใช้ LPDDR5X อาจมีข้อจำกัดด้านการเชื่อมต่อเมื่อเทียบกับ GDDR6 ⛔ หากใช้ 2 GPU ต้องมีการจัดการซอฟต์แวร์ที่ซับซ้อนมากขึ้น ⛔ การใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศอาจมีข้อจำกัดด้านพลังงานและความร้อนในบางกรณี https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
    0 Comments 0 Shares 122 Views 0 Reviews
  • “OpenAI จับมือ Arm” — พัฒนาชิป CPU สำหรับเร่งการประมวลผล AI ขนาด 10GW

    OpenAI กำลังเดินหน้าสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมา ด้วยการร่วมมือกับ Arm บริษัทออกแบบชิปชื่อดังที่อยู่ภายใต้ SoftBank เพื่อพัฒนา CPU แบบเซิร์ฟเวอร์รุ่นใหม่ ที่จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom

    ชิปใหม่นี้จะเป็นส่วนหนึ่งของระบบแร็ค AI ที่มีขนาดใหญ่ระดับ 10 กิกะวัตต์ ซึ่งคาดว่าจะเริ่มผลิตในช่วงปลายปี 2026 และขยายการติดตั้งไปจนถึงปี 2029 โดย Broadcom จะเป็นผู้ผลิตชิปเร่งการประมวลผล (SoC) ที่เน้นงาน inference และใช้โรงงานของ TSMC ในการผลิต

    Arm ไม่ได้แค่ให้แบบแปลนสถาปัตยกรรมเท่านั้น แต่ยังลงมือออกแบบและผลิต CPU ด้วยตัวเอง ซึ่งถือเป็นก้าวสำคัญในการเข้าสู่ตลาดศูนย์ข้อมูล โดย CPU ที่ออกแบบใหม่นี้อาจถูกนำไปใช้ร่วมกับระบบของ Nvidia และ AMD ด้วย

    SoftBank ซึ่งถือหุ้นเกือบ 90% ใน Arm ได้ให้คำมั่นว่าจะลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI และซื้อเทคโนโลยี AI จาก OpenAI เพื่อเร่งการพัฒนาชิปของ Arm เอง

    เมื่อรวมกับข้อตกลงก่อนหน้านี้กับ Nvidia และ AMD โครงการชิปของ OpenAI จะมีขนาดรวมถึง 26GW ซึ่งนักวิเคราะห์ประเมินว่าอาจต้องใช้เงินลงทุนมากกว่า 1 ล้านล้านดอลลาร์ในการก่อสร้างและจัดหาอุปกรณ์

    ความร่วมมือกับ Broadcom ยังช่วยให้ OpenAI มีอำนาจต่อรองกับ Nvidia มากขึ้น โดยเฉพาะในตลาด GPU สำหรับการฝึกโมเดล AI ที่ยังคงถูกครองโดย H100 และ Blackwell

    ข้อมูลในข่าว
    OpenAI ร่วมมือกับ Arm เพื่อพัฒนา CPU สำหรับระบบ AI ขนาดใหญ่
    CPU จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่พัฒนาร่วมกับ Broadcom
    ระบบแร็ค AI มีขนาดเป้าหมายถึง 10GW และเริ่มผลิตปลายปี 2026
    Broadcom ใช้โรงงาน TSMC ในการผลิตชิป SoC สำหรับ inference
    Arm ลงมือออกแบบและผลิต CPU เอง ไม่ใช่แค่ให้แบบแปลน
    SoftBank ลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI
    โครงการชิปของ OpenAI รวมแล้วมีขนาดถึง 26GW
    อาจใช้ CPU ร่วมกับระบบของ Nvidia และ AMD ได้
    ช่วยเพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia ในตลาด GPU

    คำเตือนจากข้อมูลข่าว
    การพัฒนา CPU และระบบ AI ขนาดใหญ่ต้องใช้เงินลงทุนมหาศาล
    หาก Broadcom และ TSMC ไม่สามารถผลิตได้ตามเป้า อาจกระทบต่อแผนของ OpenAI
    การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชน
    การแข่งขันกับ Nvidia ต้องอาศัยทั้งเทคโนโลยีและกำลังการผลิตที่มั่นคง

    https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip
    🔧 “OpenAI จับมือ Arm” — พัฒนาชิป CPU สำหรับเร่งการประมวลผล AI ขนาด 10GW OpenAI กำลังเดินหน้าสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมา ด้วยการร่วมมือกับ Arm บริษัทออกแบบชิปชื่อดังที่อยู่ภายใต้ SoftBank เพื่อพัฒนา CPU แบบเซิร์ฟเวอร์รุ่นใหม่ ที่จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom ชิปใหม่นี้จะเป็นส่วนหนึ่งของระบบแร็ค AI ที่มีขนาดใหญ่ระดับ 10 กิกะวัตต์ ซึ่งคาดว่าจะเริ่มผลิตในช่วงปลายปี 2026 และขยายการติดตั้งไปจนถึงปี 2029 โดย Broadcom จะเป็นผู้ผลิตชิปเร่งการประมวลผล (SoC) ที่เน้นงาน inference และใช้โรงงานของ TSMC ในการผลิต Arm ไม่ได้แค่ให้แบบแปลนสถาปัตยกรรมเท่านั้น แต่ยังลงมือออกแบบและผลิต CPU ด้วยตัวเอง ซึ่งถือเป็นก้าวสำคัญในการเข้าสู่ตลาดศูนย์ข้อมูล โดย CPU ที่ออกแบบใหม่นี้อาจถูกนำไปใช้ร่วมกับระบบของ Nvidia และ AMD ด้วย SoftBank ซึ่งถือหุ้นเกือบ 90% ใน Arm ได้ให้คำมั่นว่าจะลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI และซื้อเทคโนโลยี AI จาก OpenAI เพื่อเร่งการพัฒนาชิปของ Arm เอง เมื่อรวมกับข้อตกลงก่อนหน้านี้กับ Nvidia และ AMD โครงการชิปของ OpenAI จะมีขนาดรวมถึง 26GW ซึ่งนักวิเคราะห์ประเมินว่าอาจต้องใช้เงินลงทุนมากกว่า 1 ล้านล้านดอลลาร์ในการก่อสร้างและจัดหาอุปกรณ์ ความร่วมมือกับ Broadcom ยังช่วยให้ OpenAI มีอำนาจต่อรองกับ Nvidia มากขึ้น โดยเฉพาะในตลาด GPU สำหรับการฝึกโมเดล AI ที่ยังคงถูกครองโดย H100 และ Blackwell ✅ ข้อมูลในข่าว ➡️ OpenAI ร่วมมือกับ Arm เพื่อพัฒนา CPU สำหรับระบบ AI ขนาดใหญ่ ➡️ CPU จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่พัฒนาร่วมกับ Broadcom ➡️ ระบบแร็ค AI มีขนาดเป้าหมายถึง 10GW และเริ่มผลิตปลายปี 2026 ➡️ Broadcom ใช้โรงงาน TSMC ในการผลิตชิป SoC สำหรับ inference ➡️ Arm ลงมือออกแบบและผลิต CPU เอง ไม่ใช่แค่ให้แบบแปลน ➡️ SoftBank ลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI ➡️ โครงการชิปของ OpenAI รวมแล้วมีขนาดถึง 26GW ➡️ อาจใช้ CPU ร่วมกับระบบของ Nvidia และ AMD ได้ ➡️ ช่วยเพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia ในตลาด GPU ‼️ คำเตือนจากข้อมูลข่าว ⛔ การพัฒนา CPU และระบบ AI ขนาดใหญ่ต้องใช้เงินลงทุนมหาศาล ⛔ หาก Broadcom และ TSMC ไม่สามารถผลิตได้ตามเป้า อาจกระทบต่อแผนของ OpenAI ⛔ การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชน ⛔ การแข่งขันกับ Nvidia ต้องอาศัยทั้งเทคโนโลยีและกำลังการผลิตที่มั่นคง https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip
    WWW.TOMSHARDWARE.COM
    Report: Arm developing custom CPU for OpenAI's in-house accelerator — core IP would underpin 10GW of installed AI capacity
    The Information reports that Arm is developing a CPU for OpenAI’s custom Broadcom-built accelerator, part of a sweeping expansion plan.
    0 Comments 0 Shares 144 Views 0 Reviews
  • “AMD และ Oracle ผนึกกำลัง” — เตรียมติดตั้ง 50,000 GPU MI450 สร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมาในปี 2026

    AMD และ Oracle ประกาศความร่วมมือครั้งใหญ่ในการสร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมา ด้วยการติดตั้ง GPU MI450 Instinct จำนวนถึง 50,000 ตัว โดยใช้สถาปัตยกรรม Helios rack ของ AMD ซึ่งออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการขยายตัวในอนาคต

    โครงการนี้จะเริ่มต้นในปี 2026 โดยมีเป้าหมายเพื่อเพิ่มขีดความสามารถด้าน AI ของ Oracle Cloud Infrastructure (OCI) ให้สามารถรองรับโมเดลขนาดใหญ่และการฝึกฝน AI ที่ซับซ้อนมากขึ้น โดย Helios rack จะช่วยให้การจัดการพลังงานและการระบายความร้อนมีประสิทธิภาพสูงขึ้น พร้อมรองรับการบำรุงรักษาได้ง่ายกว่าเดิม

    GPU MI450 เป็นรุ่นใหม่ล่าสุดจาก AMD ที่ออกแบบมาเพื่อแข่งขันกับ Nvidia ในตลาดศูนย์ข้อมูล AI โดยมีจุดเด่นด้านหน่วยความจำที่มากขึ้นและการเชื่อมต่อที่รวดเร็ว ซึ่งเหมาะสำหรับงานด้าน deep learning และการประมวลผลแบบกระจาย

    การร่วมมือครั้งนี้ไม่เพียงแต่เป็นการขยายโครงสร้างพื้นฐานของ Oracle เท่านั้น แต่ยังสะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเร่งลงทุนในระบบ AI ขนาดใหญ่ เพื่อรองรับความต้องการที่เพิ่มขึ้นจากองค์กรทั่วโลก

    ข้อมูลในข่าว
    AMD และ Oracle ร่วมมือกันติดตั้ง GPU MI450 Instinct จำนวน 50,000 ตัว
    ใช้สถาปัตยกรรม Helios rack ของ AMD เพื่อสร้างซูเปอร์คลัสเตอร์ AI
    โครงการจะเริ่มต้นในปี 2026 เพื่อขยาย Oracle Cloud Infrastructure
    Helios rack ออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการบำรุงรักษาที่ง่าย
    GPU MI450 มีหน่วยความจำมากขึ้นและเชื่อมต่อรวดเร็ว เหมาะกับงาน deep learning
    การลงทุนนี้สะท้อนแนวโน้มการขยายระบบ AI ขนาดใหญ่ในอุตสาหกรรม

    คำเตือนจากข้อมูลข่าว
    การติดตั้ง GPU จำนวนมากต้องใช้โครงสร้างพื้นฐานที่ซับซ้อนและมีต้นทุนสูง
    หากระบบระบายความร้อนไม่มีประสิทธิภาพ อาจส่งผลต่อเสถียรภาพของศูนย์ข้อมูล
    การแข่งขันด้านเทคโนโลยี AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่าอย่างรอบคอบ
    การพึ่งพา GPU จากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชนในอนาคต

    https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-and-oracle-partner-to-deploy-50-000-mi450-instinct-gpus-in-new-ai-superclusters-deployment-of-expansion-set-for-2026-powered-by-amds-helios-rack
    🚀 “AMD และ Oracle ผนึกกำลัง” — เตรียมติดตั้ง 50,000 GPU MI450 สร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมาในปี 2026 AMD และ Oracle ประกาศความร่วมมือครั้งใหญ่ในการสร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมา ด้วยการติดตั้ง GPU MI450 Instinct จำนวนถึง 50,000 ตัว โดยใช้สถาปัตยกรรม Helios rack ของ AMD ซึ่งออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการขยายตัวในอนาคต โครงการนี้จะเริ่มต้นในปี 2026 โดยมีเป้าหมายเพื่อเพิ่มขีดความสามารถด้าน AI ของ Oracle Cloud Infrastructure (OCI) ให้สามารถรองรับโมเดลขนาดใหญ่และการฝึกฝน AI ที่ซับซ้อนมากขึ้น โดย Helios rack จะช่วยให้การจัดการพลังงานและการระบายความร้อนมีประสิทธิภาพสูงขึ้น พร้อมรองรับการบำรุงรักษาได้ง่ายกว่าเดิม GPU MI450 เป็นรุ่นใหม่ล่าสุดจาก AMD ที่ออกแบบมาเพื่อแข่งขันกับ Nvidia ในตลาดศูนย์ข้อมูล AI โดยมีจุดเด่นด้านหน่วยความจำที่มากขึ้นและการเชื่อมต่อที่รวดเร็ว ซึ่งเหมาะสำหรับงานด้าน deep learning และการประมวลผลแบบกระจาย การร่วมมือครั้งนี้ไม่เพียงแต่เป็นการขยายโครงสร้างพื้นฐานของ Oracle เท่านั้น แต่ยังสะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเร่งลงทุนในระบบ AI ขนาดใหญ่ เพื่อรองรับความต้องการที่เพิ่มขึ้นจากองค์กรทั่วโลก ✅ ข้อมูลในข่าว ➡️ AMD และ Oracle ร่วมมือกันติดตั้ง GPU MI450 Instinct จำนวน 50,000 ตัว ➡️ ใช้สถาปัตยกรรม Helios rack ของ AMD เพื่อสร้างซูเปอร์คลัสเตอร์ AI ➡️ โครงการจะเริ่มต้นในปี 2026 เพื่อขยาย Oracle Cloud Infrastructure ➡️ Helios rack ออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการบำรุงรักษาที่ง่าย ➡️ GPU MI450 มีหน่วยความจำมากขึ้นและเชื่อมต่อรวดเร็ว เหมาะกับงาน deep learning ➡️ การลงทุนนี้สะท้อนแนวโน้มการขยายระบบ AI ขนาดใหญ่ในอุตสาหกรรม ‼️ คำเตือนจากข้อมูลข่าว ⛔ การติดตั้ง GPU จำนวนมากต้องใช้โครงสร้างพื้นฐานที่ซับซ้อนและมีต้นทุนสูง ⛔ หากระบบระบายความร้อนไม่มีประสิทธิภาพ อาจส่งผลต่อเสถียรภาพของศูนย์ข้อมูล ⛔ การแข่งขันด้านเทคโนโลยี AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่าอย่างรอบคอบ ⛔ การพึ่งพา GPU จากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชนในอนาคต https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-and-oracle-partner-to-deploy-50-000-mi450-instinct-gpus-in-new-ai-superclusters-deployment-of-expansion-set-for-2026-powered-by-amds-helios-rack
    0 Comments 0 Shares 181 Views 0 Reviews
  • “AMD และ Intel ฉลองครบรอบพันธมิตร x86” — พร้อมเปิดตัวฟีเจอร์ใหม่เสริมความปลอดภัยใน CPU ยุคหน้า

    AMD และ Intel สองยักษ์ใหญ่แห่งวงการซีพียู ได้ร่วมฉลองครบรอบ 1 ปีของการก่อตั้งกลุ่มพันธมิตร x86 Ecosystem Advisory Group ซึ่งมีเป้าหมายเพื่อพัฒนาและประสานงานฟีเจอร์ใหม่ในสถาปัตยกรรม x86 ให้รองรับร่วมกันระหว่างสองค่าย

    ในปีแรกของความร่วมมือ ทั้งสองบริษัทสามารถผลักดันฟีเจอร์ใหม่ได้ถึง 4 รายการ ได้แก่ ACE (Advanced Matrix Extension), AVX10, FRED (Flexible Return and Event Delivery) และ ChkTag (x86 Memory Tagging) ซึ่งทั้งหมดมุ่งเน้นการเพิ่มประสิทธิภาพและความปลอดภัยของระบบ

    ฟีเจอร์ ACE และ AVX10 จะช่วยเพิ่มความเร็วในการคำนวณเมทริกซ์และเวกเตอร์ โดย Intel ได้เริ่มใช้งาน AVX10.1 และ AMX ในซีพียู Granite Rapids แล้ว ส่วน AMD จะเริ่มรองรับในรุ่นถัดไป เช่น Zen 6 หรือ Zen 7

    FRED เป็นฟีเจอร์ที่ออกแบบมาเพื่อแทนที่กลไกการจัดการ interrupt แบบเดิมของ x86 โดยใช้เส้นทางการเข้าออกจากโหมดผู้ใช้และโหมดเคอร์เนลที่กำหนดโดยฮาร์ดแวร์ ซึ่งช่วยลด latency และเพิ่มความปลอดภัยในการสลับบริบทระหว่างแอปพลิเคชันกับระบบปฏิบัติการ

    ChkTag หรือ x86 Memory Tagging เป็นฟีเจอร์ใหม่ที่ยังไม่ถูกพูดถึงมากนัก แต่มีความสำคัญในการตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำ เช่น buffer overflow และ use-after-free โดยใช้การติดแท็กหน่วยความจำในระดับฮาร์ดแวร์ ซึ่งคล้ายกับเทคโนโลยี MTE ของ Arm ที่ Apple และ Ampere ใช้อยู่

    แม้จะยังไม่มีกรอบเวลาชัดเจนในการนำฟีเจอร์เหล่านี้มาใช้งานจริงในผลิตภัณฑ์ แต่การรับรองจากกลุ่มพันธมิตร x86 ถือเป็นสัญญาณว่าอนาคตของซีพียูจะมีความปลอดภัยและประสิทธิภาพสูงขึ้นอย่างแน่นอน

    ข้อมูลในข่าว
    AMD และ Intel ฉลองครบรอบ 1 ปีของกลุ่มพันธมิตร x86 Ecosystem Advisory Group
    ฟีเจอร์ใหม่ที่ได้รับการรับรอง ได้แก่ ACE, AVX10, FRED และ ChkTag
    ACE และ AVX10 ช่วยเพิ่มประสิทธิภาพการคำนวณเมทริกซ์และเวกเตอร์
    Intel เริ่มใช้งาน AVX10.1 และ AMX แล้ว ส่วน AMD จะรองรับใน Zen รุ่นถัดไป
    FRED แทนที่กลไก interrupt แบบเดิมด้วยเส้นทางที่กำหนดโดยฮาร์ดแวร์
    ChkTag ตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำในระดับฮาร์ดแวร์
    เทคโนโลยีคล้ายกับ MTE ของ Arm ที่ Apple และ Ampere ใช้

    https://www.tomshardware.com/pc-components/cpus/amd-and-intel-celebrate-first-anniversary-of-x86-alliance-new-security-features-coming-to-x86-cpus
    🤝 “AMD และ Intel ฉลองครบรอบพันธมิตร x86” — พร้อมเปิดตัวฟีเจอร์ใหม่เสริมความปลอดภัยใน CPU ยุคหน้า AMD และ Intel สองยักษ์ใหญ่แห่งวงการซีพียู ได้ร่วมฉลองครบรอบ 1 ปีของการก่อตั้งกลุ่มพันธมิตร x86 Ecosystem Advisory Group ซึ่งมีเป้าหมายเพื่อพัฒนาและประสานงานฟีเจอร์ใหม่ในสถาปัตยกรรม x86 ให้รองรับร่วมกันระหว่างสองค่าย ในปีแรกของความร่วมมือ ทั้งสองบริษัทสามารถผลักดันฟีเจอร์ใหม่ได้ถึง 4 รายการ ได้แก่ ACE (Advanced Matrix Extension), AVX10, FRED (Flexible Return and Event Delivery) และ ChkTag (x86 Memory Tagging) ซึ่งทั้งหมดมุ่งเน้นการเพิ่มประสิทธิภาพและความปลอดภัยของระบบ ฟีเจอร์ ACE และ AVX10 จะช่วยเพิ่มความเร็วในการคำนวณเมทริกซ์และเวกเตอร์ โดย Intel ได้เริ่มใช้งาน AVX10.1 และ AMX ในซีพียู Granite Rapids แล้ว ส่วน AMD จะเริ่มรองรับในรุ่นถัดไป เช่น Zen 6 หรือ Zen 7 FRED เป็นฟีเจอร์ที่ออกแบบมาเพื่อแทนที่กลไกการจัดการ interrupt แบบเดิมของ x86 โดยใช้เส้นทางการเข้าออกจากโหมดผู้ใช้และโหมดเคอร์เนลที่กำหนดโดยฮาร์ดแวร์ ซึ่งช่วยลด latency และเพิ่มความปลอดภัยในการสลับบริบทระหว่างแอปพลิเคชันกับระบบปฏิบัติการ ChkTag หรือ x86 Memory Tagging เป็นฟีเจอร์ใหม่ที่ยังไม่ถูกพูดถึงมากนัก แต่มีความสำคัญในการตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำ เช่น buffer overflow และ use-after-free โดยใช้การติดแท็กหน่วยความจำในระดับฮาร์ดแวร์ ซึ่งคล้ายกับเทคโนโลยี MTE ของ Arm ที่ Apple และ Ampere ใช้อยู่ แม้จะยังไม่มีกรอบเวลาชัดเจนในการนำฟีเจอร์เหล่านี้มาใช้งานจริงในผลิตภัณฑ์ แต่การรับรองจากกลุ่มพันธมิตร x86 ถือเป็นสัญญาณว่าอนาคตของซีพียูจะมีความปลอดภัยและประสิทธิภาพสูงขึ้นอย่างแน่นอน ✅ ข้อมูลในข่าว ➡️ AMD และ Intel ฉลองครบรอบ 1 ปีของกลุ่มพันธมิตร x86 Ecosystem Advisory Group ➡️ ฟีเจอร์ใหม่ที่ได้รับการรับรอง ได้แก่ ACE, AVX10, FRED และ ChkTag ➡️ ACE และ AVX10 ช่วยเพิ่มประสิทธิภาพการคำนวณเมทริกซ์และเวกเตอร์ ➡️ Intel เริ่มใช้งาน AVX10.1 และ AMX แล้ว ส่วน AMD จะรองรับใน Zen รุ่นถัดไป ➡️ FRED แทนที่กลไก interrupt แบบเดิมด้วยเส้นทางที่กำหนดโดยฮาร์ดแวร์ ➡️ ChkTag ตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำในระดับฮาร์ดแวร์ ➡️ เทคโนโลยีคล้ายกับ MTE ของ Arm ที่ Apple และ Ampere ใช้ https://www.tomshardware.com/pc-components/cpus/amd-and-intel-celebrate-first-anniversary-of-x86-alliance-new-security-features-coming-to-x86-cpus
    0 Comments 0 Shares 178 Views 0 Reviews
  • “Ubo Pod — ผู้ช่วย AI แบบโอเพ่นซอร์สที่คุณควบคุมได้เอง พร้อมปกป้องข้อมูลจาก Big Tech”

    Ubo Pod คืออุปกรณ์ผู้ช่วย AI แบบโอเพ่นซอร์สที่ออกแบบมาเพื่อความเป็นส่วนตัวและการควบคุมโดยผู้ใช้อย่างแท้จริง โดยใช้ Raspberry Pi 4 หรือ 5 เป็นแกนหลัก พร้อมรองรับโมเดล AI แบบ local เช่น VOSK สำหรับการรู้จำเสียง และ Piper สำหรับการแปลงข้อความเป็นเสียง นอกจากนี้ยังสามารถเชื่อมต่อกับโมเดลคลาวด์อย่าง Claude, OpenAI และ Gemini ได้ตามต้องการ.

    ตัวเครื่องมีขนาดกะทัดรัด (5.1 x 3.9 x 2 นิ้ว) น้ำหนักประมาณ 340 กรัม มาพร้อมหน้าจอ TFT IPS ขนาด 1.54 นิ้ว และปุ่มกดแบบ soft-touch 7 ปุ่ม มีม่านกล้องและสวิตช์ตัดไมโครโฟนเพื่อความเป็นส่วนตัว รวมถึงไมโครโฟนคู่และลำโพงสเตอริโอสำหรับการโต้ตอบด้วยเสียง

    ซอฟต์แวร์ของ Ubo Pod มีสถาปัตยกรรมแบบ modular และ event-driven พร้อมระบบจัดการสถานะแบบรวมศูนย์ รองรับการติดตั้งแอปพลิเคชันจาก Docker และสามารถพัฒนาแอปใหม่ด้วย gRPC API แบบ low-code ผ่านเว็บเบราว์เซอร์หรือแป้นกดบนตัวเครื่อง

    โครงการนี้นำโดย Mehrdad Majzoobi และทีมพัฒนาโอเพ่นซอร์ส โดยเปิดให้สนับสนุนผ่าน Kickstarter และมี repository สำหรับซอฟต์แวร์และฮาร์ดแวร์ให้ผู้ใช้สามารถสร้างหรือปรับแต่งอุปกรณ์ได้เอง

    Ubo Pod เป็นผู้ช่วย AI แบบโอเพ่นซอร์ส
    ใช้ Raspberry Pi 4 หรือ 5 เป็นฐาน

    รองรับโมเดล local เช่น VOSK และ Piper
    พร้อมตัวเลือกโมเดลคลาวด์อย่าง Claude, OpenAI, Gemini

    ขนาดเครื่อง 5.1 x 3.9 x 2 นิ้ว น้ำหนัก 340 กรัม
    มีหน้าจอ TFT IPS และปุ่ม soft-touch 7 ปุ่ม

    มีม่านกล้องและสวิตช์ตัดไมโครโฟนเพื่อความเป็นส่วนตัว
    รองรับไมโครโฟนคู่และลำโพงสเตอริโอ

    สถาปัตยกรรมซอฟต์แวร์แบบ modular และ event-driven
    รองรับ Docker และ gRPC API สำหรับการพัฒนา

    เข้าถึงผ่านแป้นกดหรือเว็บเบราว์เซอร์
    รองรับการติดตั้งแอปจากภายนอก

    เปิดให้สนับสนุนผ่าน Kickstarter
    พร้อม repository สำหรับซอฟต์แวร์และฮาร์ดแวร์

    คำเตือนและข้อจำกัด
    การใช้งานโมเดลคลาวด์อาจมีความเสี่ยงด้านข้อมูล
    หากไม่ตั้งค่าความปลอดภัยอย่างเหมาะสม

    ผู้ใช้ต้องมีความรู้พื้นฐานด้านฮาร์ดแวร์และซอฟต์แวร์
    เพื่อประกอบและปรับแต่งอุปกรณ์ได้อย่างเต็มประสิทธิภาพ

    การพัฒนาแอปด้วย gRPC API อาจไม่เหมาะกับผู้เริ่มต้น
    ต้องเข้าใจแนวคิด low-code และการจัดการ event-driven

    การประกอบอุปกรณ์ด้วยตนเองอาจมีข้อผิดพลาดทางเทคนิค
    ควรศึกษาคู่มือและ repository อย่างละเอียดก่อนเริ่ม

    https://news.itsfoss.com/ubo-pod/
    🤖 “Ubo Pod — ผู้ช่วย AI แบบโอเพ่นซอร์สที่คุณควบคุมได้เอง พร้อมปกป้องข้อมูลจาก Big Tech” Ubo Pod คืออุปกรณ์ผู้ช่วย AI แบบโอเพ่นซอร์สที่ออกแบบมาเพื่อความเป็นส่วนตัวและการควบคุมโดยผู้ใช้อย่างแท้จริง โดยใช้ Raspberry Pi 4 หรือ 5 เป็นแกนหลัก พร้อมรองรับโมเดล AI แบบ local เช่น VOSK สำหรับการรู้จำเสียง และ Piper สำหรับการแปลงข้อความเป็นเสียง นอกจากนี้ยังสามารถเชื่อมต่อกับโมเดลคลาวด์อย่าง Claude, OpenAI และ Gemini ได้ตามต้องการ. ตัวเครื่องมีขนาดกะทัดรัด (5.1 x 3.9 x 2 นิ้ว) น้ำหนักประมาณ 340 กรัม มาพร้อมหน้าจอ TFT IPS ขนาด 1.54 นิ้ว และปุ่มกดแบบ soft-touch 7 ปุ่ม มีม่านกล้องและสวิตช์ตัดไมโครโฟนเพื่อความเป็นส่วนตัว รวมถึงไมโครโฟนคู่และลำโพงสเตอริโอสำหรับการโต้ตอบด้วยเสียง ซอฟต์แวร์ของ Ubo Pod มีสถาปัตยกรรมแบบ modular และ event-driven พร้อมระบบจัดการสถานะแบบรวมศูนย์ รองรับการติดตั้งแอปพลิเคชันจาก Docker และสามารถพัฒนาแอปใหม่ด้วย gRPC API แบบ low-code ผ่านเว็บเบราว์เซอร์หรือแป้นกดบนตัวเครื่อง โครงการนี้นำโดย Mehrdad Majzoobi และทีมพัฒนาโอเพ่นซอร์ส โดยเปิดให้สนับสนุนผ่าน Kickstarter และมี repository สำหรับซอฟต์แวร์และฮาร์ดแวร์ให้ผู้ใช้สามารถสร้างหรือปรับแต่งอุปกรณ์ได้เอง ✅ Ubo Pod เป็นผู้ช่วย AI แบบโอเพ่นซอร์ส ➡️ ใช้ Raspberry Pi 4 หรือ 5 เป็นฐาน ✅ รองรับโมเดล local เช่น VOSK และ Piper ➡️ พร้อมตัวเลือกโมเดลคลาวด์อย่าง Claude, OpenAI, Gemini ✅ ขนาดเครื่อง 5.1 x 3.9 x 2 นิ้ว น้ำหนัก 340 กรัม ➡️ มีหน้าจอ TFT IPS และปุ่ม soft-touch 7 ปุ่ม ✅ มีม่านกล้องและสวิตช์ตัดไมโครโฟนเพื่อความเป็นส่วนตัว ➡️ รองรับไมโครโฟนคู่และลำโพงสเตอริโอ ✅ สถาปัตยกรรมซอฟต์แวร์แบบ modular และ event-driven ➡️ รองรับ Docker และ gRPC API สำหรับการพัฒนา ✅ เข้าถึงผ่านแป้นกดหรือเว็บเบราว์เซอร์ ➡️ รองรับการติดตั้งแอปจากภายนอก ✅ เปิดให้สนับสนุนผ่าน Kickstarter ➡️ พร้อม repository สำหรับซอฟต์แวร์และฮาร์ดแวร์ ‼️ คำเตือนและข้อจำกัด ‼️ การใช้งานโมเดลคลาวด์อาจมีความเสี่ยงด้านข้อมูล ⛔ หากไม่ตั้งค่าความปลอดภัยอย่างเหมาะสม ‼️ ผู้ใช้ต้องมีความรู้พื้นฐานด้านฮาร์ดแวร์และซอฟต์แวร์ ⛔ เพื่อประกอบและปรับแต่งอุปกรณ์ได้อย่างเต็มประสิทธิภาพ ‼️ การพัฒนาแอปด้วย gRPC API อาจไม่เหมาะกับผู้เริ่มต้น ⛔ ต้องเข้าใจแนวคิด low-code และการจัดการ event-driven ‼️ การประกอบอุปกรณ์ด้วยตนเองอาจมีข้อผิดพลาดทางเทคนิค ⛔ ควรศึกษาคู่มือและ repository อย่างละเอียดก่อนเริ่ม https://news.itsfoss.com/ubo-pod/
    NEWS.ITSFOSS.COM
    This Raspberry Pi-Based Open Source AI Assistant Wants To Save Your Data From Big Tech
    Ubo Pod is an open source AI assistant you can tweak, customize, and run privately.
    0 Comments 0 Shares 154 Views 0 Reviews
  • “เซิร์ฟเวอร์ AI 10.8kW จาก Sparkle – ทางเลือกใหม่แทน GPU แพงจาก NVIDIA”

    ในยุคที่การฝึกโมเดล AI ขนาดใหญ่ต้องใช้พลังการประมวลผลมหาศาล แต่ GPU ระดับสูงจาก NVIDIA เช่น H100 หรือ B200 กลับมีราคาสูงจนหลายองค์กรเอื้อมไม่ถึง ล่าสุดบริษัท Sparkle จากไต้หวันได้เปิดตัวเซิร์ฟเวอร์รุ่นใหม่ “C741-6U-Dual 16P” ที่ใช้ Intel GPU ถึง 32 ตัว พร้อมหน่วยความจำรวม 768GB VRAM และระบบจ่ายไฟ 10,800W เพื่อรองรับงาน AI อย่างต่อเนื่อง

    เซิร์ฟเวอร์นี้ใช้กราฟิกการ์ด Arc Pro B60 Dual ซึ่งแต่ละใบมี GPU สองตัวจากสถาปัตยกรรม Battlemage รวมแล้วให้พลัง GPU core ถึง 81,920 คอร์ พร้อมรองรับ PCIe 5.0 x8 เต็มทุกช่องผ่าน Microchip switch เพื่อหลีกเลี่ยงคอขวดในการส่งข้อมูล

    ระบบรองรับ Intel Xeon Scalable Gen 4 หรือ Gen 5 พร้อมแรม DDR5 สูงสุด 8TB และมีระบบระบายความร้อนด้วยพัดลมถึง 15 ตัว เพื่อให้สามารถทำงานหนักได้ต่อเนื่องโดยไม่ร้อนเกินไป

    แม้ยังไม่มีข้อมูลด้านราคาหรือประสิทธิภาพในการฝึกโมเดลขนาดใหญ่ แต่ Sparkle ตั้งใจให้เซิร์ฟเวอร์นี้เป็นทางเลือกสำหรับนักวิจัยและองค์กรที่ต้องการพลังประมวลผลแบบขนานในราคาที่เข้าถึงได้

    สเปกเด่นของ Sparkle C741-6U-Dual 16P
    ใช้ Arc Pro B60 Dual จำนวน 16 ใบ รวมเป็น 32 Intel GPUs
    รวม VRAM ได้สูงสุด 768GB
    ใช้ PCIe 5.0 x8 เต็มทุกช่องผ่าน Microchip switch
    รองรับ Intel Xeon Gen 4/5 และ DDR5 สูงสุด 8TB

    ระบบพลังงานและระบายความร้อน
    ใช้ power supply แบบ titanium 2,700W จำนวน 5 ตัว รวม 10,800W
    รุ่นเล็กใช้ 2,400W จำนวน 4 ตัว รวม 7,200W
    มีพัดลมระบายความร้อนถึง 15 ตัวในแชสซีขนาด 6U

    การเชื่อมต่อและการขยาย
    รองรับ dual M.2, NVMe และ SATA bays สำหรับ local storage
    GPU เชื่อมต่อกับ CPU ผ่าน PCIe 5.0 x8 โดยตรงหรือผ่าน switch
    ออกแบบมาเพื่อรองรับงาน AI และการประมวลผลแบบขนาน

    ข้อควรระวังและข้อจำกัด
    ยังไม่มีข้อมูล benchmark สำหรับงาน AI ขนาดใหญ่
    ประสิทธิภาพของ Arc Pro B60 ยังไม่เทียบเท่า H100/B200
    Ecosystem ของ Intel GPU ยังไม่แข็งแรงเท่า CUDA ของ NVIDIA
    ราคายังไม่เปิดเผย ต้องสอบถามโดยตรงกับผู้ผลิต

    https://www.techradar.com/pro/cant-afford-nvidias-expensive-ai-accelerators-then-consider-this-10-8kw-server-cluster-with-32-intel-gpus-and-768gb-vram
    🧮 “เซิร์ฟเวอร์ AI 10.8kW จาก Sparkle – ทางเลือกใหม่แทน GPU แพงจาก NVIDIA” ในยุคที่การฝึกโมเดล AI ขนาดใหญ่ต้องใช้พลังการประมวลผลมหาศาล แต่ GPU ระดับสูงจาก NVIDIA เช่น H100 หรือ B200 กลับมีราคาสูงจนหลายองค์กรเอื้อมไม่ถึง ล่าสุดบริษัท Sparkle จากไต้หวันได้เปิดตัวเซิร์ฟเวอร์รุ่นใหม่ “C741-6U-Dual 16P” ที่ใช้ Intel GPU ถึง 32 ตัว พร้อมหน่วยความจำรวม 768GB VRAM และระบบจ่ายไฟ 10,800W เพื่อรองรับงาน AI อย่างต่อเนื่อง เซิร์ฟเวอร์นี้ใช้กราฟิกการ์ด Arc Pro B60 Dual ซึ่งแต่ละใบมี GPU สองตัวจากสถาปัตยกรรม Battlemage รวมแล้วให้พลัง GPU core ถึง 81,920 คอร์ พร้อมรองรับ PCIe 5.0 x8 เต็มทุกช่องผ่าน Microchip switch เพื่อหลีกเลี่ยงคอขวดในการส่งข้อมูล ระบบรองรับ Intel Xeon Scalable Gen 4 หรือ Gen 5 พร้อมแรม DDR5 สูงสุด 8TB และมีระบบระบายความร้อนด้วยพัดลมถึง 15 ตัว เพื่อให้สามารถทำงานหนักได้ต่อเนื่องโดยไม่ร้อนเกินไป แม้ยังไม่มีข้อมูลด้านราคาหรือประสิทธิภาพในการฝึกโมเดลขนาดใหญ่ แต่ Sparkle ตั้งใจให้เซิร์ฟเวอร์นี้เป็นทางเลือกสำหรับนักวิจัยและองค์กรที่ต้องการพลังประมวลผลแบบขนานในราคาที่เข้าถึงได้ ✅ สเปกเด่นของ Sparkle C741-6U-Dual 16P ➡️ ใช้ Arc Pro B60 Dual จำนวน 16 ใบ รวมเป็น 32 Intel GPUs ➡️ รวม VRAM ได้สูงสุด 768GB ➡️ ใช้ PCIe 5.0 x8 เต็มทุกช่องผ่าน Microchip switch ➡️ รองรับ Intel Xeon Gen 4/5 และ DDR5 สูงสุด 8TB ✅ ระบบพลังงานและระบายความร้อน ➡️ ใช้ power supply แบบ titanium 2,700W จำนวน 5 ตัว รวม 10,800W ➡️ รุ่นเล็กใช้ 2,400W จำนวน 4 ตัว รวม 7,200W ➡️ มีพัดลมระบายความร้อนถึง 15 ตัวในแชสซีขนาด 6U ✅ การเชื่อมต่อและการขยาย ➡️ รองรับ dual M.2, NVMe และ SATA bays สำหรับ local storage ➡️ GPU เชื่อมต่อกับ CPU ผ่าน PCIe 5.0 x8 โดยตรงหรือผ่าน switch ➡️ ออกแบบมาเพื่อรองรับงาน AI และการประมวลผลแบบขนาน ‼️ ข้อควรระวังและข้อจำกัด ⛔ ยังไม่มีข้อมูล benchmark สำหรับงาน AI ขนาดใหญ่ ⛔ ประสิทธิภาพของ Arc Pro B60 ยังไม่เทียบเท่า H100/B200 ⛔ Ecosystem ของ Intel GPU ยังไม่แข็งแรงเท่า CUDA ของ NVIDIA ⛔ ราคายังไม่เปิดเผย ต้องสอบถามโดยตรงกับผู้ผลิต https://www.techradar.com/pro/cant-afford-nvidias-expensive-ai-accelerators-then-consider-this-10-8kw-server-cluster-with-32-intel-gpus-and-768gb-vram
    WWW.TECHRADAR.COM
    Sparkle’s new server has 16 Arc Pro B60 Dual cards in one chassis
    6U GPU system from Sparkle integrates PCIe 5.0 and dual Xeon CPUs
    0 Comments 0 Shares 165 Views 0 Reviews
  • “Dell Pro Max Mini AI PC – เล็กแต่แรงด้วย NVIDIA GB10 และหน่วยความจำ 128GB LPDDR5X”

    ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลทุกระดับ ตั้งแต่คลาวด์ไปจนถึงเดสก์ท็อป Dell ได้เปิดตัว “Pro Max Mini AI PC” ที่มาพร้อมกับ NVIDIA GB10 Superchip ซึ่งถือเป็นหนึ่งในชิป AI ที่ทรงพลังที่สุดในขนาดเล็ก

    Dell Pro Max GB10 สามารถรันโมเดล AI ขนาดใหญ่ถึง 200 พันล้านพารามิเตอร์ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ด้วยหน่วยความจำ LPDDR5X ขนาด 128GB และพลังประมวลผล FP4 สูงถึง 1000 TOPS

    ตัวเครื่องมีขนาดเพียง 150×150×51 มม. น้ำหนัก 1.31 กก. ใช้พลังงานผ่านอะแดปเตอร์ 280W และรองรับการเชื่อมต่อระดับสูง เช่น USB-C 20Gbps, HDMI 2.1b, LAN 10GbE และ QSFP 200Gbps

    ภายในใช้ NVIDIA GB10 Superchip ที่มี 20 คอร์ ARM v9.2 และ GPU สถาปัตยกรรม Blackwell เทียบเท่า RTX 5070 พร้อมหน่วยความจำ LPDDR5X ความเร็วสูงถึง 9400 MT/s และแบนด์วิดท์ระบบรวม 273 GB/s

    นอกจากนี้ยังสามารถเชื่อมต่อกับเครื่อง Pro Max อีกเครื่องผ่าน ConnectX-7 Smart NIC เพื่อรันโมเดลขนาดใหญ่ถึง 400 พันล้านพารามิเตอร์ได้

    สเปกเด่นของ Dell Pro Max GB10
    ใช้ NVIDIA GB10 Superchip: 20 ARM v9.2 cores + Blackwell GPU
    หน่วยความจำ LPDDR5X 128GB ความเร็วสูงถึง 9400 MT/s
    พลังประมวลผล FP4 สูงสุด 1000 TOPS
    รองรับโมเดล AI ขนาด 200B และสามารถขยายถึง 400B ด้วยการเชื่อมต่อสองเครื่อง

    การออกแบบและการเชื่อมต่อ
    ขนาดเล็ก 150×150×51 มม. น้ำหนัก 1.31 กก.
    พอร์ตเชื่อมต่อ: USB-C 20Gbps, HDMI 2.1b, LAN 10GbE, QSFP 200Gbps
    รองรับ Wi-Fi 7 และ Bluetooth 5.4
    ใช้ DGX OS และ NVIDIA AI software stack เพื่อความเข้ากันได้กับระบบคลาวด์

    การใช้งานและประโยชน์
    รัน LLM ขนาดใหญ่ เช่น Llama 3.3 70B ได้แบบ local
    ลดค่าใช้จ่ายจากการไม่ต้องใช้คลาวด์
    เหมาะสำหรับนักพัฒนา AI, นักวิจัย และองค์กรที่ต้องการประมวลผลในพื้นที่

    ข้อควรระวังและข้อจำกัด
    ราคายังไม่เปิดเผยอย่างเป็นทางการ
    การใช้งานเต็มประสิทธิภาพอาจต้องมีความรู้ด้านระบบ NVIDIA
    การขยายระบบต้องใช้ ConnectX-7 NIC ซึ่งอาจมีค่าใช้จ่ายเพิ่มเติม
    แม้จะเล็ก แต่ยังต้องใช้พลังงานสูงถึง 280W

    https://wccftech.com/dell-pro-max-nvidia-gb10-now-available-128-gb-lp5x-small-form-factor-mini-ai-pc/
    🖥️ “Dell Pro Max Mini AI PC – เล็กแต่แรงด้วย NVIDIA GB10 และหน่วยความจำ 128GB LPDDR5X” ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลทุกระดับ ตั้งแต่คลาวด์ไปจนถึงเดสก์ท็อป Dell ได้เปิดตัว “Pro Max Mini AI PC” ที่มาพร้อมกับ NVIDIA GB10 Superchip ซึ่งถือเป็นหนึ่งในชิป AI ที่ทรงพลังที่สุดในขนาดเล็ก Dell Pro Max GB10 สามารถรันโมเดล AI ขนาดใหญ่ถึง 200 พันล้านพารามิเตอร์ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ด้วยหน่วยความจำ LPDDR5X ขนาด 128GB และพลังประมวลผล FP4 สูงถึง 1000 TOPS ตัวเครื่องมีขนาดเพียง 150×150×51 มม. น้ำหนัก 1.31 กก. ใช้พลังงานผ่านอะแดปเตอร์ 280W และรองรับการเชื่อมต่อระดับสูง เช่น USB-C 20Gbps, HDMI 2.1b, LAN 10GbE และ QSFP 200Gbps ภายในใช้ NVIDIA GB10 Superchip ที่มี 20 คอร์ ARM v9.2 และ GPU สถาปัตยกรรม Blackwell เทียบเท่า RTX 5070 พร้อมหน่วยความจำ LPDDR5X ความเร็วสูงถึง 9400 MT/s และแบนด์วิดท์ระบบรวม 273 GB/s นอกจากนี้ยังสามารถเชื่อมต่อกับเครื่อง Pro Max อีกเครื่องผ่าน ConnectX-7 Smart NIC เพื่อรันโมเดลขนาดใหญ่ถึง 400 พันล้านพารามิเตอร์ได้ ✅ สเปกเด่นของ Dell Pro Max GB10 ➡️ ใช้ NVIDIA GB10 Superchip: 20 ARM v9.2 cores + Blackwell GPU ➡️ หน่วยความจำ LPDDR5X 128GB ความเร็วสูงถึง 9400 MT/s ➡️ พลังประมวลผล FP4 สูงสุด 1000 TOPS ➡️ รองรับโมเดล AI ขนาด 200B และสามารถขยายถึง 400B ด้วยการเชื่อมต่อสองเครื่อง ✅ การออกแบบและการเชื่อมต่อ ➡️ ขนาดเล็ก 150×150×51 มม. น้ำหนัก 1.31 กก. ➡️ พอร์ตเชื่อมต่อ: USB-C 20Gbps, HDMI 2.1b, LAN 10GbE, QSFP 200Gbps ➡️ รองรับ Wi-Fi 7 และ Bluetooth 5.4 ➡️ ใช้ DGX OS และ NVIDIA AI software stack เพื่อความเข้ากันได้กับระบบคลาวด์ ✅ การใช้งานและประโยชน์ ➡️ รัน LLM ขนาดใหญ่ เช่น Llama 3.3 70B ได้แบบ local ➡️ ลดค่าใช้จ่ายจากการไม่ต้องใช้คลาวด์ ➡️ เหมาะสำหรับนักพัฒนา AI, นักวิจัย และองค์กรที่ต้องการประมวลผลในพื้นที่ ‼️ ข้อควรระวังและข้อจำกัด ⛔ ราคายังไม่เปิดเผยอย่างเป็นทางการ ⛔ การใช้งานเต็มประสิทธิภาพอาจต้องมีความรู้ด้านระบบ NVIDIA ⛔ การขยายระบบต้องใช้ ConnectX-7 NIC ซึ่งอาจมีค่าใช้จ่ายเพิ่มเติม ⛔ แม้จะเล็ก แต่ยังต้องใช้พลังงานสูงถึง 280W https://wccftech.com/dell-pro-max-nvidia-gb10-now-available-128-gb-lp5x-small-form-factor-mini-ai-pc/
    WCCFTECH.COM
    Dell Pro Max With NVIDIA GB10 Now Available: 128 GB LP5X Memory & Small Form Factor Mini AI PC
    The Dell Pro Max Mini AI PC is now available and packs the NVIDIA GB10 Superchip with up to 128 GB of LPDDR5x memory.
    0 Comments 0 Shares 160 Views 0 Reviews
More Results