• Tenstorrent เปิดตัว Open Chiplet Atlas Ecosystem ปฏิวัติการออกแบบชิปแบบเปิดและเชื่อมต่อได้ทุกค่าย

    Tenstorrent ประกาศเปิดตัว Open Chiplet Atlas Ecosystem (OCA) ในงานที่ซานฟรานซิสโก โดยมีเป้าหมายเพื่อ “เปิดเสรี” การออกแบบชิปแบบ chiplet ให้สามารถเชื่อมต่อกันได้อย่างอิสระ ลดต้นทุน และเร่งนวัตกรรมในอุตสาหกรรมเซมิคอนดักเตอร์

    แนวคิดหลักของ OCA Ecosystem

    OCA ไม่ใช่แค่แพลตฟอร์มใหม่ แต่เป็น “มาตรฐานเปิด” ที่ครอบคลุมทุกชั้นของการออกแบบ chiplet ตั้งแต่ระดับกายภาพไปจนถึงซอฟต์แวร์ โดยมี 3 เสาหลักสำคัญ:
    Architecture: สถาปัตยกรรมเปิดที่กำหนดมาตรฐานการเชื่อมต่อ chiplet ใน 5 ชั้น ได้แก่ Physical, Transport, Protocol, System และ Software
    Harness: เฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้นักออกแบบสามารถสร้าง chiplet ที่เชื่อมต่อได้ทันที โดยไม่ต้องพัฒนา logic ซ้ำ
    Compliance: โปรแกรมตรวจสอบความเข้ากันได้ทั้งก่อนและหลังการผลิต รวมถึง “Golden Chiplet” สำหรับทดสอบ และกิจกรรม “Plugfests” เพื่อทดลองใช้งานร่วมกัน

    จุดเด่นของ OCA Ecosystem
    ลดต้นทุนการพัฒนาและเร่งเวลาออกสู่ตลาด
    รองรับการออกแบบ chiplet แบบ multivendor โดยไม่ติด vendor lock-in
    เหมาะกับผลิตภัณฑ์หลากหลาย เช่น AI accelerators, ยานยนต์, และดาต้าเซ็นเตอร์

    ความร่วมมือระดับโลก
    มีพันธมิตรมากกว่า 50 รายจากบริษัทเซมิคอนดักเตอร์และมหาวิทยาลัยชั้นนำ
    ตัวอย่างเช่น LG, Rapidus, Axelera AI, BSC, ITRI, และมหาวิทยาลัยโตเกียว
    สนับสนุนโดยนักวิจัยจาก Oxford, HKUST, UC Riverside และ Shanghai Jiao Tong

    ความเห็นจากผู้นำอุตสาหกรรม
    BOS Semiconductors เน้นความสำคัญของความเข้ากันได้ระยะยาวในอุตสาหกรรมยานยนต์
    BSC ชี้ว่า OCA จะช่วยให้เกิดความหลากหลายในการประมวลผล
    Rapidus มองว่า OCA จะช่วยลดความซับซ้อนในการผลิตและเปิดโอกาสให้ลูกค้าเลือก chiplet จากหลายค่าย

    https://www.techpowerup.com/342293/tenstorrent-announces-open-chiplet-atlas-ecosystem
    🧩🔗 Tenstorrent เปิดตัว Open Chiplet Atlas Ecosystem ปฏิวัติการออกแบบชิปแบบเปิดและเชื่อมต่อได้ทุกค่าย Tenstorrent ประกาศเปิดตัว Open Chiplet Atlas Ecosystem (OCA) ในงานที่ซานฟรานซิสโก โดยมีเป้าหมายเพื่อ “เปิดเสรี” การออกแบบชิปแบบ chiplet ให้สามารถเชื่อมต่อกันได้อย่างอิสระ ลดต้นทุน และเร่งนวัตกรรมในอุตสาหกรรมเซมิคอนดักเตอร์ 🧠 แนวคิดหลักของ OCA Ecosystem OCA ไม่ใช่แค่แพลตฟอร์มใหม่ แต่เป็น “มาตรฐานเปิด” ที่ครอบคลุมทุกชั้นของการออกแบบ chiplet ตั้งแต่ระดับกายภาพไปจนถึงซอฟต์แวร์ โดยมี 3 เสาหลักสำคัญ: 💠 Architecture: สถาปัตยกรรมเปิดที่กำหนดมาตรฐานการเชื่อมต่อ chiplet ใน 5 ชั้น ได้แก่ Physical, Transport, Protocol, System และ Software 💠 Harness: เฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้นักออกแบบสามารถสร้าง chiplet ที่เชื่อมต่อได้ทันที โดยไม่ต้องพัฒนา logic ซ้ำ 💠 Compliance: โปรแกรมตรวจสอบความเข้ากันได้ทั้งก่อนและหลังการผลิต รวมถึง “Golden Chiplet” สำหรับทดสอบ และกิจกรรม “Plugfests” เพื่อทดลองใช้งานร่วมกัน ✅ จุดเด่นของ OCA Ecosystem ➡️ ลดต้นทุนการพัฒนาและเร่งเวลาออกสู่ตลาด ➡️ รองรับการออกแบบ chiplet แบบ multivendor โดยไม่ติด vendor lock-in ➡️ เหมาะกับผลิตภัณฑ์หลากหลาย เช่น AI accelerators, ยานยนต์, และดาต้าเซ็นเตอร์ ✅ ความร่วมมือระดับโลก ➡️ มีพันธมิตรมากกว่า 50 รายจากบริษัทเซมิคอนดักเตอร์และมหาวิทยาลัยชั้นนำ ➡️ ตัวอย่างเช่น LG, Rapidus, Axelera AI, BSC, ITRI, และมหาวิทยาลัยโตเกียว ➡️ สนับสนุนโดยนักวิจัยจาก Oxford, HKUST, UC Riverside และ Shanghai Jiao Tong ✅ ความเห็นจากผู้นำอุตสาหกรรม ➡️ BOS Semiconductors เน้นความสำคัญของความเข้ากันได้ระยะยาวในอุตสาหกรรมยานยนต์ ➡️ BSC ชี้ว่า OCA จะช่วยให้เกิดความหลากหลายในการประมวลผล ➡️ Rapidus มองว่า OCA จะช่วยลดความซับซ้อนในการผลิตและเปิดโอกาสให้ลูกค้าเลือก chiplet จากหลายค่าย https://www.techpowerup.com/342293/tenstorrent-announces-open-chiplet-atlas-ecosystem
    WWW.TECHPOWERUP.COM
    Tenstorrent Announces Open Chiplet Atlas Ecosystem
    Announced at their recent event in San Francisco, the OCA Ecosystem will democratize chip design, lower development costs, and accelerate innovation, enabling heterogeneous chiplets for plug-and-play interoperability. There are now more than 50 partners involved in the ecosystem, from leading semico...
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • AMD รีแบรนด์ซีพียู Ryzen 7035 และ 7020 สำหรับโน้ตบุ๊ก — เปลี่ยนชื่อใหม่แต่สเปกเดิม เพื่อปรับภาพลักษณ์ให้ทันยุค

    AMD ประกาศรีแบรนด์ซีพียูโน้ตบุ๊กในกลุ่ม Ryzen 7035 (Zen 3+) และ Ryzen 7020 (Zen 2) โดยเปลี่ยนชื่อรุ่นให้สั้นลงเป็น Ryzen 100 และ Ryzen 10 ตามลำดับ โดยไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ แต่เน้นปรับภาพลักษณ์ให้ดูทันสมัยและสอดคล้องกับผลิตภัณฑ์ใหม่ในกลุ่ม Ryzen AI และ Ryzen 9000

    AMD เลือกใช้วิธีรีแบรนด์ซีพียูโน้ตบุ๊กที่เปิดตัวในปี 2023 โดยเปลี่ยนชื่อจากรุ่นเดิม เช่น Ryzen 7 7735HS เป็น Ryzen 7 170 หรือ Ryzen 5 7520U เป็น Ryzen 5 40 โดยซีพียูเหล่านี้ยังคงใช้สถาปัตยกรรมเดิมคือ Zen 3+ (Rembrandt-R) และ Zen 2 (Mendocino) พร้อมกราฟิก RDNA 2

    การเปลี่ยนชื่อครั้งนี้คล้ายกับแนวทางของ Intel ที่ใช้ชื่อ Core 5 120 แทน Core i5-1135G7 เพื่อให้ดูเรียบง่ายและทันสมัยมากขึ้น แม้จะเป็นชิปรุ่นเก่าก็ตาม

    AMD ระบุว่าการรีแบรนด์นี้เป็นการปรับภาพลักษณ์ให้สอดคล้องกับผลิตภัณฑ์ใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ที่ใช้ชื่อแบบสามหลัก และอาจเป็นการเตรียมความพร้อมสำหรับการเปลี่ยนแปลงระบบการตั้งชื่อในอนาคต

    AMD รีแบรนด์ซีพียูโน้ตบุ๊ก
    Ryzen 7035 (Rembrandt-R) เปลี่ยนเป็น Ryzen 100 series
    Ryzen 7020 (Mendocino) เปลี่ยนเป็น Ryzen 10 series
    ไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ

    ตัวอย่างการเปลี่ยนชื่อ
    Ryzen 7 7735HS → Ryzen 7 170
    Ryzen 5 7535U → Ryzen 5 130
    Ryzen 3 7320U → Ryzen 3 30
    Athlon Gold 7220U → Athlon Gold 20

    เป้าหมายของการรีแบรนด์
    ปรับภาพลักษณ์ให้ทันสมัย
    สอดคล้องกับชื่อรุ่นใหม่ เช่น Ryzen AI 300 และ Ryzen 9000
    อาจเป็นการเตรียมระบบการตั้งชื่อใหม่ในอนาคต

    https://www.tomshardware.com/pc-components/cpus/amd-rebrands-ryzen-7035-7020-series-mobile-processors-zen-2-and-zen-3-chips-receive-new-identities
    🔄 AMD รีแบรนด์ซีพียู Ryzen 7035 และ 7020 สำหรับโน้ตบุ๊ก — เปลี่ยนชื่อใหม่แต่สเปกเดิม เพื่อปรับภาพลักษณ์ให้ทันยุค AMD ประกาศรีแบรนด์ซีพียูโน้ตบุ๊กในกลุ่ม Ryzen 7035 (Zen 3+) และ Ryzen 7020 (Zen 2) โดยเปลี่ยนชื่อรุ่นให้สั้นลงเป็น Ryzen 100 และ Ryzen 10 ตามลำดับ โดยไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ แต่เน้นปรับภาพลักษณ์ให้ดูทันสมัยและสอดคล้องกับผลิตภัณฑ์ใหม่ในกลุ่ม Ryzen AI และ Ryzen 9000 AMD เลือกใช้วิธีรีแบรนด์ซีพียูโน้ตบุ๊กที่เปิดตัวในปี 2023 โดยเปลี่ยนชื่อจากรุ่นเดิม เช่น Ryzen 7 7735HS เป็น Ryzen 7 170 หรือ Ryzen 5 7520U เป็น Ryzen 5 40 โดยซีพียูเหล่านี้ยังคงใช้สถาปัตยกรรมเดิมคือ Zen 3+ (Rembrandt-R) และ Zen 2 (Mendocino) พร้อมกราฟิก RDNA 2 การเปลี่ยนชื่อครั้งนี้คล้ายกับแนวทางของ Intel ที่ใช้ชื่อ Core 5 120 แทน Core i5-1135G7 เพื่อให้ดูเรียบง่ายและทันสมัยมากขึ้น แม้จะเป็นชิปรุ่นเก่าก็ตาม AMD ระบุว่าการรีแบรนด์นี้เป็นการปรับภาพลักษณ์ให้สอดคล้องกับผลิตภัณฑ์ใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ที่ใช้ชื่อแบบสามหลัก และอาจเป็นการเตรียมความพร้อมสำหรับการเปลี่ยนแปลงระบบการตั้งชื่อในอนาคต ✅ AMD รีแบรนด์ซีพียูโน้ตบุ๊ก ➡️ Ryzen 7035 (Rembrandt-R) เปลี่ยนเป็น Ryzen 100 series ➡️ Ryzen 7020 (Mendocino) เปลี่ยนเป็น Ryzen 10 series ➡️ ไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ ✅ ตัวอย่างการเปลี่ยนชื่อ ➡️ Ryzen 7 7735HS → Ryzen 7 170 ➡️ Ryzen 5 7535U → Ryzen 5 130 ➡️ Ryzen 3 7320U → Ryzen 3 30 ➡️ Athlon Gold 7220U → Athlon Gold 20 ✅ เป้าหมายของการรีแบรนด์ ➡️ ปรับภาพลักษณ์ให้ทันสมัย ➡️ สอดคล้องกับชื่อรุ่นใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ➡️ อาจเป็นการเตรียมระบบการตั้งชื่อใหม่ในอนาคต https://www.tomshardware.com/pc-components/cpus/amd-rebrands-ryzen-7035-7020-series-mobile-processors-zen-2-and-zen-3-chips-receive-new-identities
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia

    Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models

    ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference

    AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ

    ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง

    Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว

    Qualcomm เปิดตัว AI200 และ AI250
    AI200 ใช้งานปี 2026, AI250 ปี 2027
    ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
    รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing

    ความสามารถด้านฮาร์ดแวร์
    AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
    AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
    รองรับ GenAI, confidential computing, และ model encryption

    แพลตฟอร์มซอฟต์แวร์
    รองรับ PyTorch, ONNX, LangChain, vLLM
    มีระบบ onboarding โมเดลแบบคลิกเดียว
    รองรับ disaggregated serving และ virtualization

    คำเตือนสำหรับผู้ใช้งานระดับองค์กร
    ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
    การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
    ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    ⚙️ Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว ✅ Qualcomm เปิดตัว AI200 และ AI250 ➡️ AI200 ใช้งานปี 2026, AI250 ปี 2027 ➡️ ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor ➡️ รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing ✅ ความสามารถด้านฮาร์ดแวร์ ➡️ AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW ➡️ AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic ➡️ รองรับ GenAI, confidential computing, และ model encryption ✅ แพลตฟอร์มซอฟต์แวร์ ➡️ รองรับ PyTorch, ONNX, LangChain, vLLM ➡️ มีระบบ onboarding โมเดลแบบคลิกเดียว ➡️ รองรับ disaggregated serving และ virtualization ‼️ คำเตือนสำหรับผู้ใช้งานระดับองค์กร ⛔ ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ ⛔ การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด ⛔ ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    0 ความคิดเห็น 0 การแบ่งปัน 32 มุมมอง 0 รีวิว
  • ยกระดับความปลอดภัยในระบบ Serverless ด้วย Zero Trust และ AI — ป้องกันภัยคุกคามยุคใหม่แบบรอบด้าน

    บทความจาก HackRead โดย Rimpy Tewani ผู้เชี่ยวชาญด้านความปลอดภัยระบบคลาวด์ของ AWS เผยแนวทางการป้องกันภัยคุกคามในระบบ Serverless ที่กำลังได้รับความนิยมในองค์กรขนาดใหญ่ โดยเน้นการใช้สถาปัตยกรรม Zero Trust และระบบตรวจจับภัยคุกคามด้วย AI เพื่อรับมือกับการโจมตีที่ซับซ้อนและเกิดขึ้นรวดเร็ว

    ระบบ Serverless ช่วยให้องค์กรสามารถพัฒนาแอปพลิเคชันได้เร็วขึ้นโดยไม่ต้องดูแลเซิร์ฟเวอร์เอง แต่ก็เปิดช่องให้เกิดภัยคุกคามรูปแบบใหม่ เช่น การฉีด event ที่เป็นอันตราย (Function Event Injection), การโจมตีช่วง cold start และการใช้ AI ในการหลบเลี่ยงระบบตรวจจับ

    แนวทางที่แนะนำคือการใช้สถาปัตยกรรม Zero Trust ซึ่งไม่เชื่อถือสิ่งใดโดยอัตโนมัติ แม้จะผ่านการยืนยันตัวตนแล้วก็ตาม ทุกคำขอและทุกฟังก์ชันต้องผ่านการตรวจสอบซ้ำเสมอ

    ระบบป้องกันประกอบด้วยหลายชั้น เช่น AWS WAF, Cognito, การเข้ารหัสข้อมูล, การตรวจสอบแบบเรียลไทม์ และการใช้ AI วิเคราะห์พฤติกรรมผู้ใช้เพื่อประเมินความเสี่ยง

    Zero Trust ในระบบ Serverless
    ไม่เชื่อถือคำขอใด ๆ โดยอัตโนมัติ
    ตรวจสอบทุกฟังก์ชันและ API call แบบเรียลไทม์
    ใช้การยืนยันตัวตนหลายชั้นและการเข้ารหัสข้อมูล

    ภัยคุกคามเฉพาะในระบบ Serverless
    Function Event Injection: ฝัง payload อันตรายผ่าน event
    Cold Start Exploitation: โจมตีช่วงเริ่มต้นที่ระบบยังไม่พร้อม
    Credential Stuffing และ API Abuse เพิ่มขึ้นกว่า 300%

    การใช้ AI ในการป้องกัน
    AWS Cognito วิเคราะห์พฤติกรรมและอุปกรณ์ผู้ใช้
    EventBridge ตรวจจับภัยคุกคามข้ามบริการ
    AI วิเคราะห์ prompt injection และ model poisoning ในระบบ GenAI

    ผลลัพธ์จากการใช้งานจริง
    ลดเวลาในการตอบสนองภัยคุกคามจาก 200 นาทีเหลือ 30 วินาที
    เพิ่ม ROI ด้านความปลอดภัยถึง 240% ภายใน 2 ปี
    ตรวจจับการ takeover บัญชีได้แม่นยำถึง 99.7%

    คำเตือนสำหรับองค์กรที่ใช้ Serverless
    อย่าพึ่งพาการตรวจสอบแบบหลังเกิดเหตุเพียงอย่างเดียว
    ควรใช้ระบบตรวจจับแบบ proactive และ AI วิเคราะห์พฤติกรรม
    ต้องเตรียมรับมือกับภัยคุกคามที่เกิดจากการใช้ GenAI

    https://hackread.com/serverless-security-zero-trust-implementation-ai-threat-detection/
    🛡️ ยกระดับความปลอดภัยในระบบ Serverless ด้วย Zero Trust และ AI — ป้องกันภัยคุกคามยุคใหม่แบบรอบด้าน บทความจาก HackRead โดย Rimpy Tewani ผู้เชี่ยวชาญด้านความปลอดภัยระบบคลาวด์ของ AWS เผยแนวทางการป้องกันภัยคุกคามในระบบ Serverless ที่กำลังได้รับความนิยมในองค์กรขนาดใหญ่ โดยเน้นการใช้สถาปัตยกรรม Zero Trust และระบบตรวจจับภัยคุกคามด้วย AI เพื่อรับมือกับการโจมตีที่ซับซ้อนและเกิดขึ้นรวดเร็ว ระบบ Serverless ช่วยให้องค์กรสามารถพัฒนาแอปพลิเคชันได้เร็วขึ้นโดยไม่ต้องดูแลเซิร์ฟเวอร์เอง แต่ก็เปิดช่องให้เกิดภัยคุกคามรูปแบบใหม่ เช่น การฉีด event ที่เป็นอันตราย (Function Event Injection), การโจมตีช่วง cold start และการใช้ AI ในการหลบเลี่ยงระบบตรวจจับ แนวทางที่แนะนำคือการใช้สถาปัตยกรรม Zero Trust ซึ่งไม่เชื่อถือสิ่งใดโดยอัตโนมัติ แม้จะผ่านการยืนยันตัวตนแล้วก็ตาม ทุกคำขอและทุกฟังก์ชันต้องผ่านการตรวจสอบซ้ำเสมอ ระบบป้องกันประกอบด้วยหลายชั้น เช่น AWS WAF, Cognito, การเข้ารหัสข้อมูล, การตรวจสอบแบบเรียลไทม์ และการใช้ AI วิเคราะห์พฤติกรรมผู้ใช้เพื่อประเมินความเสี่ยง ✅ Zero Trust ในระบบ Serverless ➡️ ไม่เชื่อถือคำขอใด ๆ โดยอัตโนมัติ ➡️ ตรวจสอบทุกฟังก์ชันและ API call แบบเรียลไทม์ ➡️ ใช้การยืนยันตัวตนหลายชั้นและการเข้ารหัสข้อมูล ✅ ภัยคุกคามเฉพาะในระบบ Serverless ➡️ Function Event Injection: ฝัง payload อันตรายผ่าน event ➡️ Cold Start Exploitation: โจมตีช่วงเริ่มต้นที่ระบบยังไม่พร้อม ➡️ Credential Stuffing และ API Abuse เพิ่มขึ้นกว่า 300% ✅ การใช้ AI ในการป้องกัน ➡️ AWS Cognito วิเคราะห์พฤติกรรมและอุปกรณ์ผู้ใช้ ➡️ EventBridge ตรวจจับภัยคุกคามข้ามบริการ ➡️ AI วิเคราะห์ prompt injection และ model poisoning ในระบบ GenAI ✅ ผลลัพธ์จากการใช้งานจริง ➡️ ลดเวลาในการตอบสนองภัยคุกคามจาก 200 นาทีเหลือ 30 วินาที ➡️ เพิ่ม ROI ด้านความปลอดภัยถึง 240% ภายใน 2 ปี ➡️ ตรวจจับการ takeover บัญชีได้แม่นยำถึง 99.7% ‼️ คำเตือนสำหรับองค์กรที่ใช้ Serverless ⛔ อย่าพึ่งพาการตรวจสอบแบบหลังเกิดเหตุเพียงอย่างเดียว ⛔ ควรใช้ระบบตรวจจับแบบ proactive และ AI วิเคราะห์พฤติกรรม ⛔ ต้องเตรียมรับมือกับภัยคุกคามที่เกิดจากการใช้ GenAI https://hackread.com/serverless-security-zero-trust-implementation-ai-threat-detection/
    HACKREAD.COM
    Advanced Serverless Security: Zero Trust Implementation with AI-Powered Threat Detection
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • AMD รีแบรนด์ชิป Zen 2 และ Zen 3+ – เปิดตัว Ryzen 10 และ Ryzen 100 Series

    ถ้าคุณเห็นชื่อ Ryzen 10 หรือ Ryzen 100 แล้วคิดว่าเป็นชิปใหม่หมดจด อาจต้องคิดใหม่ เพราะ AMD แค่เปลี่ยนชื่อจากชิปเดิมที่ใช้สถาปัตยกรรม Zen 2 และ Zen 3+ มาเป็นชื่อใหม่ที่ดูเรียบง่ายขึ้น

    Ryzen 10 Series ใช้ Zen 2 เหมือนกับ Ryzen 7000U เช่น Ryzen 5 7520U → เปลี่ยนชื่อเป็น Ryzen 5 40

    Ryzen 100 Series ใช้ Zen 3+ เหมือนกับ Ryzen 7000HS เช่น Ryzen 7 7735HS → เปลี่ยนชื่อเป็น Ryzen 7 170

    การเปลี่ยนชื่อครั้งนี้ไม่ได้มาพร้อมกับการปรับปรุงประสิทธิภาพหรือสเปกใหม่ แต่เป็นการจัดกลุ่มใหม่เพื่อให้ผู้ผลิตโน้ตบุ๊กสามารถนำไปใช้ในรุ่นราคาประหยัดได้ง่ายขึ้น

    AMD ไม่ได้ประกาศอย่างเป็นทางการ แต่มีการอัปเดตหน้าเว็บผลิตภัณฑ์แล้ว และชิปเหล่านี้เริ่มวางจำหน่ายตั้งแต่วันที่ 1 ตุลาคม 2025

    การรีแบรนด์ชิปมือถือของ AMD
    Ryzen 10 ใช้ Zen 2 จาก Ryzen 7000U
    Ryzen 100 ใช้ Zen 3+ จาก Ryzen 7000HS
    เปลี่ยนชื่อรุ่นใหม่ เช่น Ryzen 5 7520U → Ryzen 5 40

    สเปกของ Ryzen 10 Series
    Ryzen 5 40: 4C/8T, 2.8–4.8GHz, Radeon 610M
    Ryzen 3 30: 4C/8T, 2.4–4.1GHz
    Athlon Gold 20 และ Silver 10: 2C/4T และ 2C/2T

    สเปกของ Ryzen 100 Series
    Ryzen 7 170: 8C/16T, 3.2–4.75GHz, Radeon 680M
    Ryzen 5 150: 6C/12T, 3.3–4.55GHz
    Ryzen 3 110: 4C/8T, 3.0–4.3GHz

    จุดประสงค์ของการรีแบรนด์
    ลดความซับซ้อนของชื่อรุ่น
    รองรับโน้ตบุ๊กราคาประหยัด
    ไม่ได้เพิ่มประสิทธิภาพใหม่

    https://wccftech.com/amd-prepares-rebadged-zen-2-ryzen-10-and-zen-3-ryzen-100-series-mobile-cpus/
    🧠 AMD รีแบรนด์ชิป Zen 2 และ Zen 3+ – เปิดตัว Ryzen 10 และ Ryzen 100 Series ถ้าคุณเห็นชื่อ Ryzen 10 หรือ Ryzen 100 แล้วคิดว่าเป็นชิปใหม่หมดจด อาจต้องคิดใหม่ เพราะ AMD แค่เปลี่ยนชื่อจากชิปเดิมที่ใช้สถาปัตยกรรม Zen 2 และ Zen 3+ มาเป็นชื่อใหม่ที่ดูเรียบง่ายขึ้น 🧊 Ryzen 10 Series ใช้ Zen 2 เหมือนกับ Ryzen 7000U เช่น Ryzen 5 7520U → เปลี่ยนชื่อเป็น Ryzen 5 40 🧊 Ryzen 100 Series ใช้ Zen 3+ เหมือนกับ Ryzen 7000HS เช่น Ryzen 7 7735HS → เปลี่ยนชื่อเป็น Ryzen 7 170 การเปลี่ยนชื่อครั้งนี้ไม่ได้มาพร้อมกับการปรับปรุงประสิทธิภาพหรือสเปกใหม่ แต่เป็นการจัดกลุ่มใหม่เพื่อให้ผู้ผลิตโน้ตบุ๊กสามารถนำไปใช้ในรุ่นราคาประหยัดได้ง่ายขึ้น AMD ไม่ได้ประกาศอย่างเป็นทางการ แต่มีการอัปเดตหน้าเว็บผลิตภัณฑ์แล้ว และชิปเหล่านี้เริ่มวางจำหน่ายตั้งแต่วันที่ 1 ตุลาคม 2025 ✅ การรีแบรนด์ชิปมือถือของ AMD ➡️ Ryzen 10 ใช้ Zen 2 จาก Ryzen 7000U ➡️ Ryzen 100 ใช้ Zen 3+ จาก Ryzen 7000HS ➡️ เปลี่ยนชื่อรุ่นใหม่ เช่น Ryzen 5 7520U → Ryzen 5 40 ✅ สเปกของ Ryzen 10 Series ➡️ Ryzen 5 40: 4C/8T, 2.8–4.8GHz, Radeon 610M ➡️ Ryzen 3 30: 4C/8T, 2.4–4.1GHz ➡️ Athlon Gold 20 และ Silver 10: 2C/4T และ 2C/2T ✅ สเปกของ Ryzen 100 Series ➡️ Ryzen 7 170: 8C/16T, 3.2–4.75GHz, Radeon 680M ➡️ Ryzen 5 150: 6C/12T, 3.3–4.55GHz ➡️ Ryzen 3 110: 4C/8T, 3.0–4.3GHz ✅ จุดประสงค์ของการรีแบรนด์ ➡️ ลดความซับซ้อนของชื่อรุ่น ➡️ รองรับโน้ตบุ๊กราคาประหยัด ➡️ ไม่ได้เพิ่มประสิทธิภาพใหม่ https://wccftech.com/amd-prepares-rebadged-zen-2-ryzen-10-and-zen-3-ryzen-100-series-mobile-cpus/
    WCCFTECH.COM
    AMD Prepares "Rebadged" Zen 2 Ryzen 10 and Zen 3+ Ryzen 100 Series Mobile CPUs
    AMD has prepared refresh of Zen 2 and Zen 3+ mobile CPUs by silently releasing Ryzen 10 and Ryzen 100 series.
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • “NetBSD ขอแรงชุมชน – ระดมทุนโค้งสุดท้ายก่อนสิ้นปีเพื่อพัฒนาระบบปฏิบัติการโอเพ่นซอร์สให้ทันสมัย”

    ในช่วงปลายปี 2025 Jay Patel สมาชิกชุมชน NetBSD ได้ส่งข้อความถึงผู้ใช้งานทั่วโลกผ่าน mailing list เพื่อขอแรงสนับสนุนครั้งสุดท้ายในการระดมทุนให้กับ The NetBSD Foundation ซึ่งขณะนี้ยังขาดอีกกว่า 39,000 ดอลลาร์จากเป้าหมาย 50,000 ดอลลาร์ประจำปี

    NetBSD เป็นระบบปฏิบัติการโอเพ่นซอร์สที่มีจุดเด่นด้านความเสถียร ความปลอดภัย และความสามารถในการทำงานบนฮาร์ดแวร์หลากหลาย ตั้งแต่เครื่องรุ่นใหม่ไปจนถึงอุปกรณ์เก่า ๆ ที่ถูกนำกลับมาใช้งานอีกครั้ง เช่น เป็นไฟร์วอลล์ เซิร์ฟเวอร์ หรือเครื่องเล่นเกมย้อนยุค

    การระดมทุนครั้งนี้จะนำไปใช้กับโครงการสำคัญ เช่น:
    การรองรับสถาปัตยกรรม RISC-V ที่กำลังมาแรงในวงการฮาร์ดแวร์โอเพ่นซอร์ส
    การปรับปรุงระบบ Wi-Fi ครั้งใหญ่ เพื่อให้ NetBSD ใช้งานได้สะดวกขึ้นบนแล็ปท็อปและอุปกรณ์ฝังตัว

    Jay เน้นว่า NetBSD ไม่ใช่แค่ระบบปฏิบัติการ แต่เป็นพลังแห่งความยั่งยืนในยุคที่อุปกรณ์อิเล็กทรอนิกส์ถูกทิ้งอย่างรวดเร็ว การที่ NetBSD สามารถทำงานบนเครื่องเก่าได้ดี ช่วยลดขยะอิเล็กทรอนิกส์และส่งเสริมการใช้ทรัพยากรอย่างมีประสิทธิภาพ

    การระดมทุนของ The NetBSD Foundation
    เป้าหมายปี 2025 คือ 50,000 ดอลลาร์
    ขณะนี้ระดมทุนได้แล้ว 10,738 ดอลลาร์
    ยังขาดอีก 39,262 ดอลลาร์ก่อนสิ้นปี

    โครงการที่ต้องการการสนับสนุน
    รองรับสถาปัตยกรรม RISC-V
    ปรับปรุงระบบ Wi-Fi ให้ทันสมัยและใช้งานได้ดีขึ้น

    จุดเด่นของ NetBSD
    ทำงานได้บนฮาร์ดแวร์หลากหลาย ทั้งใหม่และเก่า
    ลดขยะอิเล็กทรอนิกส์โดยนำอุปกรณ์เก่ากลับมาใช้งาน
    ใช้เป็นไฟร์วอลล์ เซิร์ฟเวอร์ หรือเครื่องเล่นเกมย้อนยุค

    การมีส่วนร่วมของชุมชน
    ผู้ใช้สามารถบริจาคผ่านเว็บไซต์ของ NetBSD
    แชร์ข้อความผ่านโซเชียลมีเดียด้วยแฮชแท็ก #WhyIRunNetBSD

    คำเตือนสำหรับผู้สนใจสนับสนุน
    หากไม่ถึงเป้าหมาย อาจกระทบต่อการพัฒนาโครงการสำคัญในปีหน้า
    การไม่ปรับปรุงระบบ Wi-Fi อาจทำให้ NetBSD ใช้งานบนแล็ปท็อปได้ยากขึ้น
    การไม่รองรับ RISC-V อาจทำให้ NetBSD ตกขบวนเทคโนโลยีโอเพ่นซอร์สใหม่

    https://mail-index.netbsd.org/netbsd-users/2025/10/26/msg033327.html
    📰 “NetBSD ขอแรงชุมชน – ระดมทุนโค้งสุดท้ายก่อนสิ้นปีเพื่อพัฒนาระบบปฏิบัติการโอเพ่นซอร์สให้ทันสมัย” ในช่วงปลายปี 2025 Jay Patel สมาชิกชุมชน NetBSD ได้ส่งข้อความถึงผู้ใช้งานทั่วโลกผ่าน mailing list เพื่อขอแรงสนับสนุนครั้งสุดท้ายในการระดมทุนให้กับ The NetBSD Foundation ซึ่งขณะนี้ยังขาดอีกกว่า 39,000 ดอลลาร์จากเป้าหมาย 50,000 ดอลลาร์ประจำปี NetBSD เป็นระบบปฏิบัติการโอเพ่นซอร์สที่มีจุดเด่นด้านความเสถียร ความปลอดภัย และความสามารถในการทำงานบนฮาร์ดแวร์หลากหลาย ตั้งแต่เครื่องรุ่นใหม่ไปจนถึงอุปกรณ์เก่า ๆ ที่ถูกนำกลับมาใช้งานอีกครั้ง เช่น เป็นไฟร์วอลล์ เซิร์ฟเวอร์ หรือเครื่องเล่นเกมย้อนยุค การระดมทุนครั้งนี้จะนำไปใช้กับโครงการสำคัญ เช่น: 🎗️ การรองรับสถาปัตยกรรม RISC-V ที่กำลังมาแรงในวงการฮาร์ดแวร์โอเพ่นซอร์ส 🎗️ การปรับปรุงระบบ Wi-Fi ครั้งใหญ่ เพื่อให้ NetBSD ใช้งานได้สะดวกขึ้นบนแล็ปท็อปและอุปกรณ์ฝังตัว Jay เน้นว่า NetBSD ไม่ใช่แค่ระบบปฏิบัติการ แต่เป็นพลังแห่งความยั่งยืนในยุคที่อุปกรณ์อิเล็กทรอนิกส์ถูกทิ้งอย่างรวดเร็ว การที่ NetBSD สามารถทำงานบนเครื่องเก่าได้ดี ช่วยลดขยะอิเล็กทรอนิกส์และส่งเสริมการใช้ทรัพยากรอย่างมีประสิทธิภาพ ✅ การระดมทุนของ The NetBSD Foundation ➡️ เป้าหมายปี 2025 คือ 50,000 ดอลลาร์ ➡️ ขณะนี้ระดมทุนได้แล้ว 10,738 ดอลลาร์ ➡️ ยังขาดอีก 39,262 ดอลลาร์ก่อนสิ้นปี ✅ โครงการที่ต้องการการสนับสนุน ➡️ รองรับสถาปัตยกรรม RISC-V ➡️ ปรับปรุงระบบ Wi-Fi ให้ทันสมัยและใช้งานได้ดีขึ้น ✅ จุดเด่นของ NetBSD ➡️ ทำงานได้บนฮาร์ดแวร์หลากหลาย ทั้งใหม่และเก่า ➡️ ลดขยะอิเล็กทรอนิกส์โดยนำอุปกรณ์เก่ากลับมาใช้งาน ➡️ ใช้เป็นไฟร์วอลล์ เซิร์ฟเวอร์ หรือเครื่องเล่นเกมย้อนยุค ✅ การมีส่วนร่วมของชุมชน ➡️ ผู้ใช้สามารถบริจาคผ่านเว็บไซต์ของ NetBSD ➡️ แชร์ข้อความผ่านโซเชียลมีเดียด้วยแฮชแท็ก #WhyIRunNetBSD ‼️ คำเตือนสำหรับผู้สนใจสนับสนุน ⛔ หากไม่ถึงเป้าหมาย อาจกระทบต่อการพัฒนาโครงการสำคัญในปีหน้า ⛔ การไม่ปรับปรุงระบบ Wi-Fi อาจทำให้ NetBSD ใช้งานบนแล็ปท็อปได้ยากขึ้น ⛔ การไม่รองรับ RISC-V อาจทำให้ NetBSD ตกขบวนเทคโนโลยีโอเพ่นซอร์สใหม่ https://mail-index.netbsd.org/netbsd-users/2025/10/26/msg033327.html
    0 ความคิดเห็น 0 การแบ่งปัน 53 มุมมอง 0 รีวิว
  • “NVIDIA เตรียมเปิดศักราชใหม่ของ GPU ด้วย Boot42 บนไดรเวอร์ Nova รองรับสถาปัตยกรรม Rubin”

    NVIDIA กำลังวางรากฐานสำหรับ GPU รุ่นถัดไปแล้วนะ! ล่าสุดพวกเขาเริ่มเปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42 บนไดรเวอร์ Nova ซึ่งเป็นไดรเวอร์โอเพ่นซอร์สที่เขียนด้วยภาษา Rust

    ก่อนหน้านี้ NVIDIA ใช้ register ที่ชื่อว่า NV_PMC_BOOT_0 เพื่อบอกว่า GPU ตัวนั้นใช้สถาปัตยกรรมอะไร เช่น Turing, Ampere หรือ Blackwell แต่ตอนนี้พวกเขากำลังจะเลิกใช้ Boot0 แล้วหันมาใช้ NV_PMC_BOOT_42 แทน ซึ่งจะช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น

    การเปลี่ยนแปลงนี้ชี้ชัดว่า NVIDIA กำลังเตรียมตัวสำหรับสถาปัตยกรรมใหม่ที่ชื่อว่า “Rubin” ซึ่งจะมาแทน Blackwell และเน้นกลุ่มเซิร์ฟเวอร์เป็นหลัก โดยมีแผนเริ่มผลิตจำนวนมากในช่วงครึ่งหลังของปี 2026

    ที่น่าสนใจคือการเปลี่ยนมาใช้ Boot42 ทำให้โค้ดในไดรเวอร์ลดลงถึง 33 บรรทัด และยังช่วยให้ Nova รองรับ GPU ตั้งแต่รุ่นเก่าอย่าง NV04 ไปจนถึงรุ่นใหม่ในอนาคตได้โดยไม่ต้องแก้โค้ดเพิ่มอีก

    NVIDIA เปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42
    ใช้ในไดรเวอร์ Nova ที่เขียนด้วยภาษา Rust
    NV_PMC_BOOT_0 จะถูกยกเลิกและแทนที่ด้วย NV_PMC_BOOT_42
    ช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น

    การเปลี่ยนแปลงนี้เกี่ยวข้องกับ GPU สถาปัตยกรรม Rubin
    Rubin เป็นสถาปัตยกรรมถัดจาก Blackwell
    เน้นกลุ่มเซิร์ฟเวอร์และ AI
    มีกำหนดเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026

    ผลลัพธ์จากการเปลี่ยนมาใช้ Boot42
    ลดโค้ดในไดรเวอร์ลง 33 บรรทัด
    Nova จะสามารถรองรับ GPU ตั้งแต่ NV04 ถึงรุ่นอนาคตได้โดยไม่ต้องแก้โค้ด
    เป็นก้าวสำคัญของ NVIDIA ในการสนับสนุนโอเพ่นซอร์สบน Linux

    https://wccftech.com/nvidia-prepares-for-next-gen-gpus-begins-nova-driver-transition-from-boot0-to-boot42/
    ⚙️ “NVIDIA เตรียมเปิดศักราชใหม่ของ GPU ด้วย Boot42 บนไดรเวอร์ Nova รองรับสถาปัตยกรรม Rubin” NVIDIA กำลังวางรากฐานสำหรับ GPU รุ่นถัดไปแล้วนะ! ล่าสุดพวกเขาเริ่มเปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42 บนไดรเวอร์ Nova ซึ่งเป็นไดรเวอร์โอเพ่นซอร์สที่เขียนด้วยภาษา Rust ก่อนหน้านี้ NVIDIA ใช้ register ที่ชื่อว่า NV_PMC_BOOT_0 เพื่อบอกว่า GPU ตัวนั้นใช้สถาปัตยกรรมอะไร เช่น Turing, Ampere หรือ Blackwell แต่ตอนนี้พวกเขากำลังจะเลิกใช้ Boot0 แล้วหันมาใช้ NV_PMC_BOOT_42 แทน ซึ่งจะช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น การเปลี่ยนแปลงนี้ชี้ชัดว่า NVIDIA กำลังเตรียมตัวสำหรับสถาปัตยกรรมใหม่ที่ชื่อว่า “Rubin” ซึ่งจะมาแทน Blackwell และเน้นกลุ่มเซิร์ฟเวอร์เป็นหลัก โดยมีแผนเริ่มผลิตจำนวนมากในช่วงครึ่งหลังของปี 2026 ที่น่าสนใจคือการเปลี่ยนมาใช้ Boot42 ทำให้โค้ดในไดรเวอร์ลดลงถึง 33 บรรทัด และยังช่วยให้ Nova รองรับ GPU ตั้งแต่รุ่นเก่าอย่าง NV04 ไปจนถึงรุ่นใหม่ในอนาคตได้โดยไม่ต้องแก้โค้ดเพิ่มอีก ✅ NVIDIA เปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42 ➡️ ใช้ในไดรเวอร์ Nova ที่เขียนด้วยภาษา Rust ➡️ NV_PMC_BOOT_0 จะถูกยกเลิกและแทนที่ด้วย NV_PMC_BOOT_42 ➡️ ช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น ✅ การเปลี่ยนแปลงนี้เกี่ยวข้องกับ GPU สถาปัตยกรรม Rubin ➡️ Rubin เป็นสถาปัตยกรรมถัดจาก Blackwell ➡️ เน้นกลุ่มเซิร์ฟเวอร์และ AI ➡️ มีกำหนดเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026 ✅ ผลลัพธ์จากการเปลี่ยนมาใช้ Boot42 ➡️ ลดโค้ดในไดรเวอร์ลง 33 บรรทัด ➡️ Nova จะสามารถรองรับ GPU ตั้งแต่ NV04 ถึงรุ่นอนาคตได้โดยไม่ต้องแก้โค้ด ➡️ เป็นก้าวสำคัญของ NVIDIA ในการสนับสนุนโอเพ่นซอร์สบน Linux https://wccftech.com/nvidia-prepares-for-next-gen-gpus-begins-nova-driver-transition-from-boot0-to-boot42/
    WCCFTECH.COM
    NVIDIA Prepares For Next-Gen GPUs; Begins Nova Driver Transition From Boot0 To Boot42
    NVIDIA has reportedly started preparing for "next-gen" GPUs as confirmed from its transition of Nova Driver to Boot42.
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น

    Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์

    แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ

    ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน

    Intel Core Ultra 5 338H
    ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก)
    ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X
    คะแนน Vulkan บน Geekbench: 39,406
    สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M

    สถาปัตยกรรม Panther Lake
    ใช้ Xe3 GPU จาก Battlemage IP
    มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่
    รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H
    Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน

    ความหมายของการไม่มี “X”
    ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง
    เหมาะกับงานทั่วไปและเกมระดับกลาง
    ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    🧠 Intel Core Ultra 5 338H โผล่ใน Geekbench – ยืนยันใช้ iGPU Arc B370 Xe3 และไม่มี “X” ในชื่อรุ่น Intel Core Ultra 5 338H ได้รับการเปิดเผยผ่านผลการทดสอบ Geekbench ล่าสุด โดยชิปนี้เป็นส่วนหนึ่งของตระกูล Panther Lake ที่กำลังจะเปิดตัวในปี 2025 จุดเด่นคือการใช้ iGPU รุ่นใหม่ Arc B370 ซึ่งเป็นสถาปัตยกรรม Xe3 ที่พัฒนาจาก Battlemage IP และมีจำนวนคอร์กราฟิก 10 คอร์ แม้จะอยู่ในกลุ่มชิปประสิทธิภาพสูง แต่ Core Ultra 5 338H ไม่มี “X” ในชื่อรุ่น ซึ่งแตกต่างจากรุ่น Core Ultra X7 และ X9 ที่มี 12 คอร์กราฟิกและได้รับการจัดอยู่ในกลุ่ม “X” สำหรับงานกราฟิกเต็มรูปแบบ ผลการทดสอบ Vulkan บน Geekbench แสดงคะแนน 39,406 ซึ่งสูงกว่า Arc A140T ของ Lunar Lake เล็กน้อย (~4%) และใกล้เคียงกับ Radeon 880M ของ AMD ที่ได้ประมาณ 39,917 คะแนน ✅ Intel Core Ultra 5 338H ➡️ ใช้ iGPU Arc B370 Xe3 (10 คอร์กราฟิก) ➡️ ไม่มี “X” ในชื่อรุ่น แม้ใช้สถาปัตยกรรมเดียวกับรุ่น X ➡️ คะแนน Vulkan บน Geekbench: 39,406 ➡️ สูงกว่า Arc A140T (~4%) และใกล้เคียง Radeon 880M ✅ สถาปัตยกรรม Panther Lake ➡️ ใช้ Xe3 GPU จาก Battlemage IP ➡️ มีการเปลี่ยนแปลงระบบตั้งชื่อรุ่นใหม่ ➡️ รุ่นที่มี “X” จะมี 12 คอร์กราฟิก เช่น X7 358H, X9 388H ➡️ Core Ultra 5 338H ใช้เวอร์ชันลดสเปกของ GPU เดียวกัน ✅ ความหมายของการไม่มี “X” ➡️ ไม่ใช่รุ่นกราฟิกเต็มสเปก แต่ยังอยู่ในกลุ่มประสิทธิภาพสูง ➡️ เหมาะกับงานทั่วไปและเกมระดับกลาง ➡️ ช่วยลดต้นทุนและพลังงานโดยยังคงประสิทธิภาพที่ดี https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-5-338h-appears-in-geekbench-listing-confirming-new-arc-b370-xe3-igpu-no-x-branding-in-sight-as-panther-lakes-naming-scheme-becomes-clear
    0 ความคิดเห็น 0 การแบ่งปัน 95 มุมมอง 0 รีวิว
  • Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้

    Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น

    Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A

    Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake

    การเปิดตัวสถาปัตยกรรม Nova Lake
    เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake
    ออกแบบใหม่ทั้ง CPU และ GPU
    รองรับการประมวลผล AI และ edge computing
    ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm)

    การเปิดตัวชิป Panther Lake
    เป็นชิปรุ่นแรกในไลน์ Nova Lake
    เตรียมเปิดตัวภายในปีนี้
    ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel

    การอัปเกรดซอฟต์แวร์
    Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake
    เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing
    ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ

    ข้อควรระวังและความท้าทาย
    การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake
    การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก
    การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel

    https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    ⚙️ Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้ Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake ✅ การเปิดตัวสถาปัตยกรรม Nova Lake ➡️ เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake ➡️ ออกแบบใหม่ทั้ง CPU และ GPU ➡️ รองรับการประมวลผล AI และ edge computing ➡️ ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm) ✅ การเปิดตัวชิป Panther Lake ➡️ เป็นชิปรุ่นแรกในไลน์ Nova Lake ➡️ เตรียมเปิดตัวภายในปีนี้ ➡️ ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel ✅ การอัปเกรดซอฟต์แวร์ ➡️ Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake ➡️ เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing ➡️ ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ ‼️ ข้อควรระวังและความท้าทาย ⛔ การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake ⛔ การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก ⛔ การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    WCCFTECH.COM
    Intel Nova Lake CPUs Bring New Architecture & Software Upgrades, First Panther Lake SKUs This Year, 18A To Cover At least Next-Three Client & Server Products
    Intel talked about its upcoming Panther Lake, Nova Lake, Coral Rapids CPUs, and its Foundry plans involving 18A & 14A during its Q3 call.
    0 ความคิดเห็น 0 การแบ่งปัน 104 มุมมอง 0 รีวิว
  • Google ยอมรับกลาย ๆ ว่า GPU ของ Tensor G5 ยังต้องปรับจูน – เตรียมเพิ่มประสิทธิภาพก่อนเปิดตัว Pixel รุ่นใหม่

    Google กำลังพัฒนา Tensor G5 ซึ่งเป็นชิปเซ็ตรุ่นใหม่ที่จะใช้ใน Pixel รุ่นถัดไป โดยมีรายงานว่า GPU ที่ใช้ใน Tensor G5 ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ และต้องการการปรับแต่งเพิ่มเติมก่อนจะพร้อมใช้งานจริง

    แม้ Google จะยังไม่ประกาศอย่างเป็นทางการ แต่ข้อมูลจากเอกสารภายในและการเคลื่อนไหวของทีมพัฒนาเผยว่า GPU ที่ใช้ใน Tensor G5 ซึ่งเป็นสถาปัตยกรรมจากบริษัท Imagination Technologies ยังต้องการการปรับจูนเพื่อให้เหมาะกับการใช้งานบน Android และแอปต่าง ๆ ของ Google โดยเฉพาะด้านการประมวลผลกราฟิกและ AI

    Tensor G5 ถือเป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ โดยใช้โรงงาน TSMC ในการผลิตด้วยเทคโนโลยี 3nm ซึ่งต่างจาก Tensor รุ่นก่อนที่ร่วมพัฒนากับ Samsung การเปลี่ยนมาใช้ GPU จาก Imagination แทน ARM Mali ก็เป็นการเปลี่ยนแปลงครั้งใหญ่ที่ต้องใช้เวลาในการปรับแต่งให้เข้ากับ ecosystem ของ Google

    การพัฒนา Tensor G5 โดย Google
    เป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ
    ผลิตโดย TSMC ด้วยเทคโนโลยี 3nm
    ใช้ GPU จาก Imagination Technologies แทน ARM Mali

    ความท้าทายด้าน GPU
    GPU ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ
    ต้องการการปรับจูนเพื่อรองรับ Android และแอปของ Google
    ทีมพัฒนากำลังเร่งแก้ไขก่อนเปิดตัว Pixel รุ่นใหม่

    การเปลี่ยนแปลงจาก Tensor รุ่นก่อน
    Tensor G5 ไม่ร่วมพัฒนากับ Samsung เหมือนรุ่นก่อน
    เปลี่ยนสถาปัตยกรรม GPU เป็นครั้งแรก
    มุ่งเน้นการควบคุมคุณภาพและประสิทธิภาพโดย Google เอง

    ข้อควรระวังและข้อจำกัด
    การเปลี่ยน GPU อาจทำให้เกิดปัญหาความเข้ากันได้กับแอปบางตัว
    หากปรับจูนไม่ทัน อาจส่งผลต่อประสิทธิภาพของ Pixel รุ่นใหม่
    การพัฒนา GPU ภายในต้องใช้ทรัพยากรและเวลามาก
    ความคาดหวังสูงจากผู้ใช้ Pixel อาจกดดันทีมพัฒนา

    https://wccftech.com/google-tacitly-admits-to-the-need-for-optimizing-the-tensor-g5s-gpu/
    📱 Google ยอมรับกลาย ๆ ว่า GPU ของ Tensor G5 ยังต้องปรับจูน – เตรียมเพิ่มประสิทธิภาพก่อนเปิดตัว Pixel รุ่นใหม่ Google กำลังพัฒนา Tensor G5 ซึ่งเป็นชิปเซ็ตรุ่นใหม่ที่จะใช้ใน Pixel รุ่นถัดไป โดยมีรายงานว่า GPU ที่ใช้ใน Tensor G5 ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ และต้องการการปรับแต่งเพิ่มเติมก่อนจะพร้อมใช้งานจริง แม้ Google จะยังไม่ประกาศอย่างเป็นทางการ แต่ข้อมูลจากเอกสารภายในและการเคลื่อนไหวของทีมพัฒนาเผยว่า GPU ที่ใช้ใน Tensor G5 ซึ่งเป็นสถาปัตยกรรมจากบริษัท Imagination Technologies ยังต้องการการปรับจูนเพื่อให้เหมาะกับการใช้งานบน Android และแอปต่าง ๆ ของ Google โดยเฉพาะด้านการประมวลผลกราฟิกและ AI Tensor G5 ถือเป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ โดยใช้โรงงาน TSMC ในการผลิตด้วยเทคโนโลยี 3nm ซึ่งต่างจาก Tensor รุ่นก่อนที่ร่วมพัฒนากับ Samsung การเปลี่ยนมาใช้ GPU จาก Imagination แทน ARM Mali ก็เป็นการเปลี่ยนแปลงครั้งใหญ่ที่ต้องใช้เวลาในการปรับแต่งให้เข้ากับ ecosystem ของ Google ✅ การพัฒนา Tensor G5 โดย Google ➡️ เป็นชิปที่ Google พัฒนาขึ้นเองเต็มรูปแบบ ➡️ ผลิตโดย TSMC ด้วยเทคโนโลยี 3nm ➡️ ใช้ GPU จาก Imagination Technologies แทน ARM Mali ✅ ความท้าทายด้าน GPU ➡️ GPU ยังไม่สามารถทำงานได้เต็มประสิทธิภาพ ➡️ ต้องการการปรับจูนเพื่อรองรับ Android และแอปของ Google ➡️ ทีมพัฒนากำลังเร่งแก้ไขก่อนเปิดตัว Pixel รุ่นใหม่ ✅ การเปลี่ยนแปลงจาก Tensor รุ่นก่อน ➡️ Tensor G5 ไม่ร่วมพัฒนากับ Samsung เหมือนรุ่นก่อน ➡️ เปลี่ยนสถาปัตยกรรม GPU เป็นครั้งแรก ➡️ มุ่งเน้นการควบคุมคุณภาพและประสิทธิภาพโดย Google เอง ‼️ ข้อควรระวังและข้อจำกัด ⛔ การเปลี่ยน GPU อาจทำให้เกิดปัญหาความเข้ากันได้กับแอปบางตัว ⛔ หากปรับจูนไม่ทัน อาจส่งผลต่อประสิทธิภาพของ Pixel รุ่นใหม่ ⛔ การพัฒนา GPU ภายในต้องใช้ทรัพยากรและเวลามาก ⛔ ความคาดหวังสูงจากผู้ใช้ Pixel อาจกดดันทีมพัฒนา https://wccftech.com/google-tacitly-admits-to-the-need-for-optimizing-the-tensor-g5s-gpu/
    WCCFTECH.COM
    Google Tacitly Admits To The Need For Optimizing The Tensor G5's GPU
    While Google has worked with Imagination to develop the IMG DXT-48-1536 GPU for the Tensor G5, Imagination retains full proprietary control.
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป

    รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference

    หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย

    มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า

    AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx”
    ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก
    อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2

    ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4
    ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้

    มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025
    ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5

    หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป
    เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU

    https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    🧠 “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2 Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า ✅ AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ➡️ ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2 ✅ Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก ➡️ อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2 ✅ ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4 ➡️ ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้ ✅ มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025 ➡️ ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ✅ หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป ➡️ เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    WCCFTECH.COM
    AMD Krackan Point Is Reportedly Coming To AM5; New AGESA BIOS Adds Support For Zen 5 APUs
    A new document leak has shown that AMD's Krackan Point APUs might come to the desktop AM5 platform as well.
    0 ความคิดเห็น 0 การแบ่งปัน 90 มุมมอง 0 รีวิว
  • “Intel เปิดตัว Crescent Island — GPU สำหรับงาน AI inference ที่ใช้ LPDDR5X 160GB เน้นประหยัดพลังงานและต้นทุน” — เมื่อการประมวลผล AI ไม่จำเป็นต้องใช้ HBM หรือระบบระบายความร้อนสุดหรู

    Intel เปิดตัว GPU ใหม่สำหรับดาต้าเซ็นเตอร์ชื่อว่า “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยเน้นความคุ้มค่าและการใช้งานในเซิร์ฟเวอร์ที่ใช้ระบบระบายความร้อนด้วยอากาศ (air-cooled) แทนที่จะใช้ระบบน้ำหรือโครงสร้างพิเศษ

    Crescent Island ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นเวอร์ชันปรับปรุงจาก Xe3 ที่ใช้ในซีพียู Panther Lake และมาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ซึ่งถือว่าแปลกใหม่มากสำหรับ GPU ดาต้าเซ็นเตอร์ เพราะปกติจะใช้ GDDR6 หรือ HBM

    การเลือกใช้ LPDDR5X ช่วยลดต้นทุนและการใช้พลังงาน แต่ก็มีข้อจำกัด เช่น ไม่สามารถทำงานแบบ butterfly mode ได้เหมือน GDDR6/GDDR7 ทำให้ bandwidth อาจต่ำกว่ารุ่นที่ออกแบบมาสำหรับ training โดยตรง

    Intel ระบุว่า Crescent Island จะเริ่มส่งตัวอย่างให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่ชี้ว่า GPU นี้เหมาะกับองค์กรที่ต้องการ inference ที่คุ้มค่าและไม่ต้องการระบบระบายความร้อนซับซ้อน

    Intel เปิดตัว GPU ใหม่ชื่อ Crescent Island สำหรับงาน AI inference
    เน้นความคุ้มค่าและใช้งานในเซิร์ฟเวอร์แบบ air-cooled

    ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นรุ่นปรับปรุงจาก Xe3
    มีความเชื่อมโยงกับซีพียู Panther Lake

    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    เป็นการเลือกที่เน้นต้นทุนต่ำและประหยัดพลังงาน

    LPDDR5X ไม่รองรับ butterfly mode เหมือน GDDR6/GDDR7
    อาจมี bandwidth ต่ำกว่ารุ่นที่เน้น training

    GPU นี้เหมาะกับงาน inference ที่ไม่ต้องการ throughput สูงสุด
    เช่น การรันโมเดลที่ฝึกมาแล้วในระบบที่มีข้อจำกัดด้านพลังงาน

    Crescent Island จะเริ่มส่งตัวอย่างในครึ่งหลังของปี 2026
    ยังไม่มีตัวเลข benchmark อย่างเป็นทางการ

    https://www.techradar.com/pro/yay-intel-has-a-new-ai-gpu-with-160gb-of-lpddr5x-crescent-island-does-inference-only-uses-cheaper-memory-and-targets-value-air-cooled-enterprise-servers
    🧠 “Intel เปิดตัว Crescent Island — GPU สำหรับงาน AI inference ที่ใช้ LPDDR5X 160GB เน้นประหยัดพลังงานและต้นทุน” — เมื่อการประมวลผล AI ไม่จำเป็นต้องใช้ HBM หรือระบบระบายความร้อนสุดหรู Intel เปิดตัว GPU ใหม่สำหรับดาต้าเซ็นเตอร์ชื่อว่า “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยเน้นความคุ้มค่าและการใช้งานในเซิร์ฟเวอร์ที่ใช้ระบบระบายความร้อนด้วยอากาศ (air-cooled) แทนที่จะใช้ระบบน้ำหรือโครงสร้างพิเศษ Crescent Island ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นเวอร์ชันปรับปรุงจาก Xe3 ที่ใช้ในซีพียู Panther Lake และมาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ซึ่งถือว่าแปลกใหม่มากสำหรับ GPU ดาต้าเซ็นเตอร์ เพราะปกติจะใช้ GDDR6 หรือ HBM การเลือกใช้ LPDDR5X ช่วยลดต้นทุนและการใช้พลังงาน แต่ก็มีข้อจำกัด เช่น ไม่สามารถทำงานแบบ butterfly mode ได้เหมือน GDDR6/GDDR7 ทำให้ bandwidth อาจต่ำกว่ารุ่นที่ออกแบบมาสำหรับ training โดยตรง Intel ระบุว่า Crescent Island จะเริ่มส่งตัวอย่างให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่ชี้ว่า GPU นี้เหมาะกับองค์กรที่ต้องการ inference ที่คุ้มค่าและไม่ต้องการระบบระบายความร้อนซับซ้อน ✅ Intel เปิดตัว GPU ใหม่ชื่อ Crescent Island สำหรับงาน AI inference ➡️ เน้นความคุ้มค่าและใช้งานในเซิร์ฟเวอร์แบบ air-cooled ✅ ใช้สถาปัตยกรรม Xe3P ซึ่งเป็นรุ่นปรับปรุงจาก Xe3 ➡️ มีความเชื่อมโยงกับซีพียู Panther Lake ✅ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ เป็นการเลือกที่เน้นต้นทุนต่ำและประหยัดพลังงาน ✅ LPDDR5X ไม่รองรับ butterfly mode เหมือน GDDR6/GDDR7 ➡️ อาจมี bandwidth ต่ำกว่ารุ่นที่เน้น training ✅ GPU นี้เหมาะกับงาน inference ที่ไม่ต้องการ throughput สูงสุด ➡️ เช่น การรันโมเดลที่ฝึกมาแล้วในระบบที่มีข้อจำกัดด้านพลังงาน ✅ Crescent Island จะเริ่มส่งตัวอย่างในครึ่งหลังของปี 2026 ➡️ ยังไม่มีตัวเลข benchmark อย่างเป็นทางการ https://www.techradar.com/pro/yay-intel-has-a-new-ai-gpu-with-160gb-of-lpddr5x-crescent-island-does-inference-only-uses-cheaper-memory-and-targets-value-air-cooled-enterprise-servers
    0 ความคิดเห็น 0 การแบ่งปัน 96 มุมมอง 0 รีวิว
  • “APU แบบ Compute-in-Memory จาก GSI ทำงานเร็วเท่ากับ GPU แต่ใช้พลังงานน้อยกว่า 98%” — เมื่อการประมวลผลแบบใหม่อาจเปลี่ยนเกม AI ทั้งในหุ่นยนต์, IoT และอวกาศ

    GSI Technology ร่วมกับทีมวิจัยจากมหาวิทยาลัย Cornell เผยผลการทดสอบ APU (Associative Processing Unit) รุ่น Gemini-I ซึ่งใช้สถาปัตยกรรม Compute-in-Memory (CIM) ในการประมวลผล AI โดยไม่ต้องแยกหน่วยความจำออกจากหน่วยคำนวณเหมือน CPU หรือ GPU แบบเดิม

    ผลการทดสอบ Retrieval-Augmented Generation (RAG) บนชุดข้อมูลขนาด 10–200 GB พบว่า Gemini-I มีประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU แต่ใช้พลังงานน้อยกว่าถึง 98% และเร็วกว่า CPU ทั่วไปถึง 80% ในงานค้นคืนข้อมูล

    เทคโนโลยีนี้เหมาะกับงานที่ต้องการประสิทธิภาพต่อวัตต์สูง เช่น:

    หุ่นยนต์และโดรนที่ใช้ Edge AI
    อุปกรณ์ IoT ที่มีข้อจำกัดด้านพลังงาน
    ระบบป้องกันประเทศและอวกาศที่ต้องการความเย็นต่ำและความเร็วสูง

    GSI ยังเผยว่า Gemini-II ซึ่งเป็นรุ่นถัดไปจะเร็วขึ้นอีก 10 เท่า และ Plato ซึ่งอยู่ในขั้นพัฒนา จะเน้นงาน embedded edge ที่ใช้พลังงานต่ำแต่ต้องการความสามารถสูง

    Gemini-I APU จาก GSI ใช้สถาปัตยกรรม Compute-in-Memory
    รวมหน่วยความจำและประมวลผลไว้ในชิปเดียว

    ประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU ในงาน RAG
    แต่ใช้พลังงานน้อยกว่าถึง 98%

    เร็วกว่า CPU ทั่วไปถึง 80% ในงาน retrieval
    เหมาะกับงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน

    Gemini-II จะเร็วขึ้นอีก 10 เท่าและลด latency
    เหมาะกับงาน memory-intensive

    Plato จะเน้น embedded edge AI ที่ใช้พลังงานต่ำ
    เช่น หุ่นยนต์, IoT, อุปกรณ์พกพา

    งานวิจัยตีพิมพ์ใน ACM และนำเสนอที่งาน Micro '25
    เป็นการประเมินเชิงลึกครั้งแรกของอุปกรณ์ CIM เชิงพาณิชย์

    https://www.techpowerup.com/342054/compute-in-memory-apu-achieves-gpu-class-ai-performance-at-a-fraction-of-the-energy-cost
    ⚡ “APU แบบ Compute-in-Memory จาก GSI ทำงานเร็วเท่ากับ GPU แต่ใช้พลังงานน้อยกว่า 98%” — เมื่อการประมวลผลแบบใหม่อาจเปลี่ยนเกม AI ทั้งในหุ่นยนต์, IoT และอวกาศ GSI Technology ร่วมกับทีมวิจัยจากมหาวิทยาลัย Cornell เผยผลการทดสอบ APU (Associative Processing Unit) รุ่น Gemini-I ซึ่งใช้สถาปัตยกรรม Compute-in-Memory (CIM) ในการประมวลผล AI โดยไม่ต้องแยกหน่วยความจำออกจากหน่วยคำนวณเหมือน CPU หรือ GPU แบบเดิม ผลการทดสอบ Retrieval-Augmented Generation (RAG) บนชุดข้อมูลขนาด 10–200 GB พบว่า Gemini-I มีประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU แต่ใช้พลังงานน้อยกว่าถึง 98% และเร็วกว่า CPU ทั่วไปถึง 80% ในงานค้นคืนข้อมูล เทคโนโลยีนี้เหมาะกับงานที่ต้องการประสิทธิภาพต่อวัตต์สูง เช่น: 🔋 หุ่นยนต์และโดรนที่ใช้ Edge AI 🔋 อุปกรณ์ IoT ที่มีข้อจำกัดด้านพลังงาน 🔋 ระบบป้องกันประเทศและอวกาศที่ต้องการความเย็นต่ำและความเร็วสูง GSI ยังเผยว่า Gemini-II ซึ่งเป็นรุ่นถัดไปจะเร็วขึ้นอีก 10 เท่า และ Plato ซึ่งอยู่ในขั้นพัฒนา จะเน้นงาน embedded edge ที่ใช้พลังงานต่ำแต่ต้องการความสามารถสูง ✅ Gemini-I APU จาก GSI ใช้สถาปัตยกรรม Compute-in-Memory ➡️ รวมหน่วยความจำและประมวลผลไว้ในชิปเดียว ✅ ประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU ในงาน RAG ➡️ แต่ใช้พลังงานน้อยกว่าถึง 98% ✅ เร็วกว่า CPU ทั่วไปถึง 80% ในงาน retrieval ➡️ เหมาะกับงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน ✅ Gemini-II จะเร็วขึ้นอีก 10 เท่าและลด latency ➡️ เหมาะกับงาน memory-intensive ✅ Plato จะเน้น embedded edge AI ที่ใช้พลังงานต่ำ ➡️ เช่น หุ่นยนต์, IoT, อุปกรณ์พกพา ✅ งานวิจัยตีพิมพ์ใน ACM และนำเสนอที่งาน Micro '25 ➡️ เป็นการประเมินเชิงลึกครั้งแรกของอุปกรณ์ CIM เชิงพาณิชย์ https://www.techpowerup.com/342054/compute-in-memory-apu-achieves-gpu-class-ai-performance-at-a-fraction-of-the-energy-cost
    WWW.TECHPOWERUP.COM
    Compute-In-Memory APU Achieves GPU-Class AI Performance at a Fraction of the Energy Cost
    GSI Technology, Inc. (Nasdaq: GSIT), the inventor of the Associative Processing Unit (APU), a paradigm shift in artificial intelligence (AI) and high-performance compute (HPC) processing providing true compute-in-memory technology, announced the publication of a paper led by researchers at Cornell U...
    0 ความคิดเห็น 0 การแบ่งปัน 103 มุมมอง 0 รีวิว
  • "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4"

    Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป

    Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด

    ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages

    นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple

    ความคืบหน้าของ Siri ใหม่ใน iOS 26.4
    ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด
    เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness
    คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026

    ความกังวลจากวิศวกร Apple
    ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร
    การใช้งานข้ามแอปยังไม่ราบรื่น
    มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้

    คำเตือนจากการเปลี่ยนสถาปัตยกรรม
    V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร
    หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple
    การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน

    ฟีเจอร์ที่น่าสนใจของ Siri ใหม่
    สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ
    ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ
    อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT

    สาระเพิ่มเติมจากภายนอก:
    ความท้าทายของการพัฒนา AI ผู้ช่วย
    ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล
    การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว

    การแข่งขันในตลาดผู้ช่วย AI
    Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว
    Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง

    https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    🗣️ "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4" Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple ✅ ความคืบหน้าของ Siri ใหม่ใน iOS 26.4 ➡️ ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด ➡️ เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness ➡️ คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026 ✅ ความกังวลจากวิศวกร Apple ➡️ ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร ➡️ การใช้งานข้ามแอปยังไม่ราบรื่น ➡️ มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้ ‼️ คำเตือนจากการเปลี่ยนสถาปัตยกรรม ⛔ V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร ⛔ หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple ⛔ การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน ✅ ฟีเจอร์ที่น่าสนใจของ Siri ใหม่ ➡️ สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ ➡️ ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ ➡️ อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความท้าทายของการพัฒนา AI ผู้ช่วย ➡️ ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล ➡️ การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว ✅ การแข่งขันในตลาดผู้ช่วย AI ➡️ Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว ➡️ Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    WCCFTECH.COM
    Some Apple Engineers Voice Concerns About The Performance Of The New AI-Powered Siri In Early Builds Of iOS 26.4
    Today's report offers a possible motive for the sudden departure of Ke Yang, the head of Apple's AKI team, who has now been poached by Meta.
    0 ความคิดเห็น 0 การแบ่งปัน 194 มุมมอง 0 รีวิว
  • "Intel i386 ครบรอบ 40 ปี: จุดเปลี่ยนของโลกคอมพิวเตอร์ที่ยังส่งผลถึงทุกวันนี้"

    ย้อนกลับไปในเดือนตุลาคมปี 1985 Intel ได้เปิดตัวชิป i386 หรือที่รู้จักกันในชื่อ 80386 ซึ่งเป็นโปรเซสเซอร์ x86 รุ่นที่สาม และเป็นชิป 32 บิตตัวแรกในสายผลิตภัณฑ์ของ Intel จุดเริ่มต้นของชุดคำสั่ง IA-32 ที่กลายเป็นรากฐานของระบบปฏิบัติการ Windows และ Linux มานานหลายทศวรรษ

    i386 มีทรานซิสเตอร์ถึง 275,000 ตัว และทำงานที่ความเร็วสูงสุด 16 MHz ซึ่งถือว่าเร็วมากในยุคนั้น แต่สิ่งที่เปลี่ยนโลกจริง ๆ คือการรองรับ protected mode, virtual 8086 mode และ hardware paging ซึ่งเปิดทางให้ระบบ multitasking และ virtual memory บน x86 เป็นไปได้จริง

    Compaq เป็นบริษัทแรกที่นำ i386 มาใช้ในเครื่อง Deskpro i386 โดยเอาชนะ IBM ที่ปฏิเสธชิปนี้ไปก่อนหน้า ทำให้ Compaq กลายเป็นผู้นำตลาด PC ในช่วงเวลานั้น

    Linux เองก็ถือกำเนิดบน i386 โดย Linus Torvalds พัฒนา kernel แรกให้ทำงานบนฮาร์ดแวร์ 386-AT โดยเฉพาะ ก่อนจะยุติการรองรับในปี 2012 หลังจากใช้งานมานานกว่า 20 ปี

    แม้ i386 จะถูกแทนที่ด้วย i486 และรุ่นใหม่ ๆ แต่สถาปัตยกรรม IA-32 ที่มันวางรากฐานไว้ยังคงปรากฏอยู่ใน emulator, VM และระบบ legacy จนถึงทุกวันนี้

    จุดเด่นของ Intel i386
    เปิดตัวในปี 1985 เป็นชิป 32 บิตตัวแรกของ Intel
    มี 275,000 ทรานซิสเตอร์ ทำงานที่ 16 MHz
    รองรับ protected mode, virtual 8086 และ paging

    ผลกระทบต่อระบบปฏิบัติการ
    Windows 3.0 ใช้ฟีเจอร์ “386 Enhanced Mode” เพื่อรันหลาย DOS session พร้อมกัน
    Linux kernel รุ่นแรกพัฒนาสำหรับ i386 โดยเฉพาะ

    การนำไปใช้งานเชิงพาณิชย์
    Compaq เปิดตัว Deskpro i386 ก่อน IBM ถึง 1 ปี
    ราคาเริ่มต้นที่ $6,499 ถือเป็นจุดเปลี่ยนของตลาด PC

    มรดกของ i386
    IA-32 กลายเป็นพื้นฐานของ Windows และ Linux จนถึงยุค 2010s
    ยังปรากฏใน emulator, VM และระบบ legacy
    Intel ยุติการผลิตชิป i386 ในปี 2007
    🎇 "Intel i386 ครบรอบ 40 ปี: จุดเปลี่ยนของโลกคอมพิวเตอร์ที่ยังส่งผลถึงทุกวันนี้" ย้อนกลับไปในเดือนตุลาคมปี 1985 Intel ได้เปิดตัวชิป i386 หรือที่รู้จักกันในชื่อ 80386 ซึ่งเป็นโปรเซสเซอร์ x86 รุ่นที่สาม และเป็นชิป 32 บิตตัวแรกในสายผลิตภัณฑ์ของ Intel จุดเริ่มต้นของชุดคำสั่ง IA-32 ที่กลายเป็นรากฐานของระบบปฏิบัติการ Windows และ Linux มานานหลายทศวรรษ i386 มีทรานซิสเตอร์ถึง 275,000 ตัว และทำงานที่ความเร็วสูงสุด 16 MHz ซึ่งถือว่าเร็วมากในยุคนั้น แต่สิ่งที่เปลี่ยนโลกจริง ๆ คือการรองรับ protected mode, virtual 8086 mode และ hardware paging ซึ่งเปิดทางให้ระบบ multitasking และ virtual memory บน x86 เป็นไปได้จริง Compaq เป็นบริษัทแรกที่นำ i386 มาใช้ในเครื่อง Deskpro i386 โดยเอาชนะ IBM ที่ปฏิเสธชิปนี้ไปก่อนหน้า ทำให้ Compaq กลายเป็นผู้นำตลาด PC ในช่วงเวลานั้น Linux เองก็ถือกำเนิดบน i386 โดย Linus Torvalds พัฒนา kernel แรกให้ทำงานบนฮาร์ดแวร์ 386-AT โดยเฉพาะ ก่อนจะยุติการรองรับในปี 2012 หลังจากใช้งานมานานกว่า 20 ปี แม้ i386 จะถูกแทนที่ด้วย i486 และรุ่นใหม่ ๆ แต่สถาปัตยกรรม IA-32 ที่มันวางรากฐานไว้ยังคงปรากฏอยู่ใน emulator, VM และระบบ legacy จนถึงทุกวันนี้ ✅ จุดเด่นของ Intel i386 ➡️ เปิดตัวในปี 1985 เป็นชิป 32 บิตตัวแรกของ Intel ➡️ มี 275,000 ทรานซิสเตอร์ ทำงานที่ 16 MHz ➡️ รองรับ protected mode, virtual 8086 และ paging ✅ ผลกระทบต่อระบบปฏิบัติการ ➡️ Windows 3.0 ใช้ฟีเจอร์ “386 Enhanced Mode” เพื่อรันหลาย DOS session พร้อมกัน ➡️ Linux kernel รุ่นแรกพัฒนาสำหรับ i386 โดยเฉพาะ ✅ การนำไปใช้งานเชิงพาณิชย์ ➡️ Compaq เปิดตัว Deskpro i386 ก่อน IBM ถึง 1 ปี ➡️ ราคาเริ่มต้นที่ $6,499 ถือเป็นจุดเปลี่ยนของตลาด PC ✅ มรดกของ i386 ➡️ IA-32 กลายเป็นพื้นฐานของ Windows และ Linux จนถึงยุค 2010s ➡️ ยังปรากฏใน emulator, VM และระบบ legacy ➡️ Intel ยุติการผลิตชิป i386 ในปี 2007
    0 ความคิดเห็น 0 การแบ่งปัน 95 มุมมอง 0 รีวิว
  • “PeaZip 10.7 เพิ่มฟีเจอร์ดูภาพในไฟล์ — ครบเครื่องทั้งบีบอัดและพรีวิว”

    PeaZip 10.7 เวอร์ชันล่าสุดของโปรแกรมจัดการไฟล์แบบโอเพ่นซอร์ส ได้เปิดตัวพร้อมฟีเจอร์ใหม่ที่น่าสนใจ: ตัวดูภาพ (image viewer) ที่สามารถพรีวิวภาพภายในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์ออกมาก่อน

    ฟีเจอร์ใหม่นี้อยู่ในเมนู “File manager > View images” และรองรับการซูม, โหมด immersive, การเปลี่ยนชื่อ, ลบไฟล์ และการนำทางภาพแบบพื้นฐาน นอกจากนี้ยังสามารถแสดง thumbnail ของภาพในตัวจัดการไฟล์ได้ทุกแพลตฟอร์ม

    PeaZip 10.7 ยังปรับปรุงการทำงานร่วมกับ ClamAV (แอนตี้ไวรัสโอเพ่นซอร์ส), เพิ่มการพรีวิวไฟล์ในฟอร์แมต Zpaq, และปรับปรุงการเรียกดูไฟล์ .pkg รวมถึงเพิ่มตัวเลือก “Quick Look” บน macOS

    ฟีเจอร์อื่น ๆ ที่น่าสนใจ ได้แก่:

    การสำรวจ path ของไฟล์พรีวิวผ่านเบราว์เซอร์ของระบบ
    การพรีวิวข้อความพร้อมฟีเจอร์ค้นหา, นับจำนวนคำ/บรรทัด/ตัวอักษร, เปลี่ยน encoding และ word wrap
    ปรับปรุงธีม “Line custom”
    เพิ่มตัวเลือกให้เก็บไฟล์ไว้แม้การแตกไฟล์ล้มเหลว (เฉพาะ backend Zstd)
    ปรับปรุงการรายงานระดับการบีบอัดของ Brotli และ Zpaq
    ปรับปรุงการตั้งชื่อหน่วยและรายการต่าง ๆ
    ปรับปรุงเมนู “Functions” ให้เรียงตามตัวอักษรและใช้งานง่ายขึ้น
    อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรม non-x86/x86_64

    PeaZip 10.7 พร้อมให้ดาวน์โหลดทั้งเวอร์ชัน GTK และ Qt รวมถึง Flatpak ผ่าน Flathub

    PeaZip 10.7 เพิ่มฟีเจอร์ image viewer
    ดูภาพและพรีวิวภาพในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์

    รองรับการแสดง thumbnail ใน file manager ทุกแพลตฟอร์ม
    ช่วยให้ดูภาพในไฟล์บีบอัดได้สะดวกขึ้น

    ปรับปรุงการทำงานร่วมกับ ClamAV
    เพิ่มความปลอดภัยในการจัดการไฟล์

    รองรับการพรีวิวไฟล์ Zpaq และ .pkg
    ขยายความสามารถในการจัดการฟอร์แมตเฉพาะ

    เพิ่ม Quick Look บน macOS และปรับปรุง Text preview
    รองรับการค้นหา, นับคำ, เปลี่ยน encoding ฯลฯ

    ปรับปรุงเมนู Functions และธีม Line custom
    ใช้งานง่ายและดูสบายตายิ่งขึ้น

    เพิ่มตัวเลือกเก็บไฟล์แม้แตกไฟล์ล้มเหลว (Zstd)
    ป้องกันการสูญหายของข้อมูล

    อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรมหลากหลาย
    เพิ่มความเข้ากันได้กับระบบที่ไม่ใช่ x86

    https://9to5linux.com/peazip-10-7-open-source-archive-manager-introduces-an-image-viewer
    🗂️ “PeaZip 10.7 เพิ่มฟีเจอร์ดูภาพในไฟล์ — ครบเครื่องทั้งบีบอัดและพรีวิว” PeaZip 10.7 เวอร์ชันล่าสุดของโปรแกรมจัดการไฟล์แบบโอเพ่นซอร์ส ได้เปิดตัวพร้อมฟีเจอร์ใหม่ที่น่าสนใจ: ตัวดูภาพ (image viewer) ที่สามารถพรีวิวภาพภายในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์ออกมาก่อน ฟีเจอร์ใหม่นี้อยู่ในเมนู “File manager > View images” และรองรับการซูม, โหมด immersive, การเปลี่ยนชื่อ, ลบไฟล์ และการนำทางภาพแบบพื้นฐาน นอกจากนี้ยังสามารถแสดง thumbnail ของภาพในตัวจัดการไฟล์ได้ทุกแพลตฟอร์ม PeaZip 10.7 ยังปรับปรุงการทำงานร่วมกับ ClamAV (แอนตี้ไวรัสโอเพ่นซอร์ส), เพิ่มการพรีวิวไฟล์ในฟอร์แมต Zpaq, และปรับปรุงการเรียกดูไฟล์ .pkg รวมถึงเพิ่มตัวเลือก “Quick Look” บน macOS ฟีเจอร์อื่น ๆ ที่น่าสนใจ ได้แก่: 🛄 การสำรวจ path ของไฟล์พรีวิวผ่านเบราว์เซอร์ของระบบ 🛄 การพรีวิวข้อความพร้อมฟีเจอร์ค้นหา, นับจำนวนคำ/บรรทัด/ตัวอักษร, เปลี่ยน encoding และ word wrap 🛄 ปรับปรุงธีม “Line custom” 🛄 เพิ่มตัวเลือกให้เก็บไฟล์ไว้แม้การแตกไฟล์ล้มเหลว (เฉพาะ backend Zstd) 🛄 ปรับปรุงการรายงานระดับการบีบอัดของ Brotli และ Zpaq 🛄 ปรับปรุงการตั้งชื่อหน่วยและรายการต่าง ๆ 🛄 ปรับปรุงเมนู “Functions” ให้เรียงตามตัวอักษรและใช้งานง่ายขึ้น 🛄 อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรม non-x86/x86_64 PeaZip 10.7 พร้อมให้ดาวน์โหลดทั้งเวอร์ชัน GTK และ Qt รวมถึง Flatpak ผ่าน Flathub ✅ PeaZip 10.7 เพิ่มฟีเจอร์ image viewer ➡️ ดูภาพและพรีวิวภาพในไฟล์บีบอัดได้โดยไม่ต้องแตกไฟล์ ✅ รองรับการแสดง thumbnail ใน file manager ทุกแพลตฟอร์ม ➡️ ช่วยให้ดูภาพในไฟล์บีบอัดได้สะดวกขึ้น ✅ ปรับปรุงการทำงานร่วมกับ ClamAV ➡️ เพิ่มความปลอดภัยในการจัดการไฟล์ ✅ รองรับการพรีวิวไฟล์ Zpaq และ .pkg ➡️ ขยายความสามารถในการจัดการฟอร์แมตเฉพาะ ✅ เพิ่ม Quick Look บน macOS และปรับปรุง Text preview ➡️ รองรับการค้นหา, นับคำ, เปลี่ยน encoding ฯลฯ ✅ ปรับปรุงเมนู Functions และธีม Line custom ➡️ ใช้งานง่ายและดูสบายตายิ่งขึ้น ✅ เพิ่มตัวเลือกเก็บไฟล์แม้แตกไฟล์ล้มเหลว (Zstd) ➡️ ป้องกันการสูญหายของข้อมูล ✅ อัปเดตไลบรารี crypto/hash ให้รองรับสถาปัตยกรรมหลากหลาย ➡️ เพิ่มความเข้ากันได้กับระบบที่ไม่ใช่ x86 https://9to5linux.com/peazip-10-7-open-source-archive-manager-introduces-an-image-viewer
    9TO5LINUX.COM
    PeaZip 10.7 Open-Source Archive Manager Introduces an Image Viewer - 9to5Linux
    PeaZip 10.7 open-source archive manager is now available for download with a new image viewer component and various improvements.
    0 ความคิดเห็น 0 การแบ่งปัน 157 มุมมอง 0 รีวิว
  • “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ

    ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน

    Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7

    Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด

    Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10
    วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน

    ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน
    ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4)

    มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB
    รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก.
    พกพาสะดวกแต่ทรงพลัง

    พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet
    รองรับการใช้งานระดับมืออาชีพ

    รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7
    ขยายการประมวลผลแบบ local ได้

    https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    🖥️ “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด ✅ Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10 ➡️ วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน ✅ ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน ➡️ ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4) ✅ มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB ➡️ รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ ✅ ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก. ➡️ พกพาสะดวกแต่ทรงพลัง ✅ พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet ➡️ รองรับการใช้งานระดับมืออาชีพ ✅ รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 ➡️ ขยายการประมวลผลแบบ local ได้ https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่

    Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า

    HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD

    นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin

    Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ

    ข้อมูลในข่าว
    Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s
    ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack
    เร็วกว่า HBM3E ถึง 2.5 เท่า
    ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า
    ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง
    ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin
    HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps
    เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026
    Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี
    คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง

    https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    🚀 “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่ Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ ✅ ข้อมูลในข่าว ➡️ Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s ➡️ ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack ➡️ เร็วกว่า HBM3E ถึง 2.5 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า ➡️ ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง ➡️ ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin ➡️ HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps ➡️ เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ➡️ Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี ➡️ คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    WCCFTECH.COM
    Samsung’s HBM4E Set to Deliver 3.25 TB/s Bandwidth; Nearly 2.5× Faster Than HBM3E, Driving AI Computing to New Levels
    Samsung has become one of the first HBM manufacturers to announce progress on HBM4E at the OCP, showcasing significant upgrades.
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • “Synaptics เปิดตัว Astra SL2600” — โปรเซสเซอร์ Edge AI ยุคใหม่ที่รวมพลังมัลติโหมดและ RISC-V เพื่อโลก IoT อัจฉริยะ

    Synaptics ประกาศเปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่ที่ออกแบบมาเพื่อรองรับอุปกรณ์อัจฉริยะในยุค Internet of Things (IoT) โดยเน้นการประมวลผลแบบมัลติโหมด (multimodal) ที่รวมภาพ เสียง เซ็นเซอร์ และข้อมูลเครือข่ายไว้ในชิปเดียว

    ชิป SL2610 ซึ่งเป็นรุ่นแรกในซีรีส์นี้ ใช้แพลตฟอร์ม Torq Edge AI ที่รวมสถาปัตยกรรม NPU แบบ RISC-V จาก Coral ของ Google พร้อมคอมไพเลอร์แบบ open-source (IREE/MLIR) เพื่อให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้อย่างยืดหยุ่นและมีประสิทธิภาพ

    SL2610 ยังรวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU เพื่อรองรับงานประมวลผลทั่วไปและกราฟิก พร้อมระบบความปลอดภัยในตัว เช่น root of trust, threat detection และ crypto coprocessor สำหรับงาน AI ที่ต้องการความปลอดภัยสูง

    ซีรีส์นี้มีทั้งหมด 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617 และ SL2619 ซึ่งออกแบบให้ pin-to-pin compatible เพื่อให้ง่ายต่อการเปลี่ยนรุ่นตามความต้องการของอุปกรณ์ ตั้งแต่แบบใช้แบตเตอรี่ไปจนถึงระบบวิชั่นอุตสาหกรรม

    ชิปยังรองรับการเชื่อมต่อผ่าน Synaptics Veros Connectivity เช่น Wi-Fi 6/6E/7, Bluetooth/BLE, Thread และ UWB เพื่อให้การพัฒนาอุปกรณ์ IoT เป็นไปอย่างรวดเร็วและครบวงจร

    Synaptics ได้รับความร่วมมือจากพันธมิตรระดับโลก เช่น Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm ซึ่งต่างยืนยันถึงความสามารถของ Astra SL2600 ในการผลักดันนวัตกรรม Edge AI

    ข้อมูลในข่าว
    Synaptics เปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่
    SL2610 ใช้แพลตฟอร์ม Torq Edge AI ที่รวม Coral NPU จาก Google
    ใช้คอมไพเลอร์ open-source IREE/MLIR เพื่อความยืดหยุ่นในการพัฒนา
    รวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU
    มีระบบความปลอดภัยในตัว เช่น root of trust และ crypto coprocessor
    มี 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617, SL2619 ที่ pin-to-pin compatible
    รองรับการเชื่อมต่อผ่าน Veros Connectivity: Wi-Fi 6/6E/7, BT/BLE, Thread, UWB
    เหมาะสำหรับอุปกรณ์ IoT เช่น เครื่องใช้ไฟฟ้า, ระบบอัตโนมัติ, UAV, เกม, POS, หุ่นยนต์
    ได้รับความร่วมมือจาก Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm
    ชิปเริ่มส่งตัวอย่างให้ลูกค้าแล้ว และจะวางจำหน่ายทั่วไปในไตรมาส 2 ปี 2026

    https://www.techpowerup.com/341933/synaptics-launches-the-next-generation-of-astra-multimodal-genai-edge-processors
    🧠 “Synaptics เปิดตัว Astra SL2600” — โปรเซสเซอร์ Edge AI ยุคใหม่ที่รวมพลังมัลติโหมดและ RISC-V เพื่อโลก IoT อัจฉริยะ Synaptics ประกาศเปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่ที่ออกแบบมาเพื่อรองรับอุปกรณ์อัจฉริยะในยุค Internet of Things (IoT) โดยเน้นการประมวลผลแบบมัลติโหมด (multimodal) ที่รวมภาพ เสียง เซ็นเซอร์ และข้อมูลเครือข่ายไว้ในชิปเดียว ชิป SL2610 ซึ่งเป็นรุ่นแรกในซีรีส์นี้ ใช้แพลตฟอร์ม Torq Edge AI ที่รวมสถาปัตยกรรม NPU แบบ RISC-V จาก Coral ของ Google พร้อมคอมไพเลอร์แบบ open-source (IREE/MLIR) เพื่อให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้อย่างยืดหยุ่นและมีประสิทธิภาพ SL2610 ยังรวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU เพื่อรองรับงานประมวลผลทั่วไปและกราฟิก พร้อมระบบความปลอดภัยในตัว เช่น root of trust, threat detection และ crypto coprocessor สำหรับงาน AI ที่ต้องการความปลอดภัยสูง ซีรีส์นี้มีทั้งหมด 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617 และ SL2619 ซึ่งออกแบบให้ pin-to-pin compatible เพื่อให้ง่ายต่อการเปลี่ยนรุ่นตามความต้องการของอุปกรณ์ ตั้งแต่แบบใช้แบตเตอรี่ไปจนถึงระบบวิชั่นอุตสาหกรรม ชิปยังรองรับการเชื่อมต่อผ่าน Synaptics Veros Connectivity เช่น Wi-Fi 6/6E/7, Bluetooth/BLE, Thread และ UWB เพื่อให้การพัฒนาอุปกรณ์ IoT เป็นไปอย่างรวดเร็วและครบวงจร Synaptics ได้รับความร่วมมือจากพันธมิตรระดับโลก เช่น Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm ซึ่งต่างยืนยันถึงความสามารถของ Astra SL2600 ในการผลักดันนวัตกรรม Edge AI ✅ ข้อมูลในข่าว ➡️ Synaptics เปิดตัว Astra SL2600 Series โปรเซสเซอร์ Edge AI รุ่นใหม่ ➡️ SL2610 ใช้แพลตฟอร์ม Torq Edge AI ที่รวม Coral NPU จาก Google ➡️ ใช้คอมไพเลอร์ open-source IREE/MLIR เพื่อความยืดหยุ่นในการพัฒนา ➡️ รวม Arm Cortex-A55, Cortex-M52 พร้อม Helium และ Mali GPU ➡️ มีระบบความปลอดภัยในตัว เช่น root of trust และ crypto coprocessor ➡️ มี 5 รุ่นย่อย: SL2611, SL2613, SL2615, SL2617, SL2619 ที่ pin-to-pin compatible ➡️ รองรับการเชื่อมต่อผ่าน Veros Connectivity: Wi-Fi 6/6E/7, BT/BLE, Thread, UWB ➡️ เหมาะสำหรับอุปกรณ์ IoT เช่น เครื่องใช้ไฟฟ้า, ระบบอัตโนมัติ, UAV, เกม, POS, หุ่นยนต์ ➡️ ได้รับความร่วมมือจาก Google, Cisco, Sonos, Garmin, Deutsche Telekom และ Arm ➡️ ชิปเริ่มส่งตัวอย่างให้ลูกค้าแล้ว และจะวางจำหน่ายทั่วไปในไตรมาส 2 ปี 2026 https://www.techpowerup.com/341933/synaptics-launches-the-next-generation-of-astra-multimodal-genai-edge-processors
    WWW.TECHPOWERUP.COM
    Synaptics Launches the Next Generation of Astra Multimodal GenAI Edge Processors
    Synaptics Incorporated (Nasdaq: SYNA), announces the new Astra SL2600 Series of multimodal Edge AI processors designed to deliver exceptional power and performance. The Astra SL2600 series enables a new generation of cost-effective intelligent devices that make the cognitive Internet of Things (IoT)...
    0 ความคิดเห็น 0 การแบ่งปัน 164 มุมมอง 0 รีวิว
  • “MIPS I8500: โปรเซสเซอร์ยุคใหม่เพื่อขับเคลื่อน Physical AI” — สถาปัตยกรรม RISC-V ที่ออกแบบมาเพื่อการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ

    บริษัท MIPS ซึ่งเป็นบริษัทในเครือของ GlobalFoundries ได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า MIPS I8500 โดยเน้นการจัดการข้อมูลแบบเรียลไทม์สำหรับแพลตฟอร์มที่ต้องการการตอบสนองทันที เช่น ระบบ AI ที่ทำงานนอกศูนย์ข้อมูล (Physical AI), โครงสร้างพื้นฐานด้านการสื่อสาร, อุตสาหกรรม, ยานยนต์ และระบบจัดเก็บข้อมูล

    I8500 ถูกออกแบบบนสถาปัตยกรรม RISC-V และมีความสามารถในการประมวลผลแบบ multithread สูงถึง 24 threads ต่อ cluster โดยมี 4 threads ต่อ core และรองรับการทำงานแบบ multi-cluster เพื่อเพิ่มความยืดหยุ่นในการใช้งาน

    จุดเด่นของ I8500 คือการเคลื่อนย้ายข้อมูลแบบ deterministic (กำหนดได้แน่นอน) และมี latency ต่ำมาก พร้อมระบบความปลอดภัยในตัว เหมาะสำหรับการจัดการ packet flows ระหว่าง accelerator ต่าง ๆ และการสื่อสารระหว่างมนุษย์กับระบบคอมพิวเตอร์

    โปรเซสเซอร์นี้ยังรองรับระบบปฏิบัติการ Linux และ Real-Time OS พร้อมความสามารถในการทำงานร่วมกับโปรไฟล์ RVA23 ซึ่งช่วยให้พัฒนาแอปพลิเคชันได้ง่ายขึ้นในระบบนิเวศของ RISC-V

    Steven Dickens จาก HyperFRAME Research กล่าวว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven ที่ตอบโจทย์ตลาดใหม่ เช่น ยานยนต์อัตโนมัติและระบบควบคุมอุตสาหกรรม

    ข้อมูลในข่าว
    MIPS เปิดตัวโปรเซสเซอร์ I8500 สำหรับงาน Physical AI และการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ
    ใช้สถาปัตยกรรม RISC-V พร้อม multithread สูงสุด 24 threads ต่อ cluster
    รองรับ multi-cluster deployments เพื่อเพิ่มความยืดหยุ่นในการใช้งาน
    มี latency ต่ำและ deterministic data movement พร้อมระบบความปลอดภัยในตัว
    เหมาะสำหรับงานในศูนย์ข้อมูล, ยานยนต์, อุตสาหกรรม และระบบสื่อสาร
    รองรับ Linux และ Real-Time OS พร้อมโปรไฟล์ RVA23
    ช่วยให้การพัฒนาแอปพลิเคชันในระบบ RISC-V เป็นไปอย่างราบรื่น
    Steven Dickens ระบุว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven
    มี Atlas Explorer Core Model สำหรับการทดสอบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์
    เตรียมเปิดตัวในงาน RISC-V Summit North America วันที่ 22–23 ตุลาคม

    https://www.techpowerup.com/341911/mips-i8500-processor-orchestrates-data-movement-for-the-ai-era
    ⚙️ “MIPS I8500: โปรเซสเซอร์ยุคใหม่เพื่อขับเคลื่อน Physical AI” — สถาปัตยกรรม RISC-V ที่ออกแบบมาเพื่อการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ บริษัท MIPS ซึ่งเป็นบริษัทในเครือของ GlobalFoundries ได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า MIPS I8500 โดยเน้นการจัดการข้อมูลแบบเรียลไทม์สำหรับแพลตฟอร์มที่ต้องการการตอบสนองทันที เช่น ระบบ AI ที่ทำงานนอกศูนย์ข้อมูล (Physical AI), โครงสร้างพื้นฐานด้านการสื่อสาร, อุตสาหกรรม, ยานยนต์ และระบบจัดเก็บข้อมูล I8500 ถูกออกแบบบนสถาปัตยกรรม RISC-V และมีความสามารถในการประมวลผลแบบ multithread สูงถึง 24 threads ต่อ cluster โดยมี 4 threads ต่อ core และรองรับการทำงานแบบ multi-cluster เพื่อเพิ่มความยืดหยุ่นในการใช้งาน จุดเด่นของ I8500 คือการเคลื่อนย้ายข้อมูลแบบ deterministic (กำหนดได้แน่นอน) และมี latency ต่ำมาก พร้อมระบบความปลอดภัยในตัว เหมาะสำหรับการจัดการ packet flows ระหว่าง accelerator ต่าง ๆ และการสื่อสารระหว่างมนุษย์กับระบบคอมพิวเตอร์ โปรเซสเซอร์นี้ยังรองรับระบบปฏิบัติการ Linux และ Real-Time OS พร้อมความสามารถในการทำงานร่วมกับโปรไฟล์ RVA23 ซึ่งช่วยให้พัฒนาแอปพลิเคชันได้ง่ายขึ้นในระบบนิเวศของ RISC-V Steven Dickens จาก HyperFRAME Research กล่าวว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven ที่ตอบโจทย์ตลาดใหม่ เช่น ยานยนต์อัตโนมัติและระบบควบคุมอุตสาหกรรม ✅ ข้อมูลในข่าว ➡️ MIPS เปิดตัวโปรเซสเซอร์ I8500 สำหรับงาน Physical AI และการเคลื่อนย้ายข้อมูลแบบอัจฉริยะ ➡️ ใช้สถาปัตยกรรม RISC-V พร้อม multithread สูงสุด 24 threads ต่อ cluster ➡️ รองรับ multi-cluster deployments เพื่อเพิ่มความยืดหยุ่นในการใช้งาน ➡️ มี latency ต่ำและ deterministic data movement พร้อมระบบความปลอดภัยในตัว ➡️ เหมาะสำหรับงานในศูนย์ข้อมูล, ยานยนต์, อุตสาหกรรม และระบบสื่อสาร ➡️ รองรับ Linux และ Real-Time OS พร้อมโปรไฟล์ RVA23 ➡️ ช่วยให้การพัฒนาแอปพลิเคชันในระบบ RISC-V เป็นไปอย่างราบรื่น ➡️ Steven Dickens ระบุว่า I8500 เป็นก้าวสำคัญของการประมวลผลแบบ event-driven ➡️ มี Atlas Explorer Core Model สำหรับการทดสอบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ ➡️ เตรียมเปิดตัวในงาน RISC-V Summit North America วันที่ 22–23 ตุลาคม https://www.techpowerup.com/341911/mips-i8500-processor-orchestrates-data-movement-for-the-ai-era
    WWW.TECHPOWERUP.COM
    MIPS I8500 Processor Orchestrates Data Movement for the AI Era
    MIPS, a GlobalFoundries company, announced today the MIPS I8500 processor is now sampling to lead customers. Featured at GlobalFoundries' Technology Summit in Munich, Germany today, the I8500 represents a class of intelligent data movement processor IP designed for real-time, event-driven computing ...
    0 ความคิดเห็น 0 การแบ่งปัน 160 มุมมอง 0 รีวิว
  • 🛳 Jakarta Cruise Port ท่าเรือสำราญที่ใหญ่ที่สุดในอินโดนีเซีย ตั้งอยู่ในเขต North Jakarta ซึ่งเป็นศูนย์กลางการขนส่งสินค้าทางทะเลที่สำคัญของประเทศ ท่าเรือแห่งนี้มีความสามารถในการรองรับเรือสำราญทั้งขนาดใหญ่และขนาดกลาง ทำให้เป็นจุดจอดของเรือสำราญต่างชาติหลายสายที่มุ่งมายังเมืองจาการ์ตา ⭕️

    Monas โมนัส
    หนึ่งในสัญลักษณ์สำคัญของจาการ์ตา สร้างขึ้นในปี 1961 เพื่อเฉลิมฉลองการประกาศอิสรภาพของอินโดนีเซียจากเนเธอร์แลนด์ ตัวอนุสาวรีย์มีความสูง 132 เมตร

    Kota Tua เมืองเก่าจาการ์ตา
    เมืองเก่าจาการ์ตา หรือที่เรียกกันว่า Kota Tua เป็นแหล่งรวมสถาปัตยกรรมยุคอาณานิคมดัตช์ โดยในอดีตเป็นศูนย์กลางการค้าสำคัญของบริษัท Dutch East India Company

    Istiqlal Mosque มัสยิดอิสติกลัล
    มัสยิดอิสติกลัลเป็นมัสยิดที่ใหญ่ที่สุดในเอเชียตะวันออกเฉียงใต้ สร้างขึ้นในปี 1978 ตัวอาคารมีสถาปัตยกรรมที่โดดเด่นด้วยโดมขนาดใหญ่และหออะซานสูงตระหง่าน

    National Museum of Indonesia พิพิธภัณฑ์แห่งชาติอินโดนีเซีย
    พิพิธภัณฑ์แห่งชาติอินโดนีเซีย หรือที่เรียกกันว่า พิพิธภัณฑ์ช้าง เนื่องจากมีรูปปั้นช้างที่ทางเข้า ก่อตั้งขึ้นในปี 1862 โดยภายในมีการจัดแสดงสิ่งของโบราณและวัตถุทางวัฒนธรรมที่สำคัญของอินโดนีเซีย

    สอบถามเพิ่มเติมหรือจองแพ็คเกจได้ทันที!
    https://cruisedomain.com/
    LINE ID: @CruiseDomain 78s.me/c54029
    Facebook: CruiseDomain 78s.me/b8a121
    Youtube : CruiseDomain 78s.me/8af620
    : 0 2116 9696

    #JakartaCruisePort #INDONESIA #Monas #KotaTua #IstiqlalMosque #NationalMuseumofIndonesia #port #cruisedomain #thaitimes
    🛳 Jakarta Cruise Port ท่าเรือสำราญที่ใหญ่ที่สุดในอินโดนีเซีย ตั้งอยู่ในเขต North Jakarta ซึ่งเป็นศูนย์กลางการขนส่งสินค้าทางทะเลที่สำคัญของประเทศ ท่าเรือแห่งนี้มีความสามารถในการรองรับเรือสำราญทั้งขนาดใหญ่และขนาดกลาง ทำให้เป็นจุดจอดของเรือสำราญต่างชาติหลายสายที่มุ่งมายังเมืองจาการ์ตา 🏁⭕️ ✔️ Monas ➡️ โมนัส หนึ่งในสัญลักษณ์สำคัญของจาการ์ตา สร้างขึ้นในปี 1961 เพื่อเฉลิมฉลองการประกาศอิสรภาพของอินโดนีเซียจากเนเธอร์แลนด์ ตัวอนุสาวรีย์มีความสูง 132 เมตร ✔️ Kota Tua ➡️ เมืองเก่าจาการ์ตา เมืองเก่าจาการ์ตา หรือที่เรียกกันว่า Kota Tua เป็นแหล่งรวมสถาปัตยกรรมยุคอาณานิคมดัตช์ โดยในอดีตเป็นศูนย์กลางการค้าสำคัญของบริษัท Dutch East India Company ✔️ Istiqlal Mosque ➡️ มัสยิดอิสติกลัล มัสยิดอิสติกลัลเป็นมัสยิดที่ใหญ่ที่สุดในเอเชียตะวันออกเฉียงใต้ สร้างขึ้นในปี 1978 ตัวอาคารมีสถาปัตยกรรมที่โดดเด่นด้วยโดมขนาดใหญ่และหออะซานสูงตระหง่าน ✔️ National Museum of Indonesia ➡️ พิพิธภัณฑ์แห่งชาติอินโดนีเซีย พิพิธภัณฑ์แห่งชาติอินโดนีเซีย หรือที่เรียกกันว่า พิพิธภัณฑ์ช้าง เนื่องจากมีรูปปั้นช้างที่ทางเข้า ก่อตั้งขึ้นในปี 1862 โดยภายในมีการจัดแสดงสิ่งของโบราณและวัตถุทางวัฒนธรรมที่สำคัญของอินโดนีเซีย 📩 สอบถามเพิ่มเติมหรือจองแพ็คเกจได้ทันที! https://cruisedomain.com/ LINE ID: @CruiseDomain 78s.me/c54029 Facebook: CruiseDomain 78s.me/b8a121 Youtube : CruiseDomain 78s.me/8af620 ☎️: 0 2116 9696 #JakartaCruisePort #INDONESIA #Monas #KotaTua #IstiqlalMosque #NationalMuseumofIndonesia #port #cruisedomain #thaitimes
    0 ความคิดเห็น 0 การแบ่งปัน 230 มุมมอง 0 รีวิว
  • “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P

    Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ

    Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่

    Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว

    การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก

    ข้อมูลในข่าว
    Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ
    ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series
    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ
    รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service
    พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous
    เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026

    คำเตือนจากข้อมูลข่าว
    การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี
    หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง
    การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD
    การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก

    https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    🧠 “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่ Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก ✅ ข้อมูลในข่าว ➡️ Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ ➡️ ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series ➡️ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ➡️ รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service ➡️ พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ➡️ เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026 ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี ⛔ หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง ⛔ การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD ⛔ การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    WCCFTECH.COM
    Intel Crescent Island GPU Unveiled: Features Next-Gen Xe3P Graphics Architecture, 160 GB LPDDR5X For AI Inference
    Intel has unveiled its brand new AI inference GPU solution for data centers, codenamed Crescent Island, which features the Xe3P architecture.
    0 ความคิดเห็น 0 การแบ่งปัน 162 มุมมอง 0 รีวิว
  • “MSI โชว์นวัตกรรมศูนย์ข้อมูล” — เปิดตัว ORv3, DC-MHS และ MGX ที่งาน OCP Global Summit 2025

    ในงาน OCP Global Summit ปี 2025 MSI ได้เปิดตัวโซลูชันศูนย์ข้อมูลรุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานระดับ hyperscale และ AI โดยเน้นการผสานเทคโนโลยีแบบเปิดกับการเร่งความเร็วด้วย GPU เพื่อสร้างศูนย์ข้อมูลที่มีประสิทธิภาพสูงและดูแลรักษาได้ง่าย

    หนึ่งในไฮไลต์คือ ORv3 Rack ขนาด 21 นิ้ว 44OU ที่มาพร้อมระบบพลังงาน 48V แบบรวมศูนย์ และเซิร์ฟเวอร์แบบ dual-node 16 ตัว ซึ่งช่วยเพิ่มพื้นที่สำหรับ CPU, RAM และ Storage พร้อมระบบระบายความร้อนที่มีประสิทธิภาพสูง

    MSI ยังเปิดตัวเซิร์ฟเวอร์ DC-MHS ที่รองรับทั้ง Intel Xeon 6 และ AMD EPYC 9005 โดยใช้โมดูล DC-SCM เพื่อให้สามารถใช้งานร่วมกันระหว่างผู้ผลิตได้ง่ายขึ้น พร้อมรองรับ PCIe 5.0 และ DDR5 สำหรับงานที่ต้องการความเร็วสูง

    ในด้าน GPU MSI ใช้สถาปัตยกรรม MGX ของ NVIDIA โดยมีรุ่น CG481-S6053 ที่รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว และ CG290-S3063 ที่ออกแบบมาเพื่องาน inference และ fine-tuning โดยใช้ GPU PCIe 5.0 จำนวน 4 ตัว

    ทั้งหมดนี้สะท้อนถึงแนวทางของ MSI ที่ต้องการสร้างศูนย์ข้อมูลที่สามารถปรับขนาดได้ง่าย รองรับงาน AI และ cloud ได้อย่างมีประสิทธิภาพ พร้อมลดความซับซ้อนในการติดตั้งและดูแลรักษา

    ข้อมูลในข่าว
    MSI เปิดตัว ORv3 Rack ขนาด 21 นิ้ว 44OU พร้อมระบบพลังงานรวมศูนย์ 48V
    รองรับเซิร์ฟเวอร์แบบ dual-node 16 ตัว พร้อม I/O ด้านหน้าเพื่อการดูแลจาก cold aisle
    เซิร์ฟเวอร์ DC-MHS รองรับ Intel Xeon 6 และ AMD EPYC 9005 ด้วยโมดูล DC-SCM
    รองรับ PCIe 5.0, DDR5 และ NVMe แบบ front-service
    GPU server ใช้สถาปัตยกรรม MGX ของ NVIDIA
    รุ่น CG481-S6053 รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว
    รุ่น CG290-S3063 รองรับ GPU PCIe 5.0 จำนวน 4 ตัว สำหรับงาน inference
    ออกแบบมาเพื่อศูนย์ข้อมูล AI และ cloud ที่ต้องการความยืดหยุ่นและประสิทธิภาพสูง

    คำเตือนจากข้อมูลข่าว
    การใช้ GPU จำนวนมากต้องมีระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพ
    หากไม่ใช้โมดูล DC-SCM อาจทำให้เกิดปัญหาความเข้ากันได้ระหว่างผู้ผลิต
    การออกแบบศูนย์ข้อมูลแบบ rack-scale ต้องมีการวางแผนล่วงหน้าอย่างละเอียด
    การเปลี่ยนไปใช้ PCIe 6.0 ต้องตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม

    https://www.techpowerup.com/341907/msi-highlights-orv3-dc-mhs-and-mgx-solutions-at-2025-ocp-global-summit
    🏢 “MSI โชว์นวัตกรรมศูนย์ข้อมูล” — เปิดตัว ORv3, DC-MHS และ MGX ที่งาน OCP Global Summit 2025 ในงาน OCP Global Summit ปี 2025 MSI ได้เปิดตัวโซลูชันศูนย์ข้อมูลรุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานระดับ hyperscale และ AI โดยเน้นการผสานเทคโนโลยีแบบเปิดกับการเร่งความเร็วด้วย GPU เพื่อสร้างศูนย์ข้อมูลที่มีประสิทธิภาพสูงและดูแลรักษาได้ง่าย หนึ่งในไฮไลต์คือ ORv3 Rack ขนาด 21 นิ้ว 44OU ที่มาพร้อมระบบพลังงาน 48V แบบรวมศูนย์ และเซิร์ฟเวอร์แบบ dual-node 16 ตัว ซึ่งช่วยเพิ่มพื้นที่สำหรับ CPU, RAM และ Storage พร้อมระบบระบายความร้อนที่มีประสิทธิภาพสูง MSI ยังเปิดตัวเซิร์ฟเวอร์ DC-MHS ที่รองรับทั้ง Intel Xeon 6 และ AMD EPYC 9005 โดยใช้โมดูล DC-SCM เพื่อให้สามารถใช้งานร่วมกันระหว่างผู้ผลิตได้ง่ายขึ้น พร้อมรองรับ PCIe 5.0 และ DDR5 สำหรับงานที่ต้องการความเร็วสูง ในด้าน GPU MSI ใช้สถาปัตยกรรม MGX ของ NVIDIA โดยมีรุ่น CG481-S6053 ที่รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว และ CG290-S3063 ที่ออกแบบมาเพื่องาน inference และ fine-tuning โดยใช้ GPU PCIe 5.0 จำนวน 4 ตัว ทั้งหมดนี้สะท้อนถึงแนวทางของ MSI ที่ต้องการสร้างศูนย์ข้อมูลที่สามารถปรับขนาดได้ง่าย รองรับงาน AI และ cloud ได้อย่างมีประสิทธิภาพ พร้อมลดความซับซ้อนในการติดตั้งและดูแลรักษา ✅ ข้อมูลในข่าว ➡️ MSI เปิดตัว ORv3 Rack ขนาด 21 นิ้ว 44OU พร้อมระบบพลังงานรวมศูนย์ 48V ➡️ รองรับเซิร์ฟเวอร์แบบ dual-node 16 ตัว พร้อม I/O ด้านหน้าเพื่อการดูแลจาก cold aisle ➡️ เซิร์ฟเวอร์ DC-MHS รองรับ Intel Xeon 6 และ AMD EPYC 9005 ด้วยโมดูล DC-SCM ➡️ รองรับ PCIe 5.0, DDR5 และ NVMe แบบ front-service ➡️ GPU server ใช้สถาปัตยกรรม MGX ของ NVIDIA ➡️ รุ่น CG481-S6053 รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว ➡️ รุ่น CG290-S3063 รองรับ GPU PCIe 5.0 จำนวน 4 ตัว สำหรับงาน inference ➡️ ออกแบบมาเพื่อศูนย์ข้อมูล AI และ cloud ที่ต้องการความยืดหยุ่นและประสิทธิภาพสูง ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ GPU จำนวนมากต้องมีระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพ ⛔ หากไม่ใช้โมดูล DC-SCM อาจทำให้เกิดปัญหาความเข้ากันได้ระหว่างผู้ผลิต ⛔ การออกแบบศูนย์ข้อมูลแบบ rack-scale ต้องมีการวางแผนล่วงหน้าอย่างละเอียด ⛔ การเปลี่ยนไปใช้ PCIe 6.0 ต้องตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม https://www.techpowerup.com/341907/msi-highlights-orv3-dc-mhs-and-mgx-solutions-at-2025-ocp-global-summit
    WWW.TECHPOWERUP.COM
    MSI Highlights ORv3, DC-MHS, and MGX Solutions at 2025 OCP Global Summit
    At 2025 OCP Global Summit (Booth #A55), MSI, a leading global provider of high-performance server solutions, highlights the ORv3 21" 44OU rack, OCP DC-MHS platforms, and GPU servers built on NVIDIA MGX architecture, accelerated by the latest NVIDIA Hopper GPUs and NVIDIA RTX PRO 6000 Blackwell Serve...
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
  • “NVIDIA จับมือ Samsung Foundry” — เปิดทางสู่ยุคใหม่ของชิป AI ด้วย NVLink Fusion

    ในงาน OCP Global Summit ล่าสุด NVIDIA ได้ประกาศความร่วมมือกับ Samsung Foundry เพื่อเข้าร่วมในระบบ NVLink Fusion ซึ่งเป็นโครงสร้างพื้นฐานด้านการเชื่อมต่อความเร็วสูงสำหรับศูนย์ข้อมูล AI โดย Samsung จะมีบทบาททั้งด้านการออกแบบและผลิตชิปแบบ custom CPU และ XPU ที่สามารถเชื่อมต่อโดยตรงกับสถาปัตยกรรม MGX และ OCP rack ของ NVIDIA

    NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างเต็มรูปแบบ โดยใช้เทคโนโลยี chiplet และ IP ที่รองรับการสื่อสารผ่าน NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s ซึ่งช่วยให้การเชื่อมต่อระหว่าง CPU และ GPU มีประสิทธิภาพมากขึ้น

    การนำ Samsung เข้ามาในระบบนี้ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเปิดทางให้บริษัทต่าง ๆ สามารถพัฒนาโปรเซสเซอร์ที่เหมาะกับงานเฉพาะ เช่นโมเดลภาษาใหญ่ (LLM) และ AI เชิงตัวแทน (agentic AI) ได้รวดเร็วขึ้น

    อย่างไรก็ตาม NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญที่ใช้ในการจัดการการเชื่อมต่อ เช่น communication controller และ PHY layer รวมถึงการใช้ NVLink Switch chips ที่ต้องได้รับใบอนุญาตจาก NVIDIA ซึ่งหมายความว่าบริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง

    ข้อมูลในข่าว
    NVIDIA ร่วมมือกับ Samsung Foundry ในระบบ NVLink Fusion
    Samsung จะออกแบบและผลิตชิป custom CPU และ XPU สำหรับศูนย์ข้อมูล AI
    NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นเชื่อมต่อกับระบบ NVIDIA ได้
    ใช้ NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s เพื่อเชื่อมต่อ CPU-GPU
    ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเร่งการพัฒนาโปรเซสเซอร์เฉพาะทาง
    Samsung เสริมทั้งกำลังการผลิตและบริการออกแบบในระบบ NVLink

    คำเตือนจากข้อมูลข่าว
    ชิปที่พัฒนาในระบบนี้ต้องเชื่อมต่อกับผลิตภัณฑ์ของ NVIDIA เท่านั้น
    NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญในการจัดการการเชื่อมต่อ
    บริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง
    การใช้ NVLink Switch chips ต้องได้รับใบอนุญาตจาก NVIDIA

    https://www.techpowerup.com/341889/nvidia-taps-samsung-foundry-for-custom-silicon-manufacturing
    🔗 “NVIDIA จับมือ Samsung Foundry” — เปิดทางสู่ยุคใหม่ของชิป AI ด้วย NVLink Fusion ในงาน OCP Global Summit ล่าสุด NVIDIA ได้ประกาศความร่วมมือกับ Samsung Foundry เพื่อเข้าร่วมในระบบ NVLink Fusion ซึ่งเป็นโครงสร้างพื้นฐานด้านการเชื่อมต่อความเร็วสูงสำหรับศูนย์ข้อมูล AI โดย Samsung จะมีบทบาททั้งด้านการออกแบบและผลิตชิปแบบ custom CPU และ XPU ที่สามารถเชื่อมต่อโดยตรงกับสถาปัตยกรรม MGX และ OCP rack ของ NVIDIA NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างเต็มรูปแบบ โดยใช้เทคโนโลยี chiplet และ IP ที่รองรับการสื่อสารผ่าน NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s ซึ่งช่วยให้การเชื่อมต่อระหว่าง CPU และ GPU มีประสิทธิภาพมากขึ้น การนำ Samsung เข้ามาในระบบนี้ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเปิดทางให้บริษัทต่าง ๆ สามารถพัฒนาโปรเซสเซอร์ที่เหมาะกับงานเฉพาะ เช่นโมเดลภาษาใหญ่ (LLM) และ AI เชิงตัวแทน (agentic AI) ได้รวดเร็วขึ้น อย่างไรก็ตาม NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญที่ใช้ในการจัดการการเชื่อมต่อ เช่น communication controller และ PHY layer รวมถึงการใช้ NVLink Switch chips ที่ต้องได้รับใบอนุญาตจาก NVIDIA ซึ่งหมายความว่าบริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง ✅ ข้อมูลในข่าว ➡️ NVIDIA ร่วมมือกับ Samsung Foundry ในระบบ NVLink Fusion ➡️ Samsung จะออกแบบและผลิตชิป custom CPU และ XPU สำหรับศูนย์ข้อมูล AI ➡️ NVLink Fusion เป็นเฟรมเวิร์กที่เปิดให้โปรเซสเซอร์จากผู้ผลิตอื่นเชื่อมต่อกับระบบ NVIDIA ได้ ➡️ ใช้ NVLink-C2C ที่มีแบนด์วิดธ์สูงถึง 900 GB/s เพื่อเชื่อมต่อ CPU-GPU ➡️ ช่วยลดความเสี่ยงจากการพึ่งพาผู้ผลิตรายเดียว และเร่งการพัฒนาโปรเซสเซอร์เฉพาะทาง ➡️ Samsung เสริมทั้งกำลังการผลิตและบริการออกแบบในระบบ NVLink ‼️ คำเตือนจากข้อมูลข่าว ⛔ ชิปที่พัฒนาในระบบนี้ต้องเชื่อมต่อกับผลิตภัณฑ์ของ NVIDIA เท่านั้น ⛔ NVIDIA ยังคงควบคุมซอฟต์แวร์และฮาร์ดแวร์สำคัญในการจัดการการเชื่อมต่อ ⛔ บริษัทอื่นไม่สามารถสร้างระบบที่เป็นอิสระจาก NVIDIA ได้อย่างแท้จริง ⛔ การใช้ NVLink Switch chips ต้องได้รับใบอนุญาตจาก NVIDIA https://www.techpowerup.com/341889/nvidia-taps-samsung-foundry-for-custom-silicon-manufacturing
    WWW.TECHPOWERUP.COM
    NVIDIA Taps Samsung Foundry for Custom Silicon Manufacturing
    NVIDIA announced at the OCP Global Summit that Samsung Foundry is joining its NVLink Fusion ecosystem, bringing Samsung's design and manufacturing muscle into the fold for custom CPUs and XPUs. The partnership positions Samsung to offer end-to-end support. Everything from silicon design and verifica...
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
Pages Boosts