• Super Computer ฟันธงลิเวอร์พูลแชมป์ยูฟ่าแชมเปียนส์ลีก 13/09/68 #ลิเวอร์พูล #แชมป์ยูฟ่าแชมเปียนส์ลีก #Super Computer
    Super Computer ฟันธงลิเวอร์พูลแชมป์ยูฟ่าแชมเปียนส์ลีก 13/09/68 #ลิเวอร์พูล #แชมป์ยูฟ่าแชมเปียนส์ลีก #Super Computer
    0 Comments 0 Shares 90 Views 0 0 Reviews
  • เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 Comments 0 Shares 49 Views 0 Reviews
  • เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย

    มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science)

    จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ

    เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021

    SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์

    ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์

    NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย

    การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC
    เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025
    ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops
    ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า

    เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance
    บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร
    แสดงผลแบบ visualization และค้นหาด้วย history ID
    ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง

    เป้าหมายของระบบนี้
    ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้
    ลดความผิดพลาดจากการบันทึกด้วยมือ
    เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย

    แผนการขยายในอนาคต
    NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์
    ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data
    อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย

    https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    🎙️ เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science) จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021 SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์ ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์ NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย ✅ การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC ➡️ เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025 ➡️ ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops ➡️ ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า ✅ เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance ➡️ บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร ➡️ แสดงผลแบบ visualization และค้นหาด้วย history ID ➡️ ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง ✅ เป้าหมายของระบบนี้ ➡️ ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้ ➡️ ลดความผิดพลาดจากการบันทึกด้วยมือ ➡️ เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย ✅ แผนการขยายในอนาคต ➡️ NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์ ➡️ ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data ➡️ อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    WWW.TECHPOWERUP.COM
    NEC Provides Computing Power for OCTOPUS Supercomputer at Osaka University
    The University of Osaka D3 Center will begin trial operations of the "Osaka University Compute and sTOrage Platform Urging open Science" (OCTOPUS), a computational and data platform promoting open science built by NEC Corporation (NEC; TSE: 6701), starting this September, with full-scale operations ...
    0 Comments 0 Shares 49 Views 0 Reviews
  • เรื่องเล่าจาก GNOME 3.18 ถึง GNOME 49: เมื่อ Dash to Panel กลายเป็นส่วนหนึ่งของประสบการณ์ที่ผู้ใช้เลือกเองได้

    Dash to Panel ซึ่งเป็นหนึ่งใน GNOME Shell Extension ที่ได้รับความนิยมสูงสุด ได้ออกเวอร์ชันใหม่ v69 ที่รองรับ GNOME 49 อย่างเป็นทางการ พร้อมฟีเจอร์ใหม่ที่เน้นความยืดหยุ่น ความฉลาด และการปรับแต่งที่ลึกขึ้นสำหรับผู้ใช้ที่ต้องการควบคุมหน้าจอของตนเองแบบละเอียด

    ฟีเจอร์ใหม่ที่เพิ่มเข้ามาในระบบ intellihide ได้แก่ reveal delay, hide from window on monitor, และ disable cursor reveal ซึ่งช่วยให้การซ่อน/แสดงแผงควบคุมมีความแม่นยำและไม่รบกวนการใช้งาน

    นอกจากนี้ยังมีการปรับปรุงด้านการจัดการหน้าต่าง เช่น การเพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอนแบบไม่ grouped, การแสดงหมายเลข workspace บน preview, และการ sync เมนู alt-tab กับ workspace isolation

    Dash to Panel v69 ยังแก้ไขบั๊กจำนวนมาก เช่น shortcut Super+V และ Super+S ที่ไม่ทำงานเมื่อแผงถูกซ่อนไว้, ปัญหา intellihide ที่บล็อก input, การเปลี่ยน primary monitor เมื่อถอดสาย, และการ scroll preview ที่ไม่เสถียร

    ที่น่าสนใจคือการเพิ่มระบบติดตั้งแบบ system-wide และการปรับแต่งขอบแผง (panel border styling) ที่ช่วยให้ผู้ดูแลระบบสามารถ deploy ได้ง่ายขึ้นในองค์กรหรือสภาพแวดล้อมที่มีผู้ใช้หลายคน

    การรองรับ GNOME 49
    Dash to Panel v69 รองรับ GNOME 49 อย่างเป็นทางการ
    ปรับปรุงให้ทำงานได้เสถียรกับ desktop environment รุ่นล่าสุด

    ฟีเจอร์ใหม่ในระบบ Intellihide
    เพิ่ม reveal delay เพื่อควบคุมเวลาการแสดงแผง
    เพิ่ม hide from window on monitor เพื่อหลีกเลี่ยงการแสดงแผงเมื่อมีหน้าต่างอยู่
    เพิ่ม disable cursor reveal เพื่อป้องกันการแสดงแผงโดยไม่ตั้งใจ

    การจัดการหน้าต่างและ workspace
    เพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอน
    แสดงหมายเลข workspace บน window preview
    sync เมนู alt-tab กับ workspace isolation เพื่อความสอดคล้อง

    การแก้ไขบั๊กและปรับปรุงระบบ
    แก้ปัญหา shortcut Super+V และ Super+S ไม่ทำงาน
    แก้ปัญหา intellihide บล็อก input และ scroll preview ไม่เสถียร
    แก้ปัญหาการเปลี่ยน primary monitor และ animation บน unlock

    การปรับปรุงด้าน deployment และ UI
    รองรับการติดตั้งแบบ system-wide สำหรับองค์กร
    เพิ่ม panel border styling เพื่อปรับแต่งขอบแผง
    ยกเลิก GTK4 FileChooser และเพิ่มข้อความขอบคุณ Zorin OS

    https://9to5linux.com/dash-to-panel-gnome-shell-extension-gets-gnome-49-support-and-new-features
    🎙️ เรื่องเล่าจาก GNOME 3.18 ถึง GNOME 49: เมื่อ Dash to Panel กลายเป็นส่วนหนึ่งของประสบการณ์ที่ผู้ใช้เลือกเองได้ Dash to Panel ซึ่งเป็นหนึ่งใน GNOME Shell Extension ที่ได้รับความนิยมสูงสุด ได้ออกเวอร์ชันใหม่ v69 ที่รองรับ GNOME 49 อย่างเป็นทางการ พร้อมฟีเจอร์ใหม่ที่เน้นความยืดหยุ่น ความฉลาด และการปรับแต่งที่ลึกขึ้นสำหรับผู้ใช้ที่ต้องการควบคุมหน้าจอของตนเองแบบละเอียด ฟีเจอร์ใหม่ที่เพิ่มเข้ามาในระบบ intellihide ได้แก่ reveal delay, hide from window on monitor, และ disable cursor reveal ซึ่งช่วยให้การซ่อน/แสดงแผงควบคุมมีความแม่นยำและไม่รบกวนการใช้งาน นอกจากนี้ยังมีการปรับปรุงด้านการจัดการหน้าต่าง เช่น การเพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอนแบบไม่ grouped, การแสดงหมายเลข workspace บน preview, และการ sync เมนู alt-tab กับ workspace isolation Dash to Panel v69 ยังแก้ไขบั๊กจำนวนมาก เช่น shortcut Super+V และ Super+S ที่ไม่ทำงานเมื่อแผงถูกซ่อนไว้, ปัญหา intellihide ที่บล็อก input, การเปลี่ยน primary monitor เมื่อถอดสาย, และการ scroll preview ที่ไม่เสถียร ที่น่าสนใจคือการเพิ่มระบบติดตั้งแบบ system-wide และการปรับแต่งขอบแผง (panel border styling) ที่ช่วยให้ผู้ดูแลระบบสามารถ deploy ได้ง่ายขึ้นในองค์กรหรือสภาพแวดล้อมที่มีผู้ใช้หลายคน ✅ การรองรับ GNOME 49 ➡️ Dash to Panel v69 รองรับ GNOME 49 อย่างเป็นทางการ ➡️ ปรับปรุงให้ทำงานได้เสถียรกับ desktop environment รุ่นล่าสุด ✅ ฟีเจอร์ใหม่ในระบบ Intellihide ➡️ เพิ่ม reveal delay เพื่อควบคุมเวลาการแสดงแผง ➡️ เพิ่ม hide from window on monitor เพื่อหลีกเลี่ยงการแสดงแผงเมื่อมีหน้าต่างอยู่ ➡️ เพิ่ม disable cursor reveal เพื่อป้องกันการแสดงแผงโดยไม่ตั้งใจ ✅ การจัดการหน้าต่างและ workspace ➡️ เพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอน ➡️ แสดงหมายเลข workspace บน window preview ➡️ sync เมนู alt-tab กับ workspace isolation เพื่อความสอดคล้อง ✅ การแก้ไขบั๊กและปรับปรุงระบบ ➡️ แก้ปัญหา shortcut Super+V และ Super+S ไม่ทำงาน ➡️ แก้ปัญหา intellihide บล็อก input และ scroll preview ไม่เสถียร ➡️ แก้ปัญหาการเปลี่ยน primary monitor และ animation บน unlock ✅ การปรับปรุงด้าน deployment และ UI ➡️ รองรับการติดตั้งแบบ system-wide สำหรับองค์กร ➡️ เพิ่ม panel border styling เพื่อปรับแต่งขอบแผง ➡️ ยกเลิก GTK4 FileChooser และเพิ่มข้อความขอบคุณ Zorin OS https://9to5linux.com/dash-to-panel-gnome-shell-extension-gets-gnome-49-support-and-new-features
    9TO5LINUX.COM
    Dash to Panel GNOME Shell Extension Gets GNOME 49 Support and New Features - 9to5Linux
    GNOME Shell extension Dash to Panel gets a major update with new features, bug fixes, and support for the GNOME 49 desktop environment.
    0 Comments 0 Shares 25 Views 0 Reviews
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 Comments 0 Shares 115 Views 0 Reviews
  • “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้”

    Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ

    Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s

    การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน

    ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation

    แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ

    จุดเด่นของ Intel Arc Pro B50
    ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines
    หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า
    แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS
    ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม

    ประสิทธิภาพในการใช้งานจริง
    Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy
    Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ
    Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง
    MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation

    ความเหมาะสมกับงานมืออาชีพ
    ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk
    มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง
    เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์
    ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน

    ข้อมูลเสริมจากภายนอก
    Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8
    มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit
    มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ
    Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน

    https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    🎨 “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้” Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ ✅ จุดเด่นของ Intel Arc Pro B50 ➡️ ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines ➡️ หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า ➡️ แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS ➡️ ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม ✅ ประสิทธิภาพในการใช้งานจริง ➡️ Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy ➡️ Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ ➡️ Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง ➡️ MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation ✅ ความเหมาะสมกับงานมืออาชีพ ➡️ ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk ➡️ มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง ➡️ เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์ ➡️ ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8 ➡️ มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit ➡️ มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ ➡️ Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    0 Comments 0 Shares 131 Views 0 Reviews
  • “Honor Magic V5: มือถือพับได้ที่บางที่สุดในโลก พร้อมแบต 5,820mAh และกล้อง 100x — แต่ยังเข้าอเมริกาไม่ได้!”

    ถ้าคุณกำลังมองหามือถือพับได้ที่ไม่ใช่แค่ “พับได้” แต่ยังบางเฉียบ แบตอึด กล้องแรง และใช้งานหลายแอปพร้อมกันได้แบบลื่นไหล — Honor Magic V5 คือหนึ่งในตัวเลือกที่น่าจับตามองที่สุดในปี 2025 แม้จะยังไม่วางขายในสหรัฐฯ ก็ตาม

    Magic V5 เปิดตัวในยุโรปและเอเชีย พร้อมสเปกระดับเรือธง: ชิป Snapdragon 8 Elite, RAM 16GB, ความจุ 512GB และแบตเตอรี่ขนาดมหึมา 5,820mAh ที่ใช้งานได้ถึง 2 วันเต็ม รองรับชาร์จเร็ว 66W และชาร์จไร้สาย 50W พร้อม reverse charging ด้วย

    หน้าจอด้านในขนาด 7.95 นิ้ว OLED LTPO ความสว่างสูงสุด 5,000 nits ส่วนหน้าจอด้านนอกขนาด 6.43 นิ้ว ก็ยังรองรับ HDR และ Dolby Vision ทั้งคู่มีรีเฟรชเรต 120Hz และรองรับปากกา Stylus พร้อมเทคโนโลยี NanoCrystal Shield กันรอยขีดข่วน

    กล้องหลังมีทั้งหมด 3 ตัว: กล้องหลัก 50MP, กล้อง Ultra-wide 50MP และกล้อง Telephoto 64MP ที่ซูมได้ 3.5x แบบออปติคอล และสูงสุด 100x แบบดิจิทัล พร้อมระบบกันสั่น OIS และ AI Zoom ที่ช่วยให้ภาพคมชัดแม้ในระยะไกล ส่วนกล้องหน้า 20MP มีทั้งด้านในและด้านนอก รองรับวิดีโอ 4K

    จุดเด่นอีกอย่างคือระบบ multitasking แบบใหม่ที่เรียกว่า “Quick Layout” ซึ่งให้ผู้ใช้เปิด 2–3 แอปพร้อมกันได้ทันที โดยใช้การจัดวางแบบ 90/10 หรือแบบแยกแนวตั้งแนวนอน เหมาะกับการทำงานหรือดูคอนเทนต์หลายอย่างพร้อมกัน

    ตัวเครื่องบางเพียง 8.8 มม. เมื่อพับ และ 4.1 มม. เมื่อกางออก น้ำหนัก 217 กรัม พร้อมบอดี้ที่ทนทานระดับ IP58/IP59 กันน้ำและฝุ่นได้ดีเยี่ยม มีให้เลือก 4 สี: Ivory White, Black, Dawn Gold และ Reddish Brown

    สเปกหลักของ Honor Magic V5
    ชิป Snapdragon 8 Elite + GPU Adreno 830
    RAM 16GB + ROM 512GB
    แบตเตอรี่ 5,820mAh รองรับชาร์จเร็ว 66W และไร้สาย 50W
    รองรับ reverse charging และระบบจัดการพลังงานแบบใหม่

    หน้าจอและดีไซน์
    หน้าจอด้านใน 7.95 นิ้ว OLED LTPO ความละเอียด 2172×2352
    หน้าจอด้านนอก 6.43 นิ้ว OLED ความละเอียด 2376×1060
    ความสว่างสูงสุด 5,000 nits ทั้งสองจอ
    รองรับ Stylus และเทคโนโลยี NanoCrystal Shield กันรอย

    กล้องและการถ่ายภาพ
    กล้องหลัก 50MP f/1.6 + Ultra-wide 50MP f/2.0 + Telephoto 64MP f/2.5
    ซูมออปติคอล 3.5x และดิจิทัลสูงสุด 100x
    กล้องหน้า 20MP ทั้งด้านในและด้านนอก รองรับวิดีโอ 4K
    ระบบ AI Zoom, Motion Sensing Capture และ Enhanced Portraits

    ฟีเจอร์ซอฟต์แวร์
    รัน Android 15 + MagicOS 9.0.1
    รองรับ multitasking แบบ Quick Layout เปิด 2–3 แอปพร้อมกัน
    มีฟีเจอร์ AI เช่น real-time translation, transcription, image-to-video
    รองรับ Google Gemini AI และระบบ Multi-Flex

    ความทนทานและการออกแบบ
    ตัวเครื่องบาง 8.8 มม. (พับ) / 4.1 มม. (กาง) น้ำหนัก 217 กรัม
    กันน้ำกันฝุ่นระดับ IP58/IP59
    บานพับ Super Steel Hinge รองรับการพับมากกว่า 500,000 ครั้ง
    มีให้เลือก 4 สี พร้อมดีไซน์แบบหนังเทียมและโลหะพรีเมียม

    ราคาและการวางจำหน่าย
    วางขายในยุโรปและเอเชีย ราคาเริ่มต้น £1,699.99 / €1,999.90
    ยังไม่วางจำหน่ายในสหรัฐฯ
    มีจำหน่ายผ่าน Honor Store และตัวแทนจำหน่ายทั่วโลก

    https://www.slashgear.com/1963624/honor-magic-v5-review-foldable/
    📱 “Honor Magic V5: มือถือพับได้ที่บางที่สุดในโลก พร้อมแบต 5,820mAh และกล้อง 100x — แต่ยังเข้าอเมริกาไม่ได้!” ถ้าคุณกำลังมองหามือถือพับได้ที่ไม่ใช่แค่ “พับได้” แต่ยังบางเฉียบ แบตอึด กล้องแรง และใช้งานหลายแอปพร้อมกันได้แบบลื่นไหล — Honor Magic V5 คือหนึ่งในตัวเลือกที่น่าจับตามองที่สุดในปี 2025 แม้จะยังไม่วางขายในสหรัฐฯ ก็ตาม Magic V5 เปิดตัวในยุโรปและเอเชีย พร้อมสเปกระดับเรือธง: ชิป Snapdragon 8 Elite, RAM 16GB, ความจุ 512GB และแบตเตอรี่ขนาดมหึมา 5,820mAh ที่ใช้งานได้ถึง 2 วันเต็ม รองรับชาร์จเร็ว 66W และชาร์จไร้สาย 50W พร้อม reverse charging ด้วย หน้าจอด้านในขนาด 7.95 นิ้ว OLED LTPO ความสว่างสูงสุด 5,000 nits ส่วนหน้าจอด้านนอกขนาด 6.43 นิ้ว ก็ยังรองรับ HDR และ Dolby Vision ทั้งคู่มีรีเฟรชเรต 120Hz และรองรับปากกา Stylus พร้อมเทคโนโลยี NanoCrystal Shield กันรอยขีดข่วน กล้องหลังมีทั้งหมด 3 ตัว: กล้องหลัก 50MP, กล้อง Ultra-wide 50MP และกล้อง Telephoto 64MP ที่ซูมได้ 3.5x แบบออปติคอล และสูงสุด 100x แบบดิจิทัล พร้อมระบบกันสั่น OIS และ AI Zoom ที่ช่วยให้ภาพคมชัดแม้ในระยะไกล ส่วนกล้องหน้า 20MP มีทั้งด้านในและด้านนอก รองรับวิดีโอ 4K จุดเด่นอีกอย่างคือระบบ multitasking แบบใหม่ที่เรียกว่า “Quick Layout” ซึ่งให้ผู้ใช้เปิด 2–3 แอปพร้อมกันได้ทันที โดยใช้การจัดวางแบบ 90/10 หรือแบบแยกแนวตั้งแนวนอน เหมาะกับการทำงานหรือดูคอนเทนต์หลายอย่างพร้อมกัน ตัวเครื่องบางเพียง 8.8 มม. เมื่อพับ และ 4.1 มม. เมื่อกางออก น้ำหนัก 217 กรัม พร้อมบอดี้ที่ทนทานระดับ IP58/IP59 กันน้ำและฝุ่นได้ดีเยี่ยม มีให้เลือก 4 สี: Ivory White, Black, Dawn Gold และ Reddish Brown ✅ สเปกหลักของ Honor Magic V5 ➡️ ชิป Snapdragon 8 Elite + GPU Adreno 830 ➡️ RAM 16GB + ROM 512GB ➡️ แบตเตอรี่ 5,820mAh รองรับชาร์จเร็ว 66W และไร้สาย 50W ➡️ รองรับ reverse charging และระบบจัดการพลังงานแบบใหม่ ✅ หน้าจอและดีไซน์ ➡️ หน้าจอด้านใน 7.95 นิ้ว OLED LTPO ความละเอียด 2172×2352 ➡️ หน้าจอด้านนอก 6.43 นิ้ว OLED ความละเอียด 2376×1060 ➡️ ความสว่างสูงสุด 5,000 nits ทั้งสองจอ ➡️ รองรับ Stylus และเทคโนโลยี NanoCrystal Shield กันรอย ✅ กล้องและการถ่ายภาพ ➡️ กล้องหลัก 50MP f/1.6 + Ultra-wide 50MP f/2.0 + Telephoto 64MP f/2.5 ➡️ ซูมออปติคอล 3.5x และดิจิทัลสูงสุด 100x ➡️ กล้องหน้า 20MP ทั้งด้านในและด้านนอก รองรับวิดีโอ 4K ➡️ ระบบ AI Zoom, Motion Sensing Capture และ Enhanced Portraits ✅ ฟีเจอร์ซอฟต์แวร์ ➡️ รัน Android 15 + MagicOS 9.0.1 ➡️ รองรับ multitasking แบบ Quick Layout เปิด 2–3 แอปพร้อมกัน ➡️ มีฟีเจอร์ AI เช่น real-time translation, transcription, image-to-video ➡️ รองรับ Google Gemini AI และระบบ Multi-Flex ✅ ความทนทานและการออกแบบ ➡️ ตัวเครื่องบาง 8.8 มม. (พับ) / 4.1 มม. (กาง) น้ำหนัก 217 กรัม ➡️ กันน้ำกันฝุ่นระดับ IP58/IP59 ➡️ บานพับ Super Steel Hinge รองรับการพับมากกว่า 500,000 ครั้ง ➡️ มีให้เลือก 4 สี พร้อมดีไซน์แบบหนังเทียมและโลหะพรีเมียม ✅ ราคาและการวางจำหน่าย ➡️ วางขายในยุโรปและเอเชีย ราคาเริ่มต้น £1,699.99 / €1,999.90 ➡️ ยังไม่วางจำหน่ายในสหรัฐฯ ➡️ มีจำหน่ายผ่าน Honor Store และตัวแทนจำหน่ายทั่วโลก https://www.slashgear.com/1963624/honor-magic-v5-review-foldable/
    WWW.SLASHGEAR.COM
    Honor Magic V5: Better Value And A Monster Battery, But Can It Beat The Competition? - SlashGear
    Honor Magic V5 delivers the best big foldable smartphone yet, complete with performance to beat most -- but is it worth the cash?
    0 Comments 0 Shares 129 Views 0 Reviews
  • “iPhone Air เปิดตัวแล้ว! บางเฉียบ 5.6 มม. พร้อมชิป A19 Pro และกล้อง 48MP ที่ถ่ายได้ 4 ระยะ — เบาเหมือนฝัน แรงเหมือน MacBook”

    ถ้าคุณเคยคิดว่า iPhone จะบางได้แค่ไหน — Apple เพิ่งตอบคำถามนั้นด้วยการเปิดตัว “iPhone Air” รุ่นใหม่ล่าสุดที่บางเพียง 5.6 มิลลิเมตร แต่ยังคงความแรงระดับโปรด้วยชิป A19 Pro และกล้องที่ถ่ายได้ถึง 4 ระยะในตัวเดียว

    iPhone Air มาพร้อมดีไซน์ไทเทเนียมเกรด 5 แบบเงาสะท้อน พร้อม Ceramic Shield 2 ที่แข็งแรงกว่ากระจกสมาร์ทโฟนทั่วไปถึง 3 เท่า ทั้งด้านหน้าและด้านหลัง รวมถึง “plateau” กล้องที่ถูกเจาะแบบละเอียดเพื่อเพิ่มพื้นที่แบตเตอรี่ให้ใช้งานได้ตลอดวัน

    หน้าจอ Super Retina XDR ขนาด 6.5 นิ้ว รองรับ ProMotion 120Hz และ Always-On Display พร้อมความสว่างสูงสุด 3,000 nits — ใช้งานกลางแดดได้สบาย และยังมี Action Button กับ Camera Control ที่ช่วยให้เรียกใช้งานฟีเจอร์ได้รวดเร็ว

    กล้องหลัง 48MP Fusion สามารถถ่ายภาพได้ 4 ระยะ: 26mm, 28mm, 35mm และ 52mm ด้วยการครอปในเซนเซอร์แบบ AI พร้อมระบบกันสั่น sensor-shift และ Photonic Engine รุ่นใหม่ ส่วนกล้องหน้า Center Stage 18MP ใช้เซนเซอร์แบบสี่เหลี่ยมครั้งแรกใน iPhone ถ่ายวิดีโอ 4K HDR ได้แบบนิ่งสุดๆ และยังสามารถถ่ายพร้อมกันทั้งกล้องหน้าและหลังด้วย Dual Capture

    ภายในใช้ชิป A19 Pro ที่มี CPU 6-core และ GPU 5-core พร้อม Neural Accelerator ในทุกคอร์ GPU เพื่อรองรับโมเดล AI แบบ on-device ได้อย่างลื่นไหล รวมถึงชิป N1 สำหรับ Wi-Fi 7, Bluetooth 6 และ Thread และโมเด็ม C1X ที่เร็วกว่าเดิม 2 เท่าแต่ใช้พลังงานน้อยลง 30%

    iPhone Air ใช้ eSIM เท่านั้น เพื่อประหยัดพื้นที่ภายใน และมาพร้อม iOS 26 ที่มี Apple Intelligence สำหรับแปลภาษาแบบเรียลไทม์, ค้นหาข้อมูลจากภาพหน้าจอ และจัดการข้อความแบบอัจฉริยะ

    ดีไซน์และวัสดุ
    บางเพียง 5.6 มม. น้ำหนัก 165 กรัม
    ใช้ไทเทเนียมเกรด 5 พร้อม Ceramic Shield 2 ทั้งหน้าและหลัง
    Plateau กล้องแบบใหม่ช่วยเพิ่มพื้นที่แบตเตอรี่
    มี Action Button และ Camera Control สำหรับเรียกใช้งานเร็ว

    หน้าจอและการแสดงผล
    Super Retina XDR ขนาด 6.5 นิ้ว ความละเอียด 2736x1260
    รองรับ ProMotion 120Hz และ Always-On Display
    ความสว่างสูงสุด 3,000 nits และ contrast 2,000,000:1
    รองรับ HDR, True Tone, และ anti-reflective coating

    กล้องและการถ่ายภาพ
    กล้องหลัง 48MP Fusion รองรับ 4 ระยะ: 26mm, 28mm, 35mm, 52mm
    กล้องหน้า Center Stage 18MP ใช้เซนเซอร์สี่เหลี่ยม
    รองรับ Dual Capture, Focus Control, และ Photographic Styles ใหม่
    ถ่ายวิดีโอ 4K60 Dolby Vision พร้อม Spatial Audio และ Action Mode

    ชิปและประสิทธิภาพ
    A19 Pro: CPU 6-core + GPU 5-core พร้อม Neural Accelerator
    N1: รองรับ Wi-Fi 7, Bluetooth 6, Thread และปรับปรุง AirDrop/Hotspot
    C1X: โมเด็มเร็วกว่าเดิม 2 เท่า ใช้พลังงานน้อยลง 30%
    รองรับการรันโมเดล AI บนอุปกรณ์แบบไม่ต้องต่อเน็ต

    แบตเตอรี่และการใช้งาน
    ใช้ Adaptive Power Mode ใน iOS 26 เพื่อจัดการพลังงานอัจฉริยะ
    รองรับ MagSafe Battery แบบบางที่เพิ่มเวลาเล่นวิดีโอถึง 40 ชั่วโมง
    รองรับชาร์จเร็ว 30W และชาร์จไร้สาย 20W

    ระบบปฏิบัติการและฟีเจอร์ใหม่
    iOS 26 มาพร้อม Apple Intelligence สำหรับแปลภาษา, ค้นหาจากภาพ, และจัดการข้อความ
    รองรับ Live Translation, Visual Intelligence และ Apple Games
    ใช้ eSIM เท่านั้น รองรับกว่า 500 ผู้ให้บริการทั่วโลก

    ราคาและการวางจำหน่าย
    เริ่มต้นที่ $999 สำหรับรุ่น 256GB
    มีรุ่น 512GB และ 1TB ให้เลือก
    เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน

    https://www.apple.com/newsroom/2025/09/introducing-iphone-air-a-powerful-new-iphone-with-a-breakthrough-design/
    📱 “iPhone Air เปิดตัวแล้ว! บางเฉียบ 5.6 มม. พร้อมชิป A19 Pro และกล้อง 48MP ที่ถ่ายได้ 4 ระยะ — เบาเหมือนฝัน แรงเหมือน MacBook” ถ้าคุณเคยคิดว่า iPhone จะบางได้แค่ไหน — Apple เพิ่งตอบคำถามนั้นด้วยการเปิดตัว “iPhone Air” รุ่นใหม่ล่าสุดที่บางเพียง 5.6 มิลลิเมตร แต่ยังคงความแรงระดับโปรด้วยชิป A19 Pro และกล้องที่ถ่ายได้ถึง 4 ระยะในตัวเดียว iPhone Air มาพร้อมดีไซน์ไทเทเนียมเกรด 5 แบบเงาสะท้อน พร้อม Ceramic Shield 2 ที่แข็งแรงกว่ากระจกสมาร์ทโฟนทั่วไปถึง 3 เท่า ทั้งด้านหน้าและด้านหลัง รวมถึง “plateau” กล้องที่ถูกเจาะแบบละเอียดเพื่อเพิ่มพื้นที่แบตเตอรี่ให้ใช้งานได้ตลอดวัน หน้าจอ Super Retina XDR ขนาด 6.5 นิ้ว รองรับ ProMotion 120Hz และ Always-On Display พร้อมความสว่างสูงสุด 3,000 nits — ใช้งานกลางแดดได้สบาย และยังมี Action Button กับ Camera Control ที่ช่วยให้เรียกใช้งานฟีเจอร์ได้รวดเร็ว กล้องหลัง 48MP Fusion สามารถถ่ายภาพได้ 4 ระยะ: 26mm, 28mm, 35mm และ 52mm ด้วยการครอปในเซนเซอร์แบบ AI พร้อมระบบกันสั่น sensor-shift และ Photonic Engine รุ่นใหม่ ส่วนกล้องหน้า Center Stage 18MP ใช้เซนเซอร์แบบสี่เหลี่ยมครั้งแรกใน iPhone ถ่ายวิดีโอ 4K HDR ได้แบบนิ่งสุดๆ และยังสามารถถ่ายพร้อมกันทั้งกล้องหน้าและหลังด้วย Dual Capture ภายในใช้ชิป A19 Pro ที่มี CPU 6-core และ GPU 5-core พร้อม Neural Accelerator ในทุกคอร์ GPU เพื่อรองรับโมเดล AI แบบ on-device ได้อย่างลื่นไหล รวมถึงชิป N1 สำหรับ Wi-Fi 7, Bluetooth 6 และ Thread และโมเด็ม C1X ที่เร็วกว่าเดิม 2 เท่าแต่ใช้พลังงานน้อยลง 30% iPhone Air ใช้ eSIM เท่านั้น เพื่อประหยัดพื้นที่ภายใน และมาพร้อม iOS 26 ที่มี Apple Intelligence สำหรับแปลภาษาแบบเรียลไทม์, ค้นหาข้อมูลจากภาพหน้าจอ และจัดการข้อความแบบอัจฉริยะ ✅ ดีไซน์และวัสดุ ➡️ บางเพียง 5.6 มม. น้ำหนัก 165 กรัม ➡️ ใช้ไทเทเนียมเกรด 5 พร้อม Ceramic Shield 2 ทั้งหน้าและหลัง ➡️ Plateau กล้องแบบใหม่ช่วยเพิ่มพื้นที่แบตเตอรี่ ➡️ มี Action Button และ Camera Control สำหรับเรียกใช้งานเร็ว ✅ หน้าจอและการแสดงผล ➡️ Super Retina XDR ขนาด 6.5 นิ้ว ความละเอียด 2736x1260 ➡️ รองรับ ProMotion 120Hz และ Always-On Display ➡️ ความสว่างสูงสุด 3,000 nits และ contrast 2,000,000:1 ➡️ รองรับ HDR, True Tone, และ anti-reflective coating ✅ กล้องและการถ่ายภาพ ➡️ กล้องหลัง 48MP Fusion รองรับ 4 ระยะ: 26mm, 28mm, 35mm, 52mm ➡️ กล้องหน้า Center Stage 18MP ใช้เซนเซอร์สี่เหลี่ยม ➡️ รองรับ Dual Capture, Focus Control, และ Photographic Styles ใหม่ ➡️ ถ่ายวิดีโอ 4K60 Dolby Vision พร้อม Spatial Audio และ Action Mode ✅ ชิปและประสิทธิภาพ ➡️ A19 Pro: CPU 6-core + GPU 5-core พร้อม Neural Accelerator ➡️ N1: รองรับ Wi-Fi 7, Bluetooth 6, Thread และปรับปรุง AirDrop/Hotspot ➡️ C1X: โมเด็มเร็วกว่าเดิม 2 เท่า ใช้พลังงานน้อยลง 30% ➡️ รองรับการรันโมเดล AI บนอุปกรณ์แบบไม่ต้องต่อเน็ต ✅ แบตเตอรี่และการใช้งาน ➡️ ใช้ Adaptive Power Mode ใน iOS 26 เพื่อจัดการพลังงานอัจฉริยะ ➡️ รองรับ MagSafe Battery แบบบางที่เพิ่มเวลาเล่นวิดีโอถึง 40 ชั่วโมง ➡️ รองรับชาร์จเร็ว 30W และชาร์จไร้สาย 20W ✅ ระบบปฏิบัติการและฟีเจอร์ใหม่ ➡️ iOS 26 มาพร้อม Apple Intelligence สำหรับแปลภาษา, ค้นหาจากภาพ, และจัดการข้อความ ➡️ รองรับ Live Translation, Visual Intelligence และ Apple Games ➡️ ใช้ eSIM เท่านั้น รองรับกว่า 500 ผู้ให้บริการทั่วโลก ✅ ราคาและการวางจำหน่าย ➡️ เริ่มต้นที่ $999 สำหรับรุ่น 256GB ➡️ มีรุ่น 512GB และ 1TB ให้เลือก ➡️ เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน https://www.apple.com/newsroom/2025/09/introducing-iphone-air-a-powerful-new-iphone-with-a-breakthrough-design/
    WWW.APPLE.COM
    Introducing iPhone Air, a powerful new iPhone with a breakthrough design
    Apple today debuted the all-new iPhone Air, the thinnest iPhone ever made, with pro performance.
    0 Comments 0 Shares 135 Views 0 Reviews
  • “RTX 5090 โมดิฟาย 128GB VRAM ราคา $13,000! GPU สุดลิมิเต็ดที่เกิดจากตลาดมืด AI ในจีน”

    ลองจินตนาการว่าคุณกำลังสร้างโมเดล AI ขนาดใหญ่ หรือฝึก LLM บนเครื่องส่วนตัว แล้วพบว่าแม้ RTX 4090 ที่มี VRAM 24GB ก็ยังไม่พอ…ตอนนี้มี GPU ที่อาจตอบโจทย์คุณ — RTX 5090 ที่ถูกโมดิฟายให้มี VRAM ถึง 128GB! แต่ราคาก็แรงตามไปด้วยที่ $13,200 ต่อใบ และยังเป็น “โปรโตไทป์สุดลับ” ที่ผลิตจากโรงงานใต้ดินในจีน

    โดยปกติ RTX 5090 มาพร้อม VRAM 32GB GDDR7 ซึ่งถือว่าเยอะมากแล้วสำหรับงานเกม แต่สำหรับงาน AI ที่ต้องใช้หน่วยความจำมหาศาล เช่นการรันโมเดล GPT หรือ Stable Diffusion แบบ local — ก็ยังไม่พออยู่ดี

    โรงงานในจีนจึงเริ่มนำ GPU รุ่นท็อปมาดัดแปลงใหม่ โดยถอดชิปออกจากการ์ดเกม แล้วติดตั้งลงบน PCB แบบ custom ที่รองรับการใส่แรมสองด้าน (dual-sided) พร้อมใช้ GDDR7X ที่ยังไม่วางจำหน่ายทั่วไป และต้องเขียน BIOS กับ firmware ใหม่ทั้งหมดเพื่อให้ระบบรู้จัก VRAM ขนาดมหึมา

    ก่อนหน้านี้เคยมี RTX 4090 ที่ถูกโมดิฟายให้มี VRAM 96GB ซึ่งถือว่าแปลกมากแล้ว แต่ครั้งนี้คือการก้าวข้ามขีดจำกัดไปอีกขั้น โดยใช้เทคนิคที่อาจต้องใช้ชิป GDDR7 ขนาด 32Gb ซึ่งยังไม่มีผู้ผลิตรายใดประกาศออกมาอย่างเป็นทางการ

    แม้จะยังไม่มีภาพ PCB ชัดเจน แต่มีการโพสต์ภาพจาก Nvidia-SMI ที่แสดงให้เห็นว่า VRAM 128GB ถูกระบบตรวจจับจริง — แปลว่ามันใช้งานได้ ไม่ใช่แค่แนวคิด และมีราคาขายจริงในตลาดมืด AI ที่กำลังเฟื่องฟูในจีน

    การ์ดจอ RTX 5090 โมดิฟาย
    เพิ่ม VRAM จาก 32GB เป็น 128GB ด้วยการใช้ PCB แบบสองด้าน
    ใช้ GDDR7X ที่ยังไม่วางจำหน่ายทั่วไป
    ต้องเขียน BIOS และ firmware ใหม่เพื่อให้ระบบรู้จักหน่วยความจำ
    มีภาพจาก Nvidia-SMI แสดงว่า VRAM ถูกตรวจจับครบ 128GB
    ราคาขายประมาณ $13,200 ต่อใบ สูงกว่ารุ่นปกติถึง 4 เท่า

    บริบทของตลาด GPU ในจีน
    จีนถูกจำกัดการนำเข้า GPU ระดับสูงจากสหรัฐฯ
    เกิดตลาดมืดที่นำการ์ดเกมมาดัดแปลงเป็น GPU สำหรับงาน AI
    เคยมี RTX 4090 โมดิฟายเป็น 96GB และ 48GB เพื่อใช้ในเซิร์ฟเวอร์
    การ์ดเหล่านี้มักถูกขายต่อในตลาดมือสองโดยไม่มีข้อมูลชัดเจน

    ข้อมูลเสริมจากภายนอก
    GDDR7 ที่มีอยู่ในตลาดตอนนี้มีความจุสูงสุด 24Gb (3GB ต่อโมดูล)
    การจะได้ 128GB ต้องใช้โมดูล 32Gb หรือ PCB ที่ใส่แรมจำนวนมากผิดปกติ
    RTX Pro 6000 ที่เป็นรุ่น workstation ยังมีแค่ 96GB VRAM
    การ์ดที่มี VRAM สูงเหมาะกับงาน AI มากกว่างานเกม

    https://www.tomshardware.com/pc-components/gpus/upgraded-nvidia-rtx-5090-gets-128gb-vram-and-usd13-000-price-tag-super-limited-gpu-is-described-as-a-prototype
    💸 “RTX 5090 โมดิฟาย 128GB VRAM ราคา $13,000! GPU สุดลิมิเต็ดที่เกิดจากตลาดมืด AI ในจีน” ลองจินตนาการว่าคุณกำลังสร้างโมเดล AI ขนาดใหญ่ หรือฝึก LLM บนเครื่องส่วนตัว แล้วพบว่าแม้ RTX 4090 ที่มี VRAM 24GB ก็ยังไม่พอ…ตอนนี้มี GPU ที่อาจตอบโจทย์คุณ — RTX 5090 ที่ถูกโมดิฟายให้มี VRAM ถึง 128GB! แต่ราคาก็แรงตามไปด้วยที่ $13,200 ต่อใบ และยังเป็น “โปรโตไทป์สุดลับ” ที่ผลิตจากโรงงานใต้ดินในจีน โดยปกติ RTX 5090 มาพร้อม VRAM 32GB GDDR7 ซึ่งถือว่าเยอะมากแล้วสำหรับงานเกม แต่สำหรับงาน AI ที่ต้องใช้หน่วยความจำมหาศาล เช่นการรันโมเดล GPT หรือ Stable Diffusion แบบ local — ก็ยังไม่พออยู่ดี โรงงานในจีนจึงเริ่มนำ GPU รุ่นท็อปมาดัดแปลงใหม่ โดยถอดชิปออกจากการ์ดเกม แล้วติดตั้งลงบน PCB แบบ custom ที่รองรับการใส่แรมสองด้าน (dual-sided) พร้อมใช้ GDDR7X ที่ยังไม่วางจำหน่ายทั่วไป และต้องเขียน BIOS กับ firmware ใหม่ทั้งหมดเพื่อให้ระบบรู้จัก VRAM ขนาดมหึมา ก่อนหน้านี้เคยมี RTX 4090 ที่ถูกโมดิฟายให้มี VRAM 96GB ซึ่งถือว่าแปลกมากแล้ว แต่ครั้งนี้คือการก้าวข้ามขีดจำกัดไปอีกขั้น โดยใช้เทคนิคที่อาจต้องใช้ชิป GDDR7 ขนาด 32Gb ซึ่งยังไม่มีผู้ผลิตรายใดประกาศออกมาอย่างเป็นทางการ แม้จะยังไม่มีภาพ PCB ชัดเจน แต่มีการโพสต์ภาพจาก Nvidia-SMI ที่แสดงให้เห็นว่า VRAM 128GB ถูกระบบตรวจจับจริง — แปลว่ามันใช้งานได้ ไม่ใช่แค่แนวคิด และมีราคาขายจริงในตลาดมืด AI ที่กำลังเฟื่องฟูในจีน ✅ การ์ดจอ RTX 5090 โมดิฟาย ➡️ เพิ่ม VRAM จาก 32GB เป็น 128GB ด้วยการใช้ PCB แบบสองด้าน ➡️ ใช้ GDDR7X ที่ยังไม่วางจำหน่ายทั่วไป ➡️ ต้องเขียน BIOS และ firmware ใหม่เพื่อให้ระบบรู้จักหน่วยความจำ ➡️ มีภาพจาก Nvidia-SMI แสดงว่า VRAM ถูกตรวจจับครบ 128GB ➡️ ราคาขายประมาณ $13,200 ต่อใบ สูงกว่ารุ่นปกติถึง 4 เท่า ✅ บริบทของตลาด GPU ในจีน ➡️ จีนถูกจำกัดการนำเข้า GPU ระดับสูงจากสหรัฐฯ ➡️ เกิดตลาดมืดที่นำการ์ดเกมมาดัดแปลงเป็น GPU สำหรับงาน AI ➡️ เคยมี RTX 4090 โมดิฟายเป็น 96GB และ 48GB เพื่อใช้ในเซิร์ฟเวอร์ ➡️ การ์ดเหล่านี้มักถูกขายต่อในตลาดมือสองโดยไม่มีข้อมูลชัดเจน ✅ ข้อมูลเสริมจากภายนอก ➡️ GDDR7 ที่มีอยู่ในตลาดตอนนี้มีความจุสูงสุด 24Gb (3GB ต่อโมดูล) ➡️ การจะได้ 128GB ต้องใช้โมดูล 32Gb หรือ PCB ที่ใส่แรมจำนวนมากผิดปกติ ➡️ RTX Pro 6000 ที่เป็นรุ่น workstation ยังมีแค่ 96GB VRAM ➡️ การ์ดที่มี VRAM สูงเหมาะกับงาน AI มากกว่างานเกม https://www.tomshardware.com/pc-components/gpus/upgraded-nvidia-rtx-5090-gets-128gb-vram-and-usd13-000-price-tag-super-limited-gpu-is-described-as-a-prototype
    0 Comments 0 Shares 91 Views 0 Reviews
  • “ฤดูใบไม้ร่วงนี้มีอะไรให้เล่น? 12 เกมใหม่ที่เตรียมเขย่าวงการ รวม Pokémon, Metroid และ Kirby!”

    ลองนึกภาพว่าคุณเพิ่งซื้อ Nintendo Switch 2 มาใหม่ สดๆ ร้อนๆ แล้วกำลังมองหาเกมที่จะเติมเต็มคลังของคุณในช่วงปลายปีนี้…ข่าวดีคือ ฤดูใบไม้ร่วงนี้มีเกมใหม่มากมายที่น่าสนใจ ทั้งจากซีรีส์ระดับตำนานและเกมภาคต่อที่แฟนๆ รอคอยกันมานาน

    หนึ่งในเกมที่ถูกจับตามองมากที่สุดคือ Pokémon Legends: Z-A ซึ่งจะเปิดให้เล่นวันที่ 16 ตุลาคม โดยผู้เล่นสามารถเลือกโปเกมอนเริ่มต้นได้จาก Chikorita, Tepig หรือ Totodile แล้วออกผจญภัยในโลกใหม่ที่เต็มไปด้วยเทรนเนอร์คู่แข่งและความลับของเมือง Lumiose ที่ถูกปรับโฉมใหม่ให้เข้ากับยุค Switch 2

    ถัดมาในวันที่ 20 พฤศจิกายนคือ Kirby Air Riders เกมแข่งรถภาคต่อจากเวอร์ชัน GameCube ปี 2003 ที่กลับมาอีกครั้งพร้อมกราฟิกใหม่และโหมดผู้เล่นหลายคนที่ออกแบบมาเพื่อการเล่นบน Switch 2 โดยเฉพาะ

    และแม้ว่า Grand Theft Auto VI จะถูกเลื่อนออกไปเป็นปีหน้า แต่ก็เปิดทางให้เกมอื่นๆ ได้เฉิดฉาย โดยเฉพาะ Metroid Prime 4: Beyond ที่มีข่าวลือว่าจะเปิดตัวในเดือนกันยายนนี้ หากไม่ถูกเลื่อนอีกครั้ง ซึ่งถือเป็นการกลับมาของซีรีส์ที่แฟนๆ รอคอยมาตั้งแต่ปี 2017

    Pokémon Legends: Z-A
    เปิดตัววันที่ 16 ตุลาคม 2025
    มีโปเกมอนเริ่มต้นให้เลือก 3 ตัว: Chikorita, Tepig, Totodile
    ฉากหลังคือเมือง Lumiose ที่ถูกปรับโฉมใหม่
    รองรับ Nintendo Switch 2 Edition พร้อมกราฟิกและระบบใหม่

    Kirby Air Riders
    เปิดตัววันที่ 20 พฤศจิกายน 2025
    เป็นภาคต่อจากเกมแข่งรถบน GameCube ปี 2003
    รองรับโหมดผู้เล่นหลายคนและการเล่นออนไลน์
    พัฒนาเพื่อใช้ประสิทธิภาพของ Switch 2 อย่างเต็มที่

    Metroid Prime 4: Beyond
    ยังไม่มีวันเปิดตัวอย่างเป็นทางการ แต่คาดว่าอาจเปิดตัวในเดือนกันยายนหรือธันวาคม
    มีข่าวลือว่าทีมทดสอบเกมของ Retro Studios เพิ่งเสร็จสิ้นงานแล้ว
    รองรับโหมดกราฟิก 4K/60fps และโหมดประสิทธิภาพ 120fps บน Switch 26
    เป็นภาคต่อที่เริ่มพัฒนาใหม่ตั้งแต่ปี 2019 หลังจากเปลี่ยนทีมผู้สร้าง

    เกมอื่นๆ ที่น่าสนใจในฤดูใบไม้ร่วง
    Hyrule Warriors: Age of Imprisonment (ฤดูหนาว 2025)
    Super Mario Party Jamboree + Jamboree TV (เปิดตัวแล้วในเดือนกรกฎาคม)
    Donkey Kong Bananza (เปิดตัวแล้วในเดือนกรกฎาคม)

    https://www.thestar.com.my/tech/tech-news/2025/09/08/pokemon-and-11-more-video-games-coming-this-fall
    🎮 “ฤดูใบไม้ร่วงนี้มีอะไรให้เล่น? 12 เกมใหม่ที่เตรียมเขย่าวงการ รวม Pokémon, Metroid และ Kirby!” ลองนึกภาพว่าคุณเพิ่งซื้อ Nintendo Switch 2 มาใหม่ สดๆ ร้อนๆ แล้วกำลังมองหาเกมที่จะเติมเต็มคลังของคุณในช่วงปลายปีนี้…ข่าวดีคือ ฤดูใบไม้ร่วงนี้มีเกมใหม่มากมายที่น่าสนใจ ทั้งจากซีรีส์ระดับตำนานและเกมภาคต่อที่แฟนๆ รอคอยกันมานาน หนึ่งในเกมที่ถูกจับตามองมากที่สุดคือ Pokémon Legends: Z-A ซึ่งจะเปิดให้เล่นวันที่ 16 ตุลาคม โดยผู้เล่นสามารถเลือกโปเกมอนเริ่มต้นได้จาก Chikorita, Tepig หรือ Totodile แล้วออกผจญภัยในโลกใหม่ที่เต็มไปด้วยเทรนเนอร์คู่แข่งและความลับของเมือง Lumiose ที่ถูกปรับโฉมใหม่ให้เข้ากับยุค Switch 2 ถัดมาในวันที่ 20 พฤศจิกายนคือ Kirby Air Riders เกมแข่งรถภาคต่อจากเวอร์ชัน GameCube ปี 2003 ที่กลับมาอีกครั้งพร้อมกราฟิกใหม่และโหมดผู้เล่นหลายคนที่ออกแบบมาเพื่อการเล่นบน Switch 2 โดยเฉพาะ และแม้ว่า Grand Theft Auto VI จะถูกเลื่อนออกไปเป็นปีหน้า แต่ก็เปิดทางให้เกมอื่นๆ ได้เฉิดฉาย โดยเฉพาะ Metroid Prime 4: Beyond ที่มีข่าวลือว่าจะเปิดตัวในเดือนกันยายนนี้ หากไม่ถูกเลื่อนอีกครั้ง ซึ่งถือเป็นการกลับมาของซีรีส์ที่แฟนๆ รอคอยมาตั้งแต่ปี 2017 ✅ Pokémon Legends: Z-A ➡️ เปิดตัววันที่ 16 ตุลาคม 2025 ➡️ มีโปเกมอนเริ่มต้นให้เลือก 3 ตัว: Chikorita, Tepig, Totodile ➡️ ฉากหลังคือเมือง Lumiose ที่ถูกปรับโฉมใหม่ ➡️ รองรับ Nintendo Switch 2 Edition พร้อมกราฟิกและระบบใหม่ ✅ Kirby Air Riders ➡️ เปิดตัววันที่ 20 พฤศจิกายน 2025 ➡️ เป็นภาคต่อจากเกมแข่งรถบน GameCube ปี 2003 ➡️ รองรับโหมดผู้เล่นหลายคนและการเล่นออนไลน์ ➡️ พัฒนาเพื่อใช้ประสิทธิภาพของ Switch 2 อย่างเต็มที่ ✅ Metroid Prime 4: Beyond ➡️ ยังไม่มีวันเปิดตัวอย่างเป็นทางการ แต่คาดว่าอาจเปิดตัวในเดือนกันยายนหรือธันวาคม ➡️ มีข่าวลือว่าทีมทดสอบเกมของ Retro Studios เพิ่งเสร็จสิ้นงานแล้ว ➡️ รองรับโหมดกราฟิก 4K/60fps และโหมดประสิทธิภาพ 120fps บน Switch 26 ➡️ เป็นภาคต่อที่เริ่มพัฒนาใหม่ตั้งแต่ปี 2019 หลังจากเปลี่ยนทีมผู้สร้าง ✅ เกมอื่นๆ ที่น่าสนใจในฤดูใบไม้ร่วง ➡️ Hyrule Warriors: Age of Imprisonment (ฤดูหนาว 2025) ➡️ Super Mario Party Jamboree + Jamboree TV (เปิดตัวแล้วในเดือนกรกฎาคม) ➡️ Donkey Kong Bananza (เปิดตัวแล้วในเดือนกรกฎาคม) https://www.thestar.com.my/tech/tech-news/2025/09/08/pokemon-and-11-more-video-games-coming-this-fall
    WWW.THESTAR.COM.MY
    Pokemon and 11 more video games coming this fall
    There are sequels aplenty, including new Ninja Gaiden and Battlefield games, but also a fresh look at mountain climbing.
    0 Comments 0 Shares 133 Views 0 Reviews
  • “USB ไม่พอ? เพิ่มพอร์ตให้ PS5 ง่ายๆ ด้วยฮับที่เหมาะกับการเล่นเกมยุคใหม่!”

    ลองนึกภาพว่าคุณกำลังจะเริ่มเล่นเกมบน PS5 ที่คุณรัก แต่พบว่า...พอร์ต USB ทั้ง 4 ช่องถูกใช้หมดแล้ว — ชาร์จจอย, ต่อกล้อง, เสียบหูฟังไร้สาย และเชื่อมต่อ PS VR2 แล้วจะเสียบฮาร์ดดิสก์เสริมตรงไหน?

    นั่นคือปัญหาที่ผู้ใช้ PS5 หลายคนเจอ และข่าวนี้มีคำตอบ: ใช้ “USB Hub” เพื่อเพิ่มจำนวนพอร์ตให้กับเครื่องของคุณ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์หรือเสียบสลับอุปกรณ์ไปมาให้ยุ่งยาก

    PS5 มีพอร์ต USB ทั้งหมด 4 ช่อง (2 ด้านหน้า, 2 ด้านหลัง) ซึ่งรองรับความเร็วสูงสุดถึง 10Gbps แต่เมื่อใช้งานพร้อมกันหลายอุปกรณ์ เช่น ฮาร์ดดิสก์ภายนอก, จอยหลายตัว, กล้อง หรือ VR — พื้นที่ก็ไม่พอ

    ทางออกคือการเลือก USB Hub ที่เหมาะกับการใช้งานของคุณ เช่น:
    - ถ้าใช้กับอุปกรณ์เบาๆ อย่างคีย์บอร์ดหรือหูฟังไร้สาย: ฮับธรรมดา USB 2.0 ก็เพียงพอ
    - ถ้าใช้กับอุปกรณ์ที่ต้องการพลังงานสูง เช่น ฮาร์ดดิสก์หรือ PS VR2: ต้องใช้ฮับแบบมีไฟเลี้ยง (Powered USB Hub)
    - ถ้าอยากให้ฮับกลมกลืนกับดีไซน์เครื่อง: มีฮับที่ออกแบบมาเฉพาะสำหรับ PS5 เช่น Megadream หรือ IQIKU

    นอกจากนี้ยังมีฮับที่รองรับ USB 3.0 หรือ 3.2 ซึ่งให้ความเร็วในการส่งข้อมูลสูงขึ้น เหมาะกับการเล่นเกมหรือโหลดไฟล์ขนาดใหญ่

    พอร์ต USB บน PS5
    มีทั้งหมด 4 ช่อง: ด้านหน้า 2 (Type-C และ Type-A), ด้านหลัง 2 (Type-A)
    รองรับความเร็ว Hi-Speed และ SuperSpeed (สูงสุด 10Gbps)
    ใช้สำหรับชาร์จจอย, ต่อกล้อง, หูฟัง, PS VR2 และฮาร์ดดิสก์ภายนอก

    การเพิ่มพอร์ตด้วย USB Hub
    USB Hub คืออุปกรณ์ที่แปลง 1 พอร์ตให้กลายเป็นหลายพอร์ต
    ช่วยให้เชื่อมต่ออุปกรณ์หลายตัวพร้อมกันได้
    ไม่จำเป็นต้องใช้ฮับที่ออกแบบเฉพาะสำหรับ PS5 — ฮับทั่วไปก็ใช้ได้
    ตัวอย่างฮับยอดนิยม:   
    - Ugreen USB 3.0 Hub (4.7 ดาว, $9.99)   
    - Megadream 6-Port Hub (USB 2.0, $16.99)   
    - PowerA 4-Port Powered Hub (USB 3.0, $29.99)
    ฮับแบบมีไฟเลี้ยงเหมาะกับอุปกรณ์ที่ใช้พลังงานสูง เช่น ฮาร์ดดิสก์

    ข้อมูลเพิ่มเติมจากภายนอก
    Anker Ultra Slim 4-Port USB 3.0 Hub เป็นตัวเลือกยอดนิยมสำหรับ PS5
    IQIKU PS5 USB Hub รองรับการชาร์จและเชื่อมต่ออุปกรณ์เบาๆ
    StarTech และ UGREEN มีฮับที่รองรับ USB-C ความเร็วสูงถึง 10Gbps
    ฮับบางรุ่นออกแบบให้เข้ากับดีไซน์ PS5 โดยเฉพาะ

    คำเตือนในการเลือกใช้งาน USB Hub
    ฮับ USB 2.0 ไม่สามารถใช้กับฮาร์ดดิสก์หรือ PS VR2 ได้
    ฮับแบบไม่มีไฟเลี้ยงอาจไม่รองรับอุปกรณ์ที่ต้องการพลังงานสูง
    การใช้ฮับที่ไม่รองรับความเร็วสูง อาจทำให้การโหลดเกมหรือส่งข้อมูลช้าลง
    ฮับบางรุ่นอาจมีดีไซน์ไม่เข้ากับเครื่อง PS5 และเกะกะพื้นที่ใช้งาน

    https://www.slashgear.com/1959486/how-to-add-more-usb-ports-to-ps5/
    🎮 “USB ไม่พอ? เพิ่มพอร์ตให้ PS5 ง่ายๆ ด้วยฮับที่เหมาะกับการเล่นเกมยุคใหม่!” ลองนึกภาพว่าคุณกำลังจะเริ่มเล่นเกมบน PS5 ที่คุณรัก แต่พบว่า...พอร์ต USB ทั้ง 4 ช่องถูกใช้หมดแล้ว — ชาร์จจอย, ต่อกล้อง, เสียบหูฟังไร้สาย และเชื่อมต่อ PS VR2 แล้วจะเสียบฮาร์ดดิสก์เสริมตรงไหน? นั่นคือปัญหาที่ผู้ใช้ PS5 หลายคนเจอ และข่าวนี้มีคำตอบ: ใช้ “USB Hub” เพื่อเพิ่มจำนวนพอร์ตให้กับเครื่องของคุณ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์หรือเสียบสลับอุปกรณ์ไปมาให้ยุ่งยาก PS5 มีพอร์ต USB ทั้งหมด 4 ช่อง (2 ด้านหน้า, 2 ด้านหลัง) ซึ่งรองรับความเร็วสูงสุดถึง 10Gbps แต่เมื่อใช้งานพร้อมกันหลายอุปกรณ์ เช่น ฮาร์ดดิสก์ภายนอก, จอยหลายตัว, กล้อง หรือ VR — พื้นที่ก็ไม่พอ ทางออกคือการเลือก USB Hub ที่เหมาะกับการใช้งานของคุณ เช่น: - ถ้าใช้กับอุปกรณ์เบาๆ อย่างคีย์บอร์ดหรือหูฟังไร้สาย: ฮับธรรมดา USB 2.0 ก็เพียงพอ - ถ้าใช้กับอุปกรณ์ที่ต้องการพลังงานสูง เช่น ฮาร์ดดิสก์หรือ PS VR2: ต้องใช้ฮับแบบมีไฟเลี้ยง (Powered USB Hub) - ถ้าอยากให้ฮับกลมกลืนกับดีไซน์เครื่อง: มีฮับที่ออกแบบมาเฉพาะสำหรับ PS5 เช่น Megadream หรือ IQIKU นอกจากนี้ยังมีฮับที่รองรับ USB 3.0 หรือ 3.2 ซึ่งให้ความเร็วในการส่งข้อมูลสูงขึ้น เหมาะกับการเล่นเกมหรือโหลดไฟล์ขนาดใหญ่ ✅ พอร์ต USB บน PS5 ➡️ มีทั้งหมด 4 ช่อง: ด้านหน้า 2 (Type-C และ Type-A), ด้านหลัง 2 (Type-A) ➡️ รองรับความเร็ว Hi-Speed และ SuperSpeed (สูงสุด 10Gbps) ➡️ ใช้สำหรับชาร์จจอย, ต่อกล้อง, หูฟัง, PS VR2 และฮาร์ดดิสก์ภายนอก ✅ การเพิ่มพอร์ตด้วย USB Hub ➡️ USB Hub คืออุปกรณ์ที่แปลง 1 พอร์ตให้กลายเป็นหลายพอร์ต ➡️ ช่วยให้เชื่อมต่ออุปกรณ์หลายตัวพร้อมกันได้ ➡️ ไม่จำเป็นต้องใช้ฮับที่ออกแบบเฉพาะสำหรับ PS5 — ฮับทั่วไปก็ใช้ได้ ➡️ ตัวอย่างฮับยอดนิยม:    - Ugreen USB 3.0 Hub (4.7 ดาว, $9.99)    - Megadream 6-Port Hub (USB 2.0, $16.99)    - PowerA 4-Port Powered Hub (USB 3.0, $29.99) ➡️ ฮับแบบมีไฟเลี้ยงเหมาะกับอุปกรณ์ที่ใช้พลังงานสูง เช่น ฮาร์ดดิสก์ ✅ ข้อมูลเพิ่มเติมจากภายนอก ➡️ Anker Ultra Slim 4-Port USB 3.0 Hub เป็นตัวเลือกยอดนิยมสำหรับ PS5 ➡️ IQIKU PS5 USB Hub รองรับการชาร์จและเชื่อมต่ออุปกรณ์เบาๆ ➡️ StarTech และ UGREEN มีฮับที่รองรับ USB-C ความเร็วสูงถึง 10Gbps ➡️ ฮับบางรุ่นออกแบบให้เข้ากับดีไซน์ PS5 โดยเฉพาะ ‼️ คำเตือนในการเลือกใช้งาน USB Hub ⛔ ฮับ USB 2.0 ไม่สามารถใช้กับฮาร์ดดิสก์หรือ PS VR2 ได้ ⛔ ฮับแบบไม่มีไฟเลี้ยงอาจไม่รองรับอุปกรณ์ที่ต้องการพลังงานสูง ⛔ การใช้ฮับที่ไม่รองรับความเร็วสูง อาจทำให้การโหลดเกมหรือส่งข้อมูลช้าลง ⛔ ฮับบางรุ่นอาจมีดีไซน์ไม่เข้ากับเครื่อง PS5 และเกะกะพื้นที่ใช้งาน https://www.slashgear.com/1959486/how-to-add-more-usb-ports-to-ps5/
    WWW.SLASHGEAR.COM
    How To Add More USB Ports To Your PS5 - SlashGear
    You can add more USB ports to your PS5 using a USB hub. Choose between basic splitters for low-power devices or powered hubs for external drives.
    0 Comments 0 Shares 67 Views 0 Reviews
  • เรื่องเล่าจาก Chrome สู่ Zen: เมื่อเบราว์เซอร์กลายเป็นเครื่องมือเพื่อความสงบ ไม่ใช่แค่การเข้าถึงข้อมูล

    Zen Browser เป็นเบราว์เซอร์โอเพ่นซอร์สที่พัฒนาบนพื้นฐานของ Firefox โดยไม่ใช้เอนจิน Chromium ที่เบราว์เซอร์ส่วนใหญ่พึ่งพา จุดเด่นของ Zen คือการออกแบบที่เน้นความสงบ ความเป็นส่วนตัว และการปรับแต่งที่ลึกกว่าปกติ

    ทันทีที่เปิดใช้งานครั้งแรก ผู้ใช้จะได้สัมผัสกับ onboarding ที่ไม่เหมือนใคร—เลือกธีม, ปรับทิศทางของ gradient, และแม้แต่ปรับ grain effect ของพื้นหลังได้ตามใจ จากนั้นจะเข้าสู่ UI ที่ใช้ sidebar แนวตั้งแทนแถบแนวนอนแบบ Chrome ซึ่งช่วยให้โฟกัสกับเนื้อหาได้มากขึ้น

    Zen ยังมีฟีเจอร์ productivity เช่น Split View ที่เปิดสองลิงก์ข้างกันได้, Workspaces ที่แยกธีมและแท็บตามบริบท เช่น งานหรือเรียน และ Zen Mods ซึ่งเป็นปลั๊กอินจากชุมชนที่ช่วยเพิ่มฟีเจอร์ เช่น Super URL bar ที่ปรับแต่งหน้าตาแถบ URL ได้ละเอียดมาก

    แม้ Zen จะมีความคล้ายกับ Arc Browser ที่เคยได้รับความนิยมในปี 2024 แต่ Arc หยุดพัฒนาไปเพราะปัญหาด้านประสิทธิภาพและความปลอดภัย ขณะที่ Zen ยังคงพัฒนาอย่างต่อเนื่องโดยชุมชนโอเพ่นซอร์ส และมีพื้นฐานจาก Firefox ที่มั่นคงกว่า

    Zen ยังเน้นความโปร่งใสด้านการเงิน โดยไม่ขายข้อมูลผู้ใช้ แต่พึ่งพาการสนับสนุนจากผู้ใช้โดยตรงผ่านการบริจาค และยังไม่มีแผนสร้างรายได้จากโฆษณา

    จุดเด่นของ Zen Browser
    พัฒนาบน Firefox ไม่ใช้ Chromium
    เน้นความเป็นส่วนตัวและการปรับแต่ง UI อย่างลึก
    มี onboarding ที่ให้เลือกธีมและเอฟเฟกต์ได้ตั้งแต่เริ่มต้น

    ฟีเจอร์ที่แตกต่างจากเบราว์เซอร์ทั่วไป
    ใช้ sidebar แนวตั้งแทนแถบแนวนอน
    Split View เปิดสองลิงก์ข้างกัน
    Workspaces แยกแท็บตามบริบท พร้อมธีมเฉพาะ
    Zen Mods เพิ่มฟีเจอร์จากชุมชน เช่น Super URL bar

    ความสัมพันธ์กับ Arc Browser
    มีฟีเจอร์คล้าย Arc เช่น split view และ workspaces
    Arc หยุดพัฒนาเพราะปัญหาด้าน performance และ security
    Zen ยังคงพัฒนาโดยชุมชน และมีพื้นฐานจาก Firefox ที่มั่นคง

    ความโปร่งใสและการสนับสนุน
    ไม่ขายข้อมูลผู้ใช้
    พึ่งพาการบริจาคและผู้สนับสนุนโดยตรง
    เปิดให้ผู้พัฒนาร่วมสร้างฟีเจอร์ใหม่ผ่านโอเพ่นซอร์ส

    https://www.slashgear.com/1957695/why-people-are-switching-to-zen-web-browser/
    🎙️ เรื่องเล่าจาก Chrome สู่ Zen: เมื่อเบราว์เซอร์กลายเป็นเครื่องมือเพื่อความสงบ ไม่ใช่แค่การเข้าถึงข้อมูล Zen Browser เป็นเบราว์เซอร์โอเพ่นซอร์สที่พัฒนาบนพื้นฐานของ Firefox โดยไม่ใช้เอนจิน Chromium ที่เบราว์เซอร์ส่วนใหญ่พึ่งพา จุดเด่นของ Zen คือการออกแบบที่เน้นความสงบ ความเป็นส่วนตัว และการปรับแต่งที่ลึกกว่าปกติ ทันทีที่เปิดใช้งานครั้งแรก ผู้ใช้จะได้สัมผัสกับ onboarding ที่ไม่เหมือนใคร—เลือกธีม, ปรับทิศทางของ gradient, และแม้แต่ปรับ grain effect ของพื้นหลังได้ตามใจ จากนั้นจะเข้าสู่ UI ที่ใช้ sidebar แนวตั้งแทนแถบแนวนอนแบบ Chrome ซึ่งช่วยให้โฟกัสกับเนื้อหาได้มากขึ้น Zen ยังมีฟีเจอร์ productivity เช่น Split View ที่เปิดสองลิงก์ข้างกันได้, Workspaces ที่แยกธีมและแท็บตามบริบท เช่น งานหรือเรียน และ Zen Mods ซึ่งเป็นปลั๊กอินจากชุมชนที่ช่วยเพิ่มฟีเจอร์ เช่น Super URL bar ที่ปรับแต่งหน้าตาแถบ URL ได้ละเอียดมาก แม้ Zen จะมีความคล้ายกับ Arc Browser ที่เคยได้รับความนิยมในปี 2024 แต่ Arc หยุดพัฒนาไปเพราะปัญหาด้านประสิทธิภาพและความปลอดภัย ขณะที่ Zen ยังคงพัฒนาอย่างต่อเนื่องโดยชุมชนโอเพ่นซอร์ส และมีพื้นฐานจาก Firefox ที่มั่นคงกว่า Zen ยังเน้นความโปร่งใสด้านการเงิน โดยไม่ขายข้อมูลผู้ใช้ แต่พึ่งพาการสนับสนุนจากผู้ใช้โดยตรงผ่านการบริจาค และยังไม่มีแผนสร้างรายได้จากโฆษณา ✅ จุดเด่นของ Zen Browser ➡️ พัฒนาบน Firefox ไม่ใช้ Chromium ➡️ เน้นความเป็นส่วนตัวและการปรับแต่ง UI อย่างลึก ➡️ มี onboarding ที่ให้เลือกธีมและเอฟเฟกต์ได้ตั้งแต่เริ่มต้น ✅ ฟีเจอร์ที่แตกต่างจากเบราว์เซอร์ทั่วไป ➡️ ใช้ sidebar แนวตั้งแทนแถบแนวนอน ➡️ Split View เปิดสองลิงก์ข้างกัน ➡️ Workspaces แยกแท็บตามบริบท พร้อมธีมเฉพาะ ➡️ Zen Mods เพิ่มฟีเจอร์จากชุมชน เช่น Super URL bar ✅ ความสัมพันธ์กับ Arc Browser ➡️ มีฟีเจอร์คล้าย Arc เช่น split view และ workspaces ➡️ Arc หยุดพัฒนาเพราะปัญหาด้าน performance และ security ➡️ Zen ยังคงพัฒนาโดยชุมชน และมีพื้นฐานจาก Firefox ที่มั่นคง ✅ ความโปร่งใสและการสนับสนุน ➡️ ไม่ขายข้อมูลผู้ใช้ ➡️ พึ่งพาการบริจาคและผู้สนับสนุนโดยตรง ➡️ เปิดให้ผู้พัฒนาร่วมสร้างฟีเจอร์ใหม่ผ่านโอเพ่นซอร์ส https://www.slashgear.com/1957695/why-people-are-switching-to-zen-web-browser/
    WWW.SLASHGEAR.COM
    Many People Are Switching To This Web Browser - Here's Why - SlashGear
    Zen is a beautiful Free and Open Source Firefox-based alternative to Google Chrome, but has some limitations such as the inability to play DRM-protected media.
    0 Comments 0 Shares 139 Views 0 Reviews
  • เรื่องเล่าจากคำสัญญาสู่คำจำกัดความใหม่: เมื่อ Tesla เปลี่ยนความหมายของ FSD และยอมรับว่า “ขับเองจริง” ยังมาไม่ถึง

    ย้อนกลับไปปี 2016 Tesla เคยประกาศว่า รถทุกคันที่ผลิตจะสามารถอัปเดตซอฟต์แวร์เพื่อให้ขับเองได้โดยไม่ต้องมีคนควบคุม และตั้งแต่ปี 2018 Elon Musk ก็พูดซ้ำทุกปีว่า “ภายในสิ้นปีนี้” ระบบขับเคลื่อนอัตโนมัติจะพร้อมใช้งานจริง

    Tesla ยังขายแพ็กเกจ “Full Self-Driving Capability” (FSD) ให้ลูกค้าราคา $15,000 พร้อมคำสัญญาว่าจะอัปเดตให้รถขับเองได้ในอนาคต แต่ในปี 2025 Tesla ยอมรับแล้วว่า รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเองโดยสมบูรณ์ และไม่มีแผนชัดเจนในการอัปเกรด

    ล่าสุด Tesla ได้เปลี่ยนชื่อแพ็กเกจเป็น “Full Self-Driving (Supervised)” พร้อมระบุในเงื่อนไขว่า “ไม่ใช่ระบบอัตโนมัติ” และ “ไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต” ซึ่งหมายความว่าผู้ซื้อ FSD วันนี้ไม่ได้ซื้อความสามารถขับเองแบบที่เคยสัญญาไว้

    ที่น่าจับตามองคือ Tesla ยังใช้คำว่า FSD ในแผนการจ่ายค่าตอบแทนให้ Elon Musk ซึ่งอาจมีมูลค่าสูงถึง $1 ล้านล้านดอลลาร์ หากบรรลุเป้าหมาย เช่น มีผู้สมัครใช้งาน FSD ถึง 10 ล้านราย แต่ในเอกสารนั้น Tesla ได้เปลี่ยนคำจำกัดความของ FSD ให้คลุมเครือว่า “เป็นระบบช่วยขับที่สามารถทำงานคล้ายอัตโนมัติในบางสถานการณ์”

    นั่นหมายความว่า แม้ระบบจะยังต้องมีคนจับพวงมาลัยตลอดเวลา ก็ยังถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่ และ Musk ก็อาจได้รับหุ้นมูลค่ามหาศาลจากการเปลี่ยนคำจำกัดความนี้

    การเปลี่ยนแปลงของคำว่า FSD
    เดิมหมายถึงระบบขับเคลื่อนอัตโนมัติเต็มรูปแบบโดยไม่ต้องมีคนควบคุม
    ปัจจุบันเปลี่ยนเป็น “Full Self-Driving (Supervised)” ที่ยังต้องมีคนจับพวงมาลัย
    Tesla ระบุชัดว่าไม่ใช่ระบบอัตโนมัติ และไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต

    ผลกระทบต่อผู้ซื้อ FSD
    รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเอง
    ไม่มีแผนชัดเจนในการอัปเกรดฮาร์ดแวร์ให้กับรถรุ่นเก่า
    ผู้ซื้อ FSD วันนี้ไม่ได้รับคำสัญญาแบบเดียวกับผู้ซื้อในอดีต

    แผนค่าตอบแทนของ Elon Musk
    Tesla เสนอแพ็กเกจค่าตอบแทนสูงสุด $1 ล้านล้านดอลลาร์
    หนึ่งในเป้าหมายคือมีผู้ใช้งาน FSD ถึง 10 ล้านราย
    คำจำกัดความของ FSD ในเอกสารถูกเปลี่ยนให้คลุมเครือ

    ความแตกต่างระหว่างการตลาดกับเอกสารทางกฎหมาย
    Tesla ใช้คำว่า “ขับเองได้” ในการขาย แต่ใช้คำว่า “ช่วยขับ” ในเอกสาร
    ระบบที่ยังต้องมีคนควบคุมก็ถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่
    อาจนำไปสู่การจ่ายหุ้นให้ Musk แม้ระบบยังไม่ขับเองจริง

    https://electrek.co/2025/09/05/tesla-changes-meaning-full-self-driving-give-up-promise-autonomy/
    🎙️ เรื่องเล่าจากคำสัญญาสู่คำจำกัดความใหม่: เมื่อ Tesla เปลี่ยนความหมายของ FSD และยอมรับว่า “ขับเองจริง” ยังมาไม่ถึง ย้อนกลับไปปี 2016 Tesla เคยประกาศว่า รถทุกคันที่ผลิตจะสามารถอัปเดตซอฟต์แวร์เพื่อให้ขับเองได้โดยไม่ต้องมีคนควบคุม และตั้งแต่ปี 2018 Elon Musk ก็พูดซ้ำทุกปีว่า “ภายในสิ้นปีนี้” ระบบขับเคลื่อนอัตโนมัติจะพร้อมใช้งานจริง Tesla ยังขายแพ็กเกจ “Full Self-Driving Capability” (FSD) ให้ลูกค้าราคา $15,000 พร้อมคำสัญญาว่าจะอัปเดตให้รถขับเองได้ในอนาคต แต่ในปี 2025 Tesla ยอมรับแล้วว่า รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเองโดยสมบูรณ์ และไม่มีแผนชัดเจนในการอัปเกรด ล่าสุด Tesla ได้เปลี่ยนชื่อแพ็กเกจเป็น “Full Self-Driving (Supervised)” พร้อมระบุในเงื่อนไขว่า “ไม่ใช่ระบบอัตโนมัติ” และ “ไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต” ซึ่งหมายความว่าผู้ซื้อ FSD วันนี้ไม่ได้ซื้อความสามารถขับเองแบบที่เคยสัญญาไว้ ที่น่าจับตามองคือ Tesla ยังใช้คำว่า FSD ในแผนการจ่ายค่าตอบแทนให้ Elon Musk ซึ่งอาจมีมูลค่าสูงถึง $1 ล้านล้านดอลลาร์ หากบรรลุเป้าหมาย เช่น มีผู้สมัครใช้งาน FSD ถึง 10 ล้านราย แต่ในเอกสารนั้น Tesla ได้เปลี่ยนคำจำกัดความของ FSD ให้คลุมเครือว่า “เป็นระบบช่วยขับที่สามารถทำงานคล้ายอัตโนมัติในบางสถานการณ์” นั่นหมายความว่า แม้ระบบจะยังต้องมีคนจับพวงมาลัยตลอดเวลา ก็ยังถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่ และ Musk ก็อาจได้รับหุ้นมูลค่ามหาศาลจากการเปลี่ยนคำจำกัดความนี้ ✅ การเปลี่ยนแปลงของคำว่า FSD ➡️ เดิมหมายถึงระบบขับเคลื่อนอัตโนมัติเต็มรูปแบบโดยไม่ต้องมีคนควบคุม ➡️ ปัจจุบันเปลี่ยนเป็น “Full Self-Driving (Supervised)” ที่ยังต้องมีคนจับพวงมาลัย ➡️ Tesla ระบุชัดว่าไม่ใช่ระบบอัตโนมัติ และไม่รับประกันว่าจะเป็นฟีเจอร์ในอนาคต ✅ ผลกระทบต่อผู้ซื้อ FSD ➡️ รถที่ผลิตระหว่างปี 2016–2023 ไม่มีฮาร์ดแวร์ที่รองรับการขับเอง ➡️ ไม่มีแผนชัดเจนในการอัปเกรดฮาร์ดแวร์ให้กับรถรุ่นเก่า ➡️ ผู้ซื้อ FSD วันนี้ไม่ได้รับคำสัญญาแบบเดียวกับผู้ซื้อในอดีต ✅ แผนค่าตอบแทนของ Elon Musk ➡️ Tesla เสนอแพ็กเกจค่าตอบแทนสูงสุด $1 ล้านล้านดอลลาร์ ➡️ หนึ่งในเป้าหมายคือมีผู้ใช้งาน FSD ถึง 10 ล้านราย ➡️ คำจำกัดความของ FSD ในเอกสารถูกเปลี่ยนให้คลุมเครือ ✅ ความแตกต่างระหว่างการตลาดกับเอกสารทางกฎหมาย ➡️ Tesla ใช้คำว่า “ขับเองได้” ในการขาย แต่ใช้คำว่า “ช่วยขับ” ในเอกสาร ➡️ ระบบที่ยังต้องมีคนควบคุมก็ถือว่า “บรรลุเป้าหมาย” ได้ตามนิยามใหม่ ➡️ อาจนำไปสู่การจ่ายหุ้นให้ Musk แม้ระบบยังไม่ขับเองจริง https://electrek.co/2025/09/05/tesla-changes-meaning-full-self-driving-give-up-promise-autonomy/
    ELECTREK.CO
    Tesla changes meaning of 'Full Self-Driving', gives up on promise of autonomy
    Tesla has changed the meaning of “Full Self-Driving”, also known as “FSD”, to give up on its original promise of...
    0 Comments 0 Shares 128 Views 0 Reviews
  • เรื่องเล่าจาก DuckDuckGo ถึง Grok: เมื่อ AI ไม่ได้แค่จำคำพูดคุณ แต่เรียนรู้วิธีโน้มน้าวคุณจากมัน

    Gabriel Weinberg ผู้ก่อตั้ง DuckDuckGo เขียนบทความเตือนว่า AI surveillance กำลังกลายเป็นภัยเงียบที่รุนแรงกว่าการติดตามออนไลน์แบบเดิม เพราะแชตบอทไม่ได้แค่รับข้อมูล แต่สามารถ “เข้าใจ” และ “ปรับตัว” เพื่อโน้มน้าวคุณได้อย่างแม่นยำ

    ต่างจากการค้นหาบน Google ที่เผยให้เห็นความสนใจหรือปัญหาเฉพาะหน้า การสนทนากับแชตบอทเผยให้เห็นกระบวนการคิด สไตล์การสื่อสาร และแม้แต่จุดอ่อนทางอารมณ์ของผู้ใช้ ซึ่งสามารถนำไปสร้างโปรไฟล์ที่ละเอียดมาก—และใช้เพื่อการโฆษณาเชิงพฤติกรรมหรือการชักจูงทางการเมือง

    Weinberg ยกตัวอย่างว่า แชตบอทสามารถเสนอ “ข้อเท็จจริง” ที่ไม่ได้รับการตรวจสอบ หรือแนะนำผลิตภัณฑ์อย่างแนบเนียน โดยอิงจากรูปแบบการพูดของคุณเอง และยิ่งแชตบอทมีระบบความจำ (memory) ก็ยิ่งสามารถ fine-tune การโน้มน้าวให้ตรงจุดมากขึ้น

    DuckDuckGo จึงเปิดตัว Duck.ai ซึ่งเป็นแชตบอทที่เน้นความเป็นส่วนตัว โดยไม่เก็บข้อมูลการสนทนา และให้ผู้ใช้เลือกได้ว่าจะใช้ AI หรือไม่ในการค้นหา

    แต่ในโลกจริง กลับมีเหตุการณ์ที่สวนทางกับแนวคิดนี้ เช่น Grok ของ X ที่รั่วข้อมูลการสนทนาหลายแสนรายการ, Perplexity ที่ถูกแฮกจนข้อมูลผู้ใช้หลุด, Anthropic ที่เปลี่ยนนโยบายให้เก็บข้อมูลการแชตเป็นค่าเริ่มต้น และ OpenAI ที่ประกาศวิสัยทัศน์ “super assistant” ที่ติดตามทุกการกระทำของผู้ใช้ แม้แต่ในโลกออฟไลน์

    Weinberg เรียกร้องให้สภาคองเกรสเร่งออกกฎหมายคุ้มครองความเป็นส่วนตัวของ AI ก่อนที่ทุกอย่างจะสายเกินไป เพราะสหรัฐฯ ยังไม่มีแม้แต่กฎหมายความเป็นส่วนตัวออนไลน์ทั่วไป และเวลาในการแก้ไขกำลังหมดลง

    ความแตกต่างของ AI กับการติดตามออนไลน์แบบเดิม
    แชตบอทเผยให้เห็นกระบวนการคิดและสไตล์การสื่อสาร
    สร้างโปรไฟล์ที่ละเอียดกว่าการติดตามผ่าน search query
    ใช้เพื่อการโน้มน้าวเชิงพฤติกรรมและการเมืองได้อย่างแนบเนียน

    ตัวอย่างการละเมิดความเป็นส่วนตัว
    Grok รั่วข้อมูลการสนทนาหลายแสนรายการ
    Perplexity ถูกแฮกจนข้อมูลผู้ใช้หลุด
    Anthropic เปลี่ยนนโยบายให้เก็บข้อมูลการแชตเป็นค่าเริ่มต้น
    OpenAI วางแผนสร้าง “super assistant” ที่ติดตามทุกการกระทำของผู้ใช้

    แนวทางของ DuckDuckGo
    เปิดตัว Duck.ai ที่ไม่เก็บข้อมูลการสนทนา
    ให้ผู้ใช้เลือกได้ว่าจะใช้ AI หรือไม่
    แสดงให้เห็นว่า AI ที่เคารพความเป็นส่วนตัวสามารถทำได้จริง

    ข้อเรียกร้องด้านนโยบาย
    เรียกร้องให้สภาคองเกรสออกกฎหมายคุ้มครองความเป็นส่วนตัวของ AI
    ชี้ว่าสหรัฐฯ ยังไม่มีแม้แต่กฎหมายความเป็นส่วนตัวออนไลน์ทั่วไป
    เตือนว่าเวลาในการแก้ไขกำลังหมดลง

    https://gabrielweinberg.com/p/ai-surveillance-should-be-banned
    🎙️ เรื่องเล่าจาก DuckDuckGo ถึง Grok: เมื่อ AI ไม่ได้แค่จำคำพูดคุณ แต่เรียนรู้วิธีโน้มน้าวคุณจากมัน Gabriel Weinberg ผู้ก่อตั้ง DuckDuckGo เขียนบทความเตือนว่า AI surveillance กำลังกลายเป็นภัยเงียบที่รุนแรงกว่าการติดตามออนไลน์แบบเดิม เพราะแชตบอทไม่ได้แค่รับข้อมูล แต่สามารถ “เข้าใจ” และ “ปรับตัว” เพื่อโน้มน้าวคุณได้อย่างแม่นยำ ต่างจากการค้นหาบน Google ที่เผยให้เห็นความสนใจหรือปัญหาเฉพาะหน้า การสนทนากับแชตบอทเผยให้เห็นกระบวนการคิด สไตล์การสื่อสาร และแม้แต่จุดอ่อนทางอารมณ์ของผู้ใช้ ซึ่งสามารถนำไปสร้างโปรไฟล์ที่ละเอียดมาก—และใช้เพื่อการโฆษณาเชิงพฤติกรรมหรือการชักจูงทางการเมือง Weinberg ยกตัวอย่างว่า แชตบอทสามารถเสนอ “ข้อเท็จจริง” ที่ไม่ได้รับการตรวจสอบ หรือแนะนำผลิตภัณฑ์อย่างแนบเนียน โดยอิงจากรูปแบบการพูดของคุณเอง และยิ่งแชตบอทมีระบบความจำ (memory) ก็ยิ่งสามารถ fine-tune การโน้มน้าวให้ตรงจุดมากขึ้น DuckDuckGo จึงเปิดตัว Duck.ai ซึ่งเป็นแชตบอทที่เน้นความเป็นส่วนตัว โดยไม่เก็บข้อมูลการสนทนา และให้ผู้ใช้เลือกได้ว่าจะใช้ AI หรือไม่ในการค้นหา แต่ในโลกจริง กลับมีเหตุการณ์ที่สวนทางกับแนวคิดนี้ เช่น Grok ของ X ที่รั่วข้อมูลการสนทนาหลายแสนรายการ, Perplexity ที่ถูกแฮกจนข้อมูลผู้ใช้หลุด, Anthropic ที่เปลี่ยนนโยบายให้เก็บข้อมูลการแชตเป็นค่าเริ่มต้น และ OpenAI ที่ประกาศวิสัยทัศน์ “super assistant” ที่ติดตามทุกการกระทำของผู้ใช้ แม้แต่ในโลกออฟไลน์ Weinberg เรียกร้องให้สภาคองเกรสเร่งออกกฎหมายคุ้มครองความเป็นส่วนตัวของ AI ก่อนที่ทุกอย่างจะสายเกินไป เพราะสหรัฐฯ ยังไม่มีแม้แต่กฎหมายความเป็นส่วนตัวออนไลน์ทั่วไป และเวลาในการแก้ไขกำลังหมดลง ✅ ความแตกต่างของ AI กับการติดตามออนไลน์แบบเดิม ➡️ แชตบอทเผยให้เห็นกระบวนการคิดและสไตล์การสื่อสาร ➡️ สร้างโปรไฟล์ที่ละเอียดกว่าการติดตามผ่าน search query ➡️ ใช้เพื่อการโน้มน้าวเชิงพฤติกรรมและการเมืองได้อย่างแนบเนียน ✅ ตัวอย่างการละเมิดความเป็นส่วนตัว ➡️ Grok รั่วข้อมูลการสนทนาหลายแสนรายการ ➡️ Perplexity ถูกแฮกจนข้อมูลผู้ใช้หลุด ➡️ Anthropic เปลี่ยนนโยบายให้เก็บข้อมูลการแชตเป็นค่าเริ่มต้น ➡️ OpenAI วางแผนสร้าง “super assistant” ที่ติดตามทุกการกระทำของผู้ใช้ ✅ แนวทางของ DuckDuckGo ➡️ เปิดตัว Duck.ai ที่ไม่เก็บข้อมูลการสนทนา ➡️ ให้ผู้ใช้เลือกได้ว่าจะใช้ AI หรือไม่ ➡️ แสดงให้เห็นว่า AI ที่เคารพความเป็นส่วนตัวสามารถทำได้จริง ✅ ข้อเรียกร้องด้านนโยบาย ➡️ เรียกร้องให้สภาคองเกรสออกกฎหมายคุ้มครองความเป็นส่วนตัวของ AI ➡️ ชี้ว่าสหรัฐฯ ยังไม่มีแม้แต่กฎหมายความเป็นส่วนตัวออนไลน์ทั่วไป ➡️ เตือนว่าเวลาในการแก้ไขกำลังหมดลง https://gabrielweinberg.com/p/ai-surveillance-should-be-banned
    GABRIELWEINBERG.COM
    AI surveillance should be banned while there is still time.
    All the same privacy harms with online tracking are also present with AI, but worse.
    0 Comments 0 Shares 134 Views 0 Reviews
  • เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU

    Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา

    แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์

    ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow

    Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม

    แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน

    แนวคิด Software Defined Super Core ของ Intel
    รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว
    ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ
    ใช้ shared memory และ synchronization module ภายในคอร์

    จุดต่างจากเทคนิคเดิม
    คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย
    ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล
    มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์

    การใช้งานและความคาดหวัง
    เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง
    หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์
    อาจใช้ในงาน AI inference, simulation, หรือ mining

    ข้อกำหนดด้านซอฟต์แวร์
    ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core
    ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software

    https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    🎙️ เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์ ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน ✅ แนวคิด Software Defined Super Core ของ Intel ➡️ รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว ➡️ ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ shared memory และ synchronization module ภายในคอร์ ✅ จุดต่างจากเทคนิคเดิม ➡️ คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย ➡️ ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล ➡️ มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์ ✅ การใช้งานและความคาดหวัง ➡️ เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง ➡️ หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์ ➡️ อาจใช้ในงาน AI inference, simulation, หรือ mining ✅ ข้อกำหนดด้านซอฟต์แวร์ ➡️ ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core ➡️ ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    0 Comments 0 Shares 220 Views 0 Reviews
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 181 Views 0 Reviews
  • เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว

    Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ

    ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime

    ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น

    ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7

    นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที

    สเปกหลักของ GIGABYTE XL44-SX2-AAS1
    ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
    แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
    ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว

    ความสามารถด้านการเชื่อมต่อและประมวลผล
    รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
    มี 2×400GbE external connections สำหรับ data center traffic
    รองรับ GPU-to-GPU direct communication สำหรับ distributed AI

    ฮาร์ดแวร์ระดับ data center
    Dual Intel Xeon 6700/6500 series CPU
    รองรับ DDR5 DIMM สูงสุด 32 แถว
    พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium

    ซอฟต์แวร์และการใช้งาน
    มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
    รองรับงาน AI inference, physical AI, 3D simulation, video processing
    ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization

    การใช้งานในอุตสาหกรรม
    เหมาะกับ smart manufacturing, financial modeling, medical research
    รองรับ LLM inference และการสร้าง digital twins
    พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025

    https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    🎙️ เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7 นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที ✅ สเปกหลักของ GIGABYTE XL44-SX2-AAS1 ➡️ ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว ➡️ แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32 ➡️ ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว ✅ ความสามารถด้านการเชื่อมต่อและประมวลผล ➡️ รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU ➡️ มี 2×400GbE external connections สำหรับ data center traffic ➡️ รองรับ GPU-to-GPU direct communication สำหรับ distributed AI ✅ ฮาร์ดแวร์ระดับ data center ➡️ Dual Intel Xeon 6700/6500 series CPU ➡️ รองรับ DDR5 DIMM สูงสุด 32 แถว ➡️ พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium ✅ ซอฟต์แวร์และการใช้งาน ➡️ มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos ➡️ รองรับงาน AI inference, physical AI, 3D simulation, video processing ➡️ ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization ✅ การใช้งานในอุตสาหกรรม ➡️ เหมาะกับ smart manufacturing, financial modeling, medical research ➡️ รองรับ LLM inference และการสร้าง digital twins ➡️ พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025 https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    WWW.TECHPOWERUP.COM
    Giga Computing Expands NVIDIA RTX PRO Server Portfolio
    Giga Computing, a subsidiary of GIGABYTE Group, today announced the availability of the XL44-SX2-AAS1 server, integrating NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs with the NVIDIA BlueField-3 DPU and NVIDIA ConnectX-8 SuperNICs, this breakthrough platform unifies computing and high-speed dat...
    0 Comments 0 Shares 168 Views 0 Reviews
  • เรื่องเล่าจากเบื้องหลังการปิดข่าว: เมื่อการไม่เปิดเผยเหตุการณ์ไซเบอร์กลายเป็นกลยุทธ์องค์กร

    จากรายงานล่าสุดของ Bitdefender และการสัมภาษณ์โดย CSO Online พบว่า 69% ของ CISO ถูกขอให้ปิดข่าวการถูกโจมตีทางไซเบอร์โดยผู้บริหารขององค์กร ซึ่งเพิ่มขึ้นจาก 42% เมื่อสองปีก่อน สาเหตุหลักคือความกลัวผลกระทบต่อชื่อเสียงและราคาหุ้น มากกว่าการปฏิบัติตามกฎหมายหรือมาตรฐานความปลอดภัย

    รูปแบบการโจมตีที่เปลี่ยนไปก็มีส่วน—จาก ransomware ที่เคยบังคับให้เปิดเผยข้อมูล สู่การขโมยข้อมูลแบบเงียบ ๆ โดยไม่กระทบผู้ใช้ปลายทาง เช่น กลุ่ม RedCurl ที่เจาะ hypervisor โดยไม่แตะระบบที่ผู้ใช้เห็น ทำให้การเจรจาเป็นไปแบบลับ ๆ และลดแรงกดดันในการเปิดเผย

    CISO หลายคนเล่าว่าถูกกดดันให้ “ไม่แจ้งคณะกรรมการตรวจสอบ” หรือ “แต่งเรื่องให้ดูดีในเอกสาร SEC” แม้จะมีเหตุการณ์อย่างการขโมยข้อมูล 500GB, การใช้สิทธิ์ผู้ดูแลระบบในทางที่ผิด, หรือการโอนเงินผิดกว่า €50 ล้านผ่านช่องโหว่ใน SAP

    แม้จะมีข้อบังคับจาก GDPR, DORA, NIS2 และกฎหมายตลาดทุนที่กำหนดให้ต้องเปิดเผยเหตุการณ์ไซเบอร์อย่างทันท่วงที แต่ CISO กลับถูกบีบให้หลีกเลี่ยงการรายงาน—ทั้งจากแรงกดดันภายในและความกลัวผลกระทบต่ออาชีพของตนเอง

    Caroline Morgan จาก CM Law เตือนว่า “การปิดข่าวไม่ใช่การหลีกเลี่ยงปัญหา แต่เป็นการเพิ่มความเสียหาย” เพราะหากถูกตรวจพบ องค์กรอาจถูกปรับหนัก เสียความเชื่อมั่น และผู้บริหารอาจถูกฟ้องหรือดำเนินคดีได้

    สถิติและแนวโน้มการปิดข่าวไซเบอร์
    69% ของ CISO ถูกขอให้ปิดข่าวการโจมตี เพิ่มจาก 42% ในสองปี
    การโจมตีแบบขโมยข้อมูลเงียบ ๆ ทำให้เหตุการณ์ดูไม่รุนแรง
    การเจรจาแบบลับ ๆ ลดแรงกดดันในการเปิดเผย

    ตัวอย่างเหตุการณ์ที่ถูกปิดข่าว
    ขโมยข้อมูลวิศวกรรม 500GB โดย insider ขายบน dark web
    ผู้ดูแลระบบใช้สิทธิ์ข่มขู่และเข้าถึงบัญชีผู้บริหาร
    โอนเงินผิดกว่า €50 ล้าน ผ่านช่องโหว่ใน SAP
    บัญชี super admin ถูก CrowdStrike แจ้งเตือน แต่ไม่มีการแก้ไข
    CISO ถูกติดสินบนด้วยทริปหรูเพื่อแลกกับสัญญา

    แรงกดดันจากผู้บริหารและโครงสร้างองค์กร
    CIO และ CFO เป็นผู้ตัดสินใจว่าจะเปิดเผยหรือไม่ โดยไม่ปรึกษา CISO
    เหตุการณ์มักถูกเลื่อนการแจ้งก่อนประชุมผู้ถือหุ้นหรือรายงานผลประกอบการ
    CISO ที่ไม่ยอมปิดข่าวมักถูกลดบทบาทหรือให้ออกจากงาน

    ข้อกฎหมายและคำเตือนจากผู้เชี่ยวชาญ
    GDPR, DORA, NIS2 และกฎหมายตลาดทุนกำหนดให้ต้องเปิดเผยทันที
    การปิดข่าวอาจนำไปสู่การปรับ, สูญเสียความเชื่อมั่น, และฟ้องร้อง
    อดีต CISO ของ Uber ถูกตัดสินว่ามีความผิดจากการปิดข่าวการโจมตีในปี 2016

    https://www.csoonline.com/article/4050232/pressure-on-cisos-to-stay-silent-about-security-incidents-growing.html
    🎙️ เรื่องเล่าจากเบื้องหลังการปิดข่าว: เมื่อการไม่เปิดเผยเหตุการณ์ไซเบอร์กลายเป็นกลยุทธ์องค์กร จากรายงานล่าสุดของ Bitdefender และการสัมภาษณ์โดย CSO Online พบว่า 69% ของ CISO ถูกขอให้ปิดข่าวการถูกโจมตีทางไซเบอร์โดยผู้บริหารขององค์กร ซึ่งเพิ่มขึ้นจาก 42% เมื่อสองปีก่อน สาเหตุหลักคือความกลัวผลกระทบต่อชื่อเสียงและราคาหุ้น มากกว่าการปฏิบัติตามกฎหมายหรือมาตรฐานความปลอดภัย รูปแบบการโจมตีที่เปลี่ยนไปก็มีส่วน—จาก ransomware ที่เคยบังคับให้เปิดเผยข้อมูล สู่การขโมยข้อมูลแบบเงียบ ๆ โดยไม่กระทบผู้ใช้ปลายทาง เช่น กลุ่ม RedCurl ที่เจาะ hypervisor โดยไม่แตะระบบที่ผู้ใช้เห็น ทำให้การเจรจาเป็นไปแบบลับ ๆ และลดแรงกดดันในการเปิดเผย CISO หลายคนเล่าว่าถูกกดดันให้ “ไม่แจ้งคณะกรรมการตรวจสอบ” หรือ “แต่งเรื่องให้ดูดีในเอกสาร SEC” แม้จะมีเหตุการณ์อย่างการขโมยข้อมูล 500GB, การใช้สิทธิ์ผู้ดูแลระบบในทางที่ผิด, หรือการโอนเงินผิดกว่า €50 ล้านผ่านช่องโหว่ใน SAP แม้จะมีข้อบังคับจาก GDPR, DORA, NIS2 และกฎหมายตลาดทุนที่กำหนดให้ต้องเปิดเผยเหตุการณ์ไซเบอร์อย่างทันท่วงที แต่ CISO กลับถูกบีบให้หลีกเลี่ยงการรายงาน—ทั้งจากแรงกดดันภายในและความกลัวผลกระทบต่ออาชีพของตนเอง Caroline Morgan จาก CM Law เตือนว่า “การปิดข่าวไม่ใช่การหลีกเลี่ยงปัญหา แต่เป็นการเพิ่มความเสียหาย” เพราะหากถูกตรวจพบ องค์กรอาจถูกปรับหนัก เสียความเชื่อมั่น และผู้บริหารอาจถูกฟ้องหรือดำเนินคดีได้ ✅ สถิติและแนวโน้มการปิดข่าวไซเบอร์ ➡️ 69% ของ CISO ถูกขอให้ปิดข่าวการโจมตี เพิ่มจาก 42% ในสองปี ➡️ การโจมตีแบบขโมยข้อมูลเงียบ ๆ ทำให้เหตุการณ์ดูไม่รุนแรง ➡️ การเจรจาแบบลับ ๆ ลดแรงกดดันในการเปิดเผย ✅ ตัวอย่างเหตุการณ์ที่ถูกปิดข่าว ➡️ ขโมยข้อมูลวิศวกรรม 500GB โดย insider ขายบน dark web ➡️ ผู้ดูแลระบบใช้สิทธิ์ข่มขู่และเข้าถึงบัญชีผู้บริหาร ➡️ โอนเงินผิดกว่า €50 ล้าน ผ่านช่องโหว่ใน SAP ➡️ บัญชี super admin ถูก CrowdStrike แจ้งเตือน แต่ไม่มีการแก้ไข ➡️ CISO ถูกติดสินบนด้วยทริปหรูเพื่อแลกกับสัญญา ✅ แรงกดดันจากผู้บริหารและโครงสร้างองค์กร ➡️ CIO และ CFO เป็นผู้ตัดสินใจว่าจะเปิดเผยหรือไม่ โดยไม่ปรึกษา CISO ➡️ เหตุการณ์มักถูกเลื่อนการแจ้งก่อนประชุมผู้ถือหุ้นหรือรายงานผลประกอบการ ➡️ CISO ที่ไม่ยอมปิดข่าวมักถูกลดบทบาทหรือให้ออกจากงาน ✅ ข้อกฎหมายและคำเตือนจากผู้เชี่ยวชาญ ➡️ GDPR, DORA, NIS2 และกฎหมายตลาดทุนกำหนดให้ต้องเปิดเผยทันที ➡️ การปิดข่าวอาจนำไปสู่การปรับ, สูญเสียความเชื่อมั่น, และฟ้องร้อง ➡️ อดีต CISO ของ Uber ถูกตัดสินว่ามีความผิดจากการปิดข่าวการโจมตีในปี 2016 https://www.csoonline.com/article/4050232/pressure-on-cisos-to-stay-silent-about-security-incidents-growing.html
    WWW.CSOONLINE.COM
    Pressure on CISOs to stay silent about security incidents growing
    A recent survey found that 69% of CISOs have been told to keep quiet about breaches by their employers, up from 42% just two years ago.
    0 Comments 0 Shares 205 Views 0 Reviews
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 Comments 0 Shares 161 Views 0 Reviews
  • เรื่องเล่าจากหมึกพิมพ์นาโน: เมื่อ 3D printing กลายเป็นเครื่องมือสร้างตัวนำยิ่งยวดที่มีพื้นที่ผิวมากที่สุดในโลก

    หลังจากใช้เวลากว่า 10 ปีในการพัฒนา ทีมวิจัยจาก Cornell นำโดยศาสตราจารย์ Ulrich Wiesner ได้สร้างกระบวนการพิมพ์ 3D แบบใหม่ที่ใช้หมึกพิเศษซึ่งประกอบด้วย copolymer และอนุภาคนาโนอินทรีย์ เมื่อพิมพ์ลงบนพื้นผิวแล้วนำไปผ่านความร้อน หมึกนี้จะเปลี่ยนโครงสร้างเป็นผลึกตัวนำยิ่งยวดที่มีความพรุนระดับนาโน

    ความพิเศษของกระบวนการนี้คือการสร้างโครงสร้างสามระดับพร้อมกัน:
    - ระดับอะตอม: อะตอมจัดเรียงตัวเป็นโครงผลึก
    - ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน
    - ระดับมาโคร: รูปร่างที่พิมพ์ออกมา เช่น ขดลวดหรือเกลียว

    ผลลัพธ์คือวัสดุที่มีพื้นที่ผิวมากที่สุดเท่าที่เคยมีในตัวนำยิ่งยวดแบบสารประกอบ โดยเฉพาะเมื่อใช้วัสดุ niobium nitride ซึ่งแสดงค่าความเป็นตัวนำยิ่งยวดสูงสุดที่เคยวัดได้จากการเกิด confinement-induced magnetic field สูงถึง 40–50 เทสลา—เหมาะกับการใช้งานในแม่เหล็ก MRI และอุปกรณ์ควอนตัม

    กระบวนการนี้ยังเป็นแบบ “one-pot” คือไม่ต้องผ่านขั้นตอนแยกวัสดุ, ผสม binder หรือบดเป็นผงเหมือนวิธีดั้งเดิม ทำให้สามารถผลิตวัสดุได้เร็วขึ้นและแม่นยำกว่าเดิม

    ทีมวิจัยยังวางแผนขยายไปสู่วัสดุอื่น เช่น titanium nitride ซึ่งมีคุณสมบัติแตกต่างแต่สามารถใช้เทคนิคเดียวกันได้

    กระบวนการพิมพ์ 3D แบบใหม่จาก Cornell
    ใช้หมึก copolymer + อนุภาคนาโนอินทรีย์
    เมื่อผ่านความร้อนจะกลายเป็นผลึกตัวนำยิ่งยวดที่มีความพรุน
    เป็นกระบวนการ “one-pot” ที่ลดขั้นตอนการผลิตแบบเดิม

    โครงสร้างสามระดับที่เกิดขึ้น
    ระดับอะตอม: โครงผลึกที่จัดเรียงตัวเอง
    ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน
    ระดับมาโคร: รูปร่างที่พิมพ์ เช่น ขดลวดหรือเกลียว

    ผลลัพธ์ที่โดดเด่น
    พื้นที่ผิวมากที่สุดในตัวนำยิ่งยวดแบบสารประกอบ
    วัสดุ niobium nitride มีค่าความเป็นตัวนำยิ่งยวดสูงถึง 40–50 เทสลา
    เหมาะกับการใช้งานใน MRI และอุปกรณ์ควอนตัม

    แผนการขยายในอนาคต
    เตรียมทดลองกับวัสดุอื่น เช่น titanium nitride
    คาดว่าจะใช้เทคนิคเดียวกันเพื่อสร้างวัสดุที่มีคุณสมบัติเฉพาะ
    อาจนำไปสู่การพัฒนาอุปกรณ์ควอนตัมที่มีประสิทธิภาพสูงขึ้น

    https://www.tomshardware.com/tech-industry/superconductors/new-3d-printing-process-could-improve-superconductors-scientists-use-3d-printed-ink-and-heat-to-create-record-breaking-surface-area
    🎙️ เรื่องเล่าจากหมึกพิมพ์นาโน: เมื่อ 3D printing กลายเป็นเครื่องมือสร้างตัวนำยิ่งยวดที่มีพื้นที่ผิวมากที่สุดในโลก หลังจากใช้เวลากว่า 10 ปีในการพัฒนา ทีมวิจัยจาก Cornell นำโดยศาสตราจารย์ Ulrich Wiesner ได้สร้างกระบวนการพิมพ์ 3D แบบใหม่ที่ใช้หมึกพิเศษซึ่งประกอบด้วย copolymer และอนุภาคนาโนอินทรีย์ เมื่อพิมพ์ลงบนพื้นผิวแล้วนำไปผ่านความร้อน หมึกนี้จะเปลี่ยนโครงสร้างเป็นผลึกตัวนำยิ่งยวดที่มีความพรุนระดับนาโน ความพิเศษของกระบวนการนี้คือการสร้างโครงสร้างสามระดับพร้อมกัน: - ระดับอะตอม: อะตอมจัดเรียงตัวเป็นโครงผลึก - ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน - ระดับมาโคร: รูปร่างที่พิมพ์ออกมา เช่น ขดลวดหรือเกลียว ผลลัพธ์คือวัสดุที่มีพื้นที่ผิวมากที่สุดเท่าที่เคยมีในตัวนำยิ่งยวดแบบสารประกอบ โดยเฉพาะเมื่อใช้วัสดุ niobium nitride ซึ่งแสดงค่าความเป็นตัวนำยิ่งยวดสูงสุดที่เคยวัดได้จากการเกิด confinement-induced magnetic field สูงถึง 40–50 เทสลา—เหมาะกับการใช้งานในแม่เหล็ก MRI และอุปกรณ์ควอนตัม กระบวนการนี้ยังเป็นแบบ “one-pot” คือไม่ต้องผ่านขั้นตอนแยกวัสดุ, ผสม binder หรือบดเป็นผงเหมือนวิธีดั้งเดิม ทำให้สามารถผลิตวัสดุได้เร็วขึ้นและแม่นยำกว่าเดิม ทีมวิจัยยังวางแผนขยายไปสู่วัสดุอื่น เช่น titanium nitride ซึ่งมีคุณสมบัติแตกต่างแต่สามารถใช้เทคนิคเดียวกันได้ ✅ กระบวนการพิมพ์ 3D แบบใหม่จาก Cornell ➡️ ใช้หมึก copolymer + อนุภาคนาโนอินทรีย์ ➡️ เมื่อผ่านความร้อนจะกลายเป็นผลึกตัวนำยิ่งยวดที่มีความพรุน ➡️ เป็นกระบวนการ “one-pot” ที่ลดขั้นตอนการผลิตแบบเดิม ✅ โครงสร้างสามระดับที่เกิดขึ้น ➡️ ระดับอะตอม: โครงผลึกที่จัดเรียงตัวเอง ➡️ ระดับเมโส: copolymer ช่วยจัดระเบียบโครงสร้างระดับนาโน ➡️ ระดับมาโคร: รูปร่างที่พิมพ์ เช่น ขดลวดหรือเกลียว ✅ ผลลัพธ์ที่โดดเด่น ➡️ พื้นที่ผิวมากที่สุดในตัวนำยิ่งยวดแบบสารประกอบ ➡️ วัสดุ niobium nitride มีค่าความเป็นตัวนำยิ่งยวดสูงถึง 40–50 เทสลา ➡️ เหมาะกับการใช้งานใน MRI และอุปกรณ์ควอนตัม ✅ แผนการขยายในอนาคต ➡️ เตรียมทดลองกับวัสดุอื่น เช่น titanium nitride ➡️ คาดว่าจะใช้เทคนิคเดียวกันเพื่อสร้างวัสดุที่มีคุณสมบัติเฉพาะ ➡️ อาจนำไปสู่การพัฒนาอุปกรณ์ควอนตัมที่มีประสิทธิภาพสูงขึ้น https://www.tomshardware.com/tech-industry/superconductors/new-3d-printing-process-could-improve-superconductors-scientists-use-3d-printed-ink-and-heat-to-create-record-breaking-surface-area
    0 Comments 0 Shares 102 Views 0 Reviews
  • เรื่องเล่าจาก USB สีฟ้า: เมื่อสีของพอร์ตกลายเป็นภาษาลับของความเร็วและฟังก์ชัน

    ย้อนกลับไปก่อนปี 2008 ช่อง USB บนคอมพิวเตอร์มีแต่สีดำ—รองรับ USB 2.0 ที่มีความเร็วสูงสุดแค่ 480 Mbps ใช้สำหรับเมาส์ คีย์บอร์ด หรือแฟลชไดรฟ์เล็ก ๆ แต่เมื่อ USB 3.0 เปิดตัว สีฟ้าก็ถูกนำมาใช้เพื่อบอกว่า “ช่องนี้เร็วกว่า” โดยสามารถส่งข้อมูลได้ถึง 5 Gbps และรองรับการสื่อสารแบบ full-duplex คือส่งและรับข้อมูลพร้อมกันได้

    พอร์ตสีฟ้าจึงกลายเป็นจุดเด่นบนเมนบอร์ดและแล็ปท็อปที่เน้นประสิทธิภาพ โดยเฉพาะสำหรับการโอนข้อมูลขนาดใหญ่ เช่น external SSD, backup drive หรืออุปกรณ์วิดีโอความละเอียดสูง

    แต่ความจริงคือ “สีฟ้า” ไม่ใช่มาตรฐานที่บังคับ—USB-IF ซึ่งเป็นองค์กรที่กำหนดมาตรฐาน USB ไม่ได้กำหนดสีไว้ ทำให้แต่ละแบรนด์ใช้สีต่างกันไป เช่น Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ แต่ HP บางรุ่นใช้สีดำพร้อมสัญลักษณ์ SS (SuperSpeed) แทน

    ในอุปกรณ์เกมหรือเมนบอร์ดระดับสูง พอร์ตสีฟ้าอาจหมายถึง USB 3.2 Gen 1 แต่บางครั้งก็มีฟีเจอร์พิเศษแฝงอยู่ เช่น BIOS flashback หรือการปรับแต่งอุปกรณ์เฉพาะทาง ส่วนใน PlayStation พอร์ตสีฟ้ามักใช้สำหรับการเชื่อมต่ออุปกรณ์เก็บข้อมูลที่ต้องการความเร็วสูง

    หากไม่แน่ใจว่าพอร์ตสีฟ้าทำอะไรได้บ้าง วิธีที่ดีที่สุดคือดูคู่มือหรือสเปกของอุปกรณ์ หรือสังเกตสัญลักษณ์ข้างพอร์ต เช่น SS, ตัวเลข 5/10/20 (Gbps), หรือไอคอนสายฟ้า ซึ่งบอกถึงความสามารถในการชาร์จเร็ว

    ความหมายของพอร์ต USB สีฟ้า
    มักหมายถึง USB 3.x (เช่น 3.0, 3.1, 3.2 Gen 1) ที่มีความเร็วสูง
    รองรับ full-duplex communication ส่งและรับข้อมูลพร้อมกัน
    เหมาะกับการใช้งานที่ต้องการ bandwidth สูง เช่น external SSD หรือกล้อง

    ความแตกต่างระหว่างแบรนด์
    Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ
    HP ใช้ทั้งสีฟ้าและสีดำพร้อมสัญลักษณ์ SS
    Apple ไม่ใช้สี แต่ระบุในคู่มือหรือสเปกแทน

    สัญลักษณ์ที่ควรสังเกต
    SS = SuperSpeed (USB 3.x)
    ตัวเลข 5/10/20 = ความเร็วในการส่งข้อมูล (Gbps)
    ไอคอนสายฟ้า = รองรับการชาร์จเร็วหรือ Power Delivery

    การใช้งานในอุปกรณ์เฉพาะ
    เมนบอร์ดเกมมิ่งอาจใช้พอร์ตสีฟ้าสำหรับ BIOS flashback หรือการปรับแต่ง
    PlayStation ใช้พอร์ตสีฟ้าสำหรับอุปกรณ์เก็บข้อมูลภายนอก
    Docking station และฮับมักใช้สีฟ้าเพื่อแยก USB 3.x จาก USB 2.0

    https://www.slashgear.com/1953890/blue-usb-port-what-means-uses-explained/
    🎙️ เรื่องเล่าจาก USB สีฟ้า: เมื่อสีของพอร์ตกลายเป็นภาษาลับของความเร็วและฟังก์ชัน ย้อนกลับไปก่อนปี 2008 ช่อง USB บนคอมพิวเตอร์มีแต่สีดำ—รองรับ USB 2.0 ที่มีความเร็วสูงสุดแค่ 480 Mbps ใช้สำหรับเมาส์ คีย์บอร์ด หรือแฟลชไดรฟ์เล็ก ๆ แต่เมื่อ USB 3.0 เปิดตัว สีฟ้าก็ถูกนำมาใช้เพื่อบอกว่า “ช่องนี้เร็วกว่า” โดยสามารถส่งข้อมูลได้ถึง 5 Gbps และรองรับการสื่อสารแบบ full-duplex คือส่งและรับข้อมูลพร้อมกันได้ พอร์ตสีฟ้าจึงกลายเป็นจุดเด่นบนเมนบอร์ดและแล็ปท็อปที่เน้นประสิทธิภาพ โดยเฉพาะสำหรับการโอนข้อมูลขนาดใหญ่ เช่น external SSD, backup drive หรืออุปกรณ์วิดีโอความละเอียดสูง แต่ความจริงคือ “สีฟ้า” ไม่ใช่มาตรฐานที่บังคับ—USB-IF ซึ่งเป็นองค์กรที่กำหนดมาตรฐาน USB ไม่ได้กำหนดสีไว้ ทำให้แต่ละแบรนด์ใช้สีต่างกันไป เช่น Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ แต่ HP บางรุ่นใช้สีดำพร้อมสัญลักษณ์ SS (SuperSpeed) แทน ในอุปกรณ์เกมหรือเมนบอร์ดระดับสูง พอร์ตสีฟ้าอาจหมายถึง USB 3.2 Gen 1 แต่บางครั้งก็มีฟีเจอร์พิเศษแฝงอยู่ เช่น BIOS flashback หรือการปรับแต่งอุปกรณ์เฉพาะทาง ส่วนใน PlayStation พอร์ตสีฟ้ามักใช้สำหรับการเชื่อมต่ออุปกรณ์เก็บข้อมูลที่ต้องการความเร็วสูง หากไม่แน่ใจว่าพอร์ตสีฟ้าทำอะไรได้บ้าง วิธีที่ดีที่สุดคือดูคู่มือหรือสเปกของอุปกรณ์ หรือสังเกตสัญลักษณ์ข้างพอร์ต เช่น SS, ตัวเลข 5/10/20 (Gbps), หรือไอคอนสายฟ้า ซึ่งบอกถึงความสามารถในการชาร์จเร็ว ✅ ความหมายของพอร์ต USB สีฟ้า ➡️ มักหมายถึง USB 3.x (เช่น 3.0, 3.1, 3.2 Gen 1) ที่มีความเร็วสูง ➡️ รองรับ full-duplex communication ส่งและรับข้อมูลพร้อมกัน ➡️ เหมาะกับการใช้งานที่ต้องการ bandwidth สูง เช่น external SSD หรือกล้อง ✅ ความแตกต่างระหว่างแบรนด์ ➡️ Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ ➡️ HP ใช้ทั้งสีฟ้าและสีดำพร้อมสัญลักษณ์ SS ➡️ Apple ไม่ใช้สี แต่ระบุในคู่มือหรือสเปกแทน ✅ สัญลักษณ์ที่ควรสังเกต ➡️ SS = SuperSpeed (USB 3.x) ➡️ ตัวเลข 5/10/20 = ความเร็วในการส่งข้อมูล (Gbps) ➡️ ไอคอนสายฟ้า = รองรับการชาร์จเร็วหรือ Power Delivery ✅ การใช้งานในอุปกรณ์เฉพาะ ➡️ เมนบอร์ดเกมมิ่งอาจใช้พอร์ตสีฟ้าสำหรับ BIOS flashback หรือการปรับแต่ง ➡️ PlayStation ใช้พอร์ตสีฟ้าสำหรับอุปกรณ์เก็บข้อมูลภายนอก ➡️ Docking station และฮับมักใช้สีฟ้าเพื่อแยก USB 3.x จาก USB 2.0 https://www.slashgear.com/1953890/blue-usb-port-what-means-uses-explained/
    WWW.SLASHGEAR.COM
    What Does It Mean When A USB Port Is Blue? - SlashGear
    The color of your USB port can tell you everything you need to know about what the port is capable of, so what does it mean if you have a blue USB port?
    0 Comments 0 Shares 166 Views 0 Reviews
  • เรื่องเล่าจาก Flight 10: เมื่อจรวดที่ใหญ่ที่สุดในโลกกลับสู่โลกพร้อมรอยไหม้และคำถามที่ยังไม่มีคำตอบ

    ปลายเดือนสิงหาคม 2025 SpaceX ปล่อยภาพชุดใหม่จากการทดสอบ Starship Flight 10 ซึ่งเป็นครั้งแรกที่ยานส่วนบนสามารถกลับสู่โลกและลงน้ำได้สำเร็จ โดยภาพที่ปล่อยออกมาแสดงให้เห็นการกลับเข้าสู่ชั้นบรรยากาศที่เต็มไปด้วยพลาสมา, รอยไหม้สีส้มบน heat shield และความเสียหายที่ชัดเจนบริเวณ flaps ด้านท้ายของยาน

    แม้ Elon Musk จะออกมาอธิบายว่า “สีแดง” ที่เห็นนั้นเกิดจากการออกซิไดซ์ของแผ่นโลหะที่ใช้เป็น heat shield tile แบบใหม่ ซึ่ง SpaceX ตั้งใจทดสอบโดยเว้นบางจุดไว้โดยไม่มีฉนวน แต่คำถามที่ยังไม่มีคำตอบคือ “เหตุการณ์พลังงานสูง” ในห้องเครื่อง และ “อาการวูบ” ของ grid fin บน Super Heavy booster ที่ทำให้เกิดการแกว่งตัวผิดปกติระหว่างการลงจอด

    Flight 10 ถือเป็นก้าวกระโดดจาก Flight 7–9 ที่ล้มเหลวในการกลับสู่โลก โดยเฉพาะการทดสอบ heat shield ที่ไม่เคยเกิดขึ้นมาก่อนในรุ่นที่สองของ Starship ซึ่ง SpaceX ใช้แผ่นฉนวนที่ผลิตเองจำนวนหลายหมื่นชิ้นเพื่อรองรับการใช้งานซ้ำแบบรวดเร็ว

    แม้จะมีความเสียหาย แต่ยานสามารถลงจอดในมหาสมุทรอินเดียได้ภายในระยะห่างเพียง 3 เมตรจากจุดเป้าหมาย และยังสามารถทำ flip maneuver และ landing burn ได้สำเร็จ ซึ่งแสดงถึงความแม่นยำของระบบควบคุมที่พัฒนาอย่างต่อเนื่อง

    ความสำเร็จของ Starship Flight 10
    เป็นครั้งแรกที่ยานส่วนบนสามารถกลับสู่โลกและลงน้ำได้สำเร็จ
    ทำ flip maneuver และ landing burn ได้แม่นยำภายใน 3 เมตรจากเป้าหมาย
    ทดสอบ heat shield tile แบบใหม่ที่ผลิตโดย SpaceX เอง

    ภาพและข้อมูลที่ SpaceX ปล่อยออกมา
    แสดงการกลับเข้าสู่ชั้นบรรยากาศที่เต็มไปด้วยพลาสมา
    เห็นรอยไหม้สีส้มและความเสียหายที่ flaps ด้านท้าย
    grid fin ของ booster มีอาการวูบระหว่างการลงจอด

    คำอธิบายจาก Elon Musk
    สีแดงเกิดจากการออกซิไดซ์ของแผ่นโลหะที่ใช้เป็น heat shield tile
    จุดสีขาวเกิดจากบริเวณที่ไม่มีฉนวนตามแผนการทดสอบ
    ยังไม่มีคำอธิบายเกี่ยวกับเหตุการณ์พลังงานสูงในห้องเครื่อง

    ความสำคัญของ heat shield ในการใช้งานซ้ำ
    เป็นหัวใจของการทำให้ Starship สามารถบินซ้ำได้รวดเร็ว
    Flight 10 เป็นครั้งแรกที่สามารถทดสอบ heat shield ได้จริง
    ใช้แผ่นฉนวนหลายหมื่นชิ้นที่ผลิตในโรงงานของ SpaceX

    https://wccftech.com/spacexs-red-hot-starship-mars-rocket-images-share-stunning-flight-10-views-but-dont-answer-key-questions-related-to-the-mega-test-flight/
    🎙️ เรื่องเล่าจาก Flight 10: เมื่อจรวดที่ใหญ่ที่สุดในโลกกลับสู่โลกพร้อมรอยไหม้และคำถามที่ยังไม่มีคำตอบ ปลายเดือนสิงหาคม 2025 SpaceX ปล่อยภาพชุดใหม่จากการทดสอบ Starship Flight 10 ซึ่งเป็นครั้งแรกที่ยานส่วนบนสามารถกลับสู่โลกและลงน้ำได้สำเร็จ โดยภาพที่ปล่อยออกมาแสดงให้เห็นการกลับเข้าสู่ชั้นบรรยากาศที่เต็มไปด้วยพลาสมา, รอยไหม้สีส้มบน heat shield และความเสียหายที่ชัดเจนบริเวณ flaps ด้านท้ายของยาน แม้ Elon Musk จะออกมาอธิบายว่า “สีแดง” ที่เห็นนั้นเกิดจากการออกซิไดซ์ของแผ่นโลหะที่ใช้เป็น heat shield tile แบบใหม่ ซึ่ง SpaceX ตั้งใจทดสอบโดยเว้นบางจุดไว้โดยไม่มีฉนวน แต่คำถามที่ยังไม่มีคำตอบคือ “เหตุการณ์พลังงานสูง” ในห้องเครื่อง และ “อาการวูบ” ของ grid fin บน Super Heavy booster ที่ทำให้เกิดการแกว่งตัวผิดปกติระหว่างการลงจอด Flight 10 ถือเป็นก้าวกระโดดจาก Flight 7–9 ที่ล้มเหลวในการกลับสู่โลก โดยเฉพาะการทดสอบ heat shield ที่ไม่เคยเกิดขึ้นมาก่อนในรุ่นที่สองของ Starship ซึ่ง SpaceX ใช้แผ่นฉนวนที่ผลิตเองจำนวนหลายหมื่นชิ้นเพื่อรองรับการใช้งานซ้ำแบบรวดเร็ว แม้จะมีความเสียหาย แต่ยานสามารถลงจอดในมหาสมุทรอินเดียได้ภายในระยะห่างเพียง 3 เมตรจากจุดเป้าหมาย และยังสามารถทำ flip maneuver และ landing burn ได้สำเร็จ ซึ่งแสดงถึงความแม่นยำของระบบควบคุมที่พัฒนาอย่างต่อเนื่อง ✅ ความสำเร็จของ Starship Flight 10 ➡️ เป็นครั้งแรกที่ยานส่วนบนสามารถกลับสู่โลกและลงน้ำได้สำเร็จ ➡️ ทำ flip maneuver และ landing burn ได้แม่นยำภายใน 3 เมตรจากเป้าหมาย ➡️ ทดสอบ heat shield tile แบบใหม่ที่ผลิตโดย SpaceX เอง ✅ ภาพและข้อมูลที่ SpaceX ปล่อยออกมา ➡️ แสดงการกลับเข้าสู่ชั้นบรรยากาศที่เต็มไปด้วยพลาสมา ➡️ เห็นรอยไหม้สีส้มและความเสียหายที่ flaps ด้านท้าย ➡️ grid fin ของ booster มีอาการวูบระหว่างการลงจอด ✅ คำอธิบายจาก Elon Musk ➡️ สีแดงเกิดจากการออกซิไดซ์ของแผ่นโลหะที่ใช้เป็น heat shield tile ➡️ จุดสีขาวเกิดจากบริเวณที่ไม่มีฉนวนตามแผนการทดสอบ ➡️ ยังไม่มีคำอธิบายเกี่ยวกับเหตุการณ์พลังงานสูงในห้องเครื่อง ✅ ความสำคัญของ heat shield ในการใช้งานซ้ำ ➡️ เป็นหัวใจของการทำให้ Starship สามารถบินซ้ำได้รวดเร็ว ➡️ Flight 10 เป็นครั้งแรกที่สามารถทดสอบ heat shield ได้จริง ➡️ ใช้แผ่นฉนวนหลายหมื่นชิ้นที่ผลิตในโรงงานของ SpaceX https://wccftech.com/spacexs-red-hot-starship-mars-rocket-images-share-stunning-flight-10-views-but-dont-answer-key-questions-related-to-the-mega-test-flight/
    WCCFTECH.COM
    SpaceX's Red Hot Starship Mars Rocket Images Share Stunning Flight 10 Views But Don't Answer Key Questions Related To The Mega Test Flight
    SpaceX released new images from Starship Flight 10, showcasing its heat shield and grid fin during reentry, marking significant test progress.
    0 Comments 0 Shares 178 Views 0 Reviews
  • เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ”

    ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้

    UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น

    แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน

    Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที

    ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น

    โครงสร้างของ UB-Mesh
    ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack
    รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น
    ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่

    เป้าหมายของ UB-Mesh
    เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center
    ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น
    ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล

    ประสิทธิภาพที่ Huawei เคลม
    Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์
    Latency ต่ำกว่าหนึ่งไมโครวินาที
    ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว

    การเปิด source และการผลักดันเป็นมาตรฐาน
    Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า
    หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน
    ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น

    การทดสอบและการใช้งานจริง
    Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด
    UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน
    เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง

    https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    🎙️ เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ” ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้ UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น ✅ โครงสร้างของ UB-Mesh ➡️ ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack ➡️ รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น ➡️ ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่ ✅ เป้าหมายของ UB-Mesh ➡️ เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center ➡️ ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น ➡️ ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล ✅ ประสิทธิภาพที่ Huawei เคลม ➡️ Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ ➡️ Latency ต่ำกว่าหนึ่งไมโครวินาที ➡️ ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว ✅ การเปิด source และการผลักดันเป็นมาตรฐาน ➡️ Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า ➡️ หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน ➡️ ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น ✅ การทดสอบและการใช้งานจริง ➡️ Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด ➡️ UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน ➡️ เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    0 Comments 0 Shares 176 Views 0 Reviews
  • เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว

    ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล

    แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม

    Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore

    แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end

    แนวคิด Software Defined Supercore (SDC)
    รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread
    แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน
    ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม

    เทคนิคที่ใช้ใน SDC
    wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์
    ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    inject คำสั่งพิเศษสำหรับ flow control และ register passing

    การจัดการโดย OS
    OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition
    ช่วยบาลานซ์ระหว่าง performance และ core availability

    เปรียบเทียบกับแนวทางเดิม
    x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle
    Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10
    SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์

    ความเชื่อมโยงกับแนวคิดเก่า
    คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD
    อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้

    https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    🎙️ เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end ✅ แนวคิด Software Defined Supercore (SDC) ➡️ รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread ➡️ แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน ➡️ ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม ✅ เทคนิคที่ใช้ใน SDC ➡️ wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์ ➡️ ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ inject คำสั่งพิเศษสำหรับ flow control และ register passing ✅ การจัดการโดย OS ➡️ OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition ➡️ ช่วยบาลานซ์ระหว่าง performance และ core availability ✅ เปรียบเทียบกับแนวทางเดิม ➡️ x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle ➡️ Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10 ➡️ SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์ ✅ ความเชื่อมโยงกับแนวคิดเก่า ➡️ คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD ➡️ อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้ https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    0 Comments 0 Shares 183 Views 0 Reviews
  • เมื่อ AMD จับมือ IBM สร้างสมองกลแห่งอนาคตที่คิดได้ลึกกว่าเดิม

    ในโลกที่ข้อมูลมหาศาลหลั่งไหลเข้ามาทุกวินาที และ AI ต้องการพลังประมวลผลที่มากขึ้นเรื่อย ๆ การประมวลผลแบบเดิมเริ่มถึงขีดจำกัด IBM และ AMD จึงร่วมมือกันสร้าง “Quantum-Centric Supercomputing” ซึ่งเป็นการรวมพลังของคอมพิวเตอร์ควอนตัมกับระบบ HPC และ AI accelerator เพื่อให้สามารถแก้ปัญหาที่ซับซ้อนระดับโมเลกุลหรือการจำลองธรรมชาติได้อย่างแม่นยำและรวดเร็ว

    IBM มี Quantum System Two ซึ่งเป็นคอมพิวเตอร์ควอนตัมแบบโมดูลาร์ที่สามารถทำงานร่วมกับซูเปอร์คอมพิวเตอร์คลาสสิกอย่าง Fugaku ได้แล้ว และ AMD จะนำ EPYC CPU, Instinct GPU และ FPGA เข้ามาเสริมพลังให้ระบบนี้สามารถประมวลผลแบบไฮบริดได้อย่างเต็มรูปแบบ

    แนวคิดนี้ไม่ใช่แค่การรวมฮาร์ดแวร์ แต่เป็นการสร้างสถาปัตยกรรมใหม่ที่สามารถเลือกใช้เครื่องมือที่เหมาะสมกับแต่ละปัญหา เช่น ใช้ควอนตัมในการจำลองพฤติกรรมของอะตอม และใช้ HPC ในการวิเคราะห์ข้อมูลขนาดใหญ่ ซึ่งจะช่วยให้การค้นพบทางวิทยาศาสตร์ การออกแบบยา และการวางแผนโลจิสติกส์มีความแม่นยำและเร็วขึ้นอย่างที่ไม่เคยเป็นมาก่อน

    https://wccftech.com/amd-to-collaborate-with-ibm-to-develop-quantum-centric-supercomputing/
    🧠 เมื่อ AMD จับมือ IBM สร้างสมองกลแห่งอนาคตที่คิดได้ลึกกว่าเดิม ในโลกที่ข้อมูลมหาศาลหลั่งไหลเข้ามาทุกวินาที และ AI ต้องการพลังประมวลผลที่มากขึ้นเรื่อย ๆ การประมวลผลแบบเดิมเริ่มถึงขีดจำกัด IBM และ AMD จึงร่วมมือกันสร้าง “Quantum-Centric Supercomputing” ซึ่งเป็นการรวมพลังของคอมพิวเตอร์ควอนตัมกับระบบ HPC และ AI accelerator เพื่อให้สามารถแก้ปัญหาที่ซับซ้อนระดับโมเลกุลหรือการจำลองธรรมชาติได้อย่างแม่นยำและรวดเร็ว IBM มี Quantum System Two ซึ่งเป็นคอมพิวเตอร์ควอนตัมแบบโมดูลาร์ที่สามารถทำงานร่วมกับซูเปอร์คอมพิวเตอร์คลาสสิกอย่าง Fugaku ได้แล้ว และ AMD จะนำ EPYC CPU, Instinct GPU และ FPGA เข้ามาเสริมพลังให้ระบบนี้สามารถประมวลผลแบบไฮบริดได้อย่างเต็มรูปแบบ แนวคิดนี้ไม่ใช่แค่การรวมฮาร์ดแวร์ แต่เป็นการสร้างสถาปัตยกรรมใหม่ที่สามารถเลือกใช้เครื่องมือที่เหมาะสมกับแต่ละปัญหา เช่น ใช้ควอนตัมในการจำลองพฤติกรรมของอะตอม และใช้ HPC ในการวิเคราะห์ข้อมูลขนาดใหญ่ ซึ่งจะช่วยให้การค้นพบทางวิทยาศาสตร์ การออกแบบยา และการวางแผนโลจิสติกส์มีความแม่นยำและเร็วขึ้นอย่างที่ไม่เคยเป็นมาก่อน https://wccftech.com/amd-to-collaborate-with-ibm-to-develop-quantum-centric-supercomputing/
    WCCFTECH.COM
    AMD To Collaborate With IBM To Develop 'Quantum-Centric' Supercomputing, Opening The Gateway To a New Computational Era
    AMD is expected to enter the realm of quantum computing with IBM, with plans to develop next-gen HPC machines.
    0 Comments 0 Shares 158 Views 0 Reviews
More Results