• “NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ”

    NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix

    SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s

    แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ

    Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้

    SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล

    ข้อมูลสำคัญจากข่าว
    NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน
    SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix
    SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI
    SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6

    ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ
    Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI
    Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025
    การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron
    SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026

    ข้อมูลเสริมจากภายนอก
    SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน
    SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง
    LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป
    การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
    🚀 “NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ” NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้ SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล ✅ ข้อมูลสำคัญจากข่าว ➡️ NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน ➡️ SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix ➡️ SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI ➡️ SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6 ✅ ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ ➡️ Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ➡️ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ➡️ การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron ➡️ SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน ➡️ SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง ➡️ LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป ➡️ การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026 https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
    0 ความคิดเห็น 0 การแบ่งปัน 65 มุมมอง 0 รีวิว
  • “GStreamer 1.26.6 อัปเดตใหม่ รองรับ WVC1 และ WMV3 บน Video4Linux2 — เสริมพลังมัลติมีเดียให้ลินุกซ์ยุคใหม่”

    GStreamer เฟรมเวิร์กมัลติมีเดียโอเพ่นซอร์สยอดนิยม ได้ปล่อยเวอร์ชัน 1.26.6 ซึ่งเป็นการอัปเดตบำรุงรักษาครั้งที่ 6 ในซีรีส์ 1.26 โดยมุ่งเน้นการเพิ่มความสามารถและเสถียรภาพให้กับระบบวิดีโอบน Linux โดยเฉพาะผ่าน API Video4Linux2 (V4L2)

    หนึ่งในไฮไลต์สำคัญคือการเพิ่มการรองรับ codec WVC1 และ WMV3 ซึ่งเป็นฟอร์แมตวิดีโอยอดนิยมในยุคก่อน โดยเฉพาะในไฟล์ Windows Media Video ที่ยังคงมีการใช้งานอยู่ในหลายระบบ การรองรับนี้ช่วยให้ผู้ใช้สามารถเล่นไฟล์เก่าได้โดยไม่ต้องแปลงฟอร์แมต

    นอกจากนี้ยังมีการปรับปรุงในหลายส่วน เช่น การเพิ่ม blocking adapter element ในปลั๊กอิน threadshare เพื่อช่วยจัดการกับ block elements อย่าง sinks ที่ต้อง sync กับ clock, การอัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับการเปลี่ยนแปลงล่าสุดของ Spotify และการปรับปรุงประสิทธิภาพของปลั๊กอิน videorate เมื่อทำงานในโหมด drop-only

    ยังมีการแก้ไขบั๊กหลายรายการ เช่น ปัญหา decklinkvideosrc ที่เข้าสู่สถานะ unrecoverable เมื่ออุปกรณ์ไม่พร้อมใช้งาน, การ parsing ของ directive ใน hlsdemux2, และการแก้ไข memory leak ในหลายองค์ประกอบ รวมถึงการปรับปรุง decoder สำหรับ Vulkan และการลดการใช้ทรัพยากรใน Cerbero build system

    การอัปเดตนี้ยังแก้ regression ใน Python bindings และปรับปรุงเสถียรภาพโดยรวมของระบบ GStreamer ให้พร้อมสำหรับการใช้งานในระดับ production ทั้งในงานสตรีมมิ่ง การตัดต่อ และการพัฒนาแอปมัลติมีเดีย

    ฟีเจอร์ใหม่ใน GStreamer 1.26.6
    รองรับ codec WVC1 และ WMV3 บน Video4Linux2 (V4L2)
    เพิ่ม blocking adapter element ในปลั๊กอิน threadshare สำหรับการ sync กับ clock
    อัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับ Spotify รุ่นใหม่
    ปรับปรุงปลั๊กอิน videorate ให้ทำงานได้ดีขึ้นในโหมด drop-only

    การแก้ไขและปรับปรุงระบบ
    แก้ปัญหา decklinkvideosrc ที่ไม่สามารถเริ่มสตรีมเมื่ออุปกรณ์ไม่พร้อม
    ปรับปรุงการ parsing directive ใน hlsdemux2 เช่น byterange และ init map
    แก้ไข memory leak และปรับปรุงเสถียรภาพใน transcriberbin และ fallbacksrc
    ปรับปรุง decoder สำหรับ Vulkan และลดการใช้ทรัพยากรใน Cerbero build system

    ข้อมูลเสริมจากภายนอก
    WVC1 และ WMV3 เป็น codec ที่ใช้ในไฟล์วิดีโอ Windows Media ซึ่งยังพบในระบบเก่า
    Video4Linux2 เป็น API มาตรฐานสำหรับจัดการอุปกรณ์วิดีโอบน Linux
    librespot เป็นไลบรารีที่ใช้สำหรับการสตรีม Spotify แบบไม่เป็นทางการ
    GStreamer ถูกใช้ในแอปพลิเคชันหลากหลาย เช่น OBS Studio, PipeWire และ Firefox

    https://9to5linux.com/gstreamer-1-26-6-adds-support-for-wvc1-and-wmv3-codecs-to-video4linux2
    🎬 “GStreamer 1.26.6 อัปเดตใหม่ รองรับ WVC1 และ WMV3 บน Video4Linux2 — เสริมพลังมัลติมีเดียให้ลินุกซ์ยุคใหม่” GStreamer เฟรมเวิร์กมัลติมีเดียโอเพ่นซอร์สยอดนิยม ได้ปล่อยเวอร์ชัน 1.26.6 ซึ่งเป็นการอัปเดตบำรุงรักษาครั้งที่ 6 ในซีรีส์ 1.26 โดยมุ่งเน้นการเพิ่มความสามารถและเสถียรภาพให้กับระบบวิดีโอบน Linux โดยเฉพาะผ่าน API Video4Linux2 (V4L2) หนึ่งในไฮไลต์สำคัญคือการเพิ่มการรองรับ codec WVC1 และ WMV3 ซึ่งเป็นฟอร์แมตวิดีโอยอดนิยมในยุคก่อน โดยเฉพาะในไฟล์ Windows Media Video ที่ยังคงมีการใช้งานอยู่ในหลายระบบ การรองรับนี้ช่วยให้ผู้ใช้สามารถเล่นไฟล์เก่าได้โดยไม่ต้องแปลงฟอร์แมต นอกจากนี้ยังมีการปรับปรุงในหลายส่วน เช่น การเพิ่ม blocking adapter element ในปลั๊กอิน threadshare เพื่อช่วยจัดการกับ block elements อย่าง sinks ที่ต้อง sync กับ clock, การอัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับการเปลี่ยนแปลงล่าสุดของ Spotify และการปรับปรุงประสิทธิภาพของปลั๊กอิน videorate เมื่อทำงานในโหมด drop-only ยังมีการแก้ไขบั๊กหลายรายการ เช่น ปัญหา decklinkvideosrc ที่เข้าสู่สถานะ unrecoverable เมื่ออุปกรณ์ไม่พร้อมใช้งาน, การ parsing ของ directive ใน hlsdemux2, และการแก้ไข memory leak ในหลายองค์ประกอบ รวมถึงการปรับปรุง decoder สำหรับ Vulkan และการลดการใช้ทรัพยากรใน Cerbero build system การอัปเดตนี้ยังแก้ regression ใน Python bindings และปรับปรุงเสถียรภาพโดยรวมของระบบ GStreamer ให้พร้อมสำหรับการใช้งานในระดับ production ทั้งในงานสตรีมมิ่ง การตัดต่อ และการพัฒนาแอปมัลติมีเดีย ✅ ฟีเจอร์ใหม่ใน GStreamer 1.26.6 ➡️ รองรับ codec WVC1 และ WMV3 บน Video4Linux2 (V4L2) ➡️ เพิ่ม blocking adapter element ในปลั๊กอิน threadshare สำหรับการ sync กับ clock ➡️ อัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับ Spotify รุ่นใหม่ ➡️ ปรับปรุงปลั๊กอิน videorate ให้ทำงานได้ดีขึ้นในโหมด drop-only ✅ การแก้ไขและปรับปรุงระบบ ➡️ แก้ปัญหา decklinkvideosrc ที่ไม่สามารถเริ่มสตรีมเมื่ออุปกรณ์ไม่พร้อม ➡️ ปรับปรุงการ parsing directive ใน hlsdemux2 เช่น byterange และ init map ➡️ แก้ไข memory leak และปรับปรุงเสถียรภาพใน transcriberbin และ fallbacksrc ➡️ ปรับปรุง decoder สำหรับ Vulkan และลดการใช้ทรัพยากรใน Cerbero build system ✅ ข้อมูลเสริมจากภายนอก ➡️ WVC1 และ WMV3 เป็น codec ที่ใช้ในไฟล์วิดีโอ Windows Media ซึ่งยังพบในระบบเก่า ➡️ Video4Linux2 เป็น API มาตรฐานสำหรับจัดการอุปกรณ์วิดีโอบน Linux ➡️ librespot เป็นไลบรารีที่ใช้สำหรับการสตรีม Spotify แบบไม่เป็นทางการ ➡️ GStreamer ถูกใช้ในแอปพลิเคชันหลากหลาย เช่น OBS Studio, PipeWire และ Firefox https://9to5linux.com/gstreamer-1-26-6-adds-support-for-wvc1-and-wmv3-codecs-to-video4linux2
    9TO5LINUX.COM
    GStreamer 1.26.6 Adds Support for WVC1 and WMV3 Codecs to Video4Linux2 - 9to5Linux
    GStreamer 1.26.6 open-source multimedia framework is now available for download with various improvements and bug fixes.
    0 ความคิดเห็น 0 การแบ่งปัน 66 มุมมอง 0 รีวิว
  • “MKVToolNix 95.0 อัปเดตใหม่ เพิ่มความฉลาดในการสร้าง Chapter พร้อมรองรับ Boost รุ่นล่าสุด — เครื่องมือจัดการ MKV ที่ไม่เคยหยุดพัฒนา”

    MKVToolNix เครื่องมือจัดการไฟล์ Matroska (MKV) บนระบบ Linux ได้ปล่อยเวอร์ชันล่าสุด 95.0 ในชื่อ “Goodbye Stranger” โดยมาพร้อมฟีเจอร์ใหม่ที่ช่วยให้การสร้าง chapter ในไฟล์วิดีโอมีความแม่นยำและยืดหยุ่นมากขึ้น โดยเฉพาะเมื่อมีการรวมไฟล์หลายส่วนเข้าด้วยกัน

    ในเวอร์ชันนี้ GUI ของ MKVToolNix ได้เพิ่ม placeholder ใหม่สำหรับการสร้าง chapter ของไฟล์ที่ถูก append ซึ่งจะถูกแทนที่ด้วย metadata ของชื่อไฟล์นั้นโดยอัตโนมัติ ช่วยให้ผู้ใช้สามารถจัดการ chapter ได้ง่ายขึ้นโดยไม่ต้องแก้ไขทีละรายการ

    นอกจากนี้ยังมีการปรับปรุงการแสดงผล matrix จากไฟล์ MP4 ให้แปลงเป็นค่า roll และ yaw ที่เหมาะสมสำหรับไฟล์ MKV และเพิ่ม argument ใหม่ --date ในคำสั่ง mkvmerge เพื่อให้ผู้ใช้สามารถกำหนด metadata วันที่ได้เอง

    ด้านเทคนิค MKVToolNix 95.0 ยังเพิ่มการรองรับ Boost 1.89.0 โดยใช้เฉพาะส่วน header ของ Boost.System ซึ่งเป็นแบบ header-only ตั้งแต่เวอร์ชัน 1.69.0 ทำให้การ build จาก source ต้องใช้ Boost 1.74.0 ขึ้นไป

    ผู้ใช้สามารถดาวน์โหลดเวอร์ชันนี้ได้ทั้งแบบ AppImage ที่รันได้บนทุก distro โดยไม่ต้องติดตั้ง และแบบ source tarball สำหรับผู้ที่ต้องการ build เอง โดยเวอร์ชันนี้ยังรองรับ distro ล่าสุดอย่าง Debian 13 “Trixie” และยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุไปแล้ว

    ฟีเจอร์ใหม่ใน MKVToolNix 95.0
    เพิ่ม placeholder สำหรับ chapter ของไฟล์ที่ถูก append โดยใช้ title metadata
    ปรับการแสดงผล matrix จาก MP4 เป็นค่า roll และ yaw ที่เหมาะสม
    เพิ่ม argument --date ใน mkvmerge เพื่อกำหนด metadata วันที่

    การปรับปรุงด้านเทคนิค
    รองรับ Boost 1.89.0 โดยใช้เฉพาะ header ของ Boost.System
    ต้องใช้ Boost 1.74.0 ขึ้นไปในการ build จาก source
    แก้บั๊ก PCM packetized ให้ mkvmerge เขียน frame ขนาด 40ms เสมอ
    แก้ปัญหา memory leak ใน MP4/QuickTime reader เมื่ออ่าน PCM audio

    การรองรับระบบปฏิบัติการ
    รองรับ Debian 13 “Trixie”, Arch, Fedora 42, Linux Mint 22, AlmaLinux 10 และอื่น ๆ
    มี AppImage ที่รันได้บน Linux ทุกรุ่นที่ใช้ glibc 2.28 ขึ้นไป
    มี Flatpak บน Flathub สำหรับผู้ใช้ที่ต้องการติดตั้งผ่าน container
    ยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุในเดือนมิถุนายน 2025

    ข้อมูลเสริมจากภายนอก
    MKVToolNix เป็นเครื่องมือมาตรฐานสำหรับจัดการไฟล์ Matroska ทั้งสร้าง แก้ไข และตรวจสอบ
    GUI ใช้งานง่ายและครอบคลุมฟังก์ชันของเครื่องมือ command-line
    มี community สนับสนุนและอัปเดตต่อเนื่องจากผู้พัฒนา Moritz Bunkus
    เหมาะกับผู้ใช้มืออาชีพด้านวิดีโอและผู้ที่ต้องการควบคุม metadata อย่างละเอียด

    https://9to5linux.com/mkvtoolnix-95-0-mkv-manipulation-tool-improves-the-chapter-generation-feature
    🛠️ “MKVToolNix 95.0 อัปเดตใหม่ เพิ่มความฉลาดในการสร้าง Chapter พร้อมรองรับ Boost รุ่นล่าสุด — เครื่องมือจัดการ MKV ที่ไม่เคยหยุดพัฒนา” MKVToolNix เครื่องมือจัดการไฟล์ Matroska (MKV) บนระบบ Linux ได้ปล่อยเวอร์ชันล่าสุด 95.0 ในชื่อ “Goodbye Stranger” โดยมาพร้อมฟีเจอร์ใหม่ที่ช่วยให้การสร้าง chapter ในไฟล์วิดีโอมีความแม่นยำและยืดหยุ่นมากขึ้น โดยเฉพาะเมื่อมีการรวมไฟล์หลายส่วนเข้าด้วยกัน ในเวอร์ชันนี้ GUI ของ MKVToolNix ได้เพิ่ม placeholder ใหม่สำหรับการสร้าง chapter ของไฟล์ที่ถูก append ซึ่งจะถูกแทนที่ด้วย metadata ของชื่อไฟล์นั้นโดยอัตโนมัติ ช่วยให้ผู้ใช้สามารถจัดการ chapter ได้ง่ายขึ้นโดยไม่ต้องแก้ไขทีละรายการ นอกจากนี้ยังมีการปรับปรุงการแสดงผล matrix จากไฟล์ MP4 ให้แปลงเป็นค่า roll และ yaw ที่เหมาะสมสำหรับไฟล์ MKV และเพิ่ม argument ใหม่ --date ในคำสั่ง mkvmerge เพื่อให้ผู้ใช้สามารถกำหนด metadata วันที่ได้เอง ด้านเทคนิค MKVToolNix 95.0 ยังเพิ่มการรองรับ Boost 1.89.0 โดยใช้เฉพาะส่วน header ของ Boost.System ซึ่งเป็นแบบ header-only ตั้งแต่เวอร์ชัน 1.69.0 ทำให้การ build จาก source ต้องใช้ Boost 1.74.0 ขึ้นไป ผู้ใช้สามารถดาวน์โหลดเวอร์ชันนี้ได้ทั้งแบบ AppImage ที่รันได้บนทุก distro โดยไม่ต้องติดตั้ง และแบบ source tarball สำหรับผู้ที่ต้องการ build เอง โดยเวอร์ชันนี้ยังรองรับ distro ล่าสุดอย่าง Debian 13 “Trixie” และยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุไปแล้ว ✅ ฟีเจอร์ใหม่ใน MKVToolNix 95.0 ➡️ เพิ่ม placeholder สำหรับ chapter ของไฟล์ที่ถูก append โดยใช้ title metadata ➡️ ปรับการแสดงผล matrix จาก MP4 เป็นค่า roll และ yaw ที่เหมาะสม ➡️ เพิ่ม argument --date ใน mkvmerge เพื่อกำหนด metadata วันที่ ✅ การปรับปรุงด้านเทคนิค ➡️ รองรับ Boost 1.89.0 โดยใช้เฉพาะ header ของ Boost.System ➡️ ต้องใช้ Boost 1.74.0 ขึ้นไปในการ build จาก source ➡️ แก้บั๊ก PCM packetized ให้ mkvmerge เขียน frame ขนาด 40ms เสมอ ➡️ แก้ปัญหา memory leak ใน MP4/QuickTime reader เมื่ออ่าน PCM audio ✅ การรองรับระบบปฏิบัติการ ➡️ รองรับ Debian 13 “Trixie”, Arch, Fedora 42, Linux Mint 22, AlmaLinux 10 และอื่น ๆ ➡️ มี AppImage ที่รันได้บน Linux ทุกรุ่นที่ใช้ glibc 2.28 ขึ้นไป ➡️ มี Flatpak บน Flathub สำหรับผู้ใช้ที่ต้องการติดตั้งผ่าน container ➡️ ยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุในเดือนมิถุนายน 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ MKVToolNix เป็นเครื่องมือมาตรฐานสำหรับจัดการไฟล์ Matroska ทั้งสร้าง แก้ไข และตรวจสอบ ➡️ GUI ใช้งานง่ายและครอบคลุมฟังก์ชันของเครื่องมือ command-line ➡️ มี community สนับสนุนและอัปเดตต่อเนื่องจากผู้พัฒนา Moritz Bunkus ➡️ เหมาะกับผู้ใช้มืออาชีพด้านวิดีโอและผู้ที่ต้องการควบคุม metadata อย่างละเอียด https://9to5linux.com/mkvtoolnix-95-0-mkv-manipulation-tool-improves-the-chapter-generation-feature
    9TO5LINUX.COM
    MKVToolNix 95.0 MKV Manipulation Tool Improves the Chapter Generation Feature - 9to5Linux
    MKVToolNix 95.0 open-source MKV manipulation tool is now available for download with a new chapter generation feature and bug fixes.
    0 ความคิดเห็น 0 การแบ่งปัน 64 มุมมอง 0 รีวิว
  • เรื่องเล่าจากทองแดง 21 กิโลถึง GPU 145W: เมื่อเคสกลายเป็นฮีตซิงก์ขนาดยักษ์

    FanlessVC2300S DT เป็นเคสขนาด ITX ที่ออกแบบมาเพื่อการระบายความร้อนแบบ passive โดยใช้วัสดุทองแดงทั้งแผ่นในรุ่นลิมิเต็ดอิดิชัน ซึ่งมีน้ำหนักถึง 21.5 กิโลกรัม (47.4 ปอนด์) และมีพื้นที่ระบายความร้อนรวมถึง 1.3 ตารางเมตรผ่านครีบทองแดงรอบตัวเคส

    เคสนี้รองรับการติดตั้ง CPU และ GPU รวมกันที่ TDP สูงสุด 250W โดยใช้ระบบ heatpipe และ vapor chamber แยกกันสำหรับแต่ละส่วน: CPU ใช้ heatpipe ขนาด 8 มม. จำนวน 17 เส้น ส่วน GPU ใช้ vapor chamber 3 ตัวเชื่อมกับ heatpipe ขนาด 10 มม.

    แม้จะไม่มีพัดลม แต่เคสสามารถรองรับ GPU รุ่นครึ่งความสูงอย่าง RTX 5060 ได้ ซึ่งกินไฟประมาณ 145W ทำให้เหลือพื้นที่ TDP สำหรับ CPU อีกประมาณ 105W

    เคสมีขนาด 360 x 303 x 130 มม. และมี volume ภายใน 14.2 ลิตร รองรับเมนบอร์ด ITX ขนาด 170 x 170 มม., RAM สูงสุด 44 มม., PSU แบบ Flex ATX และ SSD ขนาด 2.5 นิ้วหนึ่งตัว โดยมีระบบ quick-release สำหรับการประกอบที่ง่ายขึ้น

    รุ่นที่ใช้อลูมิเนียมแทนทองแดงมีน้ำหนักเพียงครึ่งเดียว (11.2 กิโลกรัม) และมีราคาประมาณ 1,760 หยวน (~$250) ในช่วงเปิดตัว โดยจะขึ้นเป็น 2,000 หยวน (~$280) หลังหมดโปรโมชัน

    https://www.tomshardware.com/pc-components/pc-cases/compact-copper-encased-14-2-liter-pc-system-weighs-47-4-pounds-doesnt-need-fans-for-cooling-passive-itx-case-is-nearly-twice-as-heavy-as-the-aluminum-shrouded-version
    🎙️ เรื่องเล่าจากทองแดง 21 กิโลถึง GPU 145W: เมื่อเคสกลายเป็นฮีตซิงก์ขนาดยักษ์ FanlessVC2300S DT เป็นเคสขนาด ITX ที่ออกแบบมาเพื่อการระบายความร้อนแบบ passive โดยใช้วัสดุทองแดงทั้งแผ่นในรุ่นลิมิเต็ดอิดิชัน ซึ่งมีน้ำหนักถึง 21.5 กิโลกรัม (47.4 ปอนด์) และมีพื้นที่ระบายความร้อนรวมถึง 1.3 ตารางเมตรผ่านครีบทองแดงรอบตัวเคส เคสนี้รองรับการติดตั้ง CPU และ GPU รวมกันที่ TDP สูงสุด 250W โดยใช้ระบบ heatpipe และ vapor chamber แยกกันสำหรับแต่ละส่วน: CPU ใช้ heatpipe ขนาด 8 มม. จำนวน 17 เส้น ส่วน GPU ใช้ vapor chamber 3 ตัวเชื่อมกับ heatpipe ขนาด 10 มม. แม้จะไม่มีพัดลม แต่เคสสามารถรองรับ GPU รุ่นครึ่งความสูงอย่าง RTX 5060 ได้ ซึ่งกินไฟประมาณ 145W ทำให้เหลือพื้นที่ TDP สำหรับ CPU อีกประมาณ 105W เคสมีขนาด 360 x 303 x 130 มม. และมี volume ภายใน 14.2 ลิตร รองรับเมนบอร์ด ITX ขนาด 170 x 170 มม., RAM สูงสุด 44 มม., PSU แบบ Flex ATX และ SSD ขนาด 2.5 นิ้วหนึ่งตัว โดยมีระบบ quick-release สำหรับการประกอบที่ง่ายขึ้น รุ่นที่ใช้อลูมิเนียมแทนทองแดงมีน้ำหนักเพียงครึ่งเดียว (11.2 กิโลกรัม) และมีราคาประมาณ 1,760 หยวน (~$250) ในช่วงเปิดตัว โดยจะขึ้นเป็น 2,000 หยวน (~$280) หลังหมดโปรโมชัน https://www.tomshardware.com/pc-components/pc-cases/compact-copper-encased-14-2-liter-pc-system-weighs-47-4-pounds-doesnt-need-fans-for-cooling-passive-itx-case-is-nearly-twice-as-heavy-as-the-aluminum-shrouded-version
    0 ความคิดเห็น 0 การแบ่งปัน 79 มุมมอง 0 รีวิว
  • เรื่องเล่าจากการตั้งค่าที่ดูดีแต่ไม่จำเป็น: เมื่อการปิดบางฟีเจอร์ทำให้ Windows 11 เร็วขึ้นและปลอดภัยขึ้น

    เมื่อคุณซื้อแล็ปท็อปใหม่ที่มาพร้อม Windows 11 ไม่ว่าจะเป็นรุ่น Home หรือ Pro คุณจะได้รับฟีเจอร์มากมายที่เปิดใช้งานโดยอัตโนมัติ เพื่อให้ระบบดู “สมบูรณ์” แต่ในความเป็นจริง หลายฟีเจอร์เหล่านี้กลับทำให้เครื่องช้าลงโดยไม่จำเป็น และบางส่วนยังส่งข้อมูลกลับไปยัง Microsoft โดยที่คุณไม่ได้อนุญาตอย่างชัดเจน

    ฟีเจอร์อย่าง Diagnostic Data, Targeted Ads, Widgets, Search Highlights และการแจ้งเตือนที่ไม่จำเป็น ล้วนเป็นสิ่งที่ควรปิดทันทีหลังตั้งค่าเครื่อง เพื่อให้ได้ประสิทธิภาพที่ดีขึ้นและลดการละเมิดความเป็นส่วนตัว

    การปิดฟีเจอร์เหล่านี้ไม่ทำให้ระบบเสียหาย และสามารถทำได้ง่าย ๆ ผ่านเมนู Settings โดย Microsoft ก็เปิดให้ผู้ใช้ควบคุมได้มากขึ้นในเวอร์ชันล่าสุด

    Diagnostic Data (ข้อมูลการวินิจฉัย)
    Windows 11 ส่งข้อมูลทั้งแบบจำเป็นและแบบเพิ่มเติมไปยัง Microsoft โดยอัตโนมัติ
    สามารถปิดการส่งข้อมูลเพิ่มเติมได้ และลบข้อมูลที่เคยส่งไปแล้ว
    ปิดการใช้ข้อมูลเพื่อแสดงคำแนะนำและโฆษณาแบบเฉพาะบุคคลได้

    Targeted Ads (โฆษณาแบบเจาะจง)
    ใช้ Advertising ID เพื่อแสดงโฆษณาตามพฤติกรรมของผู้ใช้
    สามารถปิดการใช้ Advertising ID ได้ในเมนู Privacy & Security
    ปิดการติดตามการเปิดแอปเพื่อปรับปรุง Start และ Search

    Annoying Notifications (การแจ้งเตือนที่รบกวน)
    Windows ส่งการแจ้งเตือนเกี่ยวกับการอัปเดต, คำแนะนำ, และฟีเจอร์ใหม่
    สามารถปิดการแจ้งเตือนที่ไม่จำเป็นได้ในเมนู System > Notifications
    ปรับแต่งการแจ้งเตือนจากแอปแต่ละตัวได้อย่างละเอียด

    Widgets (วิดเจ็ต)
    วิดเจ็ตแสดงข้อมูลแบบเรียลไทม์ เช่น ข่าว, สภาพอากาศ, หุ้น
    ใช้ทรัพยากรระบบสูงเพราะอัปเดตตลอดเวลา
    สามารถปิดวิดเจ็ตทั้งหมด หรือเลือกปิดเฉพาะบางตัวได้

    Search Highlights (ไฮไลต์การค้นหา)
    แสดงข้อมูลเช่นวันสำคัญ, ข่าว, เทรนด์ ในแถบค้นหา
    ทำให้การค้นหาช้าลงและกินทรัพยากร
    ปิดได้ในเมนู Privacy & Security > Search Permissions

    https://www.slashgear.com/1962302/settings-to-disable-on-windows-11-laptop/
    🎙️ เรื่องเล่าจากการตั้งค่าที่ดูดีแต่ไม่จำเป็น: เมื่อการปิดบางฟีเจอร์ทำให้ Windows 11 เร็วขึ้นและปลอดภัยขึ้น เมื่อคุณซื้อแล็ปท็อปใหม่ที่มาพร้อม Windows 11 ไม่ว่าจะเป็นรุ่น Home หรือ Pro คุณจะได้รับฟีเจอร์มากมายที่เปิดใช้งานโดยอัตโนมัติ เพื่อให้ระบบดู “สมบูรณ์” แต่ในความเป็นจริง หลายฟีเจอร์เหล่านี้กลับทำให้เครื่องช้าลงโดยไม่จำเป็น และบางส่วนยังส่งข้อมูลกลับไปยัง Microsoft โดยที่คุณไม่ได้อนุญาตอย่างชัดเจน ฟีเจอร์อย่าง Diagnostic Data, Targeted Ads, Widgets, Search Highlights และการแจ้งเตือนที่ไม่จำเป็น ล้วนเป็นสิ่งที่ควรปิดทันทีหลังตั้งค่าเครื่อง เพื่อให้ได้ประสิทธิภาพที่ดีขึ้นและลดการละเมิดความเป็นส่วนตัว การปิดฟีเจอร์เหล่านี้ไม่ทำให้ระบบเสียหาย และสามารถทำได้ง่าย ๆ ผ่านเมนู Settings โดย Microsoft ก็เปิดให้ผู้ใช้ควบคุมได้มากขึ้นในเวอร์ชันล่าสุด ✅ Diagnostic Data (ข้อมูลการวินิจฉัย) ➡️ Windows 11 ส่งข้อมูลทั้งแบบจำเป็นและแบบเพิ่มเติมไปยัง Microsoft โดยอัตโนมัติ ➡️ สามารถปิดการส่งข้อมูลเพิ่มเติมได้ และลบข้อมูลที่เคยส่งไปแล้ว ➡️ ปิดการใช้ข้อมูลเพื่อแสดงคำแนะนำและโฆษณาแบบเฉพาะบุคคลได้ ✅ Targeted Ads (โฆษณาแบบเจาะจง) ➡️ ใช้ Advertising ID เพื่อแสดงโฆษณาตามพฤติกรรมของผู้ใช้ ➡️ สามารถปิดการใช้ Advertising ID ได้ในเมนู Privacy & Security ➡️ ปิดการติดตามการเปิดแอปเพื่อปรับปรุง Start และ Search ✅ Annoying Notifications (การแจ้งเตือนที่รบกวน) ➡️ Windows ส่งการแจ้งเตือนเกี่ยวกับการอัปเดต, คำแนะนำ, และฟีเจอร์ใหม่ ➡️ สามารถปิดการแจ้งเตือนที่ไม่จำเป็นได้ในเมนู System > Notifications ➡️ ปรับแต่งการแจ้งเตือนจากแอปแต่ละตัวได้อย่างละเอียด ✅ Widgets (วิดเจ็ต) ➡️ วิดเจ็ตแสดงข้อมูลแบบเรียลไทม์ เช่น ข่าว, สภาพอากาศ, หุ้น ➡️ ใช้ทรัพยากรระบบสูงเพราะอัปเดตตลอดเวลา ➡️ สามารถปิดวิดเจ็ตทั้งหมด หรือเลือกปิดเฉพาะบางตัวได้ ✅ Search Highlights (ไฮไลต์การค้นหา) ➡️ แสดงข้อมูลเช่นวันสำคัญ, ข่าว, เทรนด์ ในแถบค้นหา ➡️ ทำให้การค้นหาช้าลงและกินทรัพยากร ➡️ ปิดได้ในเมนู Privacy & Security > Search Permissions https://www.slashgear.com/1962302/settings-to-disable-on-windows-11-laptop/
    WWW.SLASHGEAR.COM
    5 Settings To Disable On Your New Windows 11 Laptop - SlashGear
    Windows has come to include a huge amount of features to make your everyday computing experience better, but you may not want all of them turned on at once.
    0 ความคิดเห็น 0 การแบ่งปัน 83 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก microkernel ถึง reactive UI: เมื่อ OS กลายเป็นงานศิลปะที่เขียนด้วย C++

    skiftOS ไม่ได้พยายามเลียนแบบระบบปฏิบัติการที่มีอยู่ แต่สร้างขึ้นใหม่ทั้งหมดด้วย C++ สมัยใหม่ เพื่อให้เป็นพื้นที่เรียนรู้และทดลองสำหรับคนที่อยากเข้าใจแก่นแท้ของ OS โดยไม่ต้องแบกภาระของ legacy code หรือข้อจำกัดของ POSIX

    ระบบนี้ใช้ microkernel แบบ capability-based ที่เน้นความปลอดภัยและความเป็นโมดูล พร้อม UI แบบ reactive ที่ได้รับแรงบันดาลใจจาก SwiftUI และ Flutter ทำให้ทุกแอปมีธีมและการจัดวางที่สอดคล้องกันอย่างสวยงาม

    แม้จะยังอยู่ในสถานะ alpha และไม่เหมาะกับการใช้งานจริงในชีวิตประจำวัน แต่ skiftOS ก็มีแอปพื้นฐานครบถ้วน เช่น terminal, text editor, media player, paint, calculator และแม้แต่เกมงู! ทั้งหมดนี้ถูกออกแบบให้เล็ก สร้างง่าย และเหมาะสำหรับผู้ที่อยากเรียนรู้การพัฒนา OS

    นอกจากนี้ skiftOS ยังมี browser engine แบบเบา ๆ ที่รองรับ HTML/CSS สำหรับการจัดวางหน้าเว็บ และระบบ build ที่รองรับ ARM, x86 และ RISC-V ทำให้สามารถทดลองบนฮาร์ดแวร์หลากหลายได้

    สิ่งที่น่าสนใจคือ skiftOS ไม่ใช่ *NIX และไม่ยึดติดกับ API แบบเดิม แต่ได้รับแรงบันดาลใจจาก Plan 9, Haiku และ Fuchsia ซึ่งเน้นความเรียบง่าย ความสอดคล้อง และการออกแบบใหม่หมด

    แนวคิดและเป้าหมายของ skiftOS
    สร้างขึ้นเพื่อเรียนรู้ OS internals และพัฒนาทักษะระบบ
    ไม่พยายามเลียนแบบ Windows หรือ Linux
    เป็นระบบที่เขียนด้วย C++ สมัยใหม่ทั้งหมด

    สถาปัตยกรรมและเทคโนโลยีหลัก
    ใช้ capability-based microkernel เพื่อความปลอดภัยและความเป็นโมดูล
    มี reactive UI framework ที่สวยงามและสอดคล้องกัน
    มี UEFI bootloader ที่ปรับแต่งได้และมีกราฟิกสวยงาม

    แอปและระบบพื้นฐาน
    มีแอปพื้นฐานครบ เช่น terminal, text editor, media player, paint, calculator
    มี browser engine ที่รองรับ HTML/CSS แบบเบา ๆ
    รองรับการ build บน ARM, x86 และ RISC-V

    ความแตกต่างจากระบบปฏิบัติการทั่วไป
    ไม่ใช่ POSIX และไม่ใช่ *NIX
    ได้แรงบันดาลใจจาก Plan 9, Haiku และ Fuchsia
    มี API และ userland ที่ออกแบบใหม่ทั้งหมด

    ชุมชนและการมีส่วนร่วม
    เปิดให้ร่วมพัฒนาผ่าน GitHub
    มีช่องทางสื่อสารผ่าน Discord, Reddit และ Bluesky
    ได้รับการสนับสนุนจากนักพัฒนาหลายคนในวงการ OS

    ความเสี่ยงจากการใช้งานจริง
    skiftOS ยังอยู่ในสถานะ alpha และไม่เหมาะกับการใช้งานจริง
    อาจมีบั๊กหรือฟีเจอร์ที่ยังไม่สมบูรณ์

    ความเปราะบางของ ecosystem
    ไม่รองรับซอฟต์แวร์หรือไลบรารีจาก Linux หรือ Windows
    ต้องเรียนรู้ API ใหม่ทั้งหมด ซึ่งอาจไม่เหมาะกับผู้เริ่มต้น

    ความไม่แน่นอนของการพัฒนาในระยะยาว
    เป็นโปรเจกต์ส่วนตัวที่ขึ้นอยู่กับเวลาของผู้พัฒนา
    อาจไม่มีการอัปเดตหรือสนับสนุนในระยะยาว

    https://skiftos.org/
    🎙️ เรื่องเล่าจาก microkernel ถึง reactive UI: เมื่อ OS กลายเป็นงานศิลปะที่เขียนด้วย C++ skiftOS ไม่ได้พยายามเลียนแบบระบบปฏิบัติการที่มีอยู่ แต่สร้างขึ้นใหม่ทั้งหมดด้วย C++ สมัยใหม่ เพื่อให้เป็นพื้นที่เรียนรู้และทดลองสำหรับคนที่อยากเข้าใจแก่นแท้ของ OS โดยไม่ต้องแบกภาระของ legacy code หรือข้อจำกัดของ POSIX ระบบนี้ใช้ microkernel แบบ capability-based ที่เน้นความปลอดภัยและความเป็นโมดูล พร้อม UI แบบ reactive ที่ได้รับแรงบันดาลใจจาก SwiftUI และ Flutter ทำให้ทุกแอปมีธีมและการจัดวางที่สอดคล้องกันอย่างสวยงาม แม้จะยังอยู่ในสถานะ alpha และไม่เหมาะกับการใช้งานจริงในชีวิตประจำวัน แต่ skiftOS ก็มีแอปพื้นฐานครบถ้วน เช่น terminal, text editor, media player, paint, calculator และแม้แต่เกมงู! ทั้งหมดนี้ถูกออกแบบให้เล็ก สร้างง่าย และเหมาะสำหรับผู้ที่อยากเรียนรู้การพัฒนา OS นอกจากนี้ skiftOS ยังมี browser engine แบบเบา ๆ ที่รองรับ HTML/CSS สำหรับการจัดวางหน้าเว็บ และระบบ build ที่รองรับ ARM, x86 และ RISC-V ทำให้สามารถทดลองบนฮาร์ดแวร์หลากหลายได้ สิ่งที่น่าสนใจคือ skiftOS ไม่ใช่ *NIX และไม่ยึดติดกับ API แบบเดิม แต่ได้รับแรงบันดาลใจจาก Plan 9, Haiku และ Fuchsia ซึ่งเน้นความเรียบง่าย ความสอดคล้อง และการออกแบบใหม่หมด ✅ แนวคิดและเป้าหมายของ skiftOS ➡️ สร้างขึ้นเพื่อเรียนรู้ OS internals และพัฒนาทักษะระบบ ➡️ ไม่พยายามเลียนแบบ Windows หรือ Linux ➡️ เป็นระบบที่เขียนด้วย C++ สมัยใหม่ทั้งหมด ✅ สถาปัตยกรรมและเทคโนโลยีหลัก ➡️ ใช้ capability-based microkernel เพื่อความปลอดภัยและความเป็นโมดูล ➡️ มี reactive UI framework ที่สวยงามและสอดคล้องกัน ➡️ มี UEFI bootloader ที่ปรับแต่งได้และมีกราฟิกสวยงาม ✅ แอปและระบบพื้นฐาน ➡️ มีแอปพื้นฐานครบ เช่น terminal, text editor, media player, paint, calculator ➡️ มี browser engine ที่รองรับ HTML/CSS แบบเบา ๆ ➡️ รองรับการ build บน ARM, x86 และ RISC-V ✅ ความแตกต่างจากระบบปฏิบัติการทั่วไป ➡️ ไม่ใช่ POSIX และไม่ใช่ *NIX ➡️ ได้แรงบันดาลใจจาก Plan 9, Haiku และ Fuchsia ➡️ มี API และ userland ที่ออกแบบใหม่ทั้งหมด ✅ ชุมชนและการมีส่วนร่วม ➡️ เปิดให้ร่วมพัฒนาผ่าน GitHub ➡️ มีช่องทางสื่อสารผ่าน Discord, Reddit และ Bluesky ➡️ ได้รับการสนับสนุนจากนักพัฒนาหลายคนในวงการ OS ‼️ ความเสี่ยงจากการใช้งานจริง ⛔ skiftOS ยังอยู่ในสถานะ alpha และไม่เหมาะกับการใช้งานจริง ⛔ อาจมีบั๊กหรือฟีเจอร์ที่ยังไม่สมบูรณ์ ‼️ ความเปราะบางของ ecosystem ⛔ ไม่รองรับซอฟต์แวร์หรือไลบรารีจาก Linux หรือ Windows ⛔ ต้องเรียนรู้ API ใหม่ทั้งหมด ซึ่งอาจไม่เหมาะกับผู้เริ่มต้น ‼️ ความไม่แน่นอนของการพัฒนาในระยะยาว ⛔ เป็นโปรเจกต์ส่วนตัวที่ขึ้นอยู่กับเวลาของผู้พัฒนา ⛔ อาจไม่มีการอัปเดตหรือสนับสนุนในระยะยาว https://skiftos.org/
    0 ความคิดเห็น 0 การแบ่งปัน 76 มุมมอง 0 รีวิว
  • ประกาศสำคัญ: แจ้งเตือนการอัปเดตแอปพลิเคชัน

    แอป Thaitimes จะมีการอัปเดตเวอร์ชันใหม่ในวันที่ 15 กันยายน 2568 หรือหลังจากนั้น

    หลังจากผู้ใช้งานอัปเดตแอปแล้ว
    ระบบจะให้ทำการ Sign in (ล็อกอิน) ใหม่อีกครั้ง

    นี่เป็นกระบวนการปกติจากการปรับโครงสร้างภายในแอป (App) เพื่อเพิ่มความเสถียรและรองรับระบบใหม่ ข้อมูลเดิมของผู้ใช้งานจะไม่หาย และยังคงอยู่ครบถ้วน

    หากท่านพบว่าเข้าใช้งานไม่ได้ หรือต้องการคำแนะนำ สามารถติดต่อทีมงานได้ทาง
    LINE: @sondhitalk

    ทีมงานพร้อมดูแลและให้ความช่วยเหลือทุกท่านครับ
    ขออภัยในความไม่สะดวก และขอบพระคุณที่ใช้งานแอป Thaitimes มาโดยตลอด


    Important Announcement: App Update Notification

    The Thaitimes app will be updated on 15th September 2025 or shortly after.
    Once the new version is installed,
    users will be required to sign in again.

    This is a normal process due to internal structural changes
    to improve system stability and support new features.
    All your existing data and account details will remain safe and unchanged.

    If you’re unable to sign in or need any assistance,
    please feel free to contact our support team via
    LINE: @sondhitalk

    We’re here to help.
    Thank you for your understanding and continued support.
    📢 ประกาศสำคัญ: แจ้งเตือนการอัปเดตแอปพลิเคชัน แอป Thaitimes จะมีการอัปเดตเวอร์ชันใหม่ในวันที่ 15 กันยายน 2568 หรือหลังจากนั้น หลังจากผู้ใช้งานอัปเดตแอปแล้ว ระบบจะให้ทำการ Sign in (ล็อกอิน) ใหม่อีกครั้ง นี่เป็นกระบวนการปกติจากการปรับโครงสร้างภายในแอป (App) เพื่อเพิ่มความเสถียรและรองรับระบบใหม่ ข้อมูลเดิมของผู้ใช้งานจะไม่หาย และยังคงอยู่ครบถ้วน หากท่านพบว่าเข้าใช้งานไม่ได้ หรือต้องการคำแนะนำ สามารถติดต่อทีมงานได้ทาง LINE: @sondhitalk ทีมงานพร้อมดูแลและให้ความช่วยเหลือทุกท่านครับ ขออภัยในความไม่สะดวก และขอบพระคุณที่ใช้งานแอป Thaitimes มาโดยตลอด 📢 Important Announcement: App Update Notification The Thaitimes app will be updated on 15th September 2025 or shortly after. Once the new version is installed, users will be required to sign in again. This is a normal process due to internal structural changes to improve system stability and support new features. All your existing data and account details will remain safe and unchanged. If you’re unable to sign in or need any assistance, please feel free to contact our support team via LINE: @sondhitalk We’re here to help. Thank you for your understanding and continued support.
    Like
    6
    0 ความคิดเห็น 1 การแบ่งปัน 620 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 ความคิดเห็น 0 การแบ่งปัน 114 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก GNOME 3.18 ถึง GNOME 49: เมื่อ Dash to Panel กลายเป็นส่วนหนึ่งของประสบการณ์ที่ผู้ใช้เลือกเองได้

    Dash to Panel ซึ่งเป็นหนึ่งใน GNOME Shell Extension ที่ได้รับความนิยมสูงสุด ได้ออกเวอร์ชันใหม่ v69 ที่รองรับ GNOME 49 อย่างเป็นทางการ พร้อมฟีเจอร์ใหม่ที่เน้นความยืดหยุ่น ความฉลาด และการปรับแต่งที่ลึกขึ้นสำหรับผู้ใช้ที่ต้องการควบคุมหน้าจอของตนเองแบบละเอียด

    ฟีเจอร์ใหม่ที่เพิ่มเข้ามาในระบบ intellihide ได้แก่ reveal delay, hide from window on monitor, และ disable cursor reveal ซึ่งช่วยให้การซ่อน/แสดงแผงควบคุมมีความแม่นยำและไม่รบกวนการใช้งาน

    นอกจากนี้ยังมีการปรับปรุงด้านการจัดการหน้าต่าง เช่น การเพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอนแบบไม่ grouped, การแสดงหมายเลข workspace บน preview, และการ sync เมนู alt-tab กับ workspace isolation

    Dash to Panel v69 ยังแก้ไขบั๊กจำนวนมาก เช่น shortcut Super+V และ Super+S ที่ไม่ทำงานเมื่อแผงถูกซ่อนไว้, ปัญหา intellihide ที่บล็อก input, การเปลี่ยน primary monitor เมื่อถอดสาย, และการ scroll preview ที่ไม่เสถียร

    ที่น่าสนใจคือการเพิ่มระบบติดตั้งแบบ system-wide และการปรับแต่งขอบแผง (panel border styling) ที่ช่วยให้ผู้ดูแลระบบสามารถ deploy ได้ง่ายขึ้นในองค์กรหรือสภาพแวดล้อมที่มีผู้ใช้หลายคน

    การรองรับ GNOME 49
    Dash to Panel v69 รองรับ GNOME 49 อย่างเป็นทางการ
    ปรับปรุงให้ทำงานได้เสถียรกับ desktop environment รุ่นล่าสุด

    ฟีเจอร์ใหม่ในระบบ Intellihide
    เพิ่ม reveal delay เพื่อควบคุมเวลาการแสดงแผง
    เพิ่ม hide from window on monitor เพื่อหลีกเลี่ยงการแสดงแผงเมื่อมีหน้าต่างอยู่
    เพิ่ม disable cursor reveal เพื่อป้องกันการแสดงแผงโดยไม่ตั้งใจ

    การจัดการหน้าต่างและ workspace
    เพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอน
    แสดงหมายเลข workspace บน window preview
    sync เมนู alt-tab กับ workspace isolation เพื่อความสอดคล้อง

    การแก้ไขบั๊กและปรับปรุงระบบ
    แก้ปัญหา shortcut Super+V และ Super+S ไม่ทำงาน
    แก้ปัญหา intellihide บล็อก input และ scroll preview ไม่เสถียร
    แก้ปัญหาการเปลี่ยน primary monitor และ animation บน unlock

    การปรับปรุงด้าน deployment และ UI
    รองรับการติดตั้งแบบ system-wide สำหรับองค์กร
    เพิ่ม panel border styling เพื่อปรับแต่งขอบแผง
    ยกเลิก GTK4 FileChooser และเพิ่มข้อความขอบคุณ Zorin OS

    https://9to5linux.com/dash-to-panel-gnome-shell-extension-gets-gnome-49-support-and-new-features
    🎙️ เรื่องเล่าจาก GNOME 3.18 ถึง GNOME 49: เมื่อ Dash to Panel กลายเป็นส่วนหนึ่งของประสบการณ์ที่ผู้ใช้เลือกเองได้ Dash to Panel ซึ่งเป็นหนึ่งใน GNOME Shell Extension ที่ได้รับความนิยมสูงสุด ได้ออกเวอร์ชันใหม่ v69 ที่รองรับ GNOME 49 อย่างเป็นทางการ พร้อมฟีเจอร์ใหม่ที่เน้นความยืดหยุ่น ความฉลาด และการปรับแต่งที่ลึกขึ้นสำหรับผู้ใช้ที่ต้องการควบคุมหน้าจอของตนเองแบบละเอียด ฟีเจอร์ใหม่ที่เพิ่มเข้ามาในระบบ intellihide ได้แก่ reveal delay, hide from window on monitor, และ disable cursor reveal ซึ่งช่วยให้การซ่อน/แสดงแผงควบคุมมีความแม่นยำและไม่รบกวนการใช้งาน นอกจากนี้ยังมีการปรับปรุงด้านการจัดการหน้าต่าง เช่น การเพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอนแบบไม่ grouped, การแสดงหมายเลข workspace บน preview, และการ sync เมนู alt-tab กับ workspace isolation Dash to Panel v69 ยังแก้ไขบั๊กจำนวนมาก เช่น shortcut Super+V และ Super+S ที่ไม่ทำงานเมื่อแผงถูกซ่อนไว้, ปัญหา intellihide ที่บล็อก input, การเปลี่ยน primary monitor เมื่อถอดสาย, และการ scroll preview ที่ไม่เสถียร ที่น่าสนใจคือการเพิ่มระบบติดตั้งแบบ system-wide และการปรับแต่งขอบแผง (panel border styling) ที่ช่วยให้ผู้ดูแลระบบสามารถ deploy ได้ง่ายขึ้นในองค์กรหรือสภาพแวดล้อมที่มีผู้ใช้หลายคน ✅ การรองรับ GNOME 49 ➡️ Dash to Panel v69 รองรับ GNOME 49 อย่างเป็นทางการ ➡️ ปรับปรุงให้ทำงานได้เสถียรกับ desktop environment รุ่นล่าสุด ✅ ฟีเจอร์ใหม่ในระบบ Intellihide ➡️ เพิ่ม reveal delay เพื่อควบคุมเวลาการแสดงแผง ➡️ เพิ่ม hide from window on monitor เพื่อหลีกเลี่ยงการแสดงแผงเมื่อมีหน้าต่างอยู่ ➡️ เพิ่ม disable cursor reveal เพื่อป้องกันการแสดงแผงโดยไม่ตั้งใจ ✅ การจัดการหน้าต่างและ workspace ➡️ เพิ่ม context action สำหรับการปิดหน้าต่างทั้งหมดจากไอคอน ➡️ แสดงหมายเลข workspace บน window preview ➡️ sync เมนู alt-tab กับ workspace isolation เพื่อความสอดคล้อง ✅ การแก้ไขบั๊กและปรับปรุงระบบ ➡️ แก้ปัญหา shortcut Super+V และ Super+S ไม่ทำงาน ➡️ แก้ปัญหา intellihide บล็อก input และ scroll preview ไม่เสถียร ➡️ แก้ปัญหาการเปลี่ยน primary monitor และ animation บน unlock ✅ การปรับปรุงด้าน deployment และ UI ➡️ รองรับการติดตั้งแบบ system-wide สำหรับองค์กร ➡️ เพิ่ม panel border styling เพื่อปรับแต่งขอบแผง ➡️ ยกเลิก GTK4 FileChooser และเพิ่มข้อความขอบคุณ Zorin OS https://9to5linux.com/dash-to-panel-gnome-shell-extension-gets-gnome-49-support-and-new-features
    9TO5LINUX.COM
    Dash to Panel GNOME Shell Extension Gets GNOME 49 Support and New Features - 9to5Linux
    GNOME Shell extension Dash to Panel gets a major update with new features, bug fixes, and support for the GNOME 49 desktop environment.
    0 ความคิดเห็น 0 การแบ่งปัน 96 มุมมอง 0 รีวิว
  • “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก”

    Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ

    การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore

    TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด

    บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ

    จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS
    ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ
    ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป
    รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง
    ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer

    บริบทของตลาดเซมิคอนดักเตอร์อินเดีย
    มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030
    รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore
    อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก
    บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย

    ข้อมูลเสริมจากภายนอก
    แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม
    UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ
    HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง
    TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้

    คำเตือนและข้อจำกัด
    การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน
    การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้
    มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต
    บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่
    การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด

    https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    🔧 “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก” Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ ✅ จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS ➡️ ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ ➡️ ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป ➡️ รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง ➡️ ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer ✅ บริบทของตลาดเซมิคอนดักเตอร์อินเดีย ➡️ มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030 ➡️ รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore ➡️ อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก ➡️ บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย ✅ ข้อมูลเสริมจากภายนอก ➡️ แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม ➡️ UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ ➡️ HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง ➡️ TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้ ‼️ คำเตือนและข้อจำกัด ⛔ การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน ⛔ การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้ ⛔ มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต ⛔ บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่ ⛔ การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    WWW.TECHPOWERUP.COM
    TCS Unveils Chiplet-Based System Engineering Services to Accelerate Semiconductor Innovation
    Tata Consultancy Services a global leader in IT services, consulting, and business solutions, announced the launch of its Chiplet-based System Engineering Services, designed to help semiconductor companies push the boundaries of traditional chip design. By using chiplets (which are small integrated ...
    0 ความคิดเห็น 0 การแบ่งปัน 191 มุมมอง 0 รีวิว
  • “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง”

    Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง

    Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023

    แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย

    เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี

    ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun
    เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI
    วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี
    เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก
    ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง

    สถานการณ์ด้านฮาร์ดแวร์และการส่งออก
    สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023
    Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ
    จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี
    รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ

    ข้อมูลเสริมจากภายนอก
    Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning
    GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ
    ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต
    DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    🇨🇳 “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง” Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023 แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี ✅ ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun ➡️ เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI ➡️ วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี ➡️ เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก ➡️ ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง ✅ สถานการณ์ด้านฮาร์ดแวร์และการส่งออก ➡️ สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023 ➡️ Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ ➡️ จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี ➡️ รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning ➡️ GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ ➡️ ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต ➡️ DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    0 ความคิดเห็น 0 การแบ่งปัน 186 มุมมอง 0 รีวิว
  • “5 เครื่องมือ AI ช่วยสมัครงานที่ดีที่สุดในปี 2025 — จากจัดการเรซูเม่ถึงสมัครอัตโนมัติ แต่ต้องใช้ด้วยความระวัง”

    ในยุคที่การหางานกลายเป็นภารกิจที่กินพลังชีวิตมากกว่าที่คิด ทั้งการเขียนเรซูเม่ให้ตรงกับแต่ละตำแหน่ง การตอบคำถามคัดกรอง และการติดตามสถานะการสมัคร — AI ได้เข้ามาเป็นผู้ช่วยที่ทรงพลัง แต่ก็ไม่ใช่ไร้ข้อจำกัด

    บทความจาก SlashGear ได้จัดอันดับเครื่องมือ AI ที่ดีที่สุดสำหรับการสมัครงานในปี 2025 โดยอิงจากประสบการณ์ตรงของผู้เขียนที่เคยทำงานด้าน HR และการวิเคราะห์ฟีเจอร์ของแต่ละแพลตฟอร์ม ซึ่งครอบคลุมตั้งแต่การจัดการเรซูเม่ การตรวจสอบ ATS ไปจนถึงการสมัครงานแบบอัตโนมัติ

    เครื่องมือที่ได้รับการแนะนำ ได้แก่:
    - Huntr สำหรับการติดตามสถานะการสมัครและจัดการเรซูเม่หลายเวอร์ชัน
    - Enhancv สำหรับตรวจสอบว่าเรซูเม่ผ่านระบบ ATS ได้หรือไม่
    - JobCopilot สำหรับการสมัครงานอัตโนมัติแบบไม่ต้องกรอกซ้ำ
    - LinkedIn Job Match AI สำหรับการจับคู่ตำแหน่งงานกับโปรไฟล์ของผู้สมัคร
    - Kickresume สำหรับการปรับแต่งเรซูเม่ให้ตรงกับประกาศงานและดูเป็นมืออาชีพ

    แม้เครื่องมือเหล่านี้จะช่วยลดภาระในการสมัครงาน แต่ก็มีข้อควรระวัง เช่น การแชร์ข้อมูลส่วนตัวกับระบบ AI, ความเสี่ยงจากการสมัครงานที่ไม่ตรงเป้าหมาย และการถูกกรองออกโดยระบบของบริษัทที่ไม่รับเรซูเม่ที่สร้างด้วย AI

    เครื่องมือ AI ที่ช่วยในการสมัครงาน
    Huntr: ติดตามสถานะการสมัคร, จัดการเรซูเม่, เก็บข้อมูลประกาศงาน
    Enhancv: ตรวจสอบเรซูเม่ให้ผ่านระบบ ATS, วิเคราะห์ความยาว, bullet points, การใช้คำซ้ำ
    JobCopilot: สมัครงานอัตโนมัติ, ตอบคำถามคัดกรองครั้งเดียว, มีแดชบอร์ดติดตาม
    LinkedIn Job Match AI: วิเคราะห์ความเหมาะสมของโปรไฟล์กับตำแหน่งงาน, ใช้ได้เฉพาะผู้ใช้ Premium
    Kickresume: สร้างและปรับแต่งเรซูเม่ด้วย AI, เลือกรับคำแนะนำเฉพาะจุด, รองรับการเขียน cover letter

    ข้อมูลเสริมจากภายนอก
    ATS (Applicant Tracking System) เป็นระบบที่บริษัทใช้กรองเรซูเม่ก่อนถึงมือ HR
    Resume ที่ไม่ผ่าน ATS จะถูกคัดออกทันที แม้จะมีคุณสมบัติเหมาะสม
    AI resume optimization ช่วยให้ผ่านการกรองเบื้องต้นและเพิ่มโอกาสเข้าสัมภาษณ์
    เครื่องมืออย่าง Careerflow, LoopCV, Sonara.ai ก็เป็นตัวเลือกที่น่าสนใจในตลาดเดียวกัน

    https://www.slashgear.com/1942696/best-ai-tools-applying-to-jobs-ranked/
    🤖 “5 เครื่องมือ AI ช่วยสมัครงานที่ดีที่สุดในปี 2025 — จากจัดการเรซูเม่ถึงสมัครอัตโนมัติ แต่ต้องใช้ด้วยความระวัง” ในยุคที่การหางานกลายเป็นภารกิจที่กินพลังชีวิตมากกว่าที่คิด ทั้งการเขียนเรซูเม่ให้ตรงกับแต่ละตำแหน่ง การตอบคำถามคัดกรอง และการติดตามสถานะการสมัคร — AI ได้เข้ามาเป็นผู้ช่วยที่ทรงพลัง แต่ก็ไม่ใช่ไร้ข้อจำกัด บทความจาก SlashGear ได้จัดอันดับเครื่องมือ AI ที่ดีที่สุดสำหรับการสมัครงานในปี 2025 โดยอิงจากประสบการณ์ตรงของผู้เขียนที่เคยทำงานด้าน HR และการวิเคราะห์ฟีเจอร์ของแต่ละแพลตฟอร์ม ซึ่งครอบคลุมตั้งแต่การจัดการเรซูเม่ การตรวจสอบ ATS ไปจนถึงการสมัครงานแบบอัตโนมัติ เครื่องมือที่ได้รับการแนะนำ ได้แก่: - Huntr สำหรับการติดตามสถานะการสมัครและจัดการเรซูเม่หลายเวอร์ชัน - Enhancv สำหรับตรวจสอบว่าเรซูเม่ผ่านระบบ ATS ได้หรือไม่ - JobCopilot สำหรับการสมัครงานอัตโนมัติแบบไม่ต้องกรอกซ้ำ - LinkedIn Job Match AI สำหรับการจับคู่ตำแหน่งงานกับโปรไฟล์ของผู้สมัคร - Kickresume สำหรับการปรับแต่งเรซูเม่ให้ตรงกับประกาศงานและดูเป็นมืออาชีพ แม้เครื่องมือเหล่านี้จะช่วยลดภาระในการสมัครงาน แต่ก็มีข้อควรระวัง เช่น การแชร์ข้อมูลส่วนตัวกับระบบ AI, ความเสี่ยงจากการสมัครงานที่ไม่ตรงเป้าหมาย และการถูกกรองออกโดยระบบของบริษัทที่ไม่รับเรซูเม่ที่สร้างด้วย AI ✅ เครื่องมือ AI ที่ช่วยในการสมัครงาน ➡️ Huntr: ติดตามสถานะการสมัคร, จัดการเรซูเม่, เก็บข้อมูลประกาศงาน ➡️ Enhancv: ตรวจสอบเรซูเม่ให้ผ่านระบบ ATS, วิเคราะห์ความยาว, bullet points, การใช้คำซ้ำ ➡️ JobCopilot: สมัครงานอัตโนมัติ, ตอบคำถามคัดกรองครั้งเดียว, มีแดชบอร์ดติดตาม ➡️ LinkedIn Job Match AI: วิเคราะห์ความเหมาะสมของโปรไฟล์กับตำแหน่งงาน, ใช้ได้เฉพาะผู้ใช้ Premium ➡️ Kickresume: สร้างและปรับแต่งเรซูเม่ด้วย AI, เลือกรับคำแนะนำเฉพาะจุด, รองรับการเขียน cover letter ✅ ข้อมูลเสริมจากภายนอก ➡️ ATS (Applicant Tracking System) เป็นระบบที่บริษัทใช้กรองเรซูเม่ก่อนถึงมือ HR ➡️ Resume ที่ไม่ผ่าน ATS จะถูกคัดออกทันที แม้จะมีคุณสมบัติเหมาะสม ➡️ AI resume optimization ช่วยให้ผ่านการกรองเบื้องต้นและเพิ่มโอกาสเข้าสัมภาษณ์ ➡️ เครื่องมืออย่าง Careerflow, LoopCV, Sonara.ai ก็เป็นตัวเลือกที่น่าสนใจในตลาดเดียวกัน https://www.slashgear.com/1942696/best-ai-tools-applying-to-jobs-ranked/
    WWW.SLASHGEAR.COM
    5 Of The Best AI Tools For Applying To Jobs, Ranked - SlashGear
    5 of the best AI tools to streamline your job search, from resume optimization and application tracking to LinkedIn job matching and auto-apply options.
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • “openSUSE เตรียมถอด Bcachefs ออกจาก Tumbleweed ใน Linux 6.17 — เมื่อความขัดแย้งในชุมชน kernel กลายเป็นเหตุผลทางเทคนิค”

    openSUSE ประกาศเตรียมปิดการรองรับระบบไฟล์ Bcachefs ในดิสโทร Tumbleweed และ Slowroll ตั้งแต่เวอร์ชัน Linux kernel 6.17 เป็นต้นไป ซึ่งจะปล่อยในช่วงปลายเดือนกันยายนหรือต้นตุลาคม 2025 โดยเหตุผลหลักมาจากการที่ Linus Torvalds และทีมหลักของ Linux kernel เปลี่ยนสถานะของ Bcachefs จาก “supported” เป็น “externally maintained” เนื่องจากผู้ดูแล Bcachefs ปฏิเสธที่จะปฏิบัติตามมาตรฐานการแก้บั๊กและการจัดการเวอร์ชันของ kernel

    การเปลี่ยนสถานะนี้หมายความว่า Bcachefs จะไม่ได้รับการอัปเดตหรือ commit ใหม่ใน kernel หลักอีกต่อไป ทำให้ดิสโทรที่ใช้ kernel รุ่นล่าสุด เช่น openSUSE ตัดสินใจปิดการรองรับเพื่อหลีกเลี่ยงปัญหาด้านความเสถียรและความปลอดภัย โดย Jiri Slaby จาก SUSE Labs ระบุว่า ผู้ใช้ที่ยังต้องการใช้งาน Bcachefs ควรติดตามคำแนะนำจาก upstream และอาจต้องสร้าง Kernel Module Package (KMP) ด้วยตนเอง

    แม้ openSUSE จะไม่ลบ Bcachefs ออกจาก kernel ทันที แต่จะไม่ดูแล patch หรือ backport ใด ๆ อีกต่อไป และจะเปิดใช้งานอีกครั้งก็ต่อเมื่อผู้ดูแล Bcachefs ปรับปรุงพฤติกรรมและกลับมาร่วมมือกับชุมชน kernel อย่างเหมาะสม

    การเปลี่ยนแปลงใน openSUSE Tumbleweed
    ปิดการรองรับ Bcachefs ตั้งแต่ Linux kernel 6.17 เป็นต้นไป
    ส่งผลต่อผู้ใช้ openSUSE Tumbleweed และ Slowroll โดยตรง
    Linux 6.16 ยังใช้งาน Bcachefs ได้ตามปกติ — ไม่ได้รับผลกระทบ
    ผู้ใช้ที่ต้องการใช้งานต่อควรหลีกเลี่ยงการอัปเดตเป็น 6.17

    เหตุผลเบื้องหลังการตัดสินใจ
    Linus Torvalds เปลี่ยนสถานะ Bcachefs เป็น “externally maintained”
    ทีมหลักของ kernel ไม่รับ commit ใหม่จาก Bcachefs อีกต่อไป
    ผู้ดูแล Bcachefs ปฏิเสธการปฏิบัติตามมาตรฐานการแก้บั๊กและเวอร์ชัน
    openSUSE ไม่ดูแลระบบไฟล์ที่ไม่ได้รับการสนับสนุนจาก upstream

    ทางเลือกสำหรับผู้ใช้ Bcachefs
    ติดตามคำแนะนำจาก upstream Bcachefs สำหรับการติดตั้งแบบ manual
    อาจต้องสร้าง KMP (Kernel Module Package) ด้วยตนเอง
    openSUSE ไม่สนับสนุน DKMS modules เนื่องจากไม่เหมาะกับ rolling release
    ควรพิจารณาย้ายข้อมูลไปยังระบบไฟล์อื่นที่ได้รับการสนับสนุน

    ข้อมูลเสริมจากภายนอก
    Kent Overstreet ผู้ดูแล Bcachefs เคยขอเลื่อนการถอดออกจาก kernel 6.17 เป็น 6.18
    มีความขัดแย้งระหว่าง Kent กับนักพัฒนา kernel หลายคน เช่น Josef Bacik และ Theodore Ts’o
    ปัญหาไม่ได้อยู่ที่คุณภาพของ Bcachefs แต่เป็นพฤติกรรมของผู้ดูแลที่ถูกมองว่า “เป็นพิษ”
    Linus Torvalds ระบุว่า “เขาและ Kent จบกันแล้ว” — สะท้อนความตึงเครียดในชุมชน

    https://9to5linux.com/opensuse-to-disable-bcachefs-file-system-support-in-tumbleweed-with-linux-6-17
    🧩 “openSUSE เตรียมถอด Bcachefs ออกจาก Tumbleweed ใน Linux 6.17 — เมื่อความขัดแย้งในชุมชน kernel กลายเป็นเหตุผลทางเทคนิค” openSUSE ประกาศเตรียมปิดการรองรับระบบไฟล์ Bcachefs ในดิสโทร Tumbleweed และ Slowroll ตั้งแต่เวอร์ชัน Linux kernel 6.17 เป็นต้นไป ซึ่งจะปล่อยในช่วงปลายเดือนกันยายนหรือต้นตุลาคม 2025 โดยเหตุผลหลักมาจากการที่ Linus Torvalds และทีมหลักของ Linux kernel เปลี่ยนสถานะของ Bcachefs จาก “supported” เป็น “externally maintained” เนื่องจากผู้ดูแล Bcachefs ปฏิเสธที่จะปฏิบัติตามมาตรฐานการแก้บั๊กและการจัดการเวอร์ชันของ kernel การเปลี่ยนสถานะนี้หมายความว่า Bcachefs จะไม่ได้รับการอัปเดตหรือ commit ใหม่ใน kernel หลักอีกต่อไป ทำให้ดิสโทรที่ใช้ kernel รุ่นล่าสุด เช่น openSUSE ตัดสินใจปิดการรองรับเพื่อหลีกเลี่ยงปัญหาด้านความเสถียรและความปลอดภัย โดย Jiri Slaby จาก SUSE Labs ระบุว่า ผู้ใช้ที่ยังต้องการใช้งาน Bcachefs ควรติดตามคำแนะนำจาก upstream และอาจต้องสร้าง Kernel Module Package (KMP) ด้วยตนเอง แม้ openSUSE จะไม่ลบ Bcachefs ออกจาก kernel ทันที แต่จะไม่ดูแล patch หรือ backport ใด ๆ อีกต่อไป และจะเปิดใช้งานอีกครั้งก็ต่อเมื่อผู้ดูแล Bcachefs ปรับปรุงพฤติกรรมและกลับมาร่วมมือกับชุมชน kernel อย่างเหมาะสม ✅ การเปลี่ยนแปลงใน openSUSE Tumbleweed ➡️ ปิดการรองรับ Bcachefs ตั้งแต่ Linux kernel 6.17 เป็นต้นไป ➡️ ส่งผลต่อผู้ใช้ openSUSE Tumbleweed และ Slowroll โดยตรง ➡️ Linux 6.16 ยังใช้งาน Bcachefs ได้ตามปกติ — ไม่ได้รับผลกระทบ ➡️ ผู้ใช้ที่ต้องการใช้งานต่อควรหลีกเลี่ยงการอัปเดตเป็น 6.17 ✅ เหตุผลเบื้องหลังการตัดสินใจ ➡️ Linus Torvalds เปลี่ยนสถานะ Bcachefs เป็น “externally maintained” ➡️ ทีมหลักของ kernel ไม่รับ commit ใหม่จาก Bcachefs อีกต่อไป ➡️ ผู้ดูแล Bcachefs ปฏิเสธการปฏิบัติตามมาตรฐานการแก้บั๊กและเวอร์ชัน ➡️ openSUSE ไม่ดูแลระบบไฟล์ที่ไม่ได้รับการสนับสนุนจาก upstream ✅ ทางเลือกสำหรับผู้ใช้ Bcachefs ➡️ ติดตามคำแนะนำจาก upstream Bcachefs สำหรับการติดตั้งแบบ manual ➡️ อาจต้องสร้าง KMP (Kernel Module Package) ด้วยตนเอง ➡️ openSUSE ไม่สนับสนุน DKMS modules เนื่องจากไม่เหมาะกับ rolling release ➡️ ควรพิจารณาย้ายข้อมูลไปยังระบบไฟล์อื่นที่ได้รับการสนับสนุน ✅ ข้อมูลเสริมจากภายนอก ➡️ Kent Overstreet ผู้ดูแล Bcachefs เคยขอเลื่อนการถอดออกจาก kernel 6.17 เป็น 6.18 ➡️ มีความขัดแย้งระหว่าง Kent กับนักพัฒนา kernel หลายคน เช่น Josef Bacik และ Theodore Ts’o ➡️ ปัญหาไม่ได้อยู่ที่คุณภาพของ Bcachefs แต่เป็นพฤติกรรมของผู้ดูแลที่ถูกมองว่า “เป็นพิษ” ➡️ Linus Torvalds ระบุว่า “เขาและ Kent จบกันแล้ว” — สะท้อนความตึงเครียดในชุมชน https://9to5linux.com/opensuse-to-disable-bcachefs-file-system-support-in-tumbleweed-with-linux-6-17
    9TO5LINUX.COM
    openSUSE to Disable Bcachefs File System Support in Tumbleweed with Linux 6.17 - 9to5Linux
    openSUSE devs plan to disable support for the Bcachefs file system in openSUSE Tumbleweed with the upcoming Linux 6.17 kernel update.
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • “เบื้องหลังความเร็วของ Bun Install — เมื่อการติดตั้งแพ็กเกจกลายเป็นงานระบบ ไม่ใช่แค่เรื่อง JavaScript”

    ในโลกของนักพัฒนา JavaScript ที่เคยชินกับการรอ npm install จนกาแฟเย็น Bun ได้เข้ามาเปลี่ยนเกมด้วยความเร็วที่เหนือชั้น โดยเฉลี่ยเร็วกว่า npm ถึง 7 เท่า, pnpm 4 เท่า และ yarn 17 เท่า แต่เบื้องหลังความเร็วนี้ไม่ใช่แค่การเขียนโค้ดให้ดีขึ้น — มันคือการออกแบบใหม่ทั้งหมดในระดับระบบปฏิบัติการ

    Bun มองการติดตั้งแพ็กเกจเป็น “ปัญหาด้านระบบ” มากกว่าปัญหา JavaScript โดยลดการใช้ system call ที่สิ้นเปลือง, ใช้การจัดเก็บข้อมูลแบบ binary, และใช้การคัดลอกไฟล์แบบ native ที่เร็วกว่าเดิมหลายเท่า นอกจากนี้ยังใช้ multi-threading เต็มรูปแบบเพื่อให้ทุก core ของ CPU ทำงานพร้อมกัน ต่างจาก npm ที่ใช้แค่ thread เดียว

    Bun เขียนด้วยภาษา Zig ซึ่งสามารถเรียก system call ได้โดยตรง โดยไม่ต้องผ่าน libuv หรือ event loop แบบ Node.js ทำให้การอ่านไฟล์หรือจัดการเครือข่ายเร็วขึ้นอย่างเห็นได้ชัด และยังใช้เทคนิคเช่น clonefile (macOS) หรือ hardlink (Linux) เพื่อคัดลอกไฟล์โดยไม่ต้องอ่านและเขียนใหม่

    นอกจากนี้ Bun ยังใช้การจัดเก็บข้อมูลแบบ Structure of Arrays แทน Object-based ซึ่งช่วยให้ CPU โหลดข้อมูลได้เร็วขึ้นจาก cache โดยไม่ต้องวิ่งไป RAM บ่อย ๆ และยังมีการจัดการ lockfile แบบ cache-friendly ที่ลดการ parsing JSON ซ้ำซ้อน

    สาเหตุที่ Bun install เร็วกว่าเครื่องมืออื่น
    ลดจำนวน system call ที่สิ้นเปลือง เช่น futex และ epoll
    ใช้ Zig เรียก system call โดยตรง ไม่ผ่าน JavaScript runtime
    ใช้ binary manifest แทน JSON เพื่อลดการ parsing
    ใช้ clonefile (macOS) และ hardlink (Linux) เพื่อคัดลอกไฟล์แบบ O(1)

    การจัดการข้อมูลแบบ cache-friendly
    ใช้ Structure of Arrays แทน Object-based เพื่อเพิ่ม cache locality
    ลด pointer chasing ที่ทำให้ CPU ต้องวิ่งไป RAM บ่อย
    lockfile ของ Bun ใช้รูปแบบที่อ่านเร็วและลดการจัดสรรหน่วยความจำ
    ใช้ string buffer เดียวสำหรับข้อมูลซ้ำ เช่นชื่อแพ็กเกจและเวอร์ชัน

    การใช้ multi-core อย่างเต็มประสิทธิภาพ
    Bun ใช้ thread pool แบบ work-stealing ที่ไม่มีการล็อก
    แต่ละ thread มี memory pool ของตัวเอง ลดการรอการจัดสรร
    network thread แยกจาก CPU thread ทำให้ไม่ต้องรอการดาวน์โหลด
    สามารถประมวลผล package.json ได้มากกว่า 140,000 ไฟล์ต่อวินาที

    ข้อมูลเสริมจากภายนอก
    Bun ใช้ libdeflate แทน zlib เพื่อการ decompress ที่เร็วขึ้น
    clonefile และ hardlink เป็นเทคนิค copy-on-write ที่ลดการใช้พื้นที่
    Bun install แบบ cached เร็วกว่า npm install แบบ fresh ถึง 196 เท่า
    Bun สามารถใช้ในโปรเจกต์ Node.js ได้โดยไม่ต้องเปลี่ยน runtime

    https://bun.com/blog/behind-the-scenes-of-bun-install
    ⚙️ “เบื้องหลังความเร็วของ Bun Install — เมื่อการติดตั้งแพ็กเกจกลายเป็นงานระบบ ไม่ใช่แค่เรื่อง JavaScript” ในโลกของนักพัฒนา JavaScript ที่เคยชินกับการรอ npm install จนกาแฟเย็น Bun ได้เข้ามาเปลี่ยนเกมด้วยความเร็วที่เหนือชั้น โดยเฉลี่ยเร็วกว่า npm ถึง 7 เท่า, pnpm 4 เท่า และ yarn 17 เท่า แต่เบื้องหลังความเร็วนี้ไม่ใช่แค่การเขียนโค้ดให้ดีขึ้น — มันคือการออกแบบใหม่ทั้งหมดในระดับระบบปฏิบัติการ Bun มองการติดตั้งแพ็กเกจเป็น “ปัญหาด้านระบบ” มากกว่าปัญหา JavaScript โดยลดการใช้ system call ที่สิ้นเปลือง, ใช้การจัดเก็บข้อมูลแบบ binary, และใช้การคัดลอกไฟล์แบบ native ที่เร็วกว่าเดิมหลายเท่า นอกจากนี้ยังใช้ multi-threading เต็มรูปแบบเพื่อให้ทุก core ของ CPU ทำงานพร้อมกัน ต่างจาก npm ที่ใช้แค่ thread เดียว Bun เขียนด้วยภาษา Zig ซึ่งสามารถเรียก system call ได้โดยตรง โดยไม่ต้องผ่าน libuv หรือ event loop แบบ Node.js ทำให้การอ่านไฟล์หรือจัดการเครือข่ายเร็วขึ้นอย่างเห็นได้ชัด และยังใช้เทคนิคเช่น clonefile (macOS) หรือ hardlink (Linux) เพื่อคัดลอกไฟล์โดยไม่ต้องอ่านและเขียนใหม่ นอกจากนี้ Bun ยังใช้การจัดเก็บข้อมูลแบบ Structure of Arrays แทน Object-based ซึ่งช่วยให้ CPU โหลดข้อมูลได้เร็วขึ้นจาก cache โดยไม่ต้องวิ่งไป RAM บ่อย ๆ และยังมีการจัดการ lockfile แบบ cache-friendly ที่ลดการ parsing JSON ซ้ำซ้อน ✅ สาเหตุที่ Bun install เร็วกว่าเครื่องมืออื่น ➡️ ลดจำนวน system call ที่สิ้นเปลือง เช่น futex และ epoll ➡️ ใช้ Zig เรียก system call โดยตรง ไม่ผ่าน JavaScript runtime ➡️ ใช้ binary manifest แทน JSON เพื่อลดการ parsing ➡️ ใช้ clonefile (macOS) และ hardlink (Linux) เพื่อคัดลอกไฟล์แบบ O(1) ✅ การจัดการข้อมูลแบบ cache-friendly ➡️ ใช้ Structure of Arrays แทน Object-based เพื่อเพิ่ม cache locality ➡️ ลด pointer chasing ที่ทำให้ CPU ต้องวิ่งไป RAM บ่อย ➡️ lockfile ของ Bun ใช้รูปแบบที่อ่านเร็วและลดการจัดสรรหน่วยความจำ ➡️ ใช้ string buffer เดียวสำหรับข้อมูลซ้ำ เช่นชื่อแพ็กเกจและเวอร์ชัน ✅ การใช้ multi-core อย่างเต็มประสิทธิภาพ ➡️ Bun ใช้ thread pool แบบ work-stealing ที่ไม่มีการล็อก ➡️ แต่ละ thread มี memory pool ของตัวเอง ลดการรอการจัดสรร ➡️ network thread แยกจาก CPU thread ทำให้ไม่ต้องรอการดาวน์โหลด ➡️ สามารถประมวลผล package.json ได้มากกว่า 140,000 ไฟล์ต่อวินาที ✅ ข้อมูลเสริมจากภายนอก ➡️ Bun ใช้ libdeflate แทน zlib เพื่อการ decompress ที่เร็วขึ้น ➡️ clonefile และ hardlink เป็นเทคนิค copy-on-write ที่ลดการใช้พื้นที่ ➡️ Bun install แบบ cached เร็วกว่า npm install แบบ fresh ถึง 196 เท่า ➡️ Bun สามารถใช้ในโปรเจกต์ Node.js ได้โดยไม่ต้องเปลี่ยน runtime https://bun.com/blog/behind-the-scenes-of-bun-install
    BUN.COM
    Behind The Scenes of Bun Install
    Learn how Bun is able to cut install times by up to 25×. Bun skips Node.js's overhead with direct system calls, cache-friendly data layouts, OS-level copy-on-write, and full-core parallelism.
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • “ประมูลพลาดหรือโชคชะตา? ผู้ใช้ Reddit ได้พีซีมูลค่า $8,000 ในราคาแค่ $23 — เมื่อเคสเปล่ากลายเป็นเวิร์กสเตชันระดับเทพ”

    เรื่องนี้เริ่มต้นจากการประมูลออนไลน์เล็ก ๆ ในเมืองโคลัมบัส รัฐโอไฮโอ ที่ผู้ขายตั้งรายการว่าเป็น “เคส Fractal Design Define 7 XL” พร้อมภาพสต็อกจากเว็บไซต์ผู้ผลิต ไม่มีใครรู้เลยว่าภายในเคสนั้นมีอะไรซ่อนอยู่ — จนกระทั่งผู้ใช้ Reddit ชื่อ LlamadeusGame ชนะการประมูลในราคาเพียง $23.50 และพบว่ามันคือพีซีระดับเวิร์กสเตชันที่เคยขายในราคา $8,000

    ภายในเคสมีฮาร์ดแวร์ระดับสูงที่ยังทรงพลังแม้จะไม่ใช่รุ่นล่าสุด ได้แก่ AMD Ryzen Threadripper 3960X แบบ 24 คอร์, แรม DDR4 ขนาด 256GB, การ์ดจอ RTX 3080 Ti และเมนบอร์ด Aorus Pro Wi-Fi TRX40 — ทั้งหมดนี้ยังมีไฟล์ของเจ้าของเดิมอยู่ในเครื่อง ซึ่งคาดว่าอาจเป็นเครื่องที่ถูกส่งซ่อมหรือเทิร์นคืนแล้วหลุดเข้าสู่ระบบประมูลโดยไม่ได้ตั้งใจ

    ผู้ใช้รายนี้ตั้งใจจะใช้เคสสำหรับสร้างเครื่องพัฒนา AI แต่เมื่อพบว่าฮาร์ดแวร์ภายในยังใช้งานได้ดี ก็เปลี่ยนแผนมาใช้ CPU, RAM และเมนบอร์ดเดิม ส่วนการ์ดจอจะถูกเปลี่ยน เพราะแม้ RTX 3080 Ti จะยังแรงสำหรับเกม แต่ไม่เหมาะกับงาน AI เทียบกับรุ่นใหม่ ๆ

    ชุมชน Reddit ต่างอิจฉาและยืนยันว่าเคสนี้น่าจะมาจากบริษัท Puget Systems ที่ผลิตเวิร์กสเตชันระดับมืออาชีพ โดยมีพนักงานของบริษัทมายืนยันในคอมเมนต์ว่าเครื่องนี้น่าจะขายในปี 2021 ในราคาประมาณ $8,000

    รายละเอียดของพีซีที่ได้จากการประมูล
    เคส Fractal Design Define 7 XL พร้อมฮาร์ดแวร์ภายในครบชุด
    CPU: AMD Ryzen Threadripper 3960X (24-core, 48-thread)
    RAM: DDR4 ขนาด 256GB
    GPU: NVIDIA RTX 3080 Ti (12GB VRAM)
    เมนบอร์ด: Aorus Pro Wi-Fi TRX40

    ที่มาของเครื่องและการใช้งาน
    คาดว่าเป็นเครื่องเวิร์กสเตชันจาก Puget Systems
    อาจถูกส่งคืนหรือหลุดจากระบบซ่อมโดยไม่ได้ตั้งใจ
    ผู้ใช้พบไฟล์ของเจ้าของเดิมในเครื่อง
    นำมาใช้สร้างเครื่องพัฒนา AI โดยเปลี่ยนเฉพาะ GPU

    ความคุ้มค่าของการประมูล
    ราคาประมูลเพียง $23.50 เทียบกับมูลค่าเดิม $8,000
    เคสเปล่าก็ยังมีมูลค่าราว $250 หากไม่มีฮาร์ดแวร์
    การ์ดจอ RTX 3080 Ti ยังมีราคาสูงในตลาดมือสอง
    Threadripper 3960X ยังแรงกว่า CPU ผู้บริโภคทั่วไปหลายรุ่น

    ข้อมูลเสริมจากภายนอก
    RTX 3080 Ti เทียบเท่า RTX 5070 ในด้าน rasterization
    RAM 256GB เหมาะกับงานตัดต่อภาพหรือวิดีโอระดับมืออาชีพ
    Threadripper 3960X เปิดตัวในปี 2019 ด้วยราคา $1,400
    Puget Systems เป็นแบรนด์ที่นิยมในกลุ่มผู้ใช้มืออาชีพด้านกราฟิกและ AI

    https://www.tomshardware.com/desktops/gaming-pcs/lucky-bidder-scoops-usd8-000-pc-for-usd23-at-auction-mislabelled-fractal-design-case-listing-had-24-core-threadripper-3960x-256gb-of-memory-and-an-rtx-3080-ti-inside
    💸 “ประมูลพลาดหรือโชคชะตา? ผู้ใช้ Reddit ได้พีซีมูลค่า $8,000 ในราคาแค่ $23 — เมื่อเคสเปล่ากลายเป็นเวิร์กสเตชันระดับเทพ” เรื่องนี้เริ่มต้นจากการประมูลออนไลน์เล็ก ๆ ในเมืองโคลัมบัส รัฐโอไฮโอ ที่ผู้ขายตั้งรายการว่าเป็น “เคส Fractal Design Define 7 XL” พร้อมภาพสต็อกจากเว็บไซต์ผู้ผลิต ไม่มีใครรู้เลยว่าภายในเคสนั้นมีอะไรซ่อนอยู่ — จนกระทั่งผู้ใช้ Reddit ชื่อ LlamadeusGame ชนะการประมูลในราคาเพียง $23.50 และพบว่ามันคือพีซีระดับเวิร์กสเตชันที่เคยขายในราคา $8,000 ภายในเคสมีฮาร์ดแวร์ระดับสูงที่ยังทรงพลังแม้จะไม่ใช่รุ่นล่าสุด ได้แก่ AMD Ryzen Threadripper 3960X แบบ 24 คอร์, แรม DDR4 ขนาด 256GB, การ์ดจอ RTX 3080 Ti และเมนบอร์ด Aorus Pro Wi-Fi TRX40 — ทั้งหมดนี้ยังมีไฟล์ของเจ้าของเดิมอยู่ในเครื่อง ซึ่งคาดว่าอาจเป็นเครื่องที่ถูกส่งซ่อมหรือเทิร์นคืนแล้วหลุดเข้าสู่ระบบประมูลโดยไม่ได้ตั้งใจ ผู้ใช้รายนี้ตั้งใจจะใช้เคสสำหรับสร้างเครื่องพัฒนา AI แต่เมื่อพบว่าฮาร์ดแวร์ภายในยังใช้งานได้ดี ก็เปลี่ยนแผนมาใช้ CPU, RAM และเมนบอร์ดเดิม ส่วนการ์ดจอจะถูกเปลี่ยน เพราะแม้ RTX 3080 Ti จะยังแรงสำหรับเกม แต่ไม่เหมาะกับงาน AI เทียบกับรุ่นใหม่ ๆ ชุมชน Reddit ต่างอิจฉาและยืนยันว่าเคสนี้น่าจะมาจากบริษัท Puget Systems ที่ผลิตเวิร์กสเตชันระดับมืออาชีพ โดยมีพนักงานของบริษัทมายืนยันในคอมเมนต์ว่าเครื่องนี้น่าจะขายในปี 2021 ในราคาประมาณ $8,000 ✅ รายละเอียดของพีซีที่ได้จากการประมูล ➡️ เคส Fractal Design Define 7 XL พร้อมฮาร์ดแวร์ภายในครบชุด ➡️ CPU: AMD Ryzen Threadripper 3960X (24-core, 48-thread) ➡️ RAM: DDR4 ขนาด 256GB ➡️ GPU: NVIDIA RTX 3080 Ti (12GB VRAM) ➡️ เมนบอร์ด: Aorus Pro Wi-Fi TRX40 ✅ ที่มาของเครื่องและการใช้งาน ➡️ คาดว่าเป็นเครื่องเวิร์กสเตชันจาก Puget Systems ➡️ อาจถูกส่งคืนหรือหลุดจากระบบซ่อมโดยไม่ได้ตั้งใจ ➡️ ผู้ใช้พบไฟล์ของเจ้าของเดิมในเครื่อง ➡️ นำมาใช้สร้างเครื่องพัฒนา AI โดยเปลี่ยนเฉพาะ GPU ✅ ความคุ้มค่าของการประมูล ➡️ ราคาประมูลเพียง $23.50 เทียบกับมูลค่าเดิม $8,000 ➡️ เคสเปล่าก็ยังมีมูลค่าราว $250 หากไม่มีฮาร์ดแวร์ ➡️ การ์ดจอ RTX 3080 Ti ยังมีราคาสูงในตลาดมือสอง ➡️ Threadripper 3960X ยังแรงกว่า CPU ผู้บริโภคทั่วไปหลายรุ่น ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 3080 Ti เทียบเท่า RTX 5070 ในด้าน rasterization ➡️ RAM 256GB เหมาะกับงานตัดต่อภาพหรือวิดีโอระดับมืออาชีพ ➡️ Threadripper 3960X เปิดตัวในปี 2019 ด้วยราคา $1,400 ➡️ Puget Systems เป็นแบรนด์ที่นิยมในกลุ่มผู้ใช้มืออาชีพด้านกราฟิกและ AI https://www.tomshardware.com/desktops/gaming-pcs/lucky-bidder-scoops-usd8-000-pc-for-usd23-at-auction-mislabelled-fractal-design-case-listing-had-24-core-threadripper-3960x-256gb-of-memory-and-an-rtx-3080-ti-inside
    0 ความคิดเห็น 0 การแบ่งปัน 134 มุมมอง 0 รีวิว
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 ความคิดเห็น 0 การแบ่งปัน 141 มุมมอง 0 รีวิว
  • “Patch Tuesday กันยายน 2025: ช่องโหว่ SAP NetWeaver และ Microsoft NTLM ที่ต้องรีบอุด — เมื่อการเจาะระบบไม่ต้องล็อกอินก็ล้มเซิร์ฟเวอร์ได้”

    ในรอบอัปเดตความปลอดภัยประจำเดือนกันยายน 2025 หรือที่เรียกว่า “Patch Tuesday” มีช่องโหว่ระดับวิกฤตหลายรายการที่ผู้ดูแลระบบต้องรีบจัดการ โดยเฉพาะใน SAP NetWeaver และ Microsoft Windows ซึ่งมีช่องโหว่ที่สามารถนำไปสู่การควบคุมระบบทั้งหมดได้ แม้ผู้โจมตีจะไม่ต้องล็อกอินก็ตาม.

    ช่องโหว่ที่ร้ายแรงที่สุดคือ CVE-2025-42944 ใน SAP NetWeaver AS Java ซึ่งเป็นช่องโหว่แบบ insecure deserialization ในโมดูล RMI-P4 ที่เปิดให้ผู้โจมตีส่ง payload ผ่านพอร์ตที่เปิดอยู่ และสามารถรันคำสั่งระบบปฏิบัติการได้ทันที — โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย2. นักวิจัยจาก Onapsis เตือนว่า ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่มแฮกเกอร์ Scattered LAPSUS$ และ ShinyHunters เคยใช้มาก่อน และควรรีบอุดทันที

    อีกช่องโหว่ใน SAP ที่อันตรายไม่แพ้กันคือ CVE-2025-42922 ซึ่งเปิดให้ผู้ใช้ที่ไม่ใช่แอดมินสามารถอัปโหลดไฟล์อันตรายผ่าน HTTP และเมื่อไฟล์ถูกเรียกใช้งาน ก็สามารถควบคุมระบบได้เต็มรูปแบบ. แม้จะต้องล็อกอินก่อน แต่ก็ยังถือว่าเสี่ยงสูงมาก

    ฝั่ง Microsoft ก็มีช่องโหว่ที่ต้องจับตา โดยเฉพาะ CVE-2025-54918 ซึ่งเป็นช่องโหว่ในระบบ NTLM ที่อาจเปิดทางให้ผู้โจมตียกระดับสิทธิ์เป็น SYSTEM-level ได้ทั่วเครือข่าย และ Microsoft ยังระบุว่า “มีแนวโน้มจะถูกโจมตี” มากกว่าช่องโหว่อื่นๆ ในรอบนี้.

    นอกจากนี้ยังมีช่องโหว่ใน Hyper-V (CVE-2025-54098 และ CVE-2025-55224) ที่เปิดทางให้ผู้ใช้ใน guest VM หลบหนีออกมาและควบคุม host ได้ — เป็นภัยคุกคามต่อศูนย์ข้อมูลที่ใช้ virtualization อย่างหนัก

    ช่องโหว่ CVE-2025-55234 ใน SMB ก็สร้างความสับสน เพราะ Microsoft ระบุว่าเป็นช่องโหว่เพื่อ “ช่วยให้ลูกค้าประเมินความเข้ากันได้ก่อนปรับระบบ” มากกว่าจะเป็นช่องโหว่จริง ทำให้นักวิจัยบางคนตั้งคำถามว่า Microsoft ใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่หรือไม่

    ช่องโหว่สำคัญใน SAP NetWeaver
    CVE-2025-42944: ช่องโหว่ insecure deserialization ใน RMI-P4
    ไม่ต้องล็อกอินก็สามารถรันคำสั่ง OS ได้ทันที
    ควรใช้การกรองพอร์ต P4 ที่ระดับ ICM เป็นมาตรการชั่วคราว
    ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่ม Scattered LAPSUS$ เคยใช้

    ช่องโหว่ SAP อื่นที่ต้องอุด
    CVE-2025-42922: ช่องโหว่ file upload ผ่าน HTTP
    ผู้ใช้ทั่วไปสามารถอัปโหลดไฟล์อันตรายและรันได้
    CVE-2025-42958: ช่องโหว่ missing authentication check บน IBM i-series
    เปิดทางให้ผู้ใช้ที่มีสิทธิ์สูงเข้าถึงข้อมูลสำคัญ

    ช่องโหว่สำคัญใน Microsoft
    CVE-2025-54918: ช่องโหว่ NTLM ที่อาจยกระดับสิทธิ์เป็น SYSTEM
    Microsoft ระบุว่า “มีแนวโน้มถูกโจมตี” มากกว่าช่องโหว่อื่น
    CVE-2025-54098 และ CVE-2025-55224: ช่องโหว่ Hyper-V ที่เปิดทางให้ guest VM หลบหนี
    CVE-2025-55232: ช่องโหว่ใน HPC Pack ที่เปิดให้รันโค้ดผ่านเครือข่าย

    ช่องโหว่ SMB ที่สร้างข้อถกเถียง
    CVE-2025-55234: Microsoft ระบุว่าเป็นช่องโหว่เพื่อช่วยประเมินระบบก่อนปรับ
    นักวิจัยบางคนตั้งคำถามว่าเป็นการใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่
    การอัปเดตต้องทำหลายขั้นตอน เช่น audit, test compatibility, และ hardening

    https://www.csoonline.com/article/4054195/patch-tuesday-priorities-vulnerabilities-in-sap-netweaver-and-microsoft-ntlm-and-hyper-v.html
    🛠️ “Patch Tuesday กันยายน 2025: ช่องโหว่ SAP NetWeaver และ Microsoft NTLM ที่ต้องรีบอุด — เมื่อการเจาะระบบไม่ต้องล็อกอินก็ล้มเซิร์ฟเวอร์ได้” ในรอบอัปเดตความปลอดภัยประจำเดือนกันยายน 2025 หรือที่เรียกว่า “Patch Tuesday” มีช่องโหว่ระดับวิกฤตหลายรายการที่ผู้ดูแลระบบต้องรีบจัดการ โดยเฉพาะใน SAP NetWeaver และ Microsoft Windows ซึ่งมีช่องโหว่ที่สามารถนำไปสู่การควบคุมระบบทั้งหมดได้ แม้ผู้โจมตีจะไม่ต้องล็อกอินก็ตาม. ช่องโหว่ที่ร้ายแรงที่สุดคือ CVE-2025-42944 ใน SAP NetWeaver AS Java ซึ่งเป็นช่องโหว่แบบ insecure deserialization ในโมดูล RMI-P4 ที่เปิดให้ผู้โจมตีส่ง payload ผ่านพอร์ตที่เปิดอยู่ และสามารถรันคำสั่งระบบปฏิบัติการได้ทันที — โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย2. นักวิจัยจาก Onapsis เตือนว่า ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่มแฮกเกอร์ Scattered LAPSUS$ และ ShinyHunters เคยใช้มาก่อน และควรรีบอุดทันที อีกช่องโหว่ใน SAP ที่อันตรายไม่แพ้กันคือ CVE-2025-42922 ซึ่งเปิดให้ผู้ใช้ที่ไม่ใช่แอดมินสามารถอัปโหลดไฟล์อันตรายผ่าน HTTP และเมื่อไฟล์ถูกเรียกใช้งาน ก็สามารถควบคุมระบบได้เต็มรูปแบบ. แม้จะต้องล็อกอินก่อน แต่ก็ยังถือว่าเสี่ยงสูงมาก ฝั่ง Microsoft ก็มีช่องโหว่ที่ต้องจับตา โดยเฉพาะ CVE-2025-54918 ซึ่งเป็นช่องโหว่ในระบบ NTLM ที่อาจเปิดทางให้ผู้โจมตียกระดับสิทธิ์เป็น SYSTEM-level ได้ทั่วเครือข่าย และ Microsoft ยังระบุว่า “มีแนวโน้มจะถูกโจมตี” มากกว่าช่องโหว่อื่นๆ ในรอบนี้. นอกจากนี้ยังมีช่องโหว่ใน Hyper-V (CVE-2025-54098 และ CVE-2025-55224) ที่เปิดทางให้ผู้ใช้ใน guest VM หลบหนีออกมาและควบคุม host ได้ — เป็นภัยคุกคามต่อศูนย์ข้อมูลที่ใช้ virtualization อย่างหนัก ช่องโหว่ CVE-2025-55234 ใน SMB ก็สร้างความสับสน เพราะ Microsoft ระบุว่าเป็นช่องโหว่เพื่อ “ช่วยให้ลูกค้าประเมินความเข้ากันได้ก่อนปรับระบบ” มากกว่าจะเป็นช่องโหว่จริง ทำให้นักวิจัยบางคนตั้งคำถามว่า Microsoft ใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่หรือไม่ ✅ ช่องโหว่สำคัญใน SAP NetWeaver ➡️ CVE-2025-42944: ช่องโหว่ insecure deserialization ใน RMI-P4 ➡️ ไม่ต้องล็อกอินก็สามารถรันคำสั่ง OS ได้ทันที ➡️ ควรใช้การกรองพอร์ต P4 ที่ระดับ ICM เป็นมาตรการชั่วคราว ➡️ ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่ม Scattered LAPSUS$ เคยใช้ ✅ ช่องโหว่ SAP อื่นที่ต้องอุด ➡️ CVE-2025-42922: ช่องโหว่ file upload ผ่าน HTTP ➡️ ผู้ใช้ทั่วไปสามารถอัปโหลดไฟล์อันตรายและรันได้ ➡️ CVE-2025-42958: ช่องโหว่ missing authentication check บน IBM i-series ➡️ เปิดทางให้ผู้ใช้ที่มีสิทธิ์สูงเข้าถึงข้อมูลสำคัญ ✅ ช่องโหว่สำคัญใน Microsoft ➡️ CVE-2025-54918: ช่องโหว่ NTLM ที่อาจยกระดับสิทธิ์เป็น SYSTEM ➡️ Microsoft ระบุว่า “มีแนวโน้มถูกโจมตี” มากกว่าช่องโหว่อื่น ➡️ CVE-2025-54098 และ CVE-2025-55224: ช่องโหว่ Hyper-V ที่เปิดทางให้ guest VM หลบหนี ➡️ CVE-2025-55232: ช่องโหว่ใน HPC Pack ที่เปิดให้รันโค้ดผ่านเครือข่าย ✅ ช่องโหว่ SMB ที่สร้างข้อถกเถียง ➡️ CVE-2025-55234: Microsoft ระบุว่าเป็นช่องโหว่เพื่อช่วยประเมินระบบก่อนปรับ ➡️ นักวิจัยบางคนตั้งคำถามว่าเป็นการใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่ ➡️ การอัปเดตต้องทำหลายขั้นตอน เช่น audit, test compatibility, และ hardening https://www.csoonline.com/article/4054195/patch-tuesday-priorities-vulnerabilities-in-sap-netweaver-and-microsoft-ntlm-and-hyper-v.html
    WWW.CSOONLINE.COM
    Patch Tuesday priorities: Vulnerabilities in SAP NetWeaver and Microsoft NTLM and Hyper-V
    NetWeaver AS Java hole, rated severity 10, allows an unauthenticated attacker to execute arbitrary OS commands, and NTLM bug is rated likely for exploitation, warn security vendors.
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • “เลเซอร์เชื่อมเครื่องบินกับดาวเทียมสำเร็จ! General Atomics และ Kepler สร้างระบบสื่อสารอากาศสู่อวกาศที่เร็วกว่า 1 Gbps — เตรียมพลิกโฉมการสื่อสารทางทหารและพาณิชย์”

    ลองจินตนาการว่าเครื่องบินที่บินอยู่กลางฟ้า สามารถส่งข้อมูลไปยังดาวเทียมในวงโคจรได้ทันที ด้วยความเร็วระดับกิกะบิต — ไม่ใช่ผ่านคลื่นวิทยุแบบเดิม แต่ผ่านลำแสงเลเซอร์ที่แม่นยำและปลอดภัยกว่า นั่นคือสิ่งที่เกิดขึ้นจริงในการทดสอบล่าสุดโดย General Atomics Electromagnetic Systems (GA-EMS) ร่วมกับ Kepler Communications

    การทดสอบนี้ใช้เครื่องบิน De Havilland DHC-6 Twin Otter ที่ติดตั้ง Optical Communication Terminal (OCT) ขนาด 12 นิ้ว ซึ่งยิงเลเซอร์พลังงาน 10 วัตต์ไปยังดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO) โดยสามารถส่งข้อมูลได้สูงสุดถึง 2.5 Gbps และมีระยะทำการถึง 3,417 ไมล์ แม้ในการทดสอบจริงจะใช้ระยะสั้นกว่านั้น แต่ก็สามารถส่งข้อมูลได้ที่ความเร็ว 1 Gbps อย่างเสถียร

    ความสำเร็จนี้ถือเป็น “ครั้งแรกของโลก” ที่สามารถเชื่อมโยงการสื่อสารแบบสองทางระหว่างเครื่องบินที่เคลื่อนที่กับดาวเทียมในอวกาศได้ผ่านเลเซอร์ โดยระบบสามารถทำงานได้ครบทุกขั้นตอน: การชี้เป้า, การจับสัญญาณ, การติดตาม และการล็อกเป้าหมาย ก่อนจะส่งข้อมูลแบบ uplink และ downlink ได้สำเร็จ

    สิ่งที่น่าสนใจคืออุปกรณ์ OCT นี้ถูกออกแบบให้รองรับมาตรฐานเปิดของ Space Development Agency (SDA) ซึ่งหมายความว่าอุปกรณ์จากผู้ผลิตต่างกันสามารถทำงานร่วมกันได้ — เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารแบบกระจายตัวที่ปลอดภัยและมีประสิทธิภาพสูงสำหรับภารกิจทางทหารและเชิงพาณิชย์

    ในอนาคต GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026 เพื่อทดสอบกับดาวเทียม Tranche-1 ซึ่งจะเป็นการขยายขีดความสามารถของการสื่อสารอากาศสู่อวกาศให้ครอบคลุมมากขึ้น

    ข้อมูลจากการทดสอบเลเซอร์สื่อสารอากาศสู่อวกาศ
    ใช้เครื่องบิน DHC-6 Twin Otter ติดตั้ง Optical Communication Terminal (OCT)
    เชื่อมต่อกับดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO)
    ใช้เลเซอร์พลังงาน 10 วัตต์ ส่งข้อมูลได้สูงสุด 2.5 Gbps
    ระยะทำการสูงสุด 3,417 ไมล์ (5,500 กม.)
    ความเร็วในการส่งข้อมูลจริงในการทดสอบคือ 1 Gbps

    ความสำเร็จของระบบ OCT
    ทำงานครบทุกขั้นตอน: ชี้เป้า, จับสัญญาณ, ติดตาม, ล็อกเป้าหมาย
    ส่งข้อมูลแบบสองทาง (uplink/downlink) ได้สำเร็จ
    รองรับมาตรฐาน SDA Tranche-0 สำหรับการสื่อสารแบบเปิด
    พิสูจน์ว่าอุปกรณ์จากหลายผู้ผลิตสามารถทำงานร่วมกันได้

    ความร่วมมือระหว่าง GA-EMS และ Kepler
    GA-EMS พัฒนา OCT สำหรับภารกิจทางทหารและพาณิชย์
    Kepler มีดาวเทียมที่รองรับ SDA และเคยทดสอบการสื่อสารกับสถานีภาคพื้น
    การร่วมมือครั้งนี้เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารหลายโดเมน

    แผนในอนาคต
    GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026
    ทดสอบกับดาวเทียม Tranche-1 เพื่อขยายขีดความสามารถ
    SDA มีแผนสร้างเครือข่ายดาวเทียมหลายร้อยดวงในอีกไม่กี่ปีข้างหน้า

    ข้อมูลเสริมจากภายนอก
    NASA เคยทดสอบระบบเลเซอร์ใน Deep Space Optical Communications
    Google เคยพัฒนาโครงการ Taara สำหรับเลเซอร์สื่อสารภาคพื้น
    การสื่อสารด้วยเลเซอร์มีความปลอดภัยสูงและไม่ต้องใช้คลื่นวิทยุ
    เหมาะกับภารกิจที่ต้องการความเร็วและความมั่นคงของข้อมูล เช่น การทหาร, การบิน, และการสำรวจอวกาศ

    https://www.tomshardware.com/networking/worlds-first-laser-communication-link-between-a-plane-and-satellite-ran-at-1-gbps-10-watt-laser-which-has-a-3-417-mile-range-and-2-5-gbps-max-data-rate
    🔴 “เลเซอร์เชื่อมเครื่องบินกับดาวเทียมสำเร็จ! General Atomics และ Kepler สร้างระบบสื่อสารอากาศสู่อวกาศที่เร็วกว่า 1 Gbps — เตรียมพลิกโฉมการสื่อสารทางทหารและพาณิชย์” ลองจินตนาการว่าเครื่องบินที่บินอยู่กลางฟ้า สามารถส่งข้อมูลไปยังดาวเทียมในวงโคจรได้ทันที ด้วยความเร็วระดับกิกะบิต — ไม่ใช่ผ่านคลื่นวิทยุแบบเดิม แต่ผ่านลำแสงเลเซอร์ที่แม่นยำและปลอดภัยกว่า นั่นคือสิ่งที่เกิดขึ้นจริงในการทดสอบล่าสุดโดย General Atomics Electromagnetic Systems (GA-EMS) ร่วมกับ Kepler Communications การทดสอบนี้ใช้เครื่องบิน De Havilland DHC-6 Twin Otter ที่ติดตั้ง Optical Communication Terminal (OCT) ขนาด 12 นิ้ว ซึ่งยิงเลเซอร์พลังงาน 10 วัตต์ไปยังดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO) โดยสามารถส่งข้อมูลได้สูงสุดถึง 2.5 Gbps และมีระยะทำการถึง 3,417 ไมล์ แม้ในการทดสอบจริงจะใช้ระยะสั้นกว่านั้น แต่ก็สามารถส่งข้อมูลได้ที่ความเร็ว 1 Gbps อย่างเสถียร ความสำเร็จนี้ถือเป็น “ครั้งแรกของโลก” ที่สามารถเชื่อมโยงการสื่อสารแบบสองทางระหว่างเครื่องบินที่เคลื่อนที่กับดาวเทียมในอวกาศได้ผ่านเลเซอร์ โดยระบบสามารถทำงานได้ครบทุกขั้นตอน: การชี้เป้า, การจับสัญญาณ, การติดตาม และการล็อกเป้าหมาย ก่อนจะส่งข้อมูลแบบ uplink และ downlink ได้สำเร็จ สิ่งที่น่าสนใจคืออุปกรณ์ OCT นี้ถูกออกแบบให้รองรับมาตรฐานเปิดของ Space Development Agency (SDA) ซึ่งหมายความว่าอุปกรณ์จากผู้ผลิตต่างกันสามารถทำงานร่วมกันได้ — เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารแบบกระจายตัวที่ปลอดภัยและมีประสิทธิภาพสูงสำหรับภารกิจทางทหารและเชิงพาณิชย์ ในอนาคต GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026 เพื่อทดสอบกับดาวเทียม Tranche-1 ซึ่งจะเป็นการขยายขีดความสามารถของการสื่อสารอากาศสู่อวกาศให้ครอบคลุมมากขึ้น ✅ ข้อมูลจากการทดสอบเลเซอร์สื่อสารอากาศสู่อวกาศ ➡️ ใช้เครื่องบิน DHC-6 Twin Otter ติดตั้ง Optical Communication Terminal (OCT) ➡️ เชื่อมต่อกับดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO) ➡️ ใช้เลเซอร์พลังงาน 10 วัตต์ ส่งข้อมูลได้สูงสุด 2.5 Gbps ➡️ ระยะทำการสูงสุด 3,417 ไมล์ (5,500 กม.) ➡️ ความเร็วในการส่งข้อมูลจริงในการทดสอบคือ 1 Gbps ✅ ความสำเร็จของระบบ OCT ➡️ ทำงานครบทุกขั้นตอน: ชี้เป้า, จับสัญญาณ, ติดตาม, ล็อกเป้าหมาย ➡️ ส่งข้อมูลแบบสองทาง (uplink/downlink) ได้สำเร็จ ➡️ รองรับมาตรฐาน SDA Tranche-0 สำหรับการสื่อสารแบบเปิด ➡️ พิสูจน์ว่าอุปกรณ์จากหลายผู้ผลิตสามารถทำงานร่วมกันได้ ✅ ความร่วมมือระหว่าง GA-EMS และ Kepler ➡️ GA-EMS พัฒนา OCT สำหรับภารกิจทางทหารและพาณิชย์ ➡️ Kepler มีดาวเทียมที่รองรับ SDA และเคยทดสอบการสื่อสารกับสถานีภาคพื้น ➡️ การร่วมมือครั้งนี้เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารหลายโดเมน ✅ แผนในอนาคต ➡️ GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026 ➡️ ทดสอบกับดาวเทียม Tranche-1 เพื่อขยายขีดความสามารถ ➡️ SDA มีแผนสร้างเครือข่ายดาวเทียมหลายร้อยดวงในอีกไม่กี่ปีข้างหน้า ✅ ข้อมูลเสริมจากภายนอก ➡️ NASA เคยทดสอบระบบเลเซอร์ใน Deep Space Optical Communications ➡️ Google เคยพัฒนาโครงการ Taara สำหรับเลเซอร์สื่อสารภาคพื้น ➡️ การสื่อสารด้วยเลเซอร์มีความปลอดภัยสูงและไม่ต้องใช้คลื่นวิทยุ ➡️ เหมาะกับภารกิจที่ต้องการความเร็วและความมั่นคงของข้อมูล เช่น การทหาร, การบิน, และการสำรวจอวกาศ https://www.tomshardware.com/networking/worlds-first-laser-communication-link-between-a-plane-and-satellite-ran-at-1-gbps-10-watt-laser-which-has-a-3-417-mile-range-and-2-5-gbps-max-data-rate
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • “ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด”

    ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว

    เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4

    Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่:

    Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT

    LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย

    เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล

    นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง

    Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น”

    แนวคิดการใช้ LLM แบบ local บน macOS
    ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก
    ปลอดภัยกว่าและควบคุมข้อมูลได้เอง
    ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB

    เครื่องมือที่ใช้
    Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF
    LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX
    LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง

    โมเดลที่แนะนำ
    Gemma 3 4B QAT: เร็วและคุณภาพดี
    Qwen3 4B Thinking: มี reasoning และขนาดเล็ก
    GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง
    Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS

    ฟีเจอร์พิเศษใน LM Studio
    MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory
    Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้
    Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า
    Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้

    ข้อมูลเสริมจากภายนอก
    LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2
    GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple
    โมเดล reasoning ใช้เวลานานและกิน context window มาก
    Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น

    https://blog.6nok.org/experimenting-with-local-llms-on-macos/
    🧠 “ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด” ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4 Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่: Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น” ✅ แนวคิดการใช้ LLM แบบ local บน macOS ➡️ ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก ➡️ ปลอดภัยกว่าและควบคุมข้อมูลได้เอง ➡️ ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB ✅ เครื่องมือที่ใช้ ➡️ Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF ➡️ LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX ➡️ LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง ✅ โมเดลที่แนะนำ ➡️ Gemma 3 4B QAT: เร็วและคุณภาพดี ➡️ Qwen3 4B Thinking: มี reasoning และขนาดเล็ก ➡️ GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง ➡️ Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS ✅ ฟีเจอร์พิเศษใน LM Studio ➡️ MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory ➡️ Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้ ➡️ Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า ➡️ Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2 ➡️ GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple ➡️ โมเดล reasoning ใช้เวลานานและกิน context window มาก ➡️ Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น https://blog.6nok.org/experimenting-with-local-llms-on-macos/
    BLOG.6NOK.ORG
    Experimenting with local LLMs on macOS
    A developer's guide to downloading and running LLMs on macOS, for experimentation and privacy.
    0 ความคิดเห็น 0 การแบ่งปัน 165 มุมมอง 0 รีวิว
  • Highlight Words In Action : August 2025

    bipartisan
    adjective: representing, characterized by, or including members from two parties or factions

    From the headlines: The Trump administration’s decision to cut funding for the Open Technology Fund (OTF) has raised concerns among lawmakers, who see it as a vital tool against internet censorship in authoritarian regimes. Trump’s executive order effectively terminated the OTF’s budget, prompting bipartisan efforts to save the program. Advocates warn that without OTF-backed tools, many citizens and activists could lose secure communication channels, increasing their risk of surveillance and persecution.

    bounty
    noun: a premium or reward, especially one offered by a government

    From the headlines: The United States has lifted bounties on three senior Taliban figures. The three members of the Haqqani militant network in Afghanistan were allegedly involved in planning deadly attacks during the war with the U.S., some of which killed American citizens. Until this week, the State Department had offered rewards of up to $10 million for the death or capture of the militant leaders. The move follows last week’s release of a U.S. hostage who had been held by the Taliban since 2022.

    breach
    noun: an infraction or violation, such as of a law, contract, trust, or promise

    Jeffrey Goldberg, editor-in-chief of The Atlantic, disclosed that he was inadvertently added to a private Signal group chat used by U.S. national security officials. This unexpected breach exposed sensitive information, including details about military strikes in Yemen. The incident underscored a serious protocol violation, as national security deliberations are typically confined to secure, classified settings rather than informal messaging platforms.

    cartography
    noun: the production of maps, including construction of projections, design, compilation, drafting, and reproduction

    From the headlines: After more than a decade of unraveling the mysteries of the universe, the space telescope Gaia has officially powered down. In its ten years of operation, Gaia meticulously mapped nearly 2 billion stars, 150,000 asteroids, and countless other celestial wonders. This cartography resulted in a precise, three-dimensional map of our solar system, which has transformed our understanding of the Milky Way.

    civil liberty
    noun: the freedom of a citizen to exercise customary rights, as of speech or assembly, without unwarranted or arbitrary interference by the government

    From the headlines: Legal experts say surveillance methods being used by colleges and universities on their students may violate their civil liberties. When investigating vandalism connected to political protests, campus police have been using new tactics, including seizing students’ phones and laptops. They have also issued warrants based on social media posts or participation in campus protests. Civil liberties experts say these actions amount to stifling university students’ right to free speech.

    confiscate
    verb: to seize as forfeited to the public domain; appropriate, by way of penalty, for public use

    From the headlines: A kite was briefly confiscated after it came into contact with a United Airlines plane near Washington, D.C. The aircraft landed safely at Ronald Reagan National Airport following reports of a kite hitting it. Police seized the kite from a family at nearby Gravelly Point park, but returned it later. Despite the fact that kite flying is banned there because the sky overhead is “restricted airspace,” about a dozen people had reportedly been flying kites at the park that day.

    defraud
    verb: to deprive of a right, money, or property by fraud

    From the headlines: Hollywood writer-director Carl Erik Rinsch was arrested for defrauding Netflix of $11 million, meant for his unfinished sci-fi show White Horse. Prosecutors say he spent around $10 million on luxury purchases, including Rolls-Royces, a Ferrari, and antiques. Prosecutors also claim that he used the money to pay legal fees to sue Netflix for additional money. Rinsch has been charged with wire fraud and money laundering, while Netflix has declined to comment.

    embezzlement
    noun: the stealing of money entrusted to one’s care

    From the headlines: French politician Marine Le Pen was convicted of embezzlement and barred from public office for five years. Le Pen, who leads the far-right National Rally party, had planned to run for president in 2027. She was also sentenced to four years in prison for spending $4.3 million in European Parliament funds on her own party expenses.

    Fun fact: Embezzlement is from the Anglo-French enbesiler, “cause to disappear,” and an Old French root meaning “to destroy or gouge.”

    fairway
    noun: Golf. the part of the course where the grass is cut short between the tees and the putting greens

    From the headlines: When golf courses close, research shows the surrounding environment improves. With declining interest in golf, nearby neighborhoods report benefits like less flooding and reduced pesticide runoff. Across the U.S., many former courses have been repurposed as nature reserves, where manicured fairways have been replaced by thriving wildflower meadows.

    forage
    verb: to wander or go in search of provisions

    From the headlines: A new online map shows where 1.6 million edible plants grow in cities around the world. The guide, called Falling Fruit, is meant to help urban dwellers and visitors forage for food. Its open source design means people can add locations, mapping additional fruit trees, berry bushes, beehives, and plants that might otherwise go unnoticed.

    franchise
    noun: Sports. a professional sports team

    From the headlines: A group led by Bill Chisholm has agreed to buy the Boston Celtics for $6.1 billion, making it the most expensive franchise sale in North American sports history. The Celtics, fresh off their 18th NBA title, are facing significant financial challenges under the new collective bargaining agreement, but remain favorites to repeat as champions.

    geriatric
    adjective: noting or relating to aged people or animals

    From the headlines: The New England Aquarium in Boston has introduced a new “retirement home” for geriatric aquarium penguins, relocating six elderly birds to a designated island. While wild penguins typically live about ten years, the new aquarium houses twenty penguins in their twenties and thirties. This specialized haven ensures these aging animals receive monitoring for conditions such as arthritis and cataracts.

    Fun fact: The Greek gērōs, “old,” is the root of geriatric.

    iguana
    noun: a large, arboreal lizard, native to Central and South America, having stout legs and a crest of spines from neck to tail

    From the headlines: A recent study sheds light on how North American iguanas may have reached a remote island in Fiji. Genetic analysis suggests that these large reptiles likely traversed thousands of miles across the Pacific Ocean by drifting on makeshift rafts of fallen trees. If confirmed, this would represent the longest documented oceanic migration by any terrestrial vertebrate, apart from humans.

    inaccessible
    adjective: not accessible; unapproachable

    From the headlines: Researchers investigating why we can’t remember being babies found evidence that those memories still exist in our brains, but are inaccessible. Scientists have long suspected that infants don’t create memories at all. A new study using MRI imaging to observe babies’ brains found that around 12 months old, they do begin storing memories of specific images. Neuroscientists are now focused on learning why these early recollections become locked away and out of reach as we grow older.

    magnitude
    noun: greatness of size or amount

    From the headlines: A devastating 7.7 magnitude earthquake struck Myanmar, killing over 3,000 people and leaving hundreds missing. The tremors were so intense they reached 600 miles to Bangkok, where skyscrapers swayed. In response, China, India, and Russia sent rescue teams, while countries like Thailand, Malaysia, and Vietnam offered aid.

    manipulate
    verb: to adapt or change (accounts, figures, etc.) to suit one’s purpose or advantage

    From the headlines: A cheating scandal shook the world of professional ski jumping this week. Several members of Team Norway were suspended after officials found evidence that their ski suits had been manipulated to make the athletes more aerodynamic. The team’s manager admitted to illegally adding an extra seam where the legs are sewn together; more material there was hoped to give the jumpers extra lift and allow air to flow around them more efficiently.

    mush
    verb: to drive or spur on (sled dogs or a sled drawn by dogs)

    From the headlines: Greenland’s annual dog sledding race attracted unusual international attention when the White House said the vice president’s wife, Usha Vance, would attend. Vance canceled her trip after Greenlanders planned to protest her presence at the event. Competitors in the Avannaata Qimussersua, or “Great Race of the North,” mushed their dogs over 26 snowy miles. Henrik Jensen, a musher from northern Greenland, crossed the finish line in first place, pulled by his team of Greenlandic sled dogs.

    ovine
    adjective: pertaining to, of the nature of, or like sheep

    From the headlines: The world’s first known case of bird flu in sheep was diagnosed in Yorkshire, England. After the H5N1 virus was found among birds on a farm, health officials also tested its flock of sheep; only one ovine case was detected. The infected sheep was euthanized to prevent the disease from spreading, and officials said “the risk to livestock remains low.”

    pontiff
    noun: Ecclesiastical. the Roman Catholic pope, the Bishop of Rome

    From the headlines: Following the release of Pope Francis from the hospital on March 23, his lead physician said the pontiff had faced such grave danger that his medical team considered halting treatment. During his hospitalization, the pope endured two critical health crises, prompting intense deliberations over whether aggressive interventions should continue, given the potential risks to his internal organs. Ultimately, the doctors opted to pursue “all available medicines and treatments,” a decision that proved pivotal to his recovery.

    populism
    noun: grass-roots democracy; working-class activism; egalitarianism

    From the headlines: Bernie Sanders is drawing unprecedented crowds on his “Fighting Oligarchy” tour, fueled by a message rooted in economic populism. His rhetoric resonates with disillusioned voters seeking an alternative to both President Trump and the Democratic Party. The independent senator from Vermont frequently denounces what he terms a “government of the billionaires, by the billionaires, and for the billionaires,” while chastising Democrats for failing to adequately champion the interests of the working class.

    prescription
    noun: a direction, usually written, by the physician to the pharmacist for the preparation and use of a medicine or remedy

    From the headlines: A new trend is emerging in healthcare — doctors are now prescribing museum visits. Backed by research showing that time spent in cultural spots can boost mental health and ease loneliness, more physicians are encouraging patients to explore art galleries, theaters, concert halls, and libraries. These cultural outings are said to reduce stress, alleviate mild anxiety and depression, and even improve conditions like high blood pressure. It’s the prescription you didn’t know you needed.

    pristine
    adjective: having its original purity; uncorrupted or unsullied

    From the headlines: Many countries are looking to Switzerland as a model, hoping to replicate its transformation of once heavily polluted rivers and lakes into some of the most pristine in Europe. In the 1960s, Swiss waterways were choked with algae and dead fish due to sewage and industrial pollution. However, over the following decades, the country made significant investments in advanced water treatment facilities. Today, nearly all of its lakes and rivers are once again pristine and safe for swimming.

    prolong
    verb: to lengthen out in time; extend the duration of; cause to continue longer

    From the headlines: After their quick trip to the International Space Station turned out to have an unexpectedly long duration, two NASA astronauts have been safely returned to Earth. What began as an eight-day mission for Butch Wilmore and Suni Williams had to be prolonged after their Starliner spacecraft experienced helium leaks and thruster problems. The two ended up staying on the ISS for more than nine months, until two seats were available on a returning space capsule.

    recruit
    verb: to attempt to acquire the services of (a person) for an employer

    From the headlines: As the White House cuts funding for scientific research, European countries are stepping up to recruit top U.S. scientists. Experts in climate change and vaccine safety are now eyeing job offers across the Atlantic, with France and the Netherlands boosting their budgets to hire talent for their universities.

    reinstate
    verb: to put back or establish again, as in a former position or state

    From the headlines: On March 24, a South Korean court reinstated impeached Prime Minister Han Duck-soo. Han was returned to the government and named acting leader once his impeachment was overturned. President Yoon Suk Yeol, who was also removed from office, is still awaiting a verdict. Han and Yoon were both suspended by South Korea’s National Assembly in December.

    repatriation
    noun: the act or process of returning a person or thing to the country of origin

    From the headlines: After several weeks of refusal, Venezuela agreed to accept repatriation flights from the United States, and the first plane carrying Venezuelan migrants back to their home country landed on March 24. About 200 people who had been deported from the U.S. were on the initial flight. Conflicts between the two countries had previously put the returns on hold.

    serenade
    verb: to entertain with or perform with vocal or instrumental music

    From the headlines: After an incredible 70-year career, Johnny Mathis, the legendary crooner with the famously smooth “velvet voice,” has announced his retirement at the age of 89. Known for his romantic ballads, jazz classics, and soft rock hits, Mathis has been serenading audiences since his teenage years. With more albums sold than any pop artist except Frank Sinatra, his voice has been the soundtrack to countless memories.

    tuition
    noun: the charge or fee for instruction, as at a private school or a college or university

    From the headlines: Starting this fall, attending Harvard University will cost nothing for most students. The school announced that tuition will be free for people whose families earn less than $200,000 per year. The average household income in the U.S. is $80,000. Food, housing, health insurance, and travel will also be free for less wealthy students. The University of Pennsylvania and the Massachusetts Institute of Technology have adopted the same financial aid policy.

    unredacted
    adjective: (of a document) with confidential or sensitive information included or visible

    From the headlines: The Trump administration released over 2,000 documents on JFK’s assassination, leading to a search for new insights. While the unredacted files do not dispute that Lee Harvey Oswald acted alone, they reveal long-hidden details about CIA agents and operations. Attorney Larry Schnapf, who has pushed for their release, argues the disclosures highlight excessive government secrecy. He believes the unredacted documents demonstrate how overclassification has been misused by national security officials.

    © 2025, Aakkhra, All rights reserved.
    Highlight Words In Action : August 2025 bipartisan adjective: representing, characterized by, or including members from two parties or factions From the headlines: The Trump administration’s decision to cut funding for the Open Technology Fund (OTF) has raised concerns among lawmakers, who see it as a vital tool against internet censorship in authoritarian regimes. Trump’s executive order effectively terminated the OTF’s budget, prompting bipartisan efforts to save the program. Advocates warn that without OTF-backed tools, many citizens and activists could lose secure communication channels, increasing their risk of surveillance and persecution. bounty noun: a premium or reward, especially one offered by a government From the headlines: The United States has lifted bounties on three senior Taliban figures. The three members of the Haqqani militant network in Afghanistan were allegedly involved in planning deadly attacks during the war with the U.S., some of which killed American citizens. Until this week, the State Department had offered rewards of up to $10 million for the death or capture of the militant leaders. The move follows last week’s release of a U.S. hostage who had been held by the Taliban since 2022. breach noun: an infraction or violation, such as of a law, contract, trust, or promise Jeffrey Goldberg, editor-in-chief of The Atlantic, disclosed that he was inadvertently added to a private Signal group chat used by U.S. national security officials. This unexpected breach exposed sensitive information, including details about military strikes in Yemen. The incident underscored a serious protocol violation, as national security deliberations are typically confined to secure, classified settings rather than informal messaging platforms. cartography noun: the production of maps, including construction of projections, design, compilation, drafting, and reproduction From the headlines: After more than a decade of unraveling the mysteries of the universe, the space telescope Gaia has officially powered down. In its ten years of operation, Gaia meticulously mapped nearly 2 billion stars, 150,000 asteroids, and countless other celestial wonders. This cartography resulted in a precise, three-dimensional map of our solar system, which has transformed our understanding of the Milky Way. civil liberty noun: the freedom of a citizen to exercise customary rights, as of speech or assembly, without unwarranted or arbitrary interference by the government From the headlines: Legal experts say surveillance methods being used by colleges and universities on their students may violate their civil liberties. When investigating vandalism connected to political protests, campus police have been using new tactics, including seizing students’ phones and laptops. They have also issued warrants based on social media posts or participation in campus protests. Civil liberties experts say these actions amount to stifling university students’ right to free speech. confiscate verb: to seize as forfeited to the public domain; appropriate, by way of penalty, for public use From the headlines: A kite was briefly confiscated after it came into contact with a United Airlines plane near Washington, D.C. The aircraft landed safely at Ronald Reagan National Airport following reports of a kite hitting it. Police seized the kite from a family at nearby Gravelly Point park, but returned it later. Despite the fact that kite flying is banned there because the sky overhead is “restricted airspace,” about a dozen people had reportedly been flying kites at the park that day. defraud verb: to deprive of a right, money, or property by fraud From the headlines: Hollywood writer-director Carl Erik Rinsch was arrested for defrauding Netflix of $11 million, meant for his unfinished sci-fi show White Horse. Prosecutors say he spent around $10 million on luxury purchases, including Rolls-Royces, a Ferrari, and antiques. Prosecutors also claim that he used the money to pay legal fees to sue Netflix for additional money. Rinsch has been charged with wire fraud and money laundering, while Netflix has declined to comment. embezzlement noun: the stealing of money entrusted to one’s care From the headlines: French politician Marine Le Pen was convicted of embezzlement and barred from public office for five years. Le Pen, who leads the far-right National Rally party, had planned to run for president in 2027. She was also sentenced to four years in prison for spending $4.3 million in European Parliament funds on her own party expenses. Fun fact: Embezzlement is from the Anglo-French enbesiler, “cause to disappear,” and an Old French root meaning “to destroy or gouge.” fairway noun: Golf. the part of the course where the grass is cut short between the tees and the putting greens From the headlines: When golf courses close, research shows the surrounding environment improves. With declining interest in golf, nearby neighborhoods report benefits like less flooding and reduced pesticide runoff. Across the U.S., many former courses have been repurposed as nature reserves, where manicured fairways have been replaced by thriving wildflower meadows. forage verb: to wander or go in search of provisions From the headlines: A new online map shows where 1.6 million edible plants grow in cities around the world. The guide, called Falling Fruit, is meant to help urban dwellers and visitors forage for food. Its open source design means people can add locations, mapping additional fruit trees, berry bushes, beehives, and plants that might otherwise go unnoticed. franchise noun: Sports. a professional sports team From the headlines: A group led by Bill Chisholm has agreed to buy the Boston Celtics for $6.1 billion, making it the most expensive franchise sale in North American sports history. The Celtics, fresh off their 18th NBA title, are facing significant financial challenges under the new collective bargaining agreement, but remain favorites to repeat as champions. geriatric adjective: noting or relating to aged people or animals From the headlines: The New England Aquarium in Boston has introduced a new “retirement home” for geriatric aquarium penguins, relocating six elderly birds to a designated island. While wild penguins typically live about ten years, the new aquarium houses twenty penguins in their twenties and thirties. This specialized haven ensures these aging animals receive monitoring for conditions such as arthritis and cataracts. Fun fact: The Greek gērōs, “old,” is the root of geriatric. iguana noun: a large, arboreal lizard, native to Central and South America, having stout legs and a crest of spines from neck to tail From the headlines: A recent study sheds light on how North American iguanas may have reached a remote island in Fiji. Genetic analysis suggests that these large reptiles likely traversed thousands of miles across the Pacific Ocean by drifting on makeshift rafts of fallen trees. If confirmed, this would represent the longest documented oceanic migration by any terrestrial vertebrate, apart from humans. inaccessible adjective: not accessible; unapproachable From the headlines: Researchers investigating why we can’t remember being babies found evidence that those memories still exist in our brains, but are inaccessible. Scientists have long suspected that infants don’t create memories at all. A new study using MRI imaging to observe babies’ brains found that around 12 months old, they do begin storing memories of specific images. Neuroscientists are now focused on learning why these early recollections become locked away and out of reach as we grow older. magnitude noun: greatness of size or amount From the headlines: A devastating 7.7 magnitude earthquake struck Myanmar, killing over 3,000 people and leaving hundreds missing. The tremors were so intense they reached 600 miles to Bangkok, where skyscrapers swayed. In response, China, India, and Russia sent rescue teams, while countries like Thailand, Malaysia, and Vietnam offered aid. manipulate verb: to adapt or change (accounts, figures, etc.) to suit one’s purpose or advantage From the headlines: A cheating scandal shook the world of professional ski jumping this week. Several members of Team Norway were suspended after officials found evidence that their ski suits had been manipulated to make the athletes more aerodynamic. The team’s manager admitted to illegally adding an extra seam where the legs are sewn together; more material there was hoped to give the jumpers extra lift and allow air to flow around them more efficiently. mush verb: to drive or spur on (sled dogs or a sled drawn by dogs) From the headlines: Greenland’s annual dog sledding race attracted unusual international attention when the White House said the vice president’s wife, Usha Vance, would attend. Vance canceled her trip after Greenlanders planned to protest her presence at the event. Competitors in the Avannaata Qimussersua, or “Great Race of the North,” mushed their dogs over 26 snowy miles. Henrik Jensen, a musher from northern Greenland, crossed the finish line in first place, pulled by his team of Greenlandic sled dogs. ovine adjective: pertaining to, of the nature of, or like sheep From the headlines: The world’s first known case of bird flu in sheep was diagnosed in Yorkshire, England. After the H5N1 virus was found among birds on a farm, health officials also tested its flock of sheep; only one ovine case was detected. The infected sheep was euthanized to prevent the disease from spreading, and officials said “the risk to livestock remains low.” pontiff noun: Ecclesiastical. the Roman Catholic pope, the Bishop of Rome From the headlines: Following the release of Pope Francis from the hospital on March 23, his lead physician said the pontiff had faced such grave danger that his medical team considered halting treatment. During his hospitalization, the pope endured two critical health crises, prompting intense deliberations over whether aggressive interventions should continue, given the potential risks to his internal organs. Ultimately, the doctors opted to pursue “all available medicines and treatments,” a decision that proved pivotal to his recovery. populism noun: grass-roots democracy; working-class activism; egalitarianism From the headlines: Bernie Sanders is drawing unprecedented crowds on his “Fighting Oligarchy” tour, fueled by a message rooted in economic populism. His rhetoric resonates with disillusioned voters seeking an alternative to both President Trump and the Democratic Party. The independent senator from Vermont frequently denounces what he terms a “government of the billionaires, by the billionaires, and for the billionaires,” while chastising Democrats for failing to adequately champion the interests of the working class. prescription noun: a direction, usually written, by the physician to the pharmacist for the preparation and use of a medicine or remedy From the headlines: A new trend is emerging in healthcare — doctors are now prescribing museum visits. Backed by research showing that time spent in cultural spots can boost mental health and ease loneliness, more physicians are encouraging patients to explore art galleries, theaters, concert halls, and libraries. These cultural outings are said to reduce stress, alleviate mild anxiety and depression, and even improve conditions like high blood pressure. It’s the prescription you didn’t know you needed. pristine adjective: having its original purity; uncorrupted or unsullied From the headlines: Many countries are looking to Switzerland as a model, hoping to replicate its transformation of once heavily polluted rivers and lakes into some of the most pristine in Europe. In the 1960s, Swiss waterways were choked with algae and dead fish due to sewage and industrial pollution. However, over the following decades, the country made significant investments in advanced water treatment facilities. Today, nearly all of its lakes and rivers are once again pristine and safe for swimming. prolong verb: to lengthen out in time; extend the duration of; cause to continue longer From the headlines: After their quick trip to the International Space Station turned out to have an unexpectedly long duration, two NASA astronauts have been safely returned to Earth. What began as an eight-day mission for Butch Wilmore and Suni Williams had to be prolonged after their Starliner spacecraft experienced helium leaks and thruster problems. The two ended up staying on the ISS for more than nine months, until two seats were available on a returning space capsule. recruit verb: to attempt to acquire the services of (a person) for an employer From the headlines: As the White House cuts funding for scientific research, European countries are stepping up to recruit top U.S. scientists. Experts in climate change and vaccine safety are now eyeing job offers across the Atlantic, with France and the Netherlands boosting their budgets to hire talent for their universities. reinstate verb: to put back or establish again, as in a former position or state From the headlines: On March 24, a South Korean court reinstated impeached Prime Minister Han Duck-soo. Han was returned to the government and named acting leader once his impeachment was overturned. President Yoon Suk Yeol, who was also removed from office, is still awaiting a verdict. Han and Yoon were both suspended by South Korea’s National Assembly in December. repatriation noun: the act or process of returning a person or thing to the country of origin From the headlines: After several weeks of refusal, Venezuela agreed to accept repatriation flights from the United States, and the first plane carrying Venezuelan migrants back to their home country landed on March 24. About 200 people who had been deported from the U.S. were on the initial flight. Conflicts between the two countries had previously put the returns on hold. serenade verb: to entertain with or perform with vocal or instrumental music From the headlines: After an incredible 70-year career, Johnny Mathis, the legendary crooner with the famously smooth “velvet voice,” has announced his retirement at the age of 89. Known for his romantic ballads, jazz classics, and soft rock hits, Mathis has been serenading audiences since his teenage years. With more albums sold than any pop artist except Frank Sinatra, his voice has been the soundtrack to countless memories. tuition noun: the charge or fee for instruction, as at a private school or a college or university From the headlines: Starting this fall, attending Harvard University will cost nothing for most students. The school announced that tuition will be free for people whose families earn less than $200,000 per year. The average household income in the U.S. is $80,000. Food, housing, health insurance, and travel will also be free for less wealthy students. The University of Pennsylvania and the Massachusetts Institute of Technology have adopted the same financial aid policy. unredacted adjective: (of a document) with confidential or sensitive information included or visible From the headlines: The Trump administration released over 2,000 documents on JFK’s assassination, leading to a search for new insights. While the unredacted files do not dispute that Lee Harvey Oswald acted alone, they reveal long-hidden details about CIA agents and operations. Attorney Larry Schnapf, who has pushed for their release, argues the disclosures highlight excessive government secrecy. He believes the unredacted documents demonstrate how overclassification has been misused by national security officials. © 2025, Aakkhra, All rights reserved.
    0 ความคิดเห็น 0 การแบ่งปัน 420 มุมมอง 0 รีวิว
  • “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!”

    ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด

    SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center

    X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ

    ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน

    SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด

    การเปิดตัว IP ใหม่ของ SiFive
    เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM
    X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT
    X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน
    รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว

    จุดเด่นด้านเทคโนโลยี
    XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่
    Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar
    รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions
    มี memory subsystem ที่ลด latency และเพิ่ม throughput

    การใช้งานในโลกจริง
    X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ
    X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s
    ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก
    ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor

    ข้อมูลเสริมจากภายนอก
    Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้
    SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ
    IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026
    SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara

    คำเตือนสำหรับผู้พัฒนาและองค์กร
    IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์
    การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ
    การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX
    หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่
    การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน

    https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    🧠 “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!” ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด ✅ การเปิดตัว IP ใหม่ของ SiFive ➡️ เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM ➡️ X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT ➡️ X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน ➡️ รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว ✅ จุดเด่นด้านเทคโนโลยี ➡️ XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่ ➡️ Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar ➡️ รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions ➡️ มี memory subsystem ที่ลด latency และเพิ่ม throughput ✅ การใช้งานในโลกจริง ➡️ X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ ➡️ X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s ➡️ ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก ➡️ ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้ ➡️ SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ ➡️ IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026 ➡️ SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara ‼️ คำเตือนสำหรับผู้พัฒนาและองค์กร ⛔ IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์ ⛔ การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ ⛔ การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX ⛔ หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่ ⛔ การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    WWW.TECHPOWERUP.COM
    SiFive's New RISC-V IP Combines Scalar, Vector and Matrix Compute to Accelerate AI from the Far Edge IoT to the Data Center
    Further expanding SiFive's lead in RISC-V AI IP, the company today launched its 2nd Generation Intelligence family, featuring five new RISC-V-based products designed to accelerate AI workloads across thousands of potential applications. The lineup includes two entirely new products—the X160 Gen 2 an...
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
  • “Sitecore โดนเจาะ! ช่องโหว่ ViewState เปิดทางให้มัลแวร์ WEEPSTEEL ยึดระบบแบบเงียบๆ”

    ลองนึกภาพว่าคุณเป็นผู้ดูแลระบบของเว็บไซต์องค์กรที่ใช้ Sitecore ซึ่งเป็นแพลตฟอร์มจัดการเนื้อหายอดนิยมระดับโลก แล้วจู่ๆ มีแฮกเกอร์แอบเข้ามาในระบบโดยที่คุณไม่รู้ตัว ไม่ใช่เพราะโค้ดมีบั๊ก แต่เพราะคุณใช้ “คีย์ตัวอย่าง” จากเอกสารคู่มือที่ Sitecore เคยเผยแพร่ไว้ตั้งแต่ปี 2017!

    ช่องโหว่นี้ถูกระบุว่าเป็น CVE-2025-53690 ซึ่งเกิดจากการใช้ machine key ที่ไม่ปลอดภัยในฟีเจอร์ ViewState ของ ASP.NET โดย ViewState เป็นกลไกที่ช่วยให้เว็บจำสถานะของผู้ใช้ระหว่างการใช้งาน แต่หากคีย์ที่ใช้ในการเข้ารหัส ViewState ถูกเปิดเผย แฮกเกอร์สามารถสร้าง payload ปลอมที่ดูเหมือนถูกต้อง และส่งไปยังเซิร์ฟเวอร์เพื่อให้รันโค้ดอันตรายได้ทันที — นี่คือ Remote Code Execution (RCE) แบบเต็มรูปแบบ

    มัลแวร์ที่ถูกใช้ในแคมเปญนี้ชื่อว่า WEEPSTEEL ซึ่งเป็น backdoor ที่ออกแบบมาเพื่อเก็บข้อมูลภายในระบบ เช่น รายชื่อผู้ใช้, โครงสร้างเครือข่าย, และไฟล์ config สำคัญ จากนั้นแฮกเกอร์จะใช้เครื่องมือโอเพ่นซอร์สอย่าง EARTHWORM, DWAGENT และ SHARPHOUND เพื่อขยายการควบคุมระบบ สร้างบัญชีผู้ดูแลใหม่ และขโมยข้อมูลแบบเงียบๆ

    สิ่งที่น่ากลัวคือ ช่องโหว่นี้ไม่ได้เกิดจากโค้ดของ ASP.NET แต่เกิดจาก “การคัดลอกคีย์ตัวอย่าง” จากเอกสารคู่มือมาใช้จริงใน production ซึ่งเป็นพฤติกรรมที่หลายองค์กรทำโดยไม่รู้ตัว

    แม้ว่า Sitecore จะออกอัปเดตใหม่ที่สร้างคีย์แบบสุ่มโดยอัตโนมัติ และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว แต่ผู้เชี่ยวชาญเตือนว่า “ผลกระทบที่แท้จริงยังไม่ปรากฏ” และอาจมีการโจมตีเพิ่มเติมในอนาคต หากองค์กรไม่รีบแก้ไข

    ช่องโหว่ CVE-2025-53690 ใน Sitecore
    เกิดจากการใช้ machine key ตัวอย่างจากเอกสารคู่มือก่อนปี 2017
    เป็นช่องโหว่ ViewState deserialization ที่เปิดทางให้ Remote Code Execution (RCE)
    ส่งผลกระทบต่อ Sitecore XM, XP, XC และ Managed Cloud ที่ใช้คีย์แบบ static
    ไม่กระทบต่อ XM Cloud, Content Hub, CDP, Personalize, OrderCloud และ Commerce Server
    ViewState ถูกใช้ใน ASP.NET เพื่อเก็บสถานะของผู้ใช้ใน hidden field
    หาก machine key ถูกเปิดเผย เซิร์ฟเวอร์จะไม่สามารถแยกแยะ payload ที่ถูกต้องกับมัลแวร์ได้

    การโจมตีและมัลแวร์ WEEPSTEEL
    เริ่มจากการ probe หน้า /sitecore/blocked.aspx ที่มี ViewState แบบไม่ต้องล็อกอิน
    ใช้ ViewState payload ที่ฝัง WEEPSTEEL เพื่อเก็บข้อมูลระบบ
    ใช้ EARTHWORM สำหรับสร้าง tunnel, DWAGENT สำหรับ remote access, SHARPHOUND สำหรับสำรวจ Active Directory
    สร้างบัญชีผู้ดูแลใหม่ เช่น asp$ และ sawadmin เพื่อขโมย credentials
    dump ข้อมูลจาก SAM และ SYSTEM hives เพื่อขยายการเข้าถึง
    ใช้ GoTokenTheft เพื่อขโมย token และเปิดทางให้ RDP access
    ลบบัญชีที่สร้างไว้หลังจากได้สิทธิ์จากบัญชีอื่น เพื่อหลบการตรวจสอบ

    การตอบสนองและคำแนะนำจากผู้เชี่ยวชาญ
    Sitecore ออกอัปเดตใหม่ที่สร้าง machine key แบบสุ่มโดยอัตโนมัติ
    แนะนำให้ผู้ดูแลระบบเปลี่ยนคีย์ทั้งหมดใน web.config และเข้ารหัส <machineKey>
    ควรหมุนเวียน machine key เป็นประจำเพื่อความปลอดภัย
    ตรวจสอบระบบย้อนหลังเพื่อหาสัญญาณการเจาะระบบ

    https://hackread.com/zero-day-sitecore-exploited-deploy-weepsteel-malware/
    🛡️ “Sitecore โดนเจาะ! ช่องโหว่ ViewState เปิดทางให้มัลแวร์ WEEPSTEEL ยึดระบบแบบเงียบๆ” ลองนึกภาพว่าคุณเป็นผู้ดูแลระบบของเว็บไซต์องค์กรที่ใช้ Sitecore ซึ่งเป็นแพลตฟอร์มจัดการเนื้อหายอดนิยมระดับโลก แล้วจู่ๆ มีแฮกเกอร์แอบเข้ามาในระบบโดยที่คุณไม่รู้ตัว ไม่ใช่เพราะโค้ดมีบั๊ก แต่เพราะคุณใช้ “คีย์ตัวอย่าง” จากเอกสารคู่มือที่ Sitecore เคยเผยแพร่ไว้ตั้งแต่ปี 2017! ช่องโหว่นี้ถูกระบุว่าเป็น CVE-2025-53690 ซึ่งเกิดจากการใช้ machine key ที่ไม่ปลอดภัยในฟีเจอร์ ViewState ของ ASP.NET โดย ViewState เป็นกลไกที่ช่วยให้เว็บจำสถานะของผู้ใช้ระหว่างการใช้งาน แต่หากคีย์ที่ใช้ในการเข้ารหัส ViewState ถูกเปิดเผย แฮกเกอร์สามารถสร้าง payload ปลอมที่ดูเหมือนถูกต้อง และส่งไปยังเซิร์ฟเวอร์เพื่อให้รันโค้ดอันตรายได้ทันที — นี่คือ Remote Code Execution (RCE) แบบเต็มรูปแบบ มัลแวร์ที่ถูกใช้ในแคมเปญนี้ชื่อว่า WEEPSTEEL ซึ่งเป็น backdoor ที่ออกแบบมาเพื่อเก็บข้อมูลภายในระบบ เช่น รายชื่อผู้ใช้, โครงสร้างเครือข่าย, และไฟล์ config สำคัญ จากนั้นแฮกเกอร์จะใช้เครื่องมือโอเพ่นซอร์สอย่าง EARTHWORM, DWAGENT และ SHARPHOUND เพื่อขยายการควบคุมระบบ สร้างบัญชีผู้ดูแลใหม่ และขโมยข้อมูลแบบเงียบๆ สิ่งที่น่ากลัวคือ ช่องโหว่นี้ไม่ได้เกิดจากโค้ดของ ASP.NET แต่เกิดจาก “การคัดลอกคีย์ตัวอย่าง” จากเอกสารคู่มือมาใช้จริงใน production ซึ่งเป็นพฤติกรรมที่หลายองค์กรทำโดยไม่รู้ตัว แม้ว่า Sitecore จะออกอัปเดตใหม่ที่สร้างคีย์แบบสุ่มโดยอัตโนมัติ และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว แต่ผู้เชี่ยวชาญเตือนว่า “ผลกระทบที่แท้จริงยังไม่ปรากฏ” และอาจมีการโจมตีเพิ่มเติมในอนาคต หากองค์กรไม่รีบแก้ไข ✅ ช่องโหว่ CVE-2025-53690 ใน Sitecore ➡️ เกิดจากการใช้ machine key ตัวอย่างจากเอกสารคู่มือก่อนปี 2017 ➡️ เป็นช่องโหว่ ViewState deserialization ที่เปิดทางให้ Remote Code Execution (RCE) ➡️ ส่งผลกระทบต่อ Sitecore XM, XP, XC และ Managed Cloud ที่ใช้คีย์แบบ static ➡️ ไม่กระทบต่อ XM Cloud, Content Hub, CDP, Personalize, OrderCloud และ Commerce Server ➡️ ViewState ถูกใช้ใน ASP.NET เพื่อเก็บสถานะของผู้ใช้ใน hidden field ➡️ หาก machine key ถูกเปิดเผย เซิร์ฟเวอร์จะไม่สามารถแยกแยะ payload ที่ถูกต้องกับมัลแวร์ได้ ✅ การโจมตีและมัลแวร์ WEEPSTEEL ➡️ เริ่มจากการ probe หน้า /sitecore/blocked.aspx ที่มี ViewState แบบไม่ต้องล็อกอิน ➡️ ใช้ ViewState payload ที่ฝัง WEEPSTEEL เพื่อเก็บข้อมูลระบบ ➡️ ใช้ EARTHWORM สำหรับสร้าง tunnel, DWAGENT สำหรับ remote access, SHARPHOUND สำหรับสำรวจ Active Directory ➡️ สร้างบัญชีผู้ดูแลใหม่ เช่น asp$ และ sawadmin เพื่อขโมย credentials ➡️ dump ข้อมูลจาก SAM และ SYSTEM hives เพื่อขยายการเข้าถึง ➡️ ใช้ GoTokenTheft เพื่อขโมย token และเปิดทางให้ RDP access ➡️ ลบบัญชีที่สร้างไว้หลังจากได้สิทธิ์จากบัญชีอื่น เพื่อหลบการตรวจสอบ ✅ การตอบสนองและคำแนะนำจากผู้เชี่ยวชาญ ➡️ Sitecore ออกอัปเดตใหม่ที่สร้าง machine key แบบสุ่มโดยอัตโนมัติ ➡️ แนะนำให้ผู้ดูแลระบบเปลี่ยนคีย์ทั้งหมดใน web.config และเข้ารหัส <machineKey> ➡️ ควรหมุนเวียน machine key เป็นประจำเพื่อความปลอดภัย ➡️ ตรวจสอบระบบย้อนหลังเพื่อหาสัญญาณการเจาะระบบ https://hackread.com/zero-day-sitecore-exploited-deploy-weepsteel-malware/
    HACKREAD.COM
    Zero-Day in Sitecore Exploited to Deploy WEEPSTEEL Malware
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • “MostereRAT: มัลแวร์สายลับยุคใหม่ ใช้ AnyDesk และ TightVNC ยึดเครื่อง Windows แบบเงียบๆ!”

    ลองจินตนาการว่าคุณเปิดอีเมลจากลูกค้าใหม่ที่ดูน่าเชื่อถือ มีไฟล์แนบเป็นเอกสาร Word ดูไม่มีพิษภัย แต่ทันทีที่คุณเปิดไฟล์นั้น…คุณได้เปิดประตูให้แฮกเกอร์เข้ามานั่งอยู่ในเครื่องคุณโดยไม่รู้ตัว

    นี่คือสิ่งที่เกิดขึ้นกับมัลแวร์ตัวใหม่ชื่อว่า “MostereRAT” ซึ่งถูกค้นพบโดยนักวิจัยจาก FortiGuard Labs และกำลังโจมตีผู้ใช้ Windows โดยเฉพาะในประเทศญี่ปุ่นผ่านแคมเปญฟิชชิ่งที่แนบเนียนมาก

    เมื่อเหยื่อคลิกลิงก์ในอีเมล มัลแวร์จะดาวน์โหลดไฟล์ Word ที่มี archive ซ่อนอยู่ภายใน และเมื่อเปิดไฟล์นั้น โปรแกรมอันตรายจะถูกติดตั้งทันที โดยใช้เทคนิคหลบเลี่ยงการตรวจจับขั้นสูง เช่น เขียนด้วยภาษา Easy Programming Language (EPL) ซึ่งเป็นภาษาสำหรับผู้ใช้จีนที่เครื่องมือวิเคราะห์มัลแวร์ทั่วไปไม่ค่อยรองรับ

    จากนั้น MostereRAT จะปิดการทำงานของโปรแกรมป้องกันไวรัส, บล็อกการอัปเดต Windows และใช้การเข้ารหัสแบบ mutual TLS (mTLS) เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม (C2) ทำให้แทบไม่มีใครตรวจจับได้

    ที่น่ากลัวคือ มันใช้โปรแกรมที่ถูกต้องตามกฎหมายอย่าง AnyDesk และ TightVNC เพื่อควบคุมเครื่องของเหยื่อแบบเต็มรูปแบบ พร้อมสร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับผู้ดูแลระบบ เพื่อให้กลับเข้ามาได้แม้เหยื่อจะพยายามลบมัลแวร์ออกไปแล้ว

    ลักษณะของ MostereRAT
    เป็น Remote Access Trojan (RAT) ที่ให้แฮกเกอร์ควบคุมเครื่องจากระยะไกล
    ถูกส่งผ่านอีเมลฟิชชิ่งที่ปลอมเป็นธุรกิจจริง
    ใช้ไฟล์ Word ที่มี archive ซ่อนอยู่เพื่อหลอกให้เหยื่อเปิด
    เขียนด้วยภาษา Easy Programming Language (EPL) เพื่อหลบการตรวจจับ
    ปิดการทำงานของโปรแกรมป้องกันและบล็อกการอัปเดต Windows
    ใช้การเข้ารหัสแบบ mTLS เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม
    ติดตั้งโปรแกรม AnyDesk และ TightVNC เพื่อควบคุมเครื่องเหยื่อ
    สร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับ admin เพื่อรักษาการเข้าถึง
    พัฒนามาจาก banking trojan ที่เคยพบในปี 2020

    คำแนะนำจากผู้เชี่ยวชาญ
    ควรตั้งค่าบราวเซอร์ให้ถามก่อนดาวน์โหลดไฟล์จากแหล่งที่ไม่รู้จัก
    จำกัดสิทธิ์ผู้ใช้ในระบบ ไม่ควรให้สิทธิ์ระดับ SYSTEM หรือ TrustedInstaller
    ใช้นโยบายควบคุมแอปพลิเคชันเพื่อป้องกันการรันโปรแกรมที่ไม่ได้รับอนุญาต
    อัปเดตระบบและโปรแกรมป้องกันไวรัสอย่างสม่ำเสมอ

    คำเตือนสำหรับผู้ใช้ Windows
    การคลิกลิงก์ในอีเมลที่ดูน่าเชื่อถืออาจเปิดทางให้มัลแวร์เข้ามา
    โปรแกรม AnyDesk และ TightVNC แม้จะถูกต้องตามกฎหมาย แต่สามารถถูกใช้ในทางร้ายได้
    การปิดการทำงานของ Windows Security โดยมัลแวร์จะทำให้ระบบไร้การป้องกัน
    บัญชีผู้ใช้ลับที่ถูกสร้างขึ้นอาจยังอยู่แม้จะลบมัลแวร์ไปแล้ว
    การใช้ภาษา EPL ทำให้เครื่องมือวิเคราะห์ทั่วไปไม่สามารถตรวจจับได้

    https://hackread.com/mostererat-windows-anydesk-tightvnc-access/
    🕵️‍♂️ “MostereRAT: มัลแวร์สายลับยุคใหม่ ใช้ AnyDesk และ TightVNC ยึดเครื่อง Windows แบบเงียบๆ!” ลองจินตนาการว่าคุณเปิดอีเมลจากลูกค้าใหม่ที่ดูน่าเชื่อถือ มีไฟล์แนบเป็นเอกสาร Word ดูไม่มีพิษภัย แต่ทันทีที่คุณเปิดไฟล์นั้น…คุณได้เปิดประตูให้แฮกเกอร์เข้ามานั่งอยู่ในเครื่องคุณโดยไม่รู้ตัว นี่คือสิ่งที่เกิดขึ้นกับมัลแวร์ตัวใหม่ชื่อว่า “MostereRAT” ซึ่งถูกค้นพบโดยนักวิจัยจาก FortiGuard Labs และกำลังโจมตีผู้ใช้ Windows โดยเฉพาะในประเทศญี่ปุ่นผ่านแคมเปญฟิชชิ่งที่แนบเนียนมาก เมื่อเหยื่อคลิกลิงก์ในอีเมล มัลแวร์จะดาวน์โหลดไฟล์ Word ที่มี archive ซ่อนอยู่ภายใน และเมื่อเปิดไฟล์นั้น โปรแกรมอันตรายจะถูกติดตั้งทันที โดยใช้เทคนิคหลบเลี่ยงการตรวจจับขั้นสูง เช่น เขียนด้วยภาษา Easy Programming Language (EPL) ซึ่งเป็นภาษาสำหรับผู้ใช้จีนที่เครื่องมือวิเคราะห์มัลแวร์ทั่วไปไม่ค่อยรองรับ จากนั้น MostereRAT จะปิดการทำงานของโปรแกรมป้องกันไวรัส, บล็อกการอัปเดต Windows และใช้การเข้ารหัสแบบ mutual TLS (mTLS) เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม (C2) ทำให้แทบไม่มีใครตรวจจับได้ ที่น่ากลัวคือ มันใช้โปรแกรมที่ถูกต้องตามกฎหมายอย่าง AnyDesk และ TightVNC เพื่อควบคุมเครื่องของเหยื่อแบบเต็มรูปแบบ พร้อมสร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับผู้ดูแลระบบ เพื่อให้กลับเข้ามาได้แม้เหยื่อจะพยายามลบมัลแวร์ออกไปแล้ว ✅ ลักษณะของ MostereRAT ➡️ เป็น Remote Access Trojan (RAT) ที่ให้แฮกเกอร์ควบคุมเครื่องจากระยะไกล ➡️ ถูกส่งผ่านอีเมลฟิชชิ่งที่ปลอมเป็นธุรกิจจริง ➡️ ใช้ไฟล์ Word ที่มี archive ซ่อนอยู่เพื่อหลอกให้เหยื่อเปิด ➡️ เขียนด้วยภาษา Easy Programming Language (EPL) เพื่อหลบการตรวจจับ ➡️ ปิดการทำงานของโปรแกรมป้องกันและบล็อกการอัปเดต Windows ➡️ ใช้การเข้ารหัสแบบ mTLS เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม ➡️ ติดตั้งโปรแกรม AnyDesk และ TightVNC เพื่อควบคุมเครื่องเหยื่อ ➡️ สร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับ admin เพื่อรักษาการเข้าถึง ➡️ พัฒนามาจาก banking trojan ที่เคยพบในปี 2020 ✅ คำแนะนำจากผู้เชี่ยวชาญ ➡️ ควรตั้งค่าบราวเซอร์ให้ถามก่อนดาวน์โหลดไฟล์จากแหล่งที่ไม่รู้จัก ➡️ จำกัดสิทธิ์ผู้ใช้ในระบบ ไม่ควรให้สิทธิ์ระดับ SYSTEM หรือ TrustedInstaller ➡️ ใช้นโยบายควบคุมแอปพลิเคชันเพื่อป้องกันการรันโปรแกรมที่ไม่ได้รับอนุญาต ➡️ อัปเดตระบบและโปรแกรมป้องกันไวรัสอย่างสม่ำเสมอ ‼️ คำเตือนสำหรับผู้ใช้ Windows ⛔ การคลิกลิงก์ในอีเมลที่ดูน่าเชื่อถืออาจเปิดทางให้มัลแวร์เข้ามา ⛔ โปรแกรม AnyDesk และ TightVNC แม้จะถูกต้องตามกฎหมาย แต่สามารถถูกใช้ในทางร้ายได้ ⛔ การปิดการทำงานของ Windows Security โดยมัลแวร์จะทำให้ระบบไร้การป้องกัน ⛔ บัญชีผู้ใช้ลับที่ถูกสร้างขึ้นอาจยังอยู่แม้จะลบมัลแวร์ไปแล้ว ⛔ การใช้ภาษา EPL ทำให้เครื่องมือวิเคราะห์ทั่วไปไม่สามารถตรวจจับได้ https://hackread.com/mostererat-windows-anydesk-tightvnc-access/
    HACKREAD.COM
    MostereRAT Targets Windows, Uses AnyDesk and TightVNC for Full Access
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Snapdragon X Elite ถึง Ryzen AI MAX: เมื่อ AMD ประกาศว่า ARM ไม่ได้มีข้อได้เปรียบเหนือ x86 แม้แต่เรื่องประหยัดพลังงาน

    ในงาน IFA 2025 AMD ได้ออกมาแสดงจุดยืนอย่างชัดเจนว่า “ARM ไม่ได้มีข้อได้เปรียบเหนือ x86” แม้แต่ในเรื่องที่เคยถูกมองว่าเป็นจุดแข็งของ ARM อย่างประสิทธิภาพด้านพลังงาน โดย AMD ชี้ว่า APU รุ่นใหม่ของตน เช่น Strix Point และ Strix Halo ได้พิสูจน์แล้วว่า x86 สามารถให้ประสิทธิภาพต่อวัตต์ (perf/watt) ที่ยอดเยี่ยมได้เช่นกัน

    AMD ยังชี้ว่า hype ของ Windows on ARM ที่เคยเกิดขึ้นจากการเปิดตัว Snapdragon X Elite ของ Qualcomm เป็นเพียงกระแสระยะสั้น เพราะเมื่อ Intel และ AMD เปิดตัวชิปใหม่ในกลุ่ม APU และ NPU เช่น Lunar Lake และ Ryzen AI MAX 395+ ก็สามารถทำลายข้อได้เปรียบของ ARM ได้อย่างชัดเจน

    โดยเฉพาะ Ryzen AI MAX 395+ ที่ให้ประสิทธิภาพด้าน AI สูงถึง 126 TOPS ซึ่งเหนือกว่า ARM SoC ส่วนใหญ่ และยังสามารถใช้งานได้เต็มรูปแบบใน ecosystem ของ x86 โดยไม่ต้องพึ่งพาการจำกัดแอปหรือการแปลง binary แบบ ARM

    แม้ AMD จะยอมรับว่า ARM ยังมีพื้นที่ในตลาด เช่น Apple M-series หรือบางกลุ่มของ Qualcomm แต่ก็เชื่อว่า x86 จะยังคงเป็นแกนหลักของตลาด consumer hardware ไปอีกนาน โดยเฉพาะเมื่อมีการเปิดตัวแพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จาก AMD และ Intel ตามลำดับ

    จุดยืนของ AMD ต่อ ARM
    ARM ไม่มีข้อได้เปรียบเหนือ x86 แม้แต่ในด้านพลังงาน
    x86 สามารถให้ runtime ยาวนานในโน้ตบุ๊กได้เช่นกัน
    Ecosystem ของ x86 ยังครอบคลุมและเสถียรกว่า

    การตอบโต้กระแส Windows on ARM
    Snapdragon X Elite เคยสร้างกระแสว่า ARM จะมาแทน x86
    AMD และ Intel ตอบโต้ด้วย APU และ NPU รุ่นใหม่
    Lunar Lake และ Ryzen AI MAX 395+ แสดงให้เห็นว่า x86 ยังแข็งแกร่ง

    ประสิทธิภาพของ Ryzen AI MAX 395+
    ให้ AI TOPS สูงถึง 126 ซึ่งเหนือกว่า ARM หลายรุ่น
    ถูกใช้งานในโน้ตบุ๊ก, mini-PC และ handheld อย่างแพร่หลาย
    ไม่ต้องพึ่งการจำกัดแอปหรือ emulator แบบ ARM

    แนวโน้มของตลาดในอนาคต
    x86 จะยังเป็นแกนหลักของ consumer hardware
    ARM ยังมีพื้นที่ในบางกลุ่ม เช่น Apple M-series
    แพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จะผลักดัน x86 ต่อไป

    https://wccftech.com/amd-claims-that-arm-doesnt-offer-any-advantage-over-x86-even-in-energy-efficiency/
    🎙️ เรื่องเล่าจาก Snapdragon X Elite ถึง Ryzen AI MAX: เมื่อ AMD ประกาศว่า ARM ไม่ได้มีข้อได้เปรียบเหนือ x86 แม้แต่เรื่องประหยัดพลังงาน ในงาน IFA 2025 AMD ได้ออกมาแสดงจุดยืนอย่างชัดเจนว่า “ARM ไม่ได้มีข้อได้เปรียบเหนือ x86” แม้แต่ในเรื่องที่เคยถูกมองว่าเป็นจุดแข็งของ ARM อย่างประสิทธิภาพด้านพลังงาน โดย AMD ชี้ว่า APU รุ่นใหม่ของตน เช่น Strix Point และ Strix Halo ได้พิสูจน์แล้วว่า x86 สามารถให้ประสิทธิภาพต่อวัตต์ (perf/watt) ที่ยอดเยี่ยมได้เช่นกัน AMD ยังชี้ว่า hype ของ Windows on ARM ที่เคยเกิดขึ้นจากการเปิดตัว Snapdragon X Elite ของ Qualcomm เป็นเพียงกระแสระยะสั้น เพราะเมื่อ Intel และ AMD เปิดตัวชิปใหม่ในกลุ่ม APU และ NPU เช่น Lunar Lake และ Ryzen AI MAX 395+ ก็สามารถทำลายข้อได้เปรียบของ ARM ได้อย่างชัดเจน โดยเฉพาะ Ryzen AI MAX 395+ ที่ให้ประสิทธิภาพด้าน AI สูงถึง 126 TOPS ซึ่งเหนือกว่า ARM SoC ส่วนใหญ่ และยังสามารถใช้งานได้เต็มรูปแบบใน ecosystem ของ x86 โดยไม่ต้องพึ่งพาการจำกัดแอปหรือการแปลง binary แบบ ARM แม้ AMD จะยอมรับว่า ARM ยังมีพื้นที่ในตลาด เช่น Apple M-series หรือบางกลุ่มของ Qualcomm แต่ก็เชื่อว่า x86 จะยังคงเป็นแกนหลักของตลาด consumer hardware ไปอีกนาน โดยเฉพาะเมื่อมีการเปิดตัวแพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จาก AMD และ Intel ตามลำดับ ✅ จุดยืนของ AMD ต่อ ARM ➡️ ARM ไม่มีข้อได้เปรียบเหนือ x86 แม้แต่ในด้านพลังงาน ➡️ x86 สามารถให้ runtime ยาวนานในโน้ตบุ๊กได้เช่นกัน ➡️ Ecosystem ของ x86 ยังครอบคลุมและเสถียรกว่า ✅ การตอบโต้กระแส Windows on ARM ➡️ Snapdragon X Elite เคยสร้างกระแสว่า ARM จะมาแทน x86 ➡️ AMD และ Intel ตอบโต้ด้วย APU และ NPU รุ่นใหม่ ➡️ Lunar Lake และ Ryzen AI MAX 395+ แสดงให้เห็นว่า x86 ยังแข็งแกร่ง ✅ ประสิทธิภาพของ Ryzen AI MAX 395+ ➡️ ให้ AI TOPS สูงถึง 126 ซึ่งเหนือกว่า ARM หลายรุ่น ➡️ ถูกใช้งานในโน้ตบุ๊ก, mini-PC และ handheld อย่างแพร่หลาย ➡️ ไม่ต้องพึ่งการจำกัดแอปหรือ emulator แบบ ARM ✅ แนวโน้มของตลาดในอนาคต ➡️ x86 จะยังเป็นแกนหลักของ consumer hardware ➡️ ARM ยังมีพื้นที่ในบางกลุ่ม เช่น Apple M-series ➡️ แพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จะผลักดัน x86 ต่อไป https://wccftech.com/amd-claims-that-arm-doesnt-offer-any-advantage-over-x86-even-in-energy-efficiency/
    WCCFTECH.COM
    AMD Claims That ARM Doesn't Offer Any Advantage Over x86, Even in Energy Efficiency, as Recent-Gen APUs Continue to Prove
    AMD has put its full faith in the x86 ecosystem, as the firm claims that the architecture is right on par with ARM.
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
Pages Boosts