• “Apple-1 ในตำนานเตรียมประมูลทะลุ $300,000 — คอมพิวเตอร์ไม้ที่เปลี่ยนโลก และเรื่องราวของเจ้าของผู้บุกเบิก”

    ในวันที่ 20 กันยายน 2025 ที่งาน Remarkable Rarities ของ RR Auctions ณ เมืองบอสตัน จะมีการประมูล Apple-1 เครื่องหายากที่ยังใช้งานได้จริง พร้อมกล่องไม้ Byte Shop ดั้งเดิม ซึ่งเชื่อว่าหลงเหลืออยู่เพียง 9 เครื่องในโลกเท่านั้น

    Apple-1 เครื่องนี้ไม่ใช่แค่ของสะสม แต่เป็น “ของจริง” ที่มาพร้อมอุปกรณ์ครบชุดจากยุค 1976 ได้แก่ แผงวงจร Apple-1 หมายเลข “01-0020”, แป้นพิมพ์ Datanetics, จอภาพ, อินเทอร์เฟซเทป, ซอฟต์แวร์บนเทปคาสเซ็ต และคู่มือการใช้งานแบบร่วมสมัย ทุกชิ้นเป็นของแท้หรือถูกแทนที่ด้วยชิ้นส่วนที่ถูกต้องตามยุคสมัย

    สิ่งที่ทำให้เครื่องนี้พิเศษยิ่งขึ้นคือ “เจ้าของเดิม” — June Blodgett Moore ผู้หญิงคนแรกที่จบการศึกษาจากคณะนิติศาสตร์มหาวิทยาลัยสแตนฟอร์ด ซึ่งทำให้เครื่องนี้มีคุณค่าทางประวัติศาสตร์ทั้งด้านเทคโนโลยีและสังคม

    ตัวเครื่องได้รับการตรวจสอบและฟื้นฟูโดยผู้เชี่ยวชาญ Corey Cohen ในช่วงกลางปี 2025 และได้รับการประเมินสภาพที่ 8.0/10 โดยมีรอยร้าวเล็ก ๆ บนกล่องไม้ และแผ่นหลังที่ถูกถอดออกเพื่อเข้าถึงสายไฟ

    ภายในยังคงมีชิป MOS 6502 แบบเซรามิกขาว และตัวเก็บประจุ Sprague “Big Blue” ทั้งสามตัวดั้งเดิม ซึ่งหายากมากในเครื่องที่ยังหลงเหลืออยู่ นอกจากนี้ยังมีการเปลี่ยนไดโอดบางตัวด้วยชิ้นส่วนที่ถูกต้องตามยุคเพื่อรักษาความสมบูรณ์ของระบบ

    กล่องไม้ Byte Shop นั้นมีความสำคัญอย่างยิ่ง เพราะเป็นผลจากดีลครั้งประวัติศาสตร์ระหว่าง Steve Jobs และ Steve Wozniak กับร้าน Byte Shop ที่สั่งซื้อ Apple-1 จำนวน 50 เครื่องในราคาต่อเครื่อง $500 และขายต่อที่ $666.66 ซึ่ง Wozniakเคยกล่าวว่า “ไม่มีเหตุการณ์ใดในประวัติศาสตร์ของบริษัทที่ยิ่งใหญ่และเหนือความคาดหมายเท่านี้อีกแล้ว”

    https://www.tomshardware.com/pc-components/pc-cases/rare-apple-1-with-storied-ownership-could-fetch-over-usd300-000-at-auction-unit-housed-in-original-wood-case-thought-to-be-one-of-just-nine-surviving-examples
    🍏 “Apple-1 ในตำนานเตรียมประมูลทะลุ $300,000 — คอมพิวเตอร์ไม้ที่เปลี่ยนโลก และเรื่องราวของเจ้าของผู้บุกเบิก” ในวันที่ 20 กันยายน 2025 ที่งาน Remarkable Rarities ของ RR Auctions ณ เมืองบอสตัน จะมีการประมูล Apple-1 เครื่องหายากที่ยังใช้งานได้จริง พร้อมกล่องไม้ Byte Shop ดั้งเดิม ซึ่งเชื่อว่าหลงเหลืออยู่เพียง 9 เครื่องในโลกเท่านั้น Apple-1 เครื่องนี้ไม่ใช่แค่ของสะสม แต่เป็น “ของจริง” ที่มาพร้อมอุปกรณ์ครบชุดจากยุค 1976 ได้แก่ แผงวงจร Apple-1 หมายเลข “01-0020”, แป้นพิมพ์ Datanetics, จอภาพ, อินเทอร์เฟซเทป, ซอฟต์แวร์บนเทปคาสเซ็ต และคู่มือการใช้งานแบบร่วมสมัย ทุกชิ้นเป็นของแท้หรือถูกแทนที่ด้วยชิ้นส่วนที่ถูกต้องตามยุคสมัย สิ่งที่ทำให้เครื่องนี้พิเศษยิ่งขึ้นคือ “เจ้าของเดิม” — June Blodgett Moore ผู้หญิงคนแรกที่จบการศึกษาจากคณะนิติศาสตร์มหาวิทยาลัยสแตนฟอร์ด ซึ่งทำให้เครื่องนี้มีคุณค่าทางประวัติศาสตร์ทั้งด้านเทคโนโลยีและสังคม ตัวเครื่องได้รับการตรวจสอบและฟื้นฟูโดยผู้เชี่ยวชาญ Corey Cohen ในช่วงกลางปี 2025 และได้รับการประเมินสภาพที่ 8.0/10 โดยมีรอยร้าวเล็ก ๆ บนกล่องไม้ และแผ่นหลังที่ถูกถอดออกเพื่อเข้าถึงสายไฟ ภายในยังคงมีชิป MOS 6502 แบบเซรามิกขาว และตัวเก็บประจุ Sprague “Big Blue” ทั้งสามตัวดั้งเดิม ซึ่งหายากมากในเครื่องที่ยังหลงเหลืออยู่ นอกจากนี้ยังมีการเปลี่ยนไดโอดบางตัวด้วยชิ้นส่วนที่ถูกต้องตามยุคเพื่อรักษาความสมบูรณ์ของระบบ กล่องไม้ Byte Shop นั้นมีความสำคัญอย่างยิ่ง เพราะเป็นผลจากดีลครั้งประวัติศาสตร์ระหว่าง Steve Jobs และ Steve Wozniak กับร้าน Byte Shop ที่สั่งซื้อ Apple-1 จำนวน 50 เครื่องในราคาต่อเครื่อง $500 และขายต่อที่ $666.66 ซึ่ง Wozniakเคยกล่าวว่า “ไม่มีเหตุการณ์ใดในประวัติศาสตร์ของบริษัทที่ยิ่งใหญ่และเหนือความคาดหมายเท่านี้อีกแล้ว” https://www.tomshardware.com/pc-components/pc-cases/rare-apple-1-with-storied-ownership-could-fetch-over-usd300-000-at-auction-unit-housed-in-original-wood-case-thought-to-be-one-of-just-nine-surviving-examples
    0 Comments 0 Shares 41 Views 0 Reviews
  • “AI ในศูนย์รักษาความปลอดภัยองค์กร: ผู้ช่วยอัจฉริยะหรือแค่เสียงรบกวน? — เมื่อ CISO ต้องเผชิญความจริงของการใช้งานจริง”

    ในปี 2025 การนำปัญญาประดิษฐ์ (AI) มาใช้ในระบบรักษาความปลอดภัยองค์กร (Security Operations Center – SOC) กลายเป็นประเด็นหลักของผู้บริหารด้านความปลอดภัยข้อมูล (CISO) ทั่วโลก หลายองค์กรหวังว่า AI จะเป็นตัวพลิกเกมในการรับมือภัยคุกคามไซเบอร์ที่ซับซ้อนและรวดเร็วขึ้น แต่เมื่อเริ่มใช้งานจริง กลับพบว่าความหวังนั้นต้องผ่านบทเรียนมากมายก่อนจะได้ผลลัพธ์ที่แท้จริง

    Myke Lyons จากบริษัท Cribl ชี้ว่า AI และระบบอัตโนมัติช่วยลดเวลาในการตรวจจับและตอบสนองเหตุการณ์ได้จริง แต่ต้องอาศัยการจัดการข้อมูลอย่างมีโครงสร้าง โดยเฉพาะ telemetry ที่มีความสำคัญสูง เช่น log การยืนยันตัวตนและการเข้าใช้งานแอปพลิเคชัน ซึ่งต้องถูกส่งไปยังระบบที่มีความมั่นใจสูงเพื่อการตรวจจับแบบเรียลไทม์ ส่วนข้อมูลรองลงมาถูกเก็บไว้ใน data lake เพื่อใช้วิเคราะห์ย้อนหลังและลดต้นทุน

    Erin Rogers จาก BOK Financial เสริมว่า AI แบบ “agentic” ซึ่งสามารถตัดสินใจและปรับตัวได้เอง กำลังช่วยให้ระบบตรวจจับภัยคุกคามสามารถตอบสนองได้รวดเร็วขึ้น เช่น การป้องกันการโจมตีแบบ Business Email Compromise แบบเรียลไทม์ โดยไม่ต้องรอมนุษย์เข้ามาแทรกแซง

    แต่ไม่ใช่ทุกคนที่เห็นด้วย Shaila Rana จาก IEEE เตือนว่า AI ยังไม่แม่นยำพอ โดยอ้างผลการทดลองจาก Microsoft Research ที่พบว่า AI ตรวจจับมัลแวร์ได้เพียง 26% ภายใต้เงื่อนไขที่ยากที่สุด แม้จะมีความแม่นยำถึง 89% ในสถานการณ์ทั่วไปก็ตาม ซึ่งอาจทำให้ผู้ใช้เกิดความมั่นใจเกินจริงและลดการเฝ้าระวังที่จำเป็น

    Anar Israfilov จาก Cyberoon Enterprise ย้ำว่า AI ต้องมีการควบคุมและตรวจสอบจากมนุษย์เสมอ เพราะหากไม่มีการตั้งค่าข้อมูลที่เหมาะสม ระบบอาจสร้าง “ghost alert” หรือการแจ้งเตือนผิดพลาดจำนวนมาก ทำให้ทีมงานเสียเวลาไล่ตามสิ่งที่ไม่มีอยู่จริง

    Denida Grow จาก LeMareschal ก็เห็นด้วยว่า AI ยังไม่สามารถแทนที่มนุษย์ได้ โดยเฉพาะในงานที่ต้องใช้บริบท เช่น การตอบสนองเหตุการณ์ที่เกี่ยวข้องกับกฎหมายท้องถิ่น หรือความเสี่ยงเฉพาะขององค์กร ซึ่ง AI ยังไม่สามารถเข้าใจได้ลึกพอ

    Jonathan Garini จาก fifthelement.ai สรุปว่า AI ควรถูกใช้เพื่อช่วยลดภาระงานซ้ำซาก เช่น การวิเคราะห์ log หรือการกรอง alert เพื่อให้ผู้เชี่ยวชาญมีเวลามากขึ้นในการแก้ปัญหาที่ซับซ้อน และการผสาน AI เข้ากับความรู้ภายในองค์กร เช่น ประวัติภัยคุกคามและ workflow ที่มีอยู่ จะช่วยให้ระบบมีประสิทธิภาพมากขึ้น

    ข้อมูลสำคัญจากบทความ
    AI ถูกนำมาใช้ใน SOC เพื่อเพิ่มความเร็วและลดภาระงานของนักวิเคราะห์
    ระบบ agentic AI สามารถตัดสินใจและปรับตัวได้เองในบางกรณี เช่น การป้องกันอีเมลหลอกลวง
    การจัดการ telemetry อย่างมีโครงสร้างช่วยเพิ่มความแม่นยำในการตรวจจับ
    AI ช่วยลดเวลาในการตอบสนองเหตุการณ์และลดต้นทุนในการดำเนินงาน

    มุมมองจากผู้เชี่ยวชาญ
    ต้องมีการควบคุมและตรวจสอบจากมนุษย์เพื่อหลีกเลี่ยง ghost alert
    AI ยังไม่สามารถเข้าใจบริบทเฉพาะ เช่น กฎหมายท้องถิ่นหรือความเสี่ยงเฉพาะองค์กร
    การผสาน AI กับความรู้ภายในองค์กรช่วยเพิ่มประสิทธิภาพ
    AI เหมาะกับงานซ้ำซาก เช่น การกรอง alert และการวิเคราะห์ log

    ข้อมูลเสริมจากภายนอก
    Cisco และ Splunk เปิดตัว SOC รุ่นใหม่ที่ใช้ agentic AI เพื่อรวมการตรวจจับและตอบสนองภัยคุกคาม
    SANS Institute พบว่าองค์กรส่วนใหญ่ยังใช้ AI ในระดับสนับสนุน ไม่ใช่การตัดสินใจอัตโนมัติเต็มรูปแบบ
    ปัญหาหลักของ AI ในความปลอดภัยคือ false positive และการขาดบริบท
    การใช้ AI อย่างมีความรับผิดชอบต้องมี “guardrails” เช่น rule-based automation เพื่อควบคุมพฤติกรรมของระบบ

    https://www.csoonline.com/article/4054301/cisos-grapple-with-the-realities-of-applying-ai-to-security-functions.html
    🤖 “AI ในศูนย์รักษาความปลอดภัยองค์กร: ผู้ช่วยอัจฉริยะหรือแค่เสียงรบกวน? — เมื่อ CISO ต้องเผชิญความจริงของการใช้งานจริง” ในปี 2025 การนำปัญญาประดิษฐ์ (AI) มาใช้ในระบบรักษาความปลอดภัยองค์กร (Security Operations Center – SOC) กลายเป็นประเด็นหลักของผู้บริหารด้านความปลอดภัยข้อมูล (CISO) ทั่วโลก หลายองค์กรหวังว่า AI จะเป็นตัวพลิกเกมในการรับมือภัยคุกคามไซเบอร์ที่ซับซ้อนและรวดเร็วขึ้น แต่เมื่อเริ่มใช้งานจริง กลับพบว่าความหวังนั้นต้องผ่านบทเรียนมากมายก่อนจะได้ผลลัพธ์ที่แท้จริง Myke Lyons จากบริษัท Cribl ชี้ว่า AI และระบบอัตโนมัติช่วยลดเวลาในการตรวจจับและตอบสนองเหตุการณ์ได้จริง แต่ต้องอาศัยการจัดการข้อมูลอย่างมีโครงสร้าง โดยเฉพาะ telemetry ที่มีความสำคัญสูง เช่น log การยืนยันตัวตนและการเข้าใช้งานแอปพลิเคชัน ซึ่งต้องถูกส่งไปยังระบบที่มีความมั่นใจสูงเพื่อการตรวจจับแบบเรียลไทม์ ส่วนข้อมูลรองลงมาถูกเก็บไว้ใน data lake เพื่อใช้วิเคราะห์ย้อนหลังและลดต้นทุน Erin Rogers จาก BOK Financial เสริมว่า AI แบบ “agentic” ซึ่งสามารถตัดสินใจและปรับตัวได้เอง กำลังช่วยให้ระบบตรวจจับภัยคุกคามสามารถตอบสนองได้รวดเร็วขึ้น เช่น การป้องกันการโจมตีแบบ Business Email Compromise แบบเรียลไทม์ โดยไม่ต้องรอมนุษย์เข้ามาแทรกแซง แต่ไม่ใช่ทุกคนที่เห็นด้วย Shaila Rana จาก IEEE เตือนว่า AI ยังไม่แม่นยำพอ โดยอ้างผลการทดลองจาก Microsoft Research ที่พบว่า AI ตรวจจับมัลแวร์ได้เพียง 26% ภายใต้เงื่อนไขที่ยากที่สุด แม้จะมีความแม่นยำถึง 89% ในสถานการณ์ทั่วไปก็ตาม ซึ่งอาจทำให้ผู้ใช้เกิดความมั่นใจเกินจริงและลดการเฝ้าระวังที่จำเป็น Anar Israfilov จาก Cyberoon Enterprise ย้ำว่า AI ต้องมีการควบคุมและตรวจสอบจากมนุษย์เสมอ เพราะหากไม่มีการตั้งค่าข้อมูลที่เหมาะสม ระบบอาจสร้าง “ghost alert” หรือการแจ้งเตือนผิดพลาดจำนวนมาก ทำให้ทีมงานเสียเวลาไล่ตามสิ่งที่ไม่มีอยู่จริง Denida Grow จาก LeMareschal ก็เห็นด้วยว่า AI ยังไม่สามารถแทนที่มนุษย์ได้ โดยเฉพาะในงานที่ต้องใช้บริบท เช่น การตอบสนองเหตุการณ์ที่เกี่ยวข้องกับกฎหมายท้องถิ่น หรือความเสี่ยงเฉพาะขององค์กร ซึ่ง AI ยังไม่สามารถเข้าใจได้ลึกพอ Jonathan Garini จาก fifthelement.ai สรุปว่า AI ควรถูกใช้เพื่อช่วยลดภาระงานซ้ำซาก เช่น การวิเคราะห์ log หรือการกรอง alert เพื่อให้ผู้เชี่ยวชาญมีเวลามากขึ้นในการแก้ปัญหาที่ซับซ้อน และการผสาน AI เข้ากับความรู้ภายในองค์กร เช่น ประวัติภัยคุกคามและ workflow ที่มีอยู่ จะช่วยให้ระบบมีประสิทธิภาพมากขึ้น ✅ ข้อมูลสำคัญจากบทความ ➡️ AI ถูกนำมาใช้ใน SOC เพื่อเพิ่มความเร็วและลดภาระงานของนักวิเคราะห์ ➡️ ระบบ agentic AI สามารถตัดสินใจและปรับตัวได้เองในบางกรณี เช่น การป้องกันอีเมลหลอกลวง ➡️ การจัดการ telemetry อย่างมีโครงสร้างช่วยเพิ่มความแม่นยำในการตรวจจับ ➡️ AI ช่วยลดเวลาในการตอบสนองเหตุการณ์และลดต้นทุนในการดำเนินงาน ✅ มุมมองจากผู้เชี่ยวชาญ ➡️ ต้องมีการควบคุมและตรวจสอบจากมนุษย์เพื่อหลีกเลี่ยง ghost alert ➡️ AI ยังไม่สามารถเข้าใจบริบทเฉพาะ เช่น กฎหมายท้องถิ่นหรือความเสี่ยงเฉพาะองค์กร ➡️ การผสาน AI กับความรู้ภายในองค์กรช่วยเพิ่มประสิทธิภาพ ➡️ AI เหมาะกับงานซ้ำซาก เช่น การกรอง alert และการวิเคราะห์ log ✅ ข้อมูลเสริมจากภายนอก ➡️ Cisco และ Splunk เปิดตัว SOC รุ่นใหม่ที่ใช้ agentic AI เพื่อรวมการตรวจจับและตอบสนองภัยคุกคาม ➡️ SANS Institute พบว่าองค์กรส่วนใหญ่ยังใช้ AI ในระดับสนับสนุน ไม่ใช่การตัดสินใจอัตโนมัติเต็มรูปแบบ ➡️ ปัญหาหลักของ AI ในความปลอดภัยคือ false positive และการขาดบริบท ➡️ การใช้ AI อย่างมีความรับผิดชอบต้องมี “guardrails” เช่น rule-based automation เพื่อควบคุมพฤติกรรมของระบบ https://www.csoonline.com/article/4054301/cisos-grapple-with-the-realities-of-applying-ai-to-security-functions.html
    WWW.CSOONLINE.COM
    CISOs grapple with the realities of applying AI to security functions
    Viewed as a copilot to augment rather than revolutionize security operations, well-governed AI can deliver incremental results, according to security leaders’ early returns.
    0 Comments 0 Shares 38 Views 0 Reviews
  • “ดู YouTube หนึ่งชั่วโมงใช้เน็ตเท่าไหร่? — เปิดตัวเลขจริง พร้อมเทคนิคประหยัดดาต้าแบบไม่ต้องงดดูคลิป”

    ในยุคที่การดู YouTube กลายเป็นกิจวัตรประจำวันของคนทั่วโลก โดยเฉพาะผู้ใช้มือถือที่ต้องพึ่งพาแพ็กเกจอินเทอร์เน็ตแบบจำกัด การรู้ว่าการดูคลิปหนึ่งชั่วโมงใช้ดาต้าเท่าไหร่จึงเป็นเรื่องสำคัญ ล่าสุดเว็บไซต์ SlashGear ได้ทดสอบการใช้งานจริงโดยเปิดวิดีโอ YouTube ต่อเนื่องหนึ่งชั่วโมงในหลายความละเอียด เพื่อหาค่าการใช้ดาต้าเฉลี่ยต่อชั่วโมง

    ผลการทดสอบพบว่า:
    - 144p ใช้ดาต้าเพียง 27 MB ต่อชั่วโมง
    - 480p ใช้ประมาณ 93 MB
    - 720p ใช้ 107 MB
    - 1080p ใช้ 170 MB
    - 2160p (4K) ใช้สูงถึง 355 MB

    แต่ตัวเลขเหล่านี้อาจเปลี่ยนแปลงได้ตาม bitrate ของวิดีโอ ซึ่ง YouTube ใช้แบบแปรผัน (variable bitrate) หมายความว่าคลิปที่มีภาพเคลื่อนไหวมากหรือเสียงซับซ้อนจะใช้ดาต้ามากกว่าคลิปนิ่ง ๆ เช่น พอดแคสต์หรือวิดีโอสไลด์

    หากต้องการประหยัดดาต้า ผู้ใช้สามารถปรับความละเอียดวิดีโอได้ง่าย ๆ ผ่านไอคอนรูปเฟืองที่มุมขวาล่างของวิดีโอ และเลือกความละเอียดที่เหมาะสมกับขนาดหน้าจอ เช่น 360p หรือ 480p สำหรับมือถือ หรือ 720p สำหรับจอคอมทั่วไป

    นอกจากนี้ YouTube ยังมีฟีเจอร์ “Data Saver Mode” ที่ช่วยลดการใช้ดาต้าโดยอัตโนมัติเมื่อไม่ได้เชื่อมต่อ Wi-Fi โดยจะลดคุณภาพวิดีโอ ปิด autoplay และจำกัดการอัปโหลด ซึ่งสามารถเปิดใช้งานได้ในแอป YouTube ผ่านเมนูการตั้งค่า

    วิธีประหยัดดาต้าในการดู YouTube
    ปรับความละเอียดวิดีโอผ่านไอคอนเฟือง → Quality → เลือกความละเอียด
    ใช้ Data Saver Mode ในแอป YouTube เพื่อลดคุณภาพวิดีโอและปิด autoplay
    บนเบราว์เซอร์สามารถใช้ปลั๊กอิน เช่น YouTube Auto HD + FPS หรือ YouTube High Definition
    ความละเอียด 360p–480p เหมาะกับมือถือ ส่วน 720p เหมาะกับจอคอมทั่วไป

    https://www.slashgear.com/1966598/youtube-data-usage-per-hour/
    📶 “ดู YouTube หนึ่งชั่วโมงใช้เน็ตเท่าไหร่? — เปิดตัวเลขจริง พร้อมเทคนิคประหยัดดาต้าแบบไม่ต้องงดดูคลิป” ในยุคที่การดู YouTube กลายเป็นกิจวัตรประจำวันของคนทั่วโลก โดยเฉพาะผู้ใช้มือถือที่ต้องพึ่งพาแพ็กเกจอินเทอร์เน็ตแบบจำกัด การรู้ว่าการดูคลิปหนึ่งชั่วโมงใช้ดาต้าเท่าไหร่จึงเป็นเรื่องสำคัญ ล่าสุดเว็บไซต์ SlashGear ได้ทดสอบการใช้งานจริงโดยเปิดวิดีโอ YouTube ต่อเนื่องหนึ่งชั่วโมงในหลายความละเอียด เพื่อหาค่าการใช้ดาต้าเฉลี่ยต่อชั่วโมง ผลการทดสอบพบว่า: - 144p ใช้ดาต้าเพียง 27 MB ต่อชั่วโมง - 480p ใช้ประมาณ 93 MB - 720p ใช้ 107 MB - 1080p ใช้ 170 MB - 2160p (4K) ใช้สูงถึง 355 MB แต่ตัวเลขเหล่านี้อาจเปลี่ยนแปลงได้ตาม bitrate ของวิดีโอ ซึ่ง YouTube ใช้แบบแปรผัน (variable bitrate) หมายความว่าคลิปที่มีภาพเคลื่อนไหวมากหรือเสียงซับซ้อนจะใช้ดาต้ามากกว่าคลิปนิ่ง ๆ เช่น พอดแคสต์หรือวิดีโอสไลด์ หากต้องการประหยัดดาต้า ผู้ใช้สามารถปรับความละเอียดวิดีโอได้ง่าย ๆ ผ่านไอคอนรูปเฟืองที่มุมขวาล่างของวิดีโอ และเลือกความละเอียดที่เหมาะสมกับขนาดหน้าจอ เช่น 360p หรือ 480p สำหรับมือถือ หรือ 720p สำหรับจอคอมทั่วไป นอกจากนี้ YouTube ยังมีฟีเจอร์ “Data Saver Mode” ที่ช่วยลดการใช้ดาต้าโดยอัตโนมัติเมื่อไม่ได้เชื่อมต่อ Wi-Fi โดยจะลดคุณภาพวิดีโอ ปิด autoplay และจำกัดการอัปโหลด ซึ่งสามารถเปิดใช้งานได้ในแอป YouTube ผ่านเมนูการตั้งค่า ✅ วิธีประหยัดดาต้าในการดู YouTube ➡️ ปรับความละเอียดวิดีโอผ่านไอคอนเฟือง → Quality → เลือกความละเอียด ➡️ ใช้ Data Saver Mode ในแอป YouTube เพื่อลดคุณภาพวิดีโอและปิด autoplay ➡️ บนเบราว์เซอร์สามารถใช้ปลั๊กอิน เช่น YouTube Auto HD + FPS หรือ YouTube High Definition ➡️ ความละเอียด 360p–480p เหมาะกับมือถือ ส่วน 720p เหมาะกับจอคอมทั่วไป https://www.slashgear.com/1966598/youtube-data-usage-per-hour/
    WWW.SLASHGEAR.COM
    Here's How Much Data YouTube Uses Per Hour - SlashGear
    YouTube has become one of the most popular sources of entertainment in the world, but it can easily use up your mobile plan's data if you're not careful.
    0 Comments 0 Shares 20 Views 0 Reviews
  • “AI กินไม่หยุด — ตลาด HDD และ SSD ขาดแคลนทั่วโลก หลังความต้องการเก็บข้อมูลพุ่งทะลุเพดาน”

    ในขณะที่โลกกำลังตื่นเต้นกับการเติบโตของ AI โดยเฉพาะด้าน GPU ที่เป็นหัวใจของการประมวลผล แต่สิ่งที่หลายคนอาจมองข้ามคือ “พื้นที่จัดเก็บข้อมูล” ที่กำลังถูก AI กลืนกินอย่างเงียบ ๆ ทั้ง HDD และ SSD กำลังเผชิญกับภาวะขาดแคลนครั้งใหญ่ โดยเฉพาะในกลุ่ม nearline HDD ที่ใช้เก็บข้อมูลแบบ “อุ่น” — ไม่ต้องเข้าถึงตลอดเวลา แต่ก็ต้องพร้อมใช้งานเมื่อจำเป็น

    Western Digital ส่งจดหมายแจ้งลูกค้าว่าความต้องการ HDD ทุกขนาดพุ่งสูงอย่างไม่เคยเกิดขึ้นมาก่อน และประกาศขึ้นราคาทุกผลิตภัณฑ์ทันที เพื่อ “รองรับการเติบโต” ซึ่งแน่นอนว่าก็ช่วยเพิ่มกำไรของบริษัทไปด้วยในตัว

    TrendForce รายงานว่าเวลารอสินค้าสำหรับ nearline HDD ตอนนี้ยาวถึง 52 สัปดาห์ — เกินหนึ่งปีเต็ม ซึ่งสะท้อนว่าผู้ผลิตไม่ได้เพิ่มกำลังการผลิตมานานนับทศวรรษ ขณะที่ AI โดยเฉพาะ generative AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ไม่ใช่แค่ผลลัพธ์จากโมเดล แต่รวมถึงชุดข้อมูลสำหรับเทรน, checkpoint, log, และข้อมูลย้อนหลังที่ต้องเก็บไว้เพื่อการตรวจสอบและปรับปรุงโมเดลในอนาคต

    เมื่อ HDD ไม่พอใช้ ผู้ให้บริการคลาวด์ (CSPs) จึงหันไปใช้ SSD โดยเฉพาะ QLC SSD สำหรับงาน cold data แม้จะมีต้นทุนสูงกว่า HDD ถึง 4–5 เท่า แต่ก็มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานที่ต่ำกว่า อย่างไรก็ตาม การเปลี่ยนไปใช้ SSD ยังต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด และอาจทำให้ราคาของ SSD โดยเฉพาะรุ่นสำหรับองค์กรพุ่งขึ้นอีก 5–10% ในไตรมาสสุดท้ายของปี 2025

    ข้อมูลสำคัญจากข่าว
    ความต้องการ HDD และ SSD พุ่งสูงจากการเติบโตของ AI โดยเฉพาะ generative AI
    Western Digital แจ้งลูกค้าเรื่องการขึ้นราคาทุกผลิตภัณฑ์ HDD
    เวลารอ nearline HDD ยาวถึง 52 สัปดาห์ — สะท้อนปัญหากำลังการผลิต
    AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ทั้งผลลัพธ์และข้อมูลเบื้องหลัง

    การเปลี่ยนแปลงในตลาดและผลกระทบ
    CSPs หันไปใช้ QLC SSD สำหรับ cold data แทน HDD ที่ขาดแคลน
    SSD มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานต่ำ
    การเปลี่ยนไปใช้ SSD ต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด
    ราคาของ SSD สำหรับองค์กรอาจเพิ่มขึ้น 5–10% ในไตรมาส 4 ปี 2025

    ข้อมูลเสริมจากภายนอก
    QLC SSD มีอัตราการใช้พลังงานต่ำกว่าฮาร์ดดิสก์ประมาณ 30%
    HDD ยังเป็นตัวเลือกหลักสำหรับ cold storage เพราะราคาต่อ GB ต่ำกว่า SSD
    การขาดแคลน HDD เกิดจากการลดกำลังผลิตในปี 2023 เพื่อควบคุมราคาตลาด
    จอภาพ 1000Hz ยังไม่รองรับการใช้งานเฟรมเรตสูงจากการประมวลผล AI

    https://www.tomshardware.com/pc-components/storage/expect-hdd-ssd-shortages-as-ai-rewrites-the-rules-of-storage-hierarchy-multiple-companies-announce-price-hikes-too
    📦 “AI กินไม่หยุด — ตลาด HDD และ SSD ขาดแคลนทั่วโลก หลังความต้องการเก็บข้อมูลพุ่งทะลุเพดาน” ในขณะที่โลกกำลังตื่นเต้นกับการเติบโตของ AI โดยเฉพาะด้าน GPU ที่เป็นหัวใจของการประมวลผล แต่สิ่งที่หลายคนอาจมองข้ามคือ “พื้นที่จัดเก็บข้อมูล” ที่กำลังถูก AI กลืนกินอย่างเงียบ ๆ ทั้ง HDD และ SSD กำลังเผชิญกับภาวะขาดแคลนครั้งใหญ่ โดยเฉพาะในกลุ่ม nearline HDD ที่ใช้เก็บข้อมูลแบบ “อุ่น” — ไม่ต้องเข้าถึงตลอดเวลา แต่ก็ต้องพร้อมใช้งานเมื่อจำเป็น Western Digital ส่งจดหมายแจ้งลูกค้าว่าความต้องการ HDD ทุกขนาดพุ่งสูงอย่างไม่เคยเกิดขึ้นมาก่อน และประกาศขึ้นราคาทุกผลิตภัณฑ์ทันที เพื่อ “รองรับการเติบโต” ซึ่งแน่นอนว่าก็ช่วยเพิ่มกำไรของบริษัทไปด้วยในตัว TrendForce รายงานว่าเวลารอสินค้าสำหรับ nearline HDD ตอนนี้ยาวถึง 52 สัปดาห์ — เกินหนึ่งปีเต็ม ซึ่งสะท้อนว่าผู้ผลิตไม่ได้เพิ่มกำลังการผลิตมานานนับทศวรรษ ขณะที่ AI โดยเฉพาะ generative AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ไม่ใช่แค่ผลลัพธ์จากโมเดล แต่รวมถึงชุดข้อมูลสำหรับเทรน, checkpoint, log, และข้อมูลย้อนหลังที่ต้องเก็บไว้เพื่อการตรวจสอบและปรับปรุงโมเดลในอนาคต เมื่อ HDD ไม่พอใช้ ผู้ให้บริการคลาวด์ (CSPs) จึงหันไปใช้ SSD โดยเฉพาะ QLC SSD สำหรับงาน cold data แม้จะมีต้นทุนสูงกว่า HDD ถึง 4–5 เท่า แต่ก็มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานที่ต่ำกว่า อย่างไรก็ตาม การเปลี่ยนไปใช้ SSD ยังต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด และอาจทำให้ราคาของ SSD โดยเฉพาะรุ่นสำหรับองค์กรพุ่งขึ้นอีก 5–10% ในไตรมาสสุดท้ายของปี 2025 ✅ ข้อมูลสำคัญจากข่าว ➡️ ความต้องการ HDD และ SSD พุ่งสูงจากการเติบโตของ AI โดยเฉพาะ generative AI ➡️ Western Digital แจ้งลูกค้าเรื่องการขึ้นราคาทุกผลิตภัณฑ์ HDD ➡️ เวลารอ nearline HDD ยาวถึง 52 สัปดาห์ — สะท้อนปัญหากำลังการผลิต ➡️ AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ทั้งผลลัพธ์และข้อมูลเบื้องหลัง ✅ การเปลี่ยนแปลงในตลาดและผลกระทบ ➡️ CSPs หันไปใช้ QLC SSD สำหรับ cold data แทน HDD ที่ขาดแคลน ➡️ SSD มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานต่ำ ➡️ การเปลี่ยนไปใช้ SSD ต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด ➡️ ราคาของ SSD สำหรับองค์กรอาจเพิ่มขึ้น 5–10% ในไตรมาส 4 ปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ QLC SSD มีอัตราการใช้พลังงานต่ำกว่าฮาร์ดดิสก์ประมาณ 30% ➡️ HDD ยังเป็นตัวเลือกหลักสำหรับ cold storage เพราะราคาต่อ GB ต่ำกว่า SSD ➡️ การขาดแคลน HDD เกิดจากการลดกำลังผลิตในปี 2023 เพื่อควบคุมราคาตลาด ➡️ จอภาพ 1000Hz ยังไม่รองรับการใช้งานเฟรมเรตสูงจากการประมวลผล AI https://www.tomshardware.com/pc-components/storage/expect-hdd-ssd-shortages-as-ai-rewrites-the-rules-of-storage-hierarchy-multiple-companies-announce-price-hikes-too
    WWW.TOMSHARDWARE.COM
    Expect HDD, SSD shortages as AI rewrites the rules of storage hierarchy — multiple companies announce price hikes, too
    AI isn't just consuming the GPU market. It's eating storage, too — and the shockwaves are likely to hit both HDD and SSD markets
    0 Comments 0 Shares 85 Views 0 Reviews
  • “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่”

    Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu

    CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง

    ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน

    แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก

    ความร่วมมือระหว่าง Canonical และ NVIDIA
    Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง
    นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager
    ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA
    รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library

    ผลกระทบต่อวงการพัฒนา AI
    CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning
    การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล
    Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ
    รองรับการใช้งานใน data center, edge computing และ cloud infrastructure

    ข้อมูลเสริมจากภายนอก
    CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด
    Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด
    NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux
    AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน

    https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    🚀 “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่” Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก ✅ ความร่วมมือระหว่าง Canonical และ NVIDIA ➡️ Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง ➡️ นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager ➡️ ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA ➡️ รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library ✅ ผลกระทบต่อวงการพัฒนา AI ➡️ CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning ➡️ การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล ➡️ Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ ➡️ รองรับการใช้งานใน data center, edge computing และ cloud infrastructure ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด ➡️ Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด ➡️ NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux ➡️ AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    9TO5LINUX.COM
    Canonical to Package and Distribute NVIDIA CUDA within Ubuntu's Repositories - 9to5Linux
    Ubuntu maker Canonical announced that it will package and distribute the NVIDIA CUDA toolkit within Ubuntu’s repositories.
    0 Comments 0 Shares 74 Views 0 Reviews
  • “HDD เครื่องแรกของโลกอายุครบ 69 ปี — IBM RAMAC 350 จุดเริ่มต้นของยุคข้อมูลที่หมุนด้วยจานแม่เหล็ก”

    ย้อนกลับไปเมื่อวันที่ 14 กันยายน ปี 1956 IBM ได้เปิดตัว RAMAC 350 Disk Storage Unit ซึ่งถือเป็นฮาร์ดดิสก์ไดรฟ์ (HDD) เครื่องแรกของโลก โดยมีความจุ 3.75MB ซึ่งในยุคนั้นถือว่า “มหาศาล” และเป็นการปฏิวัติวงการจัดเก็บข้อมูลอย่างแท้จริง

    RAMAC ย่อมาจาก “Random Access Method of Accounting and Control” โดยระบบนี้ถูกออกแบบให้ทำงานร่วมกับ IBM RAMAC 305 ซึ่งเป็นคอมพิวเตอร์ที่ใช้หลอดสุญญากาศ (vacuum tube) และสามารถเข้าถึงข้อมูลแบบสุ่มได้รวดเร็วกว่าเทคโนโลยีเดิมที่ใช้บัตรเจาะรูหรือไฟล์กระดาษ

    ตัวเครื่อง RAMAC 350 มีขนาดใหญ่เท่าตู้เย็นสองใบรวมกัน และหนักกว่า 1 ตัน ใช้จานแม่เหล็กขนาด 24 นิ้วจำนวน 50 แผ่น หมุนด้วยความเร็ว 1,200 รอบต่อนาที โดยมีแขนกลหลายตัวที่สามารถเคลื่อนที่เพื่ออ่านข้อมูลจากจุดต่าง ๆ บนจานได้ภายในเวลา 800 มิลลิวินาที

    แม้ความจุจะดูเล็กเมื่อเทียบกับ HDD ปัจจุบันที่มีขนาดหลายเทราไบต์ แต่ RAMAC 350 ได้วางรากฐานให้กับการพัฒนา relational database, ระบบ ATM, การค้นหาข้อมูล และแม้แต่การเดินทางในอวกาศ เพราะมันเปลี่ยนวิธีที่มนุษย์จัดการข้อมูลจากแบบต่อเนื่องเป็นแบบสุ่มที่เข้าถึงได้ทันที

    ทุกวันนี้ HDD ยังไม่ตาย แม้จะถูก SSD แย่งพื้นที่ในตลาด แต่ก็ยังเป็นตัวเลือกที่คุ้มค่าสำหรับผู้ใช้งานที่ต้องการพื้นที่เก็บข้อมูลขนาดใหญ่ในราคาประหยัด เช่น HDD ขนาด 26TB ที่มีราคาต่ำกว่า SSD ขนาด 8TB อย่างเห็นได้ชัด

    ข้อมูลสำคัญจากข่าว
    IBM เปิดตัว RAMAC 350 HDD เครื่องแรกของโลกเมื่อวันที่ 14 กันยายน 1956
    ความจุ 3.75MB ใช้จานแม่เหล็ก 50 แผ่น ขนาด 24 นิ้ว หมุนที่ 1,200 RPM
    ทำงานร่วมกับ IBM RAMAC 305 ซึ่งใช้หลอดสุญญากาศ
    เข้าถึงข้อมูลแบบสุ่มได้ภายใน 800 มิลลิวินาที — เร็วกว่าบัตรเจาะรูหลายเท่า

    ผลกระทบทางเทคโนโลยี
    RAMAC 350 เป็นต้นแบบของ HDD ทั้งหมดในยุคต่อมา
    วางรากฐานให้กับ relational database และระบบจัดการข้อมูลสมัยใหม่
    ช่วยให้ธุรกิจเลิกใช้ tub files และลดการพึ่งพาพนักงานจัดเก็บเอกสาร
    มีบทบาทในระบบ ATM, การค้นหาข้อมูล และการบินอวกาศ

    ข้อมูลเสริมจากภายนอก
    IBM เป็นผู้คิดค้นทั้ง HDD และ FDD โดยมีบทบาทสำคัญในยุคแรกของการจัดเก็บข้อมูล
    HDD ยุคใหม่มีความจุสูงถึง 30TB และใช้เทคโนโลยี HAMR (Heat-Assisted Magnetic Recording)
    SSD มีความเร็วสูงกว่า แต่ราคาต่อ TB ยังแพงกว่ามากเมื่อเทียบกับ HDD
    HDD ยังเป็นที่นิยมในงานเก็บข้อมูลขนาดใหญ่ เช่น NAS และเซิร์ฟเวอร์สำรองข้อมูล

    https://www.tomshardware.com/pc-components/hdds/ibm-announced-the-worlds-first-hdd-the-3-75mb-ramac-350-disk-storage-unit-69-years-ago-today-unit-weighed-more-than-a-ton-50-platters-ran-at-1-200-rpm
    💾 “HDD เครื่องแรกของโลกอายุครบ 69 ปี — IBM RAMAC 350 จุดเริ่มต้นของยุคข้อมูลที่หมุนด้วยจานแม่เหล็ก” ย้อนกลับไปเมื่อวันที่ 14 กันยายน ปี 1956 IBM ได้เปิดตัว RAMAC 350 Disk Storage Unit ซึ่งถือเป็นฮาร์ดดิสก์ไดรฟ์ (HDD) เครื่องแรกของโลก โดยมีความจุ 3.75MB ซึ่งในยุคนั้นถือว่า “มหาศาล” และเป็นการปฏิวัติวงการจัดเก็บข้อมูลอย่างแท้จริง RAMAC ย่อมาจาก “Random Access Method of Accounting and Control” โดยระบบนี้ถูกออกแบบให้ทำงานร่วมกับ IBM RAMAC 305 ซึ่งเป็นคอมพิวเตอร์ที่ใช้หลอดสุญญากาศ (vacuum tube) และสามารถเข้าถึงข้อมูลแบบสุ่มได้รวดเร็วกว่าเทคโนโลยีเดิมที่ใช้บัตรเจาะรูหรือไฟล์กระดาษ ตัวเครื่อง RAMAC 350 มีขนาดใหญ่เท่าตู้เย็นสองใบรวมกัน และหนักกว่า 1 ตัน ใช้จานแม่เหล็กขนาด 24 นิ้วจำนวน 50 แผ่น หมุนด้วยความเร็ว 1,200 รอบต่อนาที โดยมีแขนกลหลายตัวที่สามารถเคลื่อนที่เพื่ออ่านข้อมูลจากจุดต่าง ๆ บนจานได้ภายในเวลา 800 มิลลิวินาที แม้ความจุจะดูเล็กเมื่อเทียบกับ HDD ปัจจุบันที่มีขนาดหลายเทราไบต์ แต่ RAMAC 350 ได้วางรากฐานให้กับการพัฒนา relational database, ระบบ ATM, การค้นหาข้อมูล และแม้แต่การเดินทางในอวกาศ เพราะมันเปลี่ยนวิธีที่มนุษย์จัดการข้อมูลจากแบบต่อเนื่องเป็นแบบสุ่มที่เข้าถึงได้ทันที ทุกวันนี้ HDD ยังไม่ตาย แม้จะถูก SSD แย่งพื้นที่ในตลาด แต่ก็ยังเป็นตัวเลือกที่คุ้มค่าสำหรับผู้ใช้งานที่ต้องการพื้นที่เก็บข้อมูลขนาดใหญ่ในราคาประหยัด เช่น HDD ขนาด 26TB ที่มีราคาต่ำกว่า SSD ขนาด 8TB อย่างเห็นได้ชัด ✅ ข้อมูลสำคัญจากข่าว ➡️ IBM เปิดตัว RAMAC 350 HDD เครื่องแรกของโลกเมื่อวันที่ 14 กันยายน 1956 ➡️ ความจุ 3.75MB ใช้จานแม่เหล็ก 50 แผ่น ขนาด 24 นิ้ว หมุนที่ 1,200 RPM ➡️ ทำงานร่วมกับ IBM RAMAC 305 ซึ่งใช้หลอดสุญญากาศ ➡️ เข้าถึงข้อมูลแบบสุ่มได้ภายใน 800 มิลลิวินาที — เร็วกว่าบัตรเจาะรูหลายเท่า ✅ ผลกระทบทางเทคโนโลยี ➡️ RAMAC 350 เป็นต้นแบบของ HDD ทั้งหมดในยุคต่อมา ➡️ วางรากฐานให้กับ relational database และระบบจัดการข้อมูลสมัยใหม่ ➡️ ช่วยให้ธุรกิจเลิกใช้ tub files และลดการพึ่งพาพนักงานจัดเก็บเอกสาร ➡️ มีบทบาทในระบบ ATM, การค้นหาข้อมูล และการบินอวกาศ ✅ ข้อมูลเสริมจากภายนอก ➡️ IBM เป็นผู้คิดค้นทั้ง HDD และ FDD โดยมีบทบาทสำคัญในยุคแรกของการจัดเก็บข้อมูล ➡️ HDD ยุคใหม่มีความจุสูงถึง 30TB และใช้เทคโนโลยี HAMR (Heat-Assisted Magnetic Recording) ➡️ SSD มีความเร็วสูงกว่า แต่ราคาต่อ TB ยังแพงกว่ามากเมื่อเทียบกับ HDD ➡️ HDD ยังเป็นที่นิยมในงานเก็บข้อมูลขนาดใหญ่ เช่น NAS และเซิร์ฟเวอร์สำรองข้อมูล https://www.tomshardware.com/pc-components/hdds/ibm-announced-the-worlds-first-hdd-the-3-75mb-ramac-350-disk-storage-unit-69-years-ago-today-unit-weighed-more-than-a-ton-50-platters-ran-at-1-200-rpm
    0 Comments 0 Shares 97 Views 0 Reviews
  • “MKVToolNix 95.0 อัปเดตใหม่ เพิ่มความฉลาดในการสร้าง Chapter พร้อมรองรับ Boost รุ่นล่าสุด — เครื่องมือจัดการ MKV ที่ไม่เคยหยุดพัฒนา”

    MKVToolNix เครื่องมือจัดการไฟล์ Matroska (MKV) บนระบบ Linux ได้ปล่อยเวอร์ชันล่าสุด 95.0 ในชื่อ “Goodbye Stranger” โดยมาพร้อมฟีเจอร์ใหม่ที่ช่วยให้การสร้าง chapter ในไฟล์วิดีโอมีความแม่นยำและยืดหยุ่นมากขึ้น โดยเฉพาะเมื่อมีการรวมไฟล์หลายส่วนเข้าด้วยกัน

    ในเวอร์ชันนี้ GUI ของ MKVToolNix ได้เพิ่ม placeholder ใหม่สำหรับการสร้าง chapter ของไฟล์ที่ถูก append ซึ่งจะถูกแทนที่ด้วย metadata ของชื่อไฟล์นั้นโดยอัตโนมัติ ช่วยให้ผู้ใช้สามารถจัดการ chapter ได้ง่ายขึ้นโดยไม่ต้องแก้ไขทีละรายการ

    นอกจากนี้ยังมีการปรับปรุงการแสดงผล matrix จากไฟล์ MP4 ให้แปลงเป็นค่า roll และ yaw ที่เหมาะสมสำหรับไฟล์ MKV และเพิ่ม argument ใหม่ --date ในคำสั่ง mkvmerge เพื่อให้ผู้ใช้สามารถกำหนด metadata วันที่ได้เอง

    ด้านเทคนิค MKVToolNix 95.0 ยังเพิ่มการรองรับ Boost 1.89.0 โดยใช้เฉพาะส่วน header ของ Boost.System ซึ่งเป็นแบบ header-only ตั้งแต่เวอร์ชัน 1.69.0 ทำให้การ build จาก source ต้องใช้ Boost 1.74.0 ขึ้นไป

    ผู้ใช้สามารถดาวน์โหลดเวอร์ชันนี้ได้ทั้งแบบ AppImage ที่รันได้บนทุก distro โดยไม่ต้องติดตั้ง และแบบ source tarball สำหรับผู้ที่ต้องการ build เอง โดยเวอร์ชันนี้ยังรองรับ distro ล่าสุดอย่าง Debian 13 “Trixie” และยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุไปแล้ว

    ฟีเจอร์ใหม่ใน MKVToolNix 95.0
    เพิ่ม placeholder สำหรับ chapter ของไฟล์ที่ถูก append โดยใช้ title metadata
    ปรับการแสดงผล matrix จาก MP4 เป็นค่า roll และ yaw ที่เหมาะสม
    เพิ่ม argument --date ใน mkvmerge เพื่อกำหนด metadata วันที่

    การปรับปรุงด้านเทคนิค
    รองรับ Boost 1.89.0 โดยใช้เฉพาะ header ของ Boost.System
    ต้องใช้ Boost 1.74.0 ขึ้นไปในการ build จาก source
    แก้บั๊ก PCM packetized ให้ mkvmerge เขียน frame ขนาด 40ms เสมอ
    แก้ปัญหา memory leak ใน MP4/QuickTime reader เมื่ออ่าน PCM audio

    การรองรับระบบปฏิบัติการ
    รองรับ Debian 13 “Trixie”, Arch, Fedora 42, Linux Mint 22, AlmaLinux 10 และอื่น ๆ
    มี AppImage ที่รันได้บน Linux ทุกรุ่นที่ใช้ glibc 2.28 ขึ้นไป
    มี Flatpak บน Flathub สำหรับผู้ใช้ที่ต้องการติดตั้งผ่าน container
    ยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุในเดือนมิถุนายน 2025

    ข้อมูลเสริมจากภายนอก
    MKVToolNix เป็นเครื่องมือมาตรฐานสำหรับจัดการไฟล์ Matroska ทั้งสร้าง แก้ไข และตรวจสอบ
    GUI ใช้งานง่ายและครอบคลุมฟังก์ชันของเครื่องมือ command-line
    มี community สนับสนุนและอัปเดตต่อเนื่องจากผู้พัฒนา Moritz Bunkus
    เหมาะกับผู้ใช้มืออาชีพด้านวิดีโอและผู้ที่ต้องการควบคุม metadata อย่างละเอียด

    https://9to5linux.com/mkvtoolnix-95-0-mkv-manipulation-tool-improves-the-chapter-generation-feature
    🛠️ “MKVToolNix 95.0 อัปเดตใหม่ เพิ่มความฉลาดในการสร้าง Chapter พร้อมรองรับ Boost รุ่นล่าสุด — เครื่องมือจัดการ MKV ที่ไม่เคยหยุดพัฒนา” MKVToolNix เครื่องมือจัดการไฟล์ Matroska (MKV) บนระบบ Linux ได้ปล่อยเวอร์ชันล่าสุด 95.0 ในชื่อ “Goodbye Stranger” โดยมาพร้อมฟีเจอร์ใหม่ที่ช่วยให้การสร้าง chapter ในไฟล์วิดีโอมีความแม่นยำและยืดหยุ่นมากขึ้น โดยเฉพาะเมื่อมีการรวมไฟล์หลายส่วนเข้าด้วยกัน ในเวอร์ชันนี้ GUI ของ MKVToolNix ได้เพิ่ม placeholder ใหม่สำหรับการสร้าง chapter ของไฟล์ที่ถูก append ซึ่งจะถูกแทนที่ด้วย metadata ของชื่อไฟล์นั้นโดยอัตโนมัติ ช่วยให้ผู้ใช้สามารถจัดการ chapter ได้ง่ายขึ้นโดยไม่ต้องแก้ไขทีละรายการ นอกจากนี้ยังมีการปรับปรุงการแสดงผล matrix จากไฟล์ MP4 ให้แปลงเป็นค่า roll และ yaw ที่เหมาะสมสำหรับไฟล์ MKV และเพิ่ม argument ใหม่ --date ในคำสั่ง mkvmerge เพื่อให้ผู้ใช้สามารถกำหนด metadata วันที่ได้เอง ด้านเทคนิค MKVToolNix 95.0 ยังเพิ่มการรองรับ Boost 1.89.0 โดยใช้เฉพาะส่วน header ของ Boost.System ซึ่งเป็นแบบ header-only ตั้งแต่เวอร์ชัน 1.69.0 ทำให้การ build จาก source ต้องใช้ Boost 1.74.0 ขึ้นไป ผู้ใช้สามารถดาวน์โหลดเวอร์ชันนี้ได้ทั้งแบบ AppImage ที่รันได้บนทุก distro โดยไม่ต้องติดตั้ง และแบบ source tarball สำหรับผู้ที่ต้องการ build เอง โดยเวอร์ชันนี้ยังรองรับ distro ล่าสุดอย่าง Debian 13 “Trixie” และยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุไปแล้ว ✅ ฟีเจอร์ใหม่ใน MKVToolNix 95.0 ➡️ เพิ่ม placeholder สำหรับ chapter ของไฟล์ที่ถูก append โดยใช้ title metadata ➡️ ปรับการแสดงผล matrix จาก MP4 เป็นค่า roll และ yaw ที่เหมาะสม ➡️ เพิ่ม argument --date ใน mkvmerge เพื่อกำหนด metadata วันที่ ✅ การปรับปรุงด้านเทคนิค ➡️ รองรับ Boost 1.89.0 โดยใช้เฉพาะ header ของ Boost.System ➡️ ต้องใช้ Boost 1.74.0 ขึ้นไปในการ build จาก source ➡️ แก้บั๊ก PCM packetized ให้ mkvmerge เขียน frame ขนาด 40ms เสมอ ➡️ แก้ปัญหา memory leak ใน MP4/QuickTime reader เมื่ออ่าน PCM audio ✅ การรองรับระบบปฏิบัติการ ➡️ รองรับ Debian 13 “Trixie”, Arch, Fedora 42, Linux Mint 22, AlmaLinux 10 และอื่น ๆ ➡️ มี AppImage ที่รันได้บน Linux ทุกรุ่นที่ใช้ glibc 2.28 ขึ้นไป ➡️ มี Flatpak บน Flathub สำหรับผู้ใช้ที่ต้องการติดตั้งผ่าน container ➡️ ยุติการสนับสนุน Ubuntu 24.10 ที่หมดอายุในเดือนมิถุนายน 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ MKVToolNix เป็นเครื่องมือมาตรฐานสำหรับจัดการไฟล์ Matroska ทั้งสร้าง แก้ไข และตรวจสอบ ➡️ GUI ใช้งานง่ายและครอบคลุมฟังก์ชันของเครื่องมือ command-line ➡️ มี community สนับสนุนและอัปเดตต่อเนื่องจากผู้พัฒนา Moritz Bunkus ➡️ เหมาะกับผู้ใช้มืออาชีพด้านวิดีโอและผู้ที่ต้องการควบคุม metadata อย่างละเอียด https://9to5linux.com/mkvtoolnix-95-0-mkv-manipulation-tool-improves-the-chapter-generation-feature
    9TO5LINUX.COM
    MKVToolNix 95.0 MKV Manipulation Tool Improves the Chapter Generation Feature - 9to5Linux
    MKVToolNix 95.0 open-source MKV manipulation tool is now available for download with a new chapter generation feature and bug fixes.
    0 Comments 0 Shares 102 Views 0 Reviews
  • “Pass: ผู้จัดการรหัสผ่านสาย Unix ที่เรียบง่ายแต่ทรงพลัง — เมื่อความปลอดภัยอยู่ในมือคุณผ่าน GPG และ Git”

    ในยุคที่ผู้คนต้องจัดการรหัสผ่านมากมายจากบริการออนไลน์ต่าง ๆ “Pass” ได้กลายเป็นเครื่องมือที่ได้รับความนิยมในหมู่ผู้ใช้ Unix และ Linux เพราะมันยึดหลักปรัชญา Unix อย่างแท้จริง — เรียบง่าย ใช้ได้จริง และไม่พึ่งพาโครงสร้างซับซ้อน

    Pass คือ shell script ขนาดเล็กที่จัดเก็บรหัสผ่านไว้ในไฟล์ที่ถูกเข้ารหัสด้วย GPG โดยแต่ละไฟล์จะตั้งชื่อตามเว็บไซต์หรือบริการที่ใช้รหัสนั้น เช่น Email/zx2c4.com หรือ Business/cheese-whiz-factory ซึ่งสามารถจัดหมวดหมู่เป็นโฟลเดอร์ได้ตามใจผู้ใช้

    ผู้ใช้สามารถเพิ่ม แก้ไข ลบ หรือสร้างรหัสผ่านใหม่ได้ด้วยคำสั่งเดียว เช่น pass insert, pass edit, pass generate และยังสามารถคัดลอกรหัสผ่านไปยัง clipboard ได้ชั่วคราวด้วย pass -c ซึ่งจะล้างข้อมูลออกจาก clipboard ภายใน 45 วินาทีเพื่อความปลอดภัย

    Pass ยังรองรับการติดตามการเปลี่ยนแปลงผ่าน Git โดยทุกการแก้ไขจะถูกบันทึกเป็น commit ทำให้สามารถย้อนดูประวัติได้ และยังสามารถ sync ข้ามเครื่องด้วย pass git push และ pass git pull

    ที่น่าสนใจคือ Pass ไม่ได้จำกัดแค่รหัสผ่านเท่านั้น — ผู้ใช้สามารถจัดเก็บข้อมูลอื่น ๆ เช่น URL, คำถามลับ, PIN หรือ metadata ได้ในรูปแบบ multiline หรือแยกไฟล์ตามโฟลเดอร์ ซึ่งเปิดโอกาสให้ผู้ใช้จัดระเบียบข้อมูลได้ตามสไตล์ของตัวเอง

    นอกจากนี้ยังมี community ที่แข็งแกร่ง ซึ่งสร้าง extension และ GUI มากมาย เช่น pass-otp สำหรับรหัส OTP, qtpass สำหรับผู้ใช้ GUI, และ passff สำหรับใช้งานร่วมกับ Firefox รวมถึงเครื่องมือ import จาก password manager อื่น ๆ เช่น LastPass, KeePass และ 1Password

    จุดเด่นของ Pass
    ใช้ GPG เข้ารหัสรหัสผ่านแต่ละรายการในไฟล์แยก
    จัดเก็บใน ~/.password-store และสามารถจัดหมวดหมู่เป็นโฟลเดอร์
    ใช้คำสั่งง่าย ๆ เช่น insert, edit, generate, rm และ -c เพื่อจัดการรหัสผ่าน
    รองรับการติดตามผ่าน Git และ sync ข้ามเครื่องได้

    ความสามารถเพิ่มเติม
    รองรับ multiline สำหรับจัดเก็บข้อมูลมากกว่ารหัสผ่าน เช่น URL, PIN, คำถามลับ
    สามารถใช้ GPG key หลายตัวในระบบเดียวกัน — เหมาะกับการใช้งานเป็นทีม
    มี bash/zsh/fish completion เพื่อความสะดวกในการใช้งาน
    รองรับ extension เช่น pass-otp, pass-update, pass-import และ GUI เช่น qtpass, passmenu

    ข้อมูลเสริมจากภายนอก
    Pass ถูกพัฒนาโดย Jason Donenfeld และเปิดให้ใช้งานภายใต้ GPLv2+
    มี community ที่แข็งแกร่งและมีการพัฒนาอย่างต่อเนื่อง
    รองรับการติดตั้งผ่านแพ็กเกจของ Linux หลาย distro และ Homebrew บน macOS
    มีเครื่องมือ import จาก password manager อื่น ๆ เช่น LastPass, KeePass, 1Password

    https://www.passwordstore.org/
    🔐 “Pass: ผู้จัดการรหัสผ่านสาย Unix ที่เรียบง่ายแต่ทรงพลัง — เมื่อความปลอดภัยอยู่ในมือคุณผ่าน GPG และ Git” ในยุคที่ผู้คนต้องจัดการรหัสผ่านมากมายจากบริการออนไลน์ต่าง ๆ “Pass” ได้กลายเป็นเครื่องมือที่ได้รับความนิยมในหมู่ผู้ใช้ Unix และ Linux เพราะมันยึดหลักปรัชญา Unix อย่างแท้จริง — เรียบง่าย ใช้ได้จริง และไม่พึ่งพาโครงสร้างซับซ้อน Pass คือ shell script ขนาดเล็กที่จัดเก็บรหัสผ่านไว้ในไฟล์ที่ถูกเข้ารหัสด้วย GPG โดยแต่ละไฟล์จะตั้งชื่อตามเว็บไซต์หรือบริการที่ใช้รหัสนั้น เช่น Email/zx2c4.com หรือ Business/cheese-whiz-factory ซึ่งสามารถจัดหมวดหมู่เป็นโฟลเดอร์ได้ตามใจผู้ใช้ ผู้ใช้สามารถเพิ่ม แก้ไข ลบ หรือสร้างรหัสผ่านใหม่ได้ด้วยคำสั่งเดียว เช่น pass insert, pass edit, pass generate และยังสามารถคัดลอกรหัสผ่านไปยัง clipboard ได้ชั่วคราวด้วย pass -c ซึ่งจะล้างข้อมูลออกจาก clipboard ภายใน 45 วินาทีเพื่อความปลอดภัย Pass ยังรองรับการติดตามการเปลี่ยนแปลงผ่าน Git โดยทุกการแก้ไขจะถูกบันทึกเป็น commit ทำให้สามารถย้อนดูประวัติได้ และยังสามารถ sync ข้ามเครื่องด้วย pass git push และ pass git pull ที่น่าสนใจคือ Pass ไม่ได้จำกัดแค่รหัสผ่านเท่านั้น — ผู้ใช้สามารถจัดเก็บข้อมูลอื่น ๆ เช่น URL, คำถามลับ, PIN หรือ metadata ได้ในรูปแบบ multiline หรือแยกไฟล์ตามโฟลเดอร์ ซึ่งเปิดโอกาสให้ผู้ใช้จัดระเบียบข้อมูลได้ตามสไตล์ของตัวเอง นอกจากนี้ยังมี community ที่แข็งแกร่ง ซึ่งสร้าง extension และ GUI มากมาย เช่น pass-otp สำหรับรหัส OTP, qtpass สำหรับผู้ใช้ GUI, และ passff สำหรับใช้งานร่วมกับ Firefox รวมถึงเครื่องมือ import จาก password manager อื่น ๆ เช่น LastPass, KeePass และ 1Password ✅ จุดเด่นของ Pass ➡️ ใช้ GPG เข้ารหัสรหัสผ่านแต่ละรายการในไฟล์แยก ➡️ จัดเก็บใน ~/.password-store และสามารถจัดหมวดหมู่เป็นโฟลเดอร์ ➡️ ใช้คำสั่งง่าย ๆ เช่น insert, edit, generate, rm และ -c เพื่อจัดการรหัสผ่าน ➡️ รองรับการติดตามผ่าน Git และ sync ข้ามเครื่องได้ ✅ ความสามารถเพิ่มเติม ➡️ รองรับ multiline สำหรับจัดเก็บข้อมูลมากกว่ารหัสผ่าน เช่น URL, PIN, คำถามลับ ➡️ สามารถใช้ GPG key หลายตัวในระบบเดียวกัน — เหมาะกับการใช้งานเป็นทีม ➡️ มี bash/zsh/fish completion เพื่อความสะดวกในการใช้งาน ➡️ รองรับ extension เช่น pass-otp, pass-update, pass-import และ GUI เช่น qtpass, passmenu ✅ ข้อมูลเสริมจากภายนอก ➡️ Pass ถูกพัฒนาโดย Jason Donenfeld และเปิดให้ใช้งานภายใต้ GPLv2+ ➡️ มี community ที่แข็งแกร่งและมีการพัฒนาอย่างต่อเนื่อง ➡️ รองรับการติดตั้งผ่านแพ็กเกจของ Linux หลาย distro และ Homebrew บน macOS ➡️ มีเครื่องมือ import จาก password manager อื่น ๆ เช่น LastPass, KeePass, 1Password https://www.passwordstore.org/
    0 Comments 0 Shares 100 Views 0 Reviews
  • เรื่องเล่าจาก Geedge ถึง MESA: เมื่อไฟร์วอลล์กลายเป็นสินค้าส่งออกของการควบคุมข้อมูล

    เมื่อวันที่ 11 กันยายน 2025 กลุ่มแฮกทิวิสต์ชื่อ Enlace Hacktivista ได้เผยแพร่ข้อมูลกว่า 600 GB ที่เกี่ยวข้องกับการพัฒนาและปฏิบัติการของ Great Firewall of China โดยข้อมูลนี้ประกอบด้วย source code, เอกสารภายใน, บันทึกการทำงาน, และการสื่อสารระหว่างทีมงานที่เกี่ยวข้องกับ Geedge Networks และ MESA Lab ซึ่งเป็นหน่วยงานวิจัยภายใต้ Chinese Academy of Sciences

    Geedge Networks ก่อตั้งโดย Fang Binxing ผู้ได้รับฉายาว่า “บิดาแห่ง Great Firewall” และมีบทบาทสำคัญในการส่งออกเทคโนโลยีเซ็นเซอร์ไปยังประเทศต่าง ๆ เช่น เมียนมา, ปากีสถาน, คาซัคสถาน, เอธิโอเปีย และประเทศอื่น ๆ ที่อยู่ในโครงการ Belt and Road Initiative

    ไฟล์ที่รั่วไหลประกอบด้วย mirror/repo.tar ขนาด 500 GB ซึ่งเป็น archive ของ RPM packaging server และเอกสารที่บีบอัดจาก Geedge และ MESA เช่น geedge_docs.tar.zst และ mesalab_docs.tar.zst ซึ่งมีทั้งรายงานภายใน, ข้อเสนอทางเทคนิค, และบันทึกการประชุมที่แสดงให้เห็นถึงการวางแผนและการดำเนินงานในระดับละเอียด

    นอกจากนี้ยังมีไฟล์ที่เกี่ยวข้องกับการจัดการโครงการ เช่น geedge_jira.tar.zst และเอกสารการสื่อสาร เช่น chat.docx ที่เผยให้เห็นถึงการประสานงานระหว่างนักวิจัยและวิศวกร รวมถึงไฟล์ routine อย่าง 打印.docx (Print) และเอกสารเบิกค่าใช้จ่ายที่สะท้อนถึงความเป็นระบบราชการของโครงการนี้

    สิ่งที่ทำให้การรั่วไหลครั้งนี้แตกต่างจากครั้งอื่นคือ “ความลึก” ของข้อมูล ไม่ใช่แค่บันทึกจาก whistleblower แต่เป็นข้อมูลดิบที่สะท้อนถึงการพัฒนาอย่างต่อเนื่องของระบบเซ็นเซอร์ระดับประเทศ และการขยายอิทธิพลไปยังต่างประเทศผ่านการส่งออกเทคโนโลยี

    ข้อมูลที่รั่วไหลจาก Great Firewall
    ขนาดรวมกว่า 600 GB ประกอบด้วย source code, เอกสารภายใน, และบันทึกการทำงาน
    มีไฟล์ mirror/repo.tar ขนาด 500 GB ที่เป็น archive ของ RPM packaging server
    เอกสารจาก Geedge และ MESA แสดงถึงการวางแผนและการดำเนินงานในระดับลึก

    หน่วยงานที่เกี่ยวข้องกับการพัฒนา
    Geedge Networks ก่อตั้งโดย Fang Binxing และเป็นผู้ส่งออกเทคโนโลยีเซ็นเซอร์
    MESA Lab เป็นหน่วยงานวิจัยภายใต้ Chinese Academy of Sciences
    ทั้งสองหน่วยงานมีบทบาทสำคัญในการพัฒนาและขยายระบบ Great Firewall

    การส่งออกเทคโนโลยีเซ็นเซอร์
    มีการส่งออกไปยังเมียนมา, ปากีสถาน, คาซัคสถาน, เอธิโอเปีย และประเทศอื่น ๆ
    เชื่อมโยงกับโครงการ Belt and Road Initiative
    ใช้เทคโนโลยีเพื่อควบคุมข้อมูลและการสื่อสารในประเทศเหล่านั้น

    ลักษณะของข้อมูลที่รั่วไหล
    มีไฟล์ที่เกี่ยวข้องกับการจัดการโครงการ เช่น geedge_jira.tar.zst
    เอกสารการสื่อสาร เช่น chat.docx แสดงถึงการประสานงานภายใน
    ไฟล์ routine เช่น 打印.docx และเอกสารเบิกค่าใช้จ่ายสะท้อนถึงระบบราชการ

    ความสำคัญของการรั่วไหลครั้งนี้
    เป็นการเปิดเผยโครงสร้างและการดำเนินงานของระบบเซ็นเซอร์ระดับประเทศ
    ให้ข้อมูลเชิงลึกที่ไม่เคยเปิดเผยมาก่อน
    นักวิจัยและองค์กรสิทธิมนุษยชนสามารถใช้ข้อมูลนี้ในการวิเคราะห์และตรวจสอบ

    https://hackread.com/great-firewall-of-china-data-published-largest-leak/
    🎙️ เรื่องเล่าจาก Geedge ถึง MESA: เมื่อไฟร์วอลล์กลายเป็นสินค้าส่งออกของการควบคุมข้อมูล เมื่อวันที่ 11 กันยายน 2025 กลุ่มแฮกทิวิสต์ชื่อ Enlace Hacktivista ได้เผยแพร่ข้อมูลกว่า 600 GB ที่เกี่ยวข้องกับการพัฒนาและปฏิบัติการของ Great Firewall of China โดยข้อมูลนี้ประกอบด้วย source code, เอกสารภายใน, บันทึกการทำงาน, และการสื่อสารระหว่างทีมงานที่เกี่ยวข้องกับ Geedge Networks และ MESA Lab ซึ่งเป็นหน่วยงานวิจัยภายใต้ Chinese Academy of Sciences Geedge Networks ก่อตั้งโดย Fang Binxing ผู้ได้รับฉายาว่า “บิดาแห่ง Great Firewall” และมีบทบาทสำคัญในการส่งออกเทคโนโลยีเซ็นเซอร์ไปยังประเทศต่าง ๆ เช่น เมียนมา, ปากีสถาน, คาซัคสถาน, เอธิโอเปีย และประเทศอื่น ๆ ที่อยู่ในโครงการ Belt and Road Initiative ไฟล์ที่รั่วไหลประกอบด้วย mirror/repo.tar ขนาด 500 GB ซึ่งเป็น archive ของ RPM packaging server และเอกสารที่บีบอัดจาก Geedge และ MESA เช่น geedge_docs.tar.zst และ mesalab_docs.tar.zst ซึ่งมีทั้งรายงานภายใน, ข้อเสนอทางเทคนิค, และบันทึกการประชุมที่แสดงให้เห็นถึงการวางแผนและการดำเนินงานในระดับละเอียด นอกจากนี้ยังมีไฟล์ที่เกี่ยวข้องกับการจัดการโครงการ เช่น geedge_jira.tar.zst และเอกสารการสื่อสาร เช่น chat.docx ที่เผยให้เห็นถึงการประสานงานระหว่างนักวิจัยและวิศวกร รวมถึงไฟล์ routine อย่าง 打印.docx (Print) และเอกสารเบิกค่าใช้จ่ายที่สะท้อนถึงความเป็นระบบราชการของโครงการนี้ สิ่งที่ทำให้การรั่วไหลครั้งนี้แตกต่างจากครั้งอื่นคือ “ความลึก” ของข้อมูล ไม่ใช่แค่บันทึกจาก whistleblower แต่เป็นข้อมูลดิบที่สะท้อนถึงการพัฒนาอย่างต่อเนื่องของระบบเซ็นเซอร์ระดับประเทศ และการขยายอิทธิพลไปยังต่างประเทศผ่านการส่งออกเทคโนโลยี ✅ ข้อมูลที่รั่วไหลจาก Great Firewall ➡️ ขนาดรวมกว่า 600 GB ประกอบด้วย source code, เอกสารภายใน, และบันทึกการทำงาน ➡️ มีไฟล์ mirror/repo.tar ขนาด 500 GB ที่เป็น archive ของ RPM packaging server ➡️ เอกสารจาก Geedge และ MESA แสดงถึงการวางแผนและการดำเนินงานในระดับลึก ✅ หน่วยงานที่เกี่ยวข้องกับการพัฒนา ➡️ Geedge Networks ก่อตั้งโดย Fang Binxing และเป็นผู้ส่งออกเทคโนโลยีเซ็นเซอร์ ➡️ MESA Lab เป็นหน่วยงานวิจัยภายใต้ Chinese Academy of Sciences ➡️ ทั้งสองหน่วยงานมีบทบาทสำคัญในการพัฒนาและขยายระบบ Great Firewall ✅ การส่งออกเทคโนโลยีเซ็นเซอร์ ➡️ มีการส่งออกไปยังเมียนมา, ปากีสถาน, คาซัคสถาน, เอธิโอเปีย และประเทศอื่น ๆ ➡️ เชื่อมโยงกับโครงการ Belt and Road Initiative ➡️ ใช้เทคโนโลยีเพื่อควบคุมข้อมูลและการสื่อสารในประเทศเหล่านั้น ✅ ลักษณะของข้อมูลที่รั่วไหล ➡️ มีไฟล์ที่เกี่ยวข้องกับการจัดการโครงการ เช่น geedge_jira.tar.zst ➡️ เอกสารการสื่อสาร เช่น chat.docx แสดงถึงการประสานงานภายใน ➡️ ไฟล์ routine เช่น 打印.docx และเอกสารเบิกค่าใช้จ่ายสะท้อนถึงระบบราชการ ✅ ความสำคัญของการรั่วไหลครั้งนี้ ➡️ เป็นการเปิดเผยโครงสร้างและการดำเนินงานของระบบเซ็นเซอร์ระดับประเทศ ➡️ ให้ข้อมูลเชิงลึกที่ไม่เคยเปิดเผยมาก่อน ➡️ นักวิจัยและองค์กรสิทธิมนุษยชนสามารถใช้ข้อมูลนี้ในการวิเคราะห์และตรวจสอบ https://hackread.com/great-firewall-of-china-data-published-largest-leak/
    HACKREAD.COM
    600 GB of Alleged Great Firewall of China Data Published in Largest Leak Yet
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 112 Views 0 Reviews
  • เรื่องเล่าจากการตั้งค่าที่ดูดีแต่ไม่จำเป็น: เมื่อการปิดบางฟีเจอร์ทำให้ Windows 11 เร็วขึ้นและปลอดภัยขึ้น

    เมื่อคุณซื้อแล็ปท็อปใหม่ที่มาพร้อม Windows 11 ไม่ว่าจะเป็นรุ่น Home หรือ Pro คุณจะได้รับฟีเจอร์มากมายที่เปิดใช้งานโดยอัตโนมัติ เพื่อให้ระบบดู “สมบูรณ์” แต่ในความเป็นจริง หลายฟีเจอร์เหล่านี้กลับทำให้เครื่องช้าลงโดยไม่จำเป็น และบางส่วนยังส่งข้อมูลกลับไปยัง Microsoft โดยที่คุณไม่ได้อนุญาตอย่างชัดเจน

    ฟีเจอร์อย่าง Diagnostic Data, Targeted Ads, Widgets, Search Highlights และการแจ้งเตือนที่ไม่จำเป็น ล้วนเป็นสิ่งที่ควรปิดทันทีหลังตั้งค่าเครื่อง เพื่อให้ได้ประสิทธิภาพที่ดีขึ้นและลดการละเมิดความเป็นส่วนตัว

    การปิดฟีเจอร์เหล่านี้ไม่ทำให้ระบบเสียหาย และสามารถทำได้ง่าย ๆ ผ่านเมนู Settings โดย Microsoft ก็เปิดให้ผู้ใช้ควบคุมได้มากขึ้นในเวอร์ชันล่าสุด

    Diagnostic Data (ข้อมูลการวินิจฉัย)
    Windows 11 ส่งข้อมูลทั้งแบบจำเป็นและแบบเพิ่มเติมไปยัง Microsoft โดยอัตโนมัติ
    สามารถปิดการส่งข้อมูลเพิ่มเติมได้ และลบข้อมูลที่เคยส่งไปแล้ว
    ปิดการใช้ข้อมูลเพื่อแสดงคำแนะนำและโฆษณาแบบเฉพาะบุคคลได้

    Targeted Ads (โฆษณาแบบเจาะจง)
    ใช้ Advertising ID เพื่อแสดงโฆษณาตามพฤติกรรมของผู้ใช้
    สามารถปิดการใช้ Advertising ID ได้ในเมนู Privacy & Security
    ปิดการติดตามการเปิดแอปเพื่อปรับปรุง Start และ Search

    Annoying Notifications (การแจ้งเตือนที่รบกวน)
    Windows ส่งการแจ้งเตือนเกี่ยวกับการอัปเดต, คำแนะนำ, และฟีเจอร์ใหม่
    สามารถปิดการแจ้งเตือนที่ไม่จำเป็นได้ในเมนู System > Notifications
    ปรับแต่งการแจ้งเตือนจากแอปแต่ละตัวได้อย่างละเอียด

    Widgets (วิดเจ็ต)
    วิดเจ็ตแสดงข้อมูลแบบเรียลไทม์ เช่น ข่าว, สภาพอากาศ, หุ้น
    ใช้ทรัพยากรระบบสูงเพราะอัปเดตตลอดเวลา
    สามารถปิดวิดเจ็ตทั้งหมด หรือเลือกปิดเฉพาะบางตัวได้

    Search Highlights (ไฮไลต์การค้นหา)
    แสดงข้อมูลเช่นวันสำคัญ, ข่าว, เทรนด์ ในแถบค้นหา
    ทำให้การค้นหาช้าลงและกินทรัพยากร
    ปิดได้ในเมนู Privacy & Security > Search Permissions

    https://www.slashgear.com/1962302/settings-to-disable-on-windows-11-laptop/
    🎙️ เรื่องเล่าจากการตั้งค่าที่ดูดีแต่ไม่จำเป็น: เมื่อการปิดบางฟีเจอร์ทำให้ Windows 11 เร็วขึ้นและปลอดภัยขึ้น เมื่อคุณซื้อแล็ปท็อปใหม่ที่มาพร้อม Windows 11 ไม่ว่าจะเป็นรุ่น Home หรือ Pro คุณจะได้รับฟีเจอร์มากมายที่เปิดใช้งานโดยอัตโนมัติ เพื่อให้ระบบดู “สมบูรณ์” แต่ในความเป็นจริง หลายฟีเจอร์เหล่านี้กลับทำให้เครื่องช้าลงโดยไม่จำเป็น และบางส่วนยังส่งข้อมูลกลับไปยัง Microsoft โดยที่คุณไม่ได้อนุญาตอย่างชัดเจน ฟีเจอร์อย่าง Diagnostic Data, Targeted Ads, Widgets, Search Highlights และการแจ้งเตือนที่ไม่จำเป็น ล้วนเป็นสิ่งที่ควรปิดทันทีหลังตั้งค่าเครื่อง เพื่อให้ได้ประสิทธิภาพที่ดีขึ้นและลดการละเมิดความเป็นส่วนตัว การปิดฟีเจอร์เหล่านี้ไม่ทำให้ระบบเสียหาย และสามารถทำได้ง่าย ๆ ผ่านเมนู Settings โดย Microsoft ก็เปิดให้ผู้ใช้ควบคุมได้มากขึ้นในเวอร์ชันล่าสุด ✅ Diagnostic Data (ข้อมูลการวินิจฉัย) ➡️ Windows 11 ส่งข้อมูลทั้งแบบจำเป็นและแบบเพิ่มเติมไปยัง Microsoft โดยอัตโนมัติ ➡️ สามารถปิดการส่งข้อมูลเพิ่มเติมได้ และลบข้อมูลที่เคยส่งไปแล้ว ➡️ ปิดการใช้ข้อมูลเพื่อแสดงคำแนะนำและโฆษณาแบบเฉพาะบุคคลได้ ✅ Targeted Ads (โฆษณาแบบเจาะจง) ➡️ ใช้ Advertising ID เพื่อแสดงโฆษณาตามพฤติกรรมของผู้ใช้ ➡️ สามารถปิดการใช้ Advertising ID ได้ในเมนู Privacy & Security ➡️ ปิดการติดตามการเปิดแอปเพื่อปรับปรุง Start และ Search ✅ Annoying Notifications (การแจ้งเตือนที่รบกวน) ➡️ Windows ส่งการแจ้งเตือนเกี่ยวกับการอัปเดต, คำแนะนำ, และฟีเจอร์ใหม่ ➡️ สามารถปิดการแจ้งเตือนที่ไม่จำเป็นได้ในเมนู System > Notifications ➡️ ปรับแต่งการแจ้งเตือนจากแอปแต่ละตัวได้อย่างละเอียด ✅ Widgets (วิดเจ็ต) ➡️ วิดเจ็ตแสดงข้อมูลแบบเรียลไทม์ เช่น ข่าว, สภาพอากาศ, หุ้น ➡️ ใช้ทรัพยากรระบบสูงเพราะอัปเดตตลอดเวลา ➡️ สามารถปิดวิดเจ็ตทั้งหมด หรือเลือกปิดเฉพาะบางตัวได้ ✅ Search Highlights (ไฮไลต์การค้นหา) ➡️ แสดงข้อมูลเช่นวันสำคัญ, ข่าว, เทรนด์ ในแถบค้นหา ➡️ ทำให้การค้นหาช้าลงและกินทรัพยากร ➡️ ปิดได้ในเมนู Privacy & Security > Search Permissions https://www.slashgear.com/1962302/settings-to-disable-on-windows-11-laptop/
    WWW.SLASHGEAR.COM
    5 Settings To Disable On Your New Windows 11 Laptop - SlashGear
    Windows has come to include a huge amount of features to make your everyday computing experience better, but you may not want all of them turned on at once.
    0 Comments 0 Shares 114 Views 0 Reviews
  • ประกาศสำคัญ: แจ้งเตือนการอัปเดตแอปพลิเคชัน

    แอป Thaitimes จะมีการอัปเดตเวอร์ชันใหม่ในวันที่ 15 กันยายน 2568 หรือหลังจากนั้น

    หลังจากผู้ใช้งานอัปเดตแอปแล้ว
    ระบบจะให้ทำการ Sign in (ล็อกอิน) ใหม่อีกครั้ง

    นี่เป็นกระบวนการปกติจากการปรับโครงสร้างภายในแอป (App) เพื่อเพิ่มความเสถียรและรองรับระบบใหม่ ข้อมูลเดิมของผู้ใช้งานจะไม่หาย และยังคงอยู่ครบถ้วน

    หากท่านพบว่าเข้าใช้งานไม่ได้ หรือต้องการคำแนะนำ สามารถติดต่อทีมงานได้ทาง
    LINE: @sondhitalk

    ทีมงานพร้อมดูแลและให้ความช่วยเหลือทุกท่านครับ
    ขออภัยในความไม่สะดวก และขอบพระคุณที่ใช้งานแอป Thaitimes มาโดยตลอด


    Important Announcement: App Update Notification

    The Thaitimes app will be updated on 15th September 2025 or shortly after.
    Once the new version is installed,
    users will be required to sign in again.

    This is a normal process due to internal structural changes
    to improve system stability and support new features.
    All your existing data and account details will remain safe and unchanged.

    If you’re unable to sign in or need any assistance,
    please feel free to contact our support team via
    LINE: @sondhitalk

    We’re here to help.
    Thank you for your understanding and continued support.
    📢 ประกาศสำคัญ: แจ้งเตือนการอัปเดตแอปพลิเคชัน แอป Thaitimes จะมีการอัปเดตเวอร์ชันใหม่ในวันที่ 15 กันยายน 2568 หรือหลังจากนั้น หลังจากผู้ใช้งานอัปเดตแอปแล้ว ระบบจะให้ทำการ Sign in (ล็อกอิน) ใหม่อีกครั้ง นี่เป็นกระบวนการปกติจากการปรับโครงสร้างภายในแอป (App) เพื่อเพิ่มความเสถียรและรองรับระบบใหม่ ข้อมูลเดิมของผู้ใช้งานจะไม่หาย และยังคงอยู่ครบถ้วน หากท่านพบว่าเข้าใช้งานไม่ได้ หรือต้องการคำแนะนำ สามารถติดต่อทีมงานได้ทาง LINE: @sondhitalk ทีมงานพร้อมดูแลและให้ความช่วยเหลือทุกท่านครับ ขออภัยในความไม่สะดวก และขอบพระคุณที่ใช้งานแอป Thaitimes มาโดยตลอด 📢 Important Announcement: App Update Notification The Thaitimes app will be updated on 15th September 2025 or shortly after. Once the new version is installed, users will be required to sign in again. This is a normal process due to internal structural changes to improve system stability and support new features. All your existing data and account details will remain safe and unchanged. If you’re unable to sign in or need any assistance, please feel free to contact our support team via LINE: @sondhitalk We’re here to help. Thank you for your understanding and continued support.
    Like
    6
    0 Comments 1 Shares 761 Views 0 Reviews
  • เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน

    ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์

    ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps

    Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA

    AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน

    การเปิดตัว Instinct MI450 และ Helios rack
    MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB
    Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC
    ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops

    จุดเปลี่ยนของ AMD ในตลาด AI
    MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI
    ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA
    AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป

    การออกแบบเพื่อ hyperscale และ rack-scale
    Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น
    รองรับ memory capacity มากกว่า Vera Rubin ถึง 50%
    ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack

    https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    🎙️ เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์ ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน ✅ การเปิดตัว Instinct MI450 และ Helios rack ➡️ MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB ➡️ Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC ➡️ ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops ✅ จุดเปลี่ยนของ AMD ในตลาด AI ➡️ MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI ➡️ ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA ➡️ AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป ✅ การออกแบบเพื่อ hyperscale และ rack-scale ➡️ Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น ➡️ รองรับ memory capacity มากกว่า Vera Rubin ถึง 50% ➡️ ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    WCCFTECH.COM
    With the Next-Gen MI450 AI Lineup, AMD Says There Will Be ‘No Excuses, No Hesitation’ in Choosing Team Red Over NVIDIA In AI Workloads
    AMD's Instinct MI450 will be a 'decisive' release, as according to the firm's executive, the AI playground would be leveled with NVIDIA.
    0 Comments 0 Shares 131 Views 0 Reviews
  • เรื่องเล่าจาก VM สู่ VMSCAPE: เมื่อแขกในระบบกลายเป็นขโมยข้อมูลของเจ้าบ้าน

    นักวิจัยจาก ETH Zurich ได้ค้นพบช่องโหว่ใหม่ในกลุ่มการโจมตีแบบ Spectre-BTI (Branch Target Injection) ที่ชื่อว่า VMSCAPE ซึ่งเปิดทางให้ virtual machine (VM) ที่เป็น guest สามารถขโมยข้อมูลจาก host ได้โดยไม่ต้องแก้ไขซอฟต์แวร์ของ host เลย

    ช่องโหว่นี้เกิดจากการที่ branch predictor ของ CPU ไม่ถูกแยกอย่างปลอดภัยระหว่าง guest กับ host ทำให้ VM สามารถใช้การคาดเดาเส้นทางการทำงานของ CPU เพื่อเข้าถึงข้อมูลลับ เช่น disk encryption keys หรือ session credentials ได้

    VMSCAPE ส่งผลกระทบต่อระบบคลาวด์ที่ใช้ KVM/QEMU บน CPU ของ AMD Zen 1–5 และ Intel Coffee Lake ซึ่งเป็นสถาปัตยกรรมที่ยังคงใช้ branch prediction แบบเดิม โดยช่องโหว่นี้ได้รับการลงทะเบียนเป็น CVE-2025-40300 แล้ว แต่ยังไม่มีคะแนนความรุนแรงอย่างเป็นทางการ

    นักวิจัยเสนอวิธีแก้ไขที่เรียบง่ายแต่ได้ผล คือการ “flush” branch predictor ทุกครั้งที่ VM ออกจากการทำงาน (VMEXIT) โดยใช้คำสั่ง IBPB ซึ่งสามารถป้องกันการโจมตีได้โดยไม่กระทบต่อประสิทธิภาพของระบบ

    แม้ Intel และ AMD จะเตรียมออกเอกสารและแพตช์เพื่อแก้ไข แต่ช่องโหว่นี้แสดงให้เห็นว่าการป้องกัน Spectre ที่มีอยู่ในปัจจุบันยังไม่เพียงพอ โดยเฉพาะในระบบที่มีการใช้งาน VM อย่างแพร่หลาย

    ช่องโหว่ VMSCAPE ที่ค้นพบโดย ETH Zurich
    เป็นการโจมตีแบบ Spectre-BTI ที่ใช้ branch predictor เพื่อขโมยข้อมูล
    ไม่ต้องแก้ไข host software ก็สามารถเจาะข้อมูลได้
    ส่งผลกระทบต่อระบบที่ใช้ KVM/QEMU บน AMD Zen 1–5 และ Intel Coffee Lake

    การลงทะเบียนและการตอบสนอง
    ช่องโหว่นี้ได้รับรหัส CVE-2025-40300
    AMD และ Intel เตรียมออกเอกสารและแพตช์เพื่อแก้ไข
    Linux community เตรียมออก mitigation พร้อมกับการเปิดเผยช่องโหว่

    วิธีแก้ไขที่เสนอโดยนักวิจัย
    ใช้ IBPB เพื่อ flush branch predictor ทุกครั้งที่ VMEXIT
    ทดสอบแล้วพบว่าไม่มีผลกระทบต่อประสิทธิภาพ
    เป็นวิธีที่สามารถนำไปใช้ได้จริงในระบบคลาวด์

    ความหมายต่อวงการคลาวด์และความปลอดภัย
    แสดงให้เห็นว่า VM isolation ยังไม่ปลอดภัยพอ
    การป้องกัน Spectre ที่มีอยู่ยังไม่ครอบคลุมทุกกรณี
    จำเป็นต้องมีการปรับปรุงระบบความปลอดภัยในระดับสถาปัตยกรรม

    https://www.techradar.com/pro/security/new-spectre-based-cpu-vulnerability-allows-guests-to-steal-sensitive-data-from-the-cloud
    🎙️ เรื่องเล่าจาก VM สู่ VMSCAPE: เมื่อแขกในระบบกลายเป็นขโมยข้อมูลของเจ้าบ้าน นักวิจัยจาก ETH Zurich ได้ค้นพบช่องโหว่ใหม่ในกลุ่มการโจมตีแบบ Spectre-BTI (Branch Target Injection) ที่ชื่อว่า VMSCAPE ซึ่งเปิดทางให้ virtual machine (VM) ที่เป็น guest สามารถขโมยข้อมูลจาก host ได้โดยไม่ต้องแก้ไขซอฟต์แวร์ของ host เลย ช่องโหว่นี้เกิดจากการที่ branch predictor ของ CPU ไม่ถูกแยกอย่างปลอดภัยระหว่าง guest กับ host ทำให้ VM สามารถใช้การคาดเดาเส้นทางการทำงานของ CPU เพื่อเข้าถึงข้อมูลลับ เช่น disk encryption keys หรือ session credentials ได้ VMSCAPE ส่งผลกระทบต่อระบบคลาวด์ที่ใช้ KVM/QEMU บน CPU ของ AMD Zen 1–5 และ Intel Coffee Lake ซึ่งเป็นสถาปัตยกรรมที่ยังคงใช้ branch prediction แบบเดิม โดยช่องโหว่นี้ได้รับการลงทะเบียนเป็น CVE-2025-40300 แล้ว แต่ยังไม่มีคะแนนความรุนแรงอย่างเป็นทางการ นักวิจัยเสนอวิธีแก้ไขที่เรียบง่ายแต่ได้ผล คือการ “flush” branch predictor ทุกครั้งที่ VM ออกจากการทำงาน (VMEXIT) โดยใช้คำสั่ง IBPB ซึ่งสามารถป้องกันการโจมตีได้โดยไม่กระทบต่อประสิทธิภาพของระบบ แม้ Intel และ AMD จะเตรียมออกเอกสารและแพตช์เพื่อแก้ไข แต่ช่องโหว่นี้แสดงให้เห็นว่าการป้องกัน Spectre ที่มีอยู่ในปัจจุบันยังไม่เพียงพอ โดยเฉพาะในระบบที่มีการใช้งาน VM อย่างแพร่หลาย ✅ ช่องโหว่ VMSCAPE ที่ค้นพบโดย ETH Zurich ➡️ เป็นการโจมตีแบบ Spectre-BTI ที่ใช้ branch predictor เพื่อขโมยข้อมูล ➡️ ไม่ต้องแก้ไข host software ก็สามารถเจาะข้อมูลได้ ➡️ ส่งผลกระทบต่อระบบที่ใช้ KVM/QEMU บน AMD Zen 1–5 และ Intel Coffee Lake ✅ การลงทะเบียนและการตอบสนอง ➡️ ช่องโหว่นี้ได้รับรหัส CVE-2025-40300 ➡️ AMD และ Intel เตรียมออกเอกสารและแพตช์เพื่อแก้ไข ➡️ Linux community เตรียมออก mitigation พร้อมกับการเปิดเผยช่องโหว่ ✅ วิธีแก้ไขที่เสนอโดยนักวิจัย ➡️ ใช้ IBPB เพื่อ flush branch predictor ทุกครั้งที่ VMEXIT ➡️ ทดสอบแล้วพบว่าไม่มีผลกระทบต่อประสิทธิภาพ ➡️ เป็นวิธีที่สามารถนำไปใช้ได้จริงในระบบคลาวด์ ✅ ความหมายต่อวงการคลาวด์และความปลอดภัย ➡️ แสดงให้เห็นว่า VM isolation ยังไม่ปลอดภัยพอ ➡️ การป้องกัน Spectre ที่มีอยู่ยังไม่ครอบคลุมทุกกรณี ➡️ จำเป็นต้องมีการปรับปรุงระบบความปลอดภัยในระดับสถาปัตยกรรม https://www.techradar.com/pro/security/new-spectre-based-cpu-vulnerability-allows-guests-to-steal-sensitive-data-from-the-cloud
    0 Comments 0 Shares 160 Views 0 Reviews
  • เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย

    มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science)

    จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ

    เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021

    SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์

    ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์

    NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย

    การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC
    เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025
    ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops
    ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า

    เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance
    บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร
    แสดงผลแบบ visualization และค้นหาด้วย history ID
    ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง

    เป้าหมายของระบบนี้
    ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้
    ลดความผิดพลาดจากการบันทึกด้วยมือ
    เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย

    แผนการขยายในอนาคต
    NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์
    ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data
    อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย

    https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    🎙️ เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science) จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021 SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์ ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์ NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย ✅ การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC ➡️ เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025 ➡️ ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops ➡️ ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า ✅ เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance ➡️ บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร ➡️ แสดงผลแบบ visualization และค้นหาด้วย history ID ➡️ ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง ✅ เป้าหมายของระบบนี้ ➡️ ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้ ➡️ ลดความผิดพลาดจากการบันทึกด้วยมือ ➡️ เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย ✅ แผนการขยายในอนาคต ➡️ NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์ ➡️ ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data ➡️ อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    WWW.TECHPOWERUP.COM
    NEC Provides Computing Power for OCTOPUS Supercomputer at Osaka University
    The University of Osaka D3 Center will begin trial operations of the "Osaka University Compute and sTOrage Platform Urging open Science" (OCTOPUS), a computational and data platform promoting open science built by NEC Corporation (NEC; TSE: 6701), starting this September, with full-scale operations ...
    0 Comments 0 Shares 143 Views 0 Reviews
  • เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel

    Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm

    การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล

    Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU

    การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024

    การลาออกของ Ronak Singhal
    ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน
    เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี
    เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration

    การปรับโครงสร้างองค์กรของ Intel
    CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก
    แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG
    ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti

    การเปลี่ยนแปลงในทีม Data Center
    Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm
    Justin Hotard ลาออกไปเป็น CEO ของ Nokia
    Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off

    บทบาทของ Singhal ที่มีผลต่อ Intel
    ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร
    มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture
    เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI

    https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    🎙️ เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024 ✅ การลาออกของ Ronak Singhal ➡️ ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน ➡️ เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี ➡️ เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration ✅ การปรับโครงสร้างองค์กรของ Intel ➡️ CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก ➡️ แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG ➡️ ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti ✅ การเปลี่ยนแปลงในทีม Data Center ➡️ Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm ➡️ Justin Hotard ลาออกไปเป็น CEO ของ Nokia ➡️ Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off ✅ บทบาทของ Singhal ที่มีผลต่อ Intel ➡️ ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร ➡️ มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture ➡️ เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    0 Comments 0 Shares 134 Views 0 Reviews
  • เรื่องเล่าจาก 3 ล้าน IOPS สู่ 100 ล้าน IOPS: เมื่อ SSD กลายเป็นหัวใจของการประมวลผล AI

    ในปี 2027 Kioxia เตรียมเปิดตัว SSD ที่สามารถทำงานได้ถึง 100 ล้าน IOPS (Input/Output Operations Per Second) ซึ่งมากกว่าความสามารถของ SSD ปัจจุบันถึง 33 เท่า โดยจะใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผล AI โดยเฉพาะ

    SSD รุ่นใหม่นี้จะเชื่อมต่อผ่าน PCIe 7.0 แบบ peer-to-peer กับ GPU โดยตรง ซึ่งช่วยลด latency และเพิ่ม throughput อย่างมหาศาล เหมาะกับงาน AI ที่ต้องอ่านข้อมูลแบบสุ่มขนาดเล็ก เช่น embeddings, model weights หรือ database entries

    Kioxia วางแผนใช้ XL-Flash ซึ่งเป็น NAND แบบ SLC ที่มี latency ต่ำและ endurance สูง โดยอาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น ซึ่งจะต้องใช้ controller แบบพิเศษ และอาจต้องใช้เทคโนโลยีใหม่อย่าง High Bandwidth Flash (HBF) ที่รวม NAND หลายตัวไว้ใน stack เดียว

    แม้จะมีความท้าทายด้านการออกแบบ เช่น การจัดการ channel bandwidth, queue depth และ firmware แต่ Kioxia เชื่อว่าการพัฒนา SSD แบบนี้จะเป็นก้าวสำคัญในการรองรับ AI server รุ่นใหม่ที่ต้องการความเร็วระดับ “Giga IOPS”

    ความร่วมมือระหว่าง Kioxia และ Nvidia
    พัฒนา SSD ที่มีความเร็ว 100 ล้าน IOPS สำหรับ AI server
    ใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผลแบบ peer-to-peer
    เป้าหมายคือการเพิ่มประสิทธิภาพการอ่านข้อมูลแบบสุ่มขนาดเล็ก

    เทคโนโลยีที่ใช้ใน SSD รุ่นใหม่
    ใช้ XL-Flash ซึ่งเป็น SLC NAND ที่มี latency ต่ำ
    อาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น
    เชื่อมต่อผ่าน PCIe 7.0 และอาจใช้ multi-controller module

    ความสำคัญของ 512B IOPS สำหรับ AI
    AI workloads ต้องการการอ่านข้อมูลแบบสุ่มขนาดเล็กมาก
    512-byte blocks ให้ latency ต่ำกว่า 4K blocks
    การเพิ่ม sequential bandwidth ง่ายกว่าการลด latency

    ทางเลือกใหม่: High Bandwidth Flash (HBF)
    ใช้ TSVs และ microbumps เชื่อม NAND หลายตัวใน stack เดียว
    เพิ่ม parallelism และลด bottleneck ของ controller
    อาจเป็นทางออกสำหรับ SSD ที่ต้องการความเร็วระดับสูง

    https://www.tomshardware.com/tech-industry/nvidia-and-kioxia-target-100-million-iops-ssd-in-2027-33-times-more-than-existing-drives-for-exclusive-use-in-ai-servers
    🎙️ เรื่องเล่าจาก 3 ล้าน IOPS สู่ 100 ล้าน IOPS: เมื่อ SSD กลายเป็นหัวใจของการประมวลผล AI ในปี 2027 Kioxia เตรียมเปิดตัว SSD ที่สามารถทำงานได้ถึง 100 ล้าน IOPS (Input/Output Operations Per Second) ซึ่งมากกว่าความสามารถของ SSD ปัจจุบันถึง 33 เท่า โดยจะใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผล AI โดยเฉพาะ SSD รุ่นใหม่นี้จะเชื่อมต่อผ่าน PCIe 7.0 แบบ peer-to-peer กับ GPU โดยตรง ซึ่งช่วยลด latency และเพิ่ม throughput อย่างมหาศาล เหมาะกับงาน AI ที่ต้องอ่านข้อมูลแบบสุ่มขนาดเล็ก เช่น embeddings, model weights หรือ database entries Kioxia วางแผนใช้ XL-Flash ซึ่งเป็น NAND แบบ SLC ที่มี latency ต่ำและ endurance สูง โดยอาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น ซึ่งจะต้องใช้ controller แบบพิเศษ และอาจต้องใช้เทคโนโลยีใหม่อย่าง High Bandwidth Flash (HBF) ที่รวม NAND หลายตัวไว้ใน stack เดียว แม้จะมีความท้าทายด้านการออกแบบ เช่น การจัดการ channel bandwidth, queue depth และ firmware แต่ Kioxia เชื่อว่าการพัฒนา SSD แบบนี้จะเป็นก้าวสำคัญในการรองรับ AI server รุ่นใหม่ที่ต้องการความเร็วระดับ “Giga IOPS” ✅ ความร่วมมือระหว่าง Kioxia และ Nvidia ➡️ พัฒนา SSD ที่มีความเร็ว 100 ล้าน IOPS สำหรับ AI server ➡️ ใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผลแบบ peer-to-peer ➡️ เป้าหมายคือการเพิ่มประสิทธิภาพการอ่านข้อมูลแบบสุ่มขนาดเล็ก ✅ เทคโนโลยีที่ใช้ใน SSD รุ่นใหม่ ➡️ ใช้ XL-Flash ซึ่งเป็น SLC NAND ที่มี latency ต่ำ ➡️ อาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น ➡️ เชื่อมต่อผ่าน PCIe 7.0 และอาจใช้ multi-controller module ✅ ความสำคัญของ 512B IOPS สำหรับ AI ➡️ AI workloads ต้องการการอ่านข้อมูลแบบสุ่มขนาดเล็กมาก ➡️ 512-byte blocks ให้ latency ต่ำกว่า 4K blocks ➡️ การเพิ่ม sequential bandwidth ง่ายกว่าการลด latency ✅ ทางเลือกใหม่: High Bandwidth Flash (HBF) ➡️ ใช้ TSVs และ microbumps เชื่อม NAND หลายตัวใน stack เดียว ➡️ เพิ่ม parallelism และลด bottleneck ของ controller ➡️ อาจเป็นทางออกสำหรับ SSD ที่ต้องการความเร็วระดับสูง https://www.tomshardware.com/tech-industry/nvidia-and-kioxia-target-100-million-iops-ssd-in-2027-33-times-more-than-existing-drives-for-exclusive-use-in-ai-servers
    0 Comments 0 Shares 119 Views 0 Reviews
  • “เวียดนามสั่นสะเทือนจากการเจาะฐานข้อมูลเครดิตระดับชาติ — กลุ่ม ShinyHunters ถูกสงสัยอยู่เบื้องหลัง”

    เมื่อวันที่ 11 กันยายน 2025 เวียดนามเผชิญกับเหตุการณ์ไซเบอร์ครั้งใหญ่ เมื่อฐานข้อมูลของศูนย์ข้อมูลเครดิตแห่งชาติ (CIC) ซึ่งอยู่ภายใต้ธนาคารกลางของประเทศ ถูกโจมตีโดยแฮกเกอร์ โดยมีการเข้าถึงข้อมูลส่วนบุคคลอย่างไม่ถูกต้อง และยังอยู่ระหว่างการประเมินความเสียหายทั้งหมด

    CIC เป็นหน่วยงานที่เก็บข้อมูลสำคัญ เช่น รายละเอียดส่วนตัว ข้อมูลการชำระเงิน เครดิตการ์ด การวิเคราะห์ความเสี่ยง และประวัติทางการเงินของประชาชนและองค์กรทั่วประเทศ โดยเบื้องต้นมีการสงสัยว่ากลุ่มแฮกเกอร์นานาชาติชื่อ ShinyHunters ซึ่งเคยโจมตีบริษัทใหญ่ระดับโลกอย่าง Google, Microsoft และ Qantas อาจอยู่เบื้องหลังการโจมตีครั้งนี้

    แม้ระบบบริการข้อมูลเครดิตยังคงทำงานได้ตามปกติ แต่เว็บไซต์ของ CIC ไม่สามารถเข้าถึงได้ในช่วงเวลาที่เกิดเหตุ และยังไม่มีการเปิดเผยจำนวนบัญชีที่ได้รับผลกระทบอย่างชัดเจน

    หน่วยงานด้านความมั่นคงไซเบอร์ของเวียดนาม เช่น VNCERT และ A05 ได้เข้ามาร่วมตรวจสอบและดำเนินมาตรการตอบโต้ พร้อมทั้งเรียกร้องให้ประชาชนและองค์กรไม่ดาวน์โหลดหรือเผยแพร่ข้อมูลที่รั่วไหล และให้ปฏิบัติตามมาตรฐาน TCVN 14423:2025 เพื่อเสริมความปลอดภัยของระบบสารสนเทศที่สำคัญ

    รายละเอียดเหตุการณ์การโจมตีข้อมูลเครดิตในเวียดนาม
    เกิดขึ้นกับศูนย์ข้อมูลเครดิตแห่งชาติ (CIC) ภายใต้ธนาคารกลางเวียดนาม
    ข้อมูลที่ถูกเข้าถึงรวมถึงข้อมูลส่วนบุคคล การชำระเงิน และเครดิตการ์ด
    สงสัยว่ากลุ่ม ShinyHunters อยู่เบื้องหลังการโจมตี
    ระบบบริการยังคงทำงานได้ตามปกติ แต่เว็บไซต์ CIC ไม่สามารถเข้าถึงได้

    การตอบสนองจากหน่วยงานรัฐ
    VNCERT และ A05 เข้าตรวจสอบและดำเนินมาตรการตอบโต้
    มีการเก็บหลักฐานและข้อมูลเพื่อดำเนินการตามกฎหมาย
    แนะนำให้หน่วยงานต่าง ๆ ปฏิบัติตามมาตรฐาน TCVN 14423:2025
    เตือนประชาชนไม่ให้ดาวน์โหลดหรือเผยแพร่ข้อมูลที่รั่วไหล

    ข้อมูลเสริมจากภายนอก
    ShinyHunters เคยโจมตีบริษัทใหญ่ระดับโลกหลายแห่งตั้งแต่ปี 2020
    รายงานจาก Viettel ระบุว่าเวียดนามมีบัญชีรั่วไหลกว่า 14.5 ล้านบัญชีในปี 2024
    คิดเป็น 12% ของการรั่วไหลข้อมูลทั่วโลก — สะท้อนความเปราะบางของระบบ
    กลุ่มแฮกเกอร์เสนอขายข้อมูลกว่า 160 ล้านรายการในฟอรั่มใต้ดิน

    https://www.thestar.com.my/tech/tech-news/2025/09/12/vietnam-investigates-cyberattack-on-creditors-data
    🔓 “เวียดนามสั่นสะเทือนจากการเจาะฐานข้อมูลเครดิตระดับชาติ — กลุ่ม ShinyHunters ถูกสงสัยอยู่เบื้องหลัง” เมื่อวันที่ 11 กันยายน 2025 เวียดนามเผชิญกับเหตุการณ์ไซเบอร์ครั้งใหญ่ เมื่อฐานข้อมูลของศูนย์ข้อมูลเครดิตแห่งชาติ (CIC) ซึ่งอยู่ภายใต้ธนาคารกลางของประเทศ ถูกโจมตีโดยแฮกเกอร์ โดยมีการเข้าถึงข้อมูลส่วนบุคคลอย่างไม่ถูกต้อง และยังอยู่ระหว่างการประเมินความเสียหายทั้งหมด CIC เป็นหน่วยงานที่เก็บข้อมูลสำคัญ เช่น รายละเอียดส่วนตัว ข้อมูลการชำระเงิน เครดิตการ์ด การวิเคราะห์ความเสี่ยง และประวัติทางการเงินของประชาชนและองค์กรทั่วประเทศ โดยเบื้องต้นมีการสงสัยว่ากลุ่มแฮกเกอร์นานาชาติชื่อ ShinyHunters ซึ่งเคยโจมตีบริษัทใหญ่ระดับโลกอย่าง Google, Microsoft และ Qantas อาจอยู่เบื้องหลังการโจมตีครั้งนี้ แม้ระบบบริการข้อมูลเครดิตยังคงทำงานได้ตามปกติ แต่เว็บไซต์ของ CIC ไม่สามารถเข้าถึงได้ในช่วงเวลาที่เกิดเหตุ และยังไม่มีการเปิดเผยจำนวนบัญชีที่ได้รับผลกระทบอย่างชัดเจน หน่วยงานด้านความมั่นคงไซเบอร์ของเวียดนาม เช่น VNCERT และ A05 ได้เข้ามาร่วมตรวจสอบและดำเนินมาตรการตอบโต้ พร้อมทั้งเรียกร้องให้ประชาชนและองค์กรไม่ดาวน์โหลดหรือเผยแพร่ข้อมูลที่รั่วไหล และให้ปฏิบัติตามมาตรฐาน TCVN 14423:2025 เพื่อเสริมความปลอดภัยของระบบสารสนเทศที่สำคัญ ✅ รายละเอียดเหตุการณ์การโจมตีข้อมูลเครดิตในเวียดนาม ➡️ เกิดขึ้นกับศูนย์ข้อมูลเครดิตแห่งชาติ (CIC) ภายใต้ธนาคารกลางเวียดนาม ➡️ ข้อมูลที่ถูกเข้าถึงรวมถึงข้อมูลส่วนบุคคล การชำระเงิน และเครดิตการ์ด ➡️ สงสัยว่ากลุ่ม ShinyHunters อยู่เบื้องหลังการโจมตี ➡️ ระบบบริการยังคงทำงานได้ตามปกติ แต่เว็บไซต์ CIC ไม่สามารถเข้าถึงได้ ✅ การตอบสนองจากหน่วยงานรัฐ ➡️ VNCERT และ A05 เข้าตรวจสอบและดำเนินมาตรการตอบโต้ ➡️ มีการเก็บหลักฐานและข้อมูลเพื่อดำเนินการตามกฎหมาย ➡️ แนะนำให้หน่วยงานต่าง ๆ ปฏิบัติตามมาตรฐาน TCVN 14423:2025 ➡️ เตือนประชาชนไม่ให้ดาวน์โหลดหรือเผยแพร่ข้อมูลที่รั่วไหล ✅ ข้อมูลเสริมจากภายนอก ➡️ ShinyHunters เคยโจมตีบริษัทใหญ่ระดับโลกหลายแห่งตั้งแต่ปี 2020 ➡️ รายงานจาก Viettel ระบุว่าเวียดนามมีบัญชีรั่วไหลกว่า 14.5 ล้านบัญชีในปี 2024 ➡️ คิดเป็น 12% ของการรั่วไหลข้อมูลทั่วโลก — สะท้อนความเปราะบางของระบบ ➡️ กลุ่มแฮกเกอร์เสนอขายข้อมูลกว่า 160 ล้านรายการในฟอรั่มใต้ดิน https://www.thestar.com.my/tech/tech-news/2025/09/12/vietnam-investigates-cyberattack-on-creditors-data
    WWW.THESTAR.COM.MY
    Vietnam investigates cyberattack on creditors data
    HANOI (Reuters) - A large database in Vietnam containing data on creditors has been attacked by hackers, and the impact of the breach is still being assessed, according to the country's cybersecurity agency as well as a document seen by Reuters.
    0 Comments 0 Shares 183 Views 0 Reviews
  • “มัลแวร์ยุคใหม่ไม่ต้องคลิก — เมื่อ AI ถูกหลอกด้วยคำสั่งซ่อนในไฟล์ Word และแมโคร”

    ภัยคุกคามไซเบอร์กำลังเปลี่ยนโฉมหน้าอย่างเงียบ ๆ และน่ากลัวกว่าที่เคย เมื่อผู้โจมตีเริ่มใช้เทคนิค “AI Prompt Injection” ผ่านไฟล์เอกสารทั่วไป เช่น Word, PDF หรือแม้แต่เรซูเม่ โดยฝังคำสั่งลับไว้ในแมโครหรือ metadata เพื่อหลอกให้ระบบ AI ที่ใช้วิเคราะห์ไฟล์หรือช่วยงานอัตโนมัติทำตามคำสั่งของผู้โจมตีโดยไม่รู้ตัว

    รายงานล่าสุดจาก CSO Online เปิดเผยว่าเทคนิคนี้ถูกใช้จริงแล้วในหลายกรณี เช่น ช่องโหว่ EchoLeak (CVE-2025-32711) ที่พบใน Microsoft 365 Copilot ซึ่งสามารถฝังคำสั่งในอีเมลหรือไฟล์ Word ให้ Copilot ประมวลผลและรันคำสั่งโดยอัตโนมัติ โดยไม่ต้องคลิกหรือเปิดไฟล์เลยด้วยซ้ำ — นี่คือ “zero-click prompt injection” ที่แท้จริง

    อีกกรณีคือ CurXecute (CVE-2025-54135) ซึ่งโจมตี Cursor IDE โดยใช้ prompt injection ผ่านไฟล์ config ที่ถูกเขียนใหม่แบบเงียบ ๆ เพื่อรันคำสั่งในเครื่องของนักพัฒนาโดยไม่รู้ตัว และ Skynet malware ที่ใช้เทคนิค “Jedi mind trick” เพื่อหลอก AI scanner ให้มองข้ามมัลแวร์

    นักวิจัยด้านความปลอดภัยเตือนว่า prompt injection ไม่ใช่แค่เรื่องของการหลอกให้ AI ตอบผิด — แต่มันคือการควบคุมพฤติกรรมของระบบ AI ทั้งชุด เช่น การสั่งให้เปิดช่องหลัง, ส่งข้อมูลลับ, หรือแม้แต่รันโค้ดอันตราย โดยที่ผู้ใช้ไม่รู้เลยว่ามีคำสั่งซ่อนอยู่ในไฟล์

    รูปแบบการโจมตีแบบใหม่ด้วย AI Prompt Injection
    ฝังคำสั่งในแมโคร, VBA script หรือ metadata ของไฟล์ เช่น DOCX, PDF, EXIF
    เมื่อ AI parser อ่านไฟล์ จะรันคำสั่งโดยไม่ต้องคลิกหรือเปิดไฟล์
    ใช้เทคนิค ASCII smuggling, ฟอนต์ขนาดเล็ก, สีพื้นหลังกลืนกับข้อความ
    ตัวอย่างเช่น EchoLeak ใน Microsoft 365 Copilot และ CurXecute ใน Cursor IDE

    ผลกระทบต่อระบบ AI และองค์กร
    AI ถูกหลอกให้ส่งข้อมูลลับ, เปิดช่องทางเข้าระบบ หรือรันโค้ดอันตราย
    Skynet malware ใช้ prompt injection เพื่อหลอก AI scanner ให้มองข้ามมัลแวร์
    ผู้โจมตีสามารถฝังคำสั่งในเรซูเม่เพื่อให้ AI job portal ดันขึ้นอันดับต้น
    การโจมตีแบบนี้ไม่ต้องใช้ payload แบบเดิม — ใช้คำสั่งแทน

    แนวทางป้องกันที่แนะนำ
    ตรวจสอบไฟล์จากแหล่งที่ไม่เชื่อถือด้วย sandbox และ static analysis
    ใช้ Content Disarm & Reconstruction (CDR) เพื่อลบเนื้อหาที่ฝังคำสั่ง
    แยกการรันแมโครออกจากระบบหลัก เช่น ใช้ protected view หรือ sandbox
    สร้างระบบ AI ที่มี guardrails และการตรวจสอบ input/output อย่างเข้มงวด

    ข้อมูลเสริมจากภายนอก
    Prompt injection เคยเป็นแค่การทดลอง แต่ตอนนี้เริ่มถูกใช้จริงในมัลแวร์
    ช่องโหว่แบบ zero-click ทำให้ผู้ใช้ไม่รู้ตัวเลยว่าถูกโจมตี
    AI agent ที่เชื่อมต่อกับระบบภายนอก เช่น Slack, GitHub, database ยิ่งเสี่ย
    นักวิจัยแนะนำให้องค์กรปฏิบัติต่อ AI pipeline เหมือน CI/CD pipeline — ต้องมี Zero Trust

    https://www.csoonline.com/article/4053107/ai-prompt-injection-gets-real-with-macros-the-latest-hidden-threat.html
    🧠 “มัลแวร์ยุคใหม่ไม่ต้องคลิก — เมื่อ AI ถูกหลอกด้วยคำสั่งซ่อนในไฟล์ Word และแมโคร” ภัยคุกคามไซเบอร์กำลังเปลี่ยนโฉมหน้าอย่างเงียบ ๆ และน่ากลัวกว่าที่เคย เมื่อผู้โจมตีเริ่มใช้เทคนิค “AI Prompt Injection” ผ่านไฟล์เอกสารทั่วไป เช่น Word, PDF หรือแม้แต่เรซูเม่ โดยฝังคำสั่งลับไว้ในแมโครหรือ metadata เพื่อหลอกให้ระบบ AI ที่ใช้วิเคราะห์ไฟล์หรือช่วยงานอัตโนมัติทำตามคำสั่งของผู้โจมตีโดยไม่รู้ตัว รายงานล่าสุดจาก CSO Online เปิดเผยว่าเทคนิคนี้ถูกใช้จริงแล้วในหลายกรณี เช่น ช่องโหว่ EchoLeak (CVE-2025-32711) ที่พบใน Microsoft 365 Copilot ซึ่งสามารถฝังคำสั่งในอีเมลหรือไฟล์ Word ให้ Copilot ประมวลผลและรันคำสั่งโดยอัตโนมัติ โดยไม่ต้องคลิกหรือเปิดไฟล์เลยด้วยซ้ำ — นี่คือ “zero-click prompt injection” ที่แท้จริง อีกกรณีคือ CurXecute (CVE-2025-54135) ซึ่งโจมตี Cursor IDE โดยใช้ prompt injection ผ่านไฟล์ config ที่ถูกเขียนใหม่แบบเงียบ ๆ เพื่อรันคำสั่งในเครื่องของนักพัฒนาโดยไม่รู้ตัว และ Skynet malware ที่ใช้เทคนิค “Jedi mind trick” เพื่อหลอก AI scanner ให้มองข้ามมัลแวร์ นักวิจัยด้านความปลอดภัยเตือนว่า prompt injection ไม่ใช่แค่เรื่องของการหลอกให้ AI ตอบผิด — แต่มันคือการควบคุมพฤติกรรมของระบบ AI ทั้งชุด เช่น การสั่งให้เปิดช่องหลัง, ส่งข้อมูลลับ, หรือแม้แต่รันโค้ดอันตราย โดยที่ผู้ใช้ไม่รู้เลยว่ามีคำสั่งซ่อนอยู่ในไฟล์ ✅ รูปแบบการโจมตีแบบใหม่ด้วย AI Prompt Injection ➡️ ฝังคำสั่งในแมโคร, VBA script หรือ metadata ของไฟล์ เช่น DOCX, PDF, EXIF ➡️ เมื่อ AI parser อ่านไฟล์ จะรันคำสั่งโดยไม่ต้องคลิกหรือเปิดไฟล์ ➡️ ใช้เทคนิค ASCII smuggling, ฟอนต์ขนาดเล็ก, สีพื้นหลังกลืนกับข้อความ ➡️ ตัวอย่างเช่น EchoLeak ใน Microsoft 365 Copilot และ CurXecute ใน Cursor IDE ✅ ผลกระทบต่อระบบ AI และองค์กร ➡️ AI ถูกหลอกให้ส่งข้อมูลลับ, เปิดช่องทางเข้าระบบ หรือรันโค้ดอันตราย ➡️ Skynet malware ใช้ prompt injection เพื่อหลอก AI scanner ให้มองข้ามมัลแวร์ ➡️ ผู้โจมตีสามารถฝังคำสั่งในเรซูเม่เพื่อให้ AI job portal ดันขึ้นอันดับต้น ➡️ การโจมตีแบบนี้ไม่ต้องใช้ payload แบบเดิม — ใช้คำสั่งแทน ✅ แนวทางป้องกันที่แนะนำ ➡️ ตรวจสอบไฟล์จากแหล่งที่ไม่เชื่อถือด้วย sandbox และ static analysis ➡️ ใช้ Content Disarm & Reconstruction (CDR) เพื่อลบเนื้อหาที่ฝังคำสั่ง ➡️ แยกการรันแมโครออกจากระบบหลัก เช่น ใช้ protected view หรือ sandbox ➡️ สร้างระบบ AI ที่มี guardrails และการตรวจสอบ input/output อย่างเข้มงวด ✅ ข้อมูลเสริมจากภายนอก ➡️ Prompt injection เคยเป็นแค่การทดลอง แต่ตอนนี้เริ่มถูกใช้จริงในมัลแวร์ ➡️ ช่องโหว่แบบ zero-click ทำให้ผู้ใช้ไม่รู้ตัวเลยว่าถูกโจมตี ➡️ AI agent ที่เชื่อมต่อกับระบบภายนอก เช่น Slack, GitHub, database ยิ่งเสี่ย ➡️ นักวิจัยแนะนำให้องค์กรปฏิบัติต่อ AI pipeline เหมือน CI/CD pipeline — ต้องมี Zero Trust https://www.csoonline.com/article/4053107/ai-prompt-injection-gets-real-with-macros-the-latest-hidden-threat.html
    WWW.CSOONLINE.COM
    AI prompt injection gets real — with macros the latest hidden threat
    Attackers are evolving their malware delivery tactics by weaponing malicious prompts embedded in document macros to hack AI systems.
    0 Comments 0 Shares 217 Views 0 Reviews
  • “ศาลสหรัฐฯ ตัดสิน Verizon ผิดฐานขายข้อมูลตำแหน่งลูกค้าโดยไม่ขออนุญาต — จุดเปลี่ยนสำคัญของสิทธิความเป็นส่วนตัวในยุคดิจิทัล”

    ในคดีที่อาจกลายเป็นหมุดหมายสำคัญของการคุ้มครองข้อมูลส่วนบุคคล ศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ได้มีคำตัดสินเมื่อวันที่ 11 กันยายน 2025 ว่า Verizon กระทำผิดจริงจากการขายข้อมูลตำแหน่งของลูกค้าโดยไม่ได้รับความยินยอมอย่างชัดเจน โดยยืนยันคำสั่งปรับจาก FCC เป็นเงิน 46.9 ล้านดอลลาร์ ซึ่ง Verizon พยายามยื่นอุทธรณ์เพื่อยกเลิกแต่ไม่สำเร็จ

    คดีนี้ย้อนกลับไปถึงปี 2018 เมื่อมีการเปิดเผยว่า Verizon และผู้ให้บริการรายใหญ่อื่น ๆ เช่น AT&T และ T-Mobile ได้ขายข้อมูลตำแหน่งแบบเรียลไทม์ของลูกค้าให้กับบริษัทตัวกลาง เช่น LocationSmart และ Zumigo ซึ่งนำข้อมูลไปขายต่อให้กับหน่วยงานต่าง ๆ รวมถึงบริษัทเอกชนและเจ้าหน้าที่รัฐ โดยไม่มีการตรวจสอบเอกสารหรือขออนุญาตจากลูกค้าอย่างเหมาะสม

    Verizon อ้างว่าข้อมูลตำแหน่งของอุปกรณ์ไม่อยู่ภายใต้การคุ้มครองตามกฎหมาย Communications Act แต่ศาลไม่เห็นด้วย โดยระบุว่าข้อมูลดังกล่าวถือเป็น “customer proprietary network information” ซึ่งต้องได้รับการคุ้มครองตามกฎหมาย และ Verizon เองก็เลือกที่จะจ่ายค่าปรับแทนที่จะขอสิทธิพิจารณาคดีโดยคณะลูกขุน ทำให้ข้ออ้างเรื่องการละเมิดสิทธิการพิจารณาคดีไม่สามารถนำมาใช้ได้

    แม้ AT&T จะชนะคดีในศาลเขตที่ 5 ซึ่งมีแนวโน้มอนุรักษ์นิยมมากกว่า แต่คำตัดสินที่แตกต่างกันในแต่ละเขตศาลทำให้คดีนี้อาจต้องขึ้นสู่ศาลสูงสุดของสหรัฐฯ เพื่อวินิจฉัยให้ชัดเจนว่า FCC มีอำนาจในการลงโทษบริษัทโทรคมนาคมในกรณีละเมิดข้อมูลส่วนบุคคลหรือไม่

    คำตัดสินของศาลอุทธรณ์สหรัฐฯ เขตที่ 2
    ยืนยันคำสั่งปรับ Verizon เป็นเงิน 46.9 ล้านดอลลาร์
    ปฏิเสธข้ออ้างเรื่องสิทธิการพิจารณาคดีโดยคณะลูกขุน
    ระบุว่าข้อมูลตำแหน่งของอุปกรณ์อยู่ภายใต้การคุ้มครองตาม Communications Act
    Verizon เลือกจ่ายค่าปรับแทนการขอพิจารณาคดี ทำให้เสียสิทธิ์การโต้แย้ง

    พฤติกรรมที่นำไปสู่การลงโทษ
    Verizon ขายข้อมูลตำแหน่งผ่านตัวกลางโดยไม่ตรวจสอบเอกสารหรือขออนุญาต
    บริษัทตัวกลาง เช่น Securus Technologies เปิดช่องให้เจ้าหน้าที่รัฐเข้าถึงข้อมูลโดยไม่มีหมายศาล
    มีกรณีที่นายอำเภอในรัฐ Missouri เข้าถึงข้อมูลลูกค้าโดยไม่มีเอกสารทางกฎหมาย
    ระบบการขออนุญาตถูก “มอบหมาย” ให้บริษัทตัวกลางแทนที่จะทำโดย Verizon เอง

    ผลกระทบต่ออุตสาหกรรมโทรคมนาคม
    FCC เคยปรับผู้ให้บริการรายใหญ่รวมเกือบ 200 ล้านดอลลาร์ในปี 2024
    AT&T ชนะคดีในศาลเขตที่ 5 ขณะที่ T-Mobile แพ้ในศาล DC Circuit
    ความขัดแย้งระหว่างเขตศาลอาจนำไปสู่การพิจารณาโดยศาลสูงสุด
    หากศาลสูงรับเรื่อง อาจเปลี่ยนขอบเขตอำนาจของ FCC ในการลงโทษ

    ข้อมูลเสริมจากภายนอก
    ข้อมูลตำแหน่งเคยถูกใช้ในบริการช่วยเหลือฉุกเฉิน, ป้องกันการค้ามนุษย์ และการตรวจจับการฉ้อโกง
    FCC ระบุว่าบริษัทโทรคมนาคมยังคงดำเนินโครงการโดยไม่มีมาตรการป้องกันที่เพียงพอ
    การขายข้อมูลให้กับ bounty hunters และบริษัทเอกชนสร้างความไม่พอใจในสภาคองเกรส
    การเปิดเผยในปี 2018 โดย New York Times เป็นจุดเริ่มต้นของการสอบสวน

    https://arstechnica.com/tech-policy/2025/09/court-rejects-verizon-claim-that-selling-location-data-without-consent-is-legal/
    📍 “ศาลสหรัฐฯ ตัดสิน Verizon ผิดฐานขายข้อมูลตำแหน่งลูกค้าโดยไม่ขออนุญาต — จุดเปลี่ยนสำคัญของสิทธิความเป็นส่วนตัวในยุคดิจิทัล” ในคดีที่อาจกลายเป็นหมุดหมายสำคัญของการคุ้มครองข้อมูลส่วนบุคคล ศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ได้มีคำตัดสินเมื่อวันที่ 11 กันยายน 2025 ว่า Verizon กระทำผิดจริงจากการขายข้อมูลตำแหน่งของลูกค้าโดยไม่ได้รับความยินยอมอย่างชัดเจน โดยยืนยันคำสั่งปรับจาก FCC เป็นเงิน 46.9 ล้านดอลลาร์ ซึ่ง Verizon พยายามยื่นอุทธรณ์เพื่อยกเลิกแต่ไม่สำเร็จ คดีนี้ย้อนกลับไปถึงปี 2018 เมื่อมีการเปิดเผยว่า Verizon และผู้ให้บริการรายใหญ่อื่น ๆ เช่น AT&T และ T-Mobile ได้ขายข้อมูลตำแหน่งแบบเรียลไทม์ของลูกค้าให้กับบริษัทตัวกลาง เช่น LocationSmart และ Zumigo ซึ่งนำข้อมูลไปขายต่อให้กับหน่วยงานต่าง ๆ รวมถึงบริษัทเอกชนและเจ้าหน้าที่รัฐ โดยไม่มีการตรวจสอบเอกสารหรือขออนุญาตจากลูกค้าอย่างเหมาะสม Verizon อ้างว่าข้อมูลตำแหน่งของอุปกรณ์ไม่อยู่ภายใต้การคุ้มครองตามกฎหมาย Communications Act แต่ศาลไม่เห็นด้วย โดยระบุว่าข้อมูลดังกล่าวถือเป็น “customer proprietary network information” ซึ่งต้องได้รับการคุ้มครองตามกฎหมาย และ Verizon เองก็เลือกที่จะจ่ายค่าปรับแทนที่จะขอสิทธิพิจารณาคดีโดยคณะลูกขุน ทำให้ข้ออ้างเรื่องการละเมิดสิทธิการพิจารณาคดีไม่สามารถนำมาใช้ได้ แม้ AT&T จะชนะคดีในศาลเขตที่ 5 ซึ่งมีแนวโน้มอนุรักษ์นิยมมากกว่า แต่คำตัดสินที่แตกต่างกันในแต่ละเขตศาลทำให้คดีนี้อาจต้องขึ้นสู่ศาลสูงสุดของสหรัฐฯ เพื่อวินิจฉัยให้ชัดเจนว่า FCC มีอำนาจในการลงโทษบริษัทโทรคมนาคมในกรณีละเมิดข้อมูลส่วนบุคคลหรือไม่ ✅ คำตัดสินของศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ➡️ ยืนยันคำสั่งปรับ Verizon เป็นเงิน 46.9 ล้านดอลลาร์ ➡️ ปฏิเสธข้ออ้างเรื่องสิทธิการพิจารณาคดีโดยคณะลูกขุน ➡️ ระบุว่าข้อมูลตำแหน่งของอุปกรณ์อยู่ภายใต้การคุ้มครองตาม Communications Act ➡️ Verizon เลือกจ่ายค่าปรับแทนการขอพิจารณาคดี ทำให้เสียสิทธิ์การโต้แย้ง ✅ พฤติกรรมที่นำไปสู่การลงโทษ ➡️ Verizon ขายข้อมูลตำแหน่งผ่านตัวกลางโดยไม่ตรวจสอบเอกสารหรือขออนุญาต ➡️ บริษัทตัวกลาง เช่น Securus Technologies เปิดช่องให้เจ้าหน้าที่รัฐเข้าถึงข้อมูลโดยไม่มีหมายศาล ➡️ มีกรณีที่นายอำเภอในรัฐ Missouri เข้าถึงข้อมูลลูกค้าโดยไม่มีเอกสารทางกฎหมาย ➡️ ระบบการขออนุญาตถูก “มอบหมาย” ให้บริษัทตัวกลางแทนที่จะทำโดย Verizon เอง ✅ ผลกระทบต่ออุตสาหกรรมโทรคมนาคม ➡️ FCC เคยปรับผู้ให้บริการรายใหญ่รวมเกือบ 200 ล้านดอลลาร์ในปี 2024 ➡️ AT&T ชนะคดีในศาลเขตที่ 5 ขณะที่ T-Mobile แพ้ในศาล DC Circuit ➡️ ความขัดแย้งระหว่างเขตศาลอาจนำไปสู่การพิจารณาโดยศาลสูงสุด ➡️ หากศาลสูงรับเรื่อง อาจเปลี่ยนขอบเขตอำนาจของ FCC ในการลงโทษ ✅ ข้อมูลเสริมจากภายนอก ➡️ ข้อมูลตำแหน่งเคยถูกใช้ในบริการช่วยเหลือฉุกเฉิน, ป้องกันการค้ามนุษย์ และการตรวจจับการฉ้อโกง ➡️ FCC ระบุว่าบริษัทโทรคมนาคมยังคงดำเนินโครงการโดยไม่มีมาตรการป้องกันที่เพียงพอ ➡️ การขายข้อมูลให้กับ bounty hunters และบริษัทเอกชนสร้างความไม่พอใจในสภาคองเกรส ➡️ การเปิดเผยในปี 2018 โดย New York Times เป็นจุดเริ่มต้นของการสอบสวน https://arstechnica.com/tech-policy/2025/09/court-rejects-verizon-claim-that-selling-location-data-without-consent-is-legal/
    ARSTECHNICA.COM
    Court rejects Verizon claim that selling location data without consent is legal
    Verizon and T-Mobile lost, but AT&T beat the FCC. SCOTUS may have to step in.
    0 Comments 0 Shares 217 Views 0 Reviews
  • “Thinking Machines แก้ปัญหา LLM ตอบไม่เหมือนกัน — เผยต้นเหตุจาก batch-size ไม่คงที่ ไม่ใช่แค่เรื่อง floating point”

    หลายคนอาจเคยสงสัยว่า ทำไมเวลาใช้โมเดลภาษาอย่าง ChatGPT ถามคำถามเดิมซ้ำ ๆ แล้วได้คำตอบไม่เหมือนกัน ทั้งที่ตั้งค่า temperature เป็น 0 ซึ่งควรจะได้คำตอบที่ “แน่นอน” ทุกครั้ง ล่าสุดทีมวิจัยจาก Thinking Machines Lab ได้ออกบทความเจาะลึกถึงสาเหตุของความไม่แน่นอน (nondeterminism) ในการทำ inference ของ LLM และเสนอแนวทางแก้ไขที่อาจเปลี่ยนมาตรฐานของวงการ AI ไปตลอดกาล.

    บทความนี้ชี้ว่า สาเหตุที่แท้จริงไม่ใช่แค่เรื่อง “floating-point non-associativity” หรือการคำนวณแบบขนานบน GPU ที่ทำให้ผลลัพธ์เปลี่ยนไปตามลำดับการรวมค่า แต่เกิดจากสิ่งที่เรียกว่า “batch-size variance” — กล่าวคือ ผลลัพธ์ของแต่ละคำขอ (request) ขึ้นอยู่กับว่ามีคำขออื่น ๆ เข้ามาพร้อมกันมากแค่ไหน ซึ่งส่งผลให้ batch-size ที่ใช้ใน kernel เปลี่ยนไป และทำให้ผลลัพธ์เปลี่ยนตาม

    เพื่อแก้ปัญหานี้ ทีมงานได้พัฒนา kernel แบบใหม่ที่เรียกว่า “batch-invariant kernels” ซึ่งทำให้ผลลัพธ์ของแต่ละคำขอไม่ขึ้นอยู่กับ batch-size ที่ใช้ในระบบ โดยปรับปรุงการคำนวณใน RMSNorm, matrix multiplication และ attention ให้มีลำดับการรวมค่าที่คงที่ไม่ว่าจะมีคำขอมากหรือน้อย

    ผลการทดลองแสดงให้เห็นว่า เมื่อใช้ batch-invariant kernels แล้ว โมเดลสามารถให้ผลลัพธ์ที่เหมือนกันทุกครั้งแม้จะมีคำขอหลายชุดเข้ามาพร้อมกัน และยังสามารถนำไปใช้ในงาน reinforcement learning แบบ on-policy ได้อย่างแท้จริง ซึ่งเป็นสิ่งที่ไม่เคยทำได้มาก่อน

    สาเหตุของความไม่แน่นอนในการทำ inference ของ LLM
    ไม่ได้เกิดจาก floating-point หรือ atomic add โดยตรง
    เกิดจาก batch-size ที่เปลี่ยนไปตามจำนวนคำขอที่เข้ามาพร้อมกัน
    ทำให้ลำดับการคำนวณใน kernel เปลี่ยนไป และผลลัพธ์เปลี่ยนตาม
    ส่งผลให้แม้จะตั้ง temperature = 0 ก็ยังได้ผลลัพธ์ไม่เหมือนกัน

    แนวทางแก้ไขโดย Thinking Machines
    พัฒนา batch-invariant kernels สำหรับ RMSNorm, matmul และ attention
    ใช้ data-parallel strategy เพื่อให้ลำดับการรวมค่าคงที่
    ปรับ attention kernel ให้ลดค่าจาก KV cache และ current KV อย่างสม่ำเสมอ
    ใช้ fixed-size split แทน fixed-number split เพื่อรักษาลำดับการคำนวณ

    ผลลัพธ์จากการทดลอง
    เมื่อใช้ batch-invariant kernels แล้ว ได้ผลลัพธ์เหมือนกันทุกครั้ง
    สามารถใช้ใน RL แบบ on-policy ได้จริง โดยไม่มี KL divergence
    ลดความจำเป็นในการใช้ importance weighting ใน RL
    แม้จะช้ากว่า kernel ปกติ ~20% แต่ยังอยู่ในระดับที่ใช้งานได้จริง

    ข้อมูลเสริมจากภายนอก
    Thinking Machines ก่อตั้งโดยอดีต CTO ของ OpenAI และมีมูลค่ากว่า $12 พันล้าน
    โครงการนี้ใช้โมเดล Qwen3-8B และ Qwen3-235B ในการทดลอง
    batch-invariant ops ถูกเผยแพร่ผ่าน PyTorch library และ vLLM integration
    แนวคิดนี้อาจเปลี่ยนมาตรฐานของการ deploy LLM ในระดับ production

    https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/
    🧠 “Thinking Machines แก้ปัญหา LLM ตอบไม่เหมือนกัน — เผยต้นเหตุจาก batch-size ไม่คงที่ ไม่ใช่แค่เรื่อง floating point” หลายคนอาจเคยสงสัยว่า ทำไมเวลาใช้โมเดลภาษาอย่าง ChatGPT ถามคำถามเดิมซ้ำ ๆ แล้วได้คำตอบไม่เหมือนกัน ทั้งที่ตั้งค่า temperature เป็น 0 ซึ่งควรจะได้คำตอบที่ “แน่นอน” ทุกครั้ง ล่าสุดทีมวิจัยจาก Thinking Machines Lab ได้ออกบทความเจาะลึกถึงสาเหตุของความไม่แน่นอน (nondeterminism) ในการทำ inference ของ LLM และเสนอแนวทางแก้ไขที่อาจเปลี่ยนมาตรฐานของวงการ AI ไปตลอดกาล. บทความนี้ชี้ว่า สาเหตุที่แท้จริงไม่ใช่แค่เรื่อง “floating-point non-associativity” หรือการคำนวณแบบขนานบน GPU ที่ทำให้ผลลัพธ์เปลี่ยนไปตามลำดับการรวมค่า แต่เกิดจากสิ่งที่เรียกว่า “batch-size variance” — กล่าวคือ ผลลัพธ์ของแต่ละคำขอ (request) ขึ้นอยู่กับว่ามีคำขออื่น ๆ เข้ามาพร้อมกันมากแค่ไหน ซึ่งส่งผลให้ batch-size ที่ใช้ใน kernel เปลี่ยนไป และทำให้ผลลัพธ์เปลี่ยนตาม เพื่อแก้ปัญหานี้ ทีมงานได้พัฒนา kernel แบบใหม่ที่เรียกว่า “batch-invariant kernels” ซึ่งทำให้ผลลัพธ์ของแต่ละคำขอไม่ขึ้นอยู่กับ batch-size ที่ใช้ในระบบ โดยปรับปรุงการคำนวณใน RMSNorm, matrix multiplication และ attention ให้มีลำดับการรวมค่าที่คงที่ไม่ว่าจะมีคำขอมากหรือน้อย ผลการทดลองแสดงให้เห็นว่า เมื่อใช้ batch-invariant kernels แล้ว โมเดลสามารถให้ผลลัพธ์ที่เหมือนกันทุกครั้งแม้จะมีคำขอหลายชุดเข้ามาพร้อมกัน และยังสามารถนำไปใช้ในงาน reinforcement learning แบบ on-policy ได้อย่างแท้จริง ซึ่งเป็นสิ่งที่ไม่เคยทำได้มาก่อน ✅ สาเหตุของความไม่แน่นอนในการทำ inference ของ LLM ➡️ ไม่ได้เกิดจาก floating-point หรือ atomic add โดยตรง ➡️ เกิดจาก batch-size ที่เปลี่ยนไปตามจำนวนคำขอที่เข้ามาพร้อมกัน ➡️ ทำให้ลำดับการคำนวณใน kernel เปลี่ยนไป และผลลัพธ์เปลี่ยนตาม ➡️ ส่งผลให้แม้จะตั้ง temperature = 0 ก็ยังได้ผลลัพธ์ไม่เหมือนกัน ✅ แนวทางแก้ไขโดย Thinking Machines ➡️ พัฒนา batch-invariant kernels สำหรับ RMSNorm, matmul และ attention ➡️ ใช้ data-parallel strategy เพื่อให้ลำดับการรวมค่าคงที่ ➡️ ปรับ attention kernel ให้ลดค่าจาก KV cache และ current KV อย่างสม่ำเสมอ ➡️ ใช้ fixed-size split แทน fixed-number split เพื่อรักษาลำดับการคำนวณ ✅ ผลลัพธ์จากการทดลอง ➡️ เมื่อใช้ batch-invariant kernels แล้ว ได้ผลลัพธ์เหมือนกันทุกครั้ง ➡️ สามารถใช้ใน RL แบบ on-policy ได้จริง โดยไม่มี KL divergence ➡️ ลดความจำเป็นในการใช้ importance weighting ใน RL ➡️ แม้จะช้ากว่า kernel ปกติ ~20% แต่ยังอยู่ในระดับที่ใช้งานได้จริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Thinking Machines ก่อตั้งโดยอดีต CTO ของ OpenAI และมีมูลค่ากว่า $12 พันล้าน ➡️ โครงการนี้ใช้โมเดล Qwen3-8B และ Qwen3-235B ในการทดลอง ➡️ batch-invariant ops ถูกเผยแพร่ผ่าน PyTorch library และ vLLM integration ➡️ แนวคิดนี้อาจเปลี่ยนมาตรฐานของการ deploy LLM ในระดับ production https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/
    THINKINGMACHINES.AI
    Defeating Nondeterminism in LLM Inference
    Reproducibility is a bedrock of scientific progress. However, it’s remarkably difficult to get reproducible results out of large language models. For example, you might observe that asking ChatGPT the same question multiple times provides different results. This by itself is not surprising, since getting a result from a language model involves “sampling”, a process that converts the language model’s output into a probability distribution and probabilistically selects a token. What might be more surprising is that even when we adjust the temperature down to 0This means that the LLM always chooses the highest probability token, which is called greedy sampling. (thus making the sampling theoretically deterministic), LLM APIs are still not deterministic in practice (see past discussions here, here, or here). Even when running inference on your own hardware with an OSS inference library like vLLM or SGLang, sampling still isn’t deterministic (see here or here).
    0 Comments 0 Shares 184 Views 0 Reviews
  • “Firewalla อัปเดตใหม่หลอกลูกให้เลิกเล่นมือถือด้วย ‘เน็ตช้า’ — เมื่อการควบคุมพฤติกรรมดิจิทัลไม่ต้องใช้คำสั่ง แต่ใช้ความรู้สึก”

    ในยุคที่เด็ก ๆ ใช้เวลาบนหน้าจอมากกว่าการเล่นกลางแจ้ง Firewalla แอปจัดการเครือข่ายและความปลอดภัยสำหรับครอบครัว ได้เปิดตัวฟีเจอร์ใหม่ในเวอร์ชัน 1.66 ที่ชื่อว่า “Disturb” ซึ่งใช้วิธีแปลกใหม่ในการควบคุมพฤติกรรมการใช้งานมือถือของเด็ก ๆ โดยไม่ต้องบล็อกแอปหรือปิดอินเทอร์เน็ต — แต่ใช้การ “หลอกว่าเน็ตช้า” เพื่อให้เด็กเบื่อและเลิกเล่นไปเอง

    ฟีเจอร์นี้จะจำลองอาการอินเทอร์เน็ตช้า เช่น การบัฟเฟอร์ การโหลดช้า หรือดีเลย์ในการใช้งานแอปยอดนิยมอย่าง Snapchat โดยไม่แจ้งให้ผู้ใช้รู้ว่าเป็นการตั้งใจ ทำให้เด็กเข้าใจว่าเป็นปัญหาทางเทคนิค และเลือกที่จะหยุดใช้งานเอง ซึ่งเป็นการสร้างแรงจูงใจแบบนุ่มนวลมากกว่าการลงโทษ

    นอกจากฟีเจอร์ Disturb แล้ว Firewalla ยังเพิ่มความสามารถด้านความปลอดภัย เช่น “Device Active Protect” ที่ใช้แนวคิด Zero Trust ในการเรียนรู้พฤติกรรมของอุปกรณ์ และบล็อกกิจกรรมที่ผิดปกติโดยอัตโนมัติ รวมถึงการเชื่อมต่อกับระบบตรวจจับภัยคุกคามแบบเปิดอย่าง Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับมัลแวร์และการโจมตีเครือข่าย

    สำหรับผู้ใช้งานระดับบ้านและธุรกิจขนาดเล็ก Firewalla ยังเพิ่มฟีเจอร์ Multi-WAN Data Usage Tracking ที่สามารถติดตามการใช้งานอินเทอร์เน็ตจากหลายสายพร้อมกัน พร้อมระบบแจ้งเตือนและรายงานแบบละเอียด

    ฟีเจอร์ใหม่ใน Firewalla App 1.66
    “Disturb” จำลองอินเทอร์เน็ตช้าเพื่อเบี่ยงเบนพฤติกรรมเด็กจากการใช้แอป
    ไม่บล็อกแอปโดยตรง แต่สร้างความรู้สึกว่าเน็ตไม่เสถียร
    ใช้กับแอปที่ใช้เวลานาน เช่น Snapchat, TikTok, YouTube
    เป็นวิธีควบคุมแบบนุ่มนวล ไม่ใช่การลงโทษ

    ฟีเจอร์ด้านความปลอดภัยเพิ่มเติม
    “Device Active Protect” ใช้ Zero Trust เพื่อเรียนรู้พฤติกรรมอุปกรณ์
    บล็อกกิจกรรมที่ผิดปกติโดยไม่ต้องตั้งค่ากฎเอง
    เชื่อมต่อกับ Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับภัย
    เพิ่มระบบ FireAI วิเคราะห์เหตุการณ์เครือข่ายแบบเรียลไทม์

    ฟีเจอร์สำหรับผู้ใช้ระดับบ้านและธุรกิจ
    Multi-WAN Data Usage Tracking ติดตามการใช้งานอินเทอร์เน็ตหลายสาย
    มีระบบแจ้งเตือนเมื่อใช้งานเกินขีดจำกัด
    รายงานการใช้งานแบบละเอียดสำหรับการวางแผนเครือข่าย
    รองรับการใช้งานในบ้านที่มีหลายอุปกรณ์หรือหลายเครือข่าย

    ข้อมูลเสริมจากภายนอก
    Suricata เป็นระบบตรวจจับภัยคุกคามแบบ open-source ที่ใช้ในองค์กรขนาดใหญ่
    Zero Trust เป็นแนวคิดด้านความปลอดภัยที่ไม่เชื่อถืออุปกรณ์ใด ๆ โดยอัตโนมัติ
    Firewalla ได้รับความนิยมในกลุ่มผู้ใช้ที่ต้องการควบคุมเครือข่ายภายในบ้าน
    ฟีเจอร์ Disturb อาจเป็นต้นแบบของการควบคุมพฤติกรรมเชิงจิตวิทยาในยุคดิจิทัล

    https://www.techradar.com/pro/phone-communications/this-security-app-deliberately-slows-down-internet-speeds-to-encourage-your-kids-to-log-off-their-snapchat-accounts
    📱 “Firewalla อัปเดตใหม่หลอกลูกให้เลิกเล่นมือถือด้วย ‘เน็ตช้า’ — เมื่อการควบคุมพฤติกรรมดิจิทัลไม่ต้องใช้คำสั่ง แต่ใช้ความรู้สึก” ในยุคที่เด็ก ๆ ใช้เวลาบนหน้าจอมากกว่าการเล่นกลางแจ้ง Firewalla แอปจัดการเครือข่ายและความปลอดภัยสำหรับครอบครัว ได้เปิดตัวฟีเจอร์ใหม่ในเวอร์ชัน 1.66 ที่ชื่อว่า “Disturb” ซึ่งใช้วิธีแปลกใหม่ในการควบคุมพฤติกรรมการใช้งานมือถือของเด็ก ๆ โดยไม่ต้องบล็อกแอปหรือปิดอินเทอร์เน็ต — แต่ใช้การ “หลอกว่าเน็ตช้า” เพื่อให้เด็กเบื่อและเลิกเล่นไปเอง ฟีเจอร์นี้จะจำลองอาการอินเทอร์เน็ตช้า เช่น การบัฟเฟอร์ การโหลดช้า หรือดีเลย์ในการใช้งานแอปยอดนิยมอย่าง Snapchat โดยไม่แจ้งให้ผู้ใช้รู้ว่าเป็นการตั้งใจ ทำให้เด็กเข้าใจว่าเป็นปัญหาทางเทคนิค และเลือกที่จะหยุดใช้งานเอง ซึ่งเป็นการสร้างแรงจูงใจแบบนุ่มนวลมากกว่าการลงโทษ นอกจากฟีเจอร์ Disturb แล้ว Firewalla ยังเพิ่มความสามารถด้านความปลอดภัย เช่น “Device Active Protect” ที่ใช้แนวคิด Zero Trust ในการเรียนรู้พฤติกรรมของอุปกรณ์ และบล็อกกิจกรรมที่ผิดปกติโดยอัตโนมัติ รวมถึงการเชื่อมต่อกับระบบตรวจจับภัยคุกคามแบบเปิดอย่าง Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับมัลแวร์และการโจมตีเครือข่าย สำหรับผู้ใช้งานระดับบ้านและธุรกิจขนาดเล็ก Firewalla ยังเพิ่มฟีเจอร์ Multi-WAN Data Usage Tracking ที่สามารถติดตามการใช้งานอินเทอร์เน็ตจากหลายสายพร้อมกัน พร้อมระบบแจ้งเตือนและรายงานแบบละเอียด ✅ ฟีเจอร์ใหม่ใน Firewalla App 1.66 ➡️ “Disturb” จำลองอินเทอร์เน็ตช้าเพื่อเบี่ยงเบนพฤติกรรมเด็กจากการใช้แอป ➡️ ไม่บล็อกแอปโดยตรง แต่สร้างความรู้สึกว่าเน็ตไม่เสถียร ➡️ ใช้กับแอปที่ใช้เวลานาน เช่น Snapchat, TikTok, YouTube ➡️ เป็นวิธีควบคุมแบบนุ่มนวล ไม่ใช่การลงโทษ ✅ ฟีเจอร์ด้านความปลอดภัยเพิ่มเติม ➡️ “Device Active Protect” ใช้ Zero Trust เพื่อเรียนรู้พฤติกรรมอุปกรณ์ ➡️ บล็อกกิจกรรมที่ผิดปกติโดยไม่ต้องตั้งค่ากฎเอง ➡️ เชื่อมต่อกับ Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับภัย ➡️ เพิ่มระบบ FireAI วิเคราะห์เหตุการณ์เครือข่ายแบบเรียลไทม์ ✅ ฟีเจอร์สำหรับผู้ใช้ระดับบ้านและธุรกิจ ➡️ Multi-WAN Data Usage Tracking ติดตามการใช้งานอินเทอร์เน็ตหลายสาย ➡️ มีระบบแจ้งเตือนเมื่อใช้งานเกินขีดจำกัด ➡️ รายงานการใช้งานแบบละเอียดสำหรับการวางแผนเครือข่าย ➡️ รองรับการใช้งานในบ้านที่มีหลายอุปกรณ์หรือหลายเครือข่าย ✅ ข้อมูลเสริมจากภายนอก ➡️ Suricata เป็นระบบตรวจจับภัยคุกคามแบบ open-source ที่ใช้ในองค์กรขนาดใหญ่ ➡️ Zero Trust เป็นแนวคิดด้านความปลอดภัยที่ไม่เชื่อถืออุปกรณ์ใด ๆ โดยอัตโนมัติ ➡️ Firewalla ได้รับความนิยมในกลุ่มผู้ใช้ที่ต้องการควบคุมเครือข่ายภายในบ้าน ➡️ ฟีเจอร์ Disturb อาจเป็นต้นแบบของการควบคุมพฤติกรรมเชิงจิตวิทยาในยุคดิจิทัล https://www.techradar.com/pro/phone-communications/this-security-app-deliberately-slows-down-internet-speeds-to-encourage-your-kids-to-log-off-their-snapchat-accounts
    0 Comments 0 Shares 186 Views 0 Reviews
  • “OpenAI ผนึก Broadcom สร้างชิป Titan — ยุทธศาสตร์ใหม่ลดพึ่งพา Nvidia ด้วยคำสั่งซื้อ $10 พันล้าน และเป้าหมายสู่ AGI”

    ในยุคที่การแข่งขันด้าน AI รุนแรงขึ้นทุกวัน OpenAI กำลังเดินเกมใหม่ที่อาจเปลี่ยนสมดุลของอุตสาหกรรมฮาร์ดแวร์ ด้วยการร่วมมือกับ Broadcom เพื่อพัฒนาชิปประมวลผล AI แบบกำหนดเอง (custom ASIC) ภายใต้ชื่อ “Titan” โดยมีเป้าหมายเพื่อลดการพึ่งพา GPU จาก Nvidia ซึ่งมีราคาสูงและขาดแคลนอย่างต่อเนื่อง

    Broadcom ซึ่งเคยเป็นผู้ผลิตชิปสำหรับสมาร์ตโฟน ได้ขยายเข้าสู่ตลาด data center และกลายเป็นผู้นำด้านการออกแบบ XPU สำหรับงาน AI โดยก่อนหน้านี้มีลูกค้าระดับยักษ์อย่าง Google, Meta และ ByteDance ล่าสุด OpenAI กลายเป็นลูกค้ารายที่สี่ พร้อมสั่งซื้อ rack ระบบ AI มูลค่ากว่า $10 พันล้าน ซึ่งจะเริ่มส่งมอบในไตรมาสที่ 3 ปีงบประมาณ 20262

    ชิป Titan จะถูกใช้สำหรับงาน inference โดยเฉพาะ และนำโดย Richard Ho อดีตวิศวกรผู้ออกแบบ Google TPU ซึ่งแสดงให้เห็นว่า OpenAI ต้องการควบคุมโครงสร้างพื้นฐานของตนเองอย่างจริงจัง เพื่อรองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ที่มีเป้าหมายสู่ AGI ภายใน 4 ปี

    การตัดสินใจนี้เกิดขึ้นหลังจาก OpenAI ประสบปัญหาขาดแคลน GPU อย่างหนักในช่วงต้นปี 2025 ซึ่งส่งผลให้การเปิดตัว GPT-4.5 ล่าช้า แม้จะมีเงินทุนจาก Microsoft และการระดมทุนรอบ Series F และการขายหุ้นภายในที่ดันมูลค่าบริษัทขึ้นถึง $500 พันล้าน แต่การลงทุนในโครงสร้างพื้นฐานยังเป็นภาระที่ต้องจัดการอย่างเร่งด่วน

    ความร่วมมือระหว่าง OpenAI และ Broadcom
    OpenAI เป็นลูกค้ารายที่ 4 ของ Broadcom ในโครงการ custom XPU
    สั่งซื้อ rack ระบบ AI มูลค่า $10 พันล้าน เริ่มส่งมอบปี 2026
    ชิป Titan ออกแบบสำหรับงาน inference โดยเฉพาะ
    นำโดย Richard Ho อดีตวิศวกร Google TPU

    เหตุผลเบื้องหลังการพัฒนา Titan
    ลดการพึ่งพา Nvidia ที่มีราคาสูงและขาดแคลน
    รองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate
    เพิ่มประสิทธิภาพและควบคุมต้นทุนโครงสร้างพื้นฐาน
    ตอบสนองความต้องการด้าน compute ที่เพิ่มขึ้นอย่างรวดเร็ว

    ข้อมูลเสริมจากภายนอก
    Broadcom ขยายจากตลาดสมาร์ตโฟนสู่ data center และ AI infrastructure
    Titan เป็นส่วนหนึ่งของยุทธศาสตร์ AGI ภายใน 4 ปีของ OpenAI
    OpenAI เคยพึ่ง Azure cloud ของ Microsoft แต่ต้องการควบคุมระบบมากขึ้น
    การระดมทุน Series F และการขายหุ้นภายในดันมูลค่าบริษัทถึง $500 พันล้าน

    https://www.techradar.com/ai-platforms-assistants/chatgpt/nvidias-biggest-customers-are-lining-up-to-take-it-down-using-asics-and-broadcom-could-be-the-winner-of-that-battle
    💥 “OpenAI ผนึก Broadcom สร้างชิป Titan — ยุทธศาสตร์ใหม่ลดพึ่งพา Nvidia ด้วยคำสั่งซื้อ $10 พันล้าน และเป้าหมายสู่ AGI” ในยุคที่การแข่งขันด้าน AI รุนแรงขึ้นทุกวัน OpenAI กำลังเดินเกมใหม่ที่อาจเปลี่ยนสมดุลของอุตสาหกรรมฮาร์ดแวร์ ด้วยการร่วมมือกับ Broadcom เพื่อพัฒนาชิปประมวลผล AI แบบกำหนดเอง (custom ASIC) ภายใต้ชื่อ “Titan” โดยมีเป้าหมายเพื่อลดการพึ่งพา GPU จาก Nvidia ซึ่งมีราคาสูงและขาดแคลนอย่างต่อเนื่อง Broadcom ซึ่งเคยเป็นผู้ผลิตชิปสำหรับสมาร์ตโฟน ได้ขยายเข้าสู่ตลาด data center และกลายเป็นผู้นำด้านการออกแบบ XPU สำหรับงาน AI โดยก่อนหน้านี้มีลูกค้าระดับยักษ์อย่าง Google, Meta และ ByteDance ล่าสุด OpenAI กลายเป็นลูกค้ารายที่สี่ พร้อมสั่งซื้อ rack ระบบ AI มูลค่ากว่า $10 พันล้าน ซึ่งจะเริ่มส่งมอบในไตรมาสที่ 3 ปีงบประมาณ 20262 ชิป Titan จะถูกใช้สำหรับงาน inference โดยเฉพาะ และนำโดย Richard Ho อดีตวิศวกรผู้ออกแบบ Google TPU ซึ่งแสดงให้เห็นว่า OpenAI ต้องการควบคุมโครงสร้างพื้นฐานของตนเองอย่างจริงจัง เพื่อรองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ที่มีเป้าหมายสู่ AGI ภายใน 4 ปี การตัดสินใจนี้เกิดขึ้นหลังจาก OpenAI ประสบปัญหาขาดแคลน GPU อย่างหนักในช่วงต้นปี 2025 ซึ่งส่งผลให้การเปิดตัว GPT-4.5 ล่าช้า แม้จะมีเงินทุนจาก Microsoft และการระดมทุนรอบ Series F และการขายหุ้นภายในที่ดันมูลค่าบริษัทขึ้นถึง $500 พันล้าน แต่การลงทุนในโครงสร้างพื้นฐานยังเป็นภาระที่ต้องจัดการอย่างเร่งด่วน ✅ ความร่วมมือระหว่าง OpenAI และ Broadcom ➡️ OpenAI เป็นลูกค้ารายที่ 4 ของ Broadcom ในโครงการ custom XPU ➡️ สั่งซื้อ rack ระบบ AI มูลค่า $10 พันล้าน เริ่มส่งมอบปี 2026 ➡️ ชิป Titan ออกแบบสำหรับงาน inference โดยเฉพาะ ➡️ นำโดย Richard Ho อดีตวิศวกร Google TPU ✅ เหตุผลเบื้องหลังการพัฒนา Titan ➡️ ลดการพึ่งพา Nvidia ที่มีราคาสูงและขาดแคลน ➡️ รองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ➡️ เพิ่มประสิทธิภาพและควบคุมต้นทุนโครงสร้างพื้นฐาน ➡️ ตอบสนองความต้องการด้าน compute ที่เพิ่มขึ้นอย่างรวดเร็ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Broadcom ขยายจากตลาดสมาร์ตโฟนสู่ data center และ AI infrastructure ➡️ Titan เป็นส่วนหนึ่งของยุทธศาสตร์ AGI ภายใน 4 ปีของ OpenAI ➡️ OpenAI เคยพึ่ง Azure cloud ของ Microsoft แต่ต้องการควบคุมระบบมากขึ้น ➡️ การระดมทุน Series F และการขายหุ้นภายในดันมูลค่าบริษัทถึง $500 พันล้าน https://www.techradar.com/ai-platforms-assistants/chatgpt/nvidias-biggest-customers-are-lining-up-to-take-it-down-using-asics-and-broadcom-could-be-the-winner-of-that-battle
    0 Comments 0 Shares 173 Views 0 Reviews
  • “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม”

    ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร

    NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%

    ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า

    NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด

    การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง

    ผลการทดสอบ MLPerf v5.1
    GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
    MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
    GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
    ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput

    จุดเด่นของ Blackwell Ultra GB300
    มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
    ใช้ HBM3e สูงสุด 288GB ต่อ GPU
    ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
    ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark

    จุดเด่นของ AMD Instinct MI355X
    ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
    เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
    เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
    มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน

    ข้อมูลเสริมจากภายนอก
    MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
    NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
    Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก

    https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    ⚙️ “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม” ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50% ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server ➡️ MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B ➡️ GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL ➡️ ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput ✅ จุดเด่นของ Blackwell Ultra GB300 ➡️ มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน ➡️ ใช้ HBM3e สูงสุด 288GB ต่อ GPU ➡️ ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1 ➡️ ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark ✅ จุดเด่นของ AMD Instinct MI355X ➡️ ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป ➡️ เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป ➡️ เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1 ➡️ มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3 ➡️ NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 ➡️ การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive ➡️ Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    WCCFTECH.COM
    MLPerf v5.1 AI Inference Benchmark Showdown: NVIDIA Blackwell Ultra GB300 & AMD Instinct MI355X In The Spotlight
    NVIDIA's Blackwell Ultra GB300 & AMD's Instinct MI355X have finally appeared in the latest MLPerf v3.1 AI inference benchmarks.
    0 Comments 0 Shares 152 Views 0 Reviews
  • “เลเซอร์เชื่อมเครื่องบินกับดาวเทียมสำเร็จ! General Atomics และ Kepler สร้างระบบสื่อสารอากาศสู่อวกาศที่เร็วกว่า 1 Gbps — เตรียมพลิกโฉมการสื่อสารทางทหารและพาณิชย์”

    ลองจินตนาการว่าเครื่องบินที่บินอยู่กลางฟ้า สามารถส่งข้อมูลไปยังดาวเทียมในวงโคจรได้ทันที ด้วยความเร็วระดับกิกะบิต — ไม่ใช่ผ่านคลื่นวิทยุแบบเดิม แต่ผ่านลำแสงเลเซอร์ที่แม่นยำและปลอดภัยกว่า นั่นคือสิ่งที่เกิดขึ้นจริงในการทดสอบล่าสุดโดย General Atomics Electromagnetic Systems (GA-EMS) ร่วมกับ Kepler Communications

    การทดสอบนี้ใช้เครื่องบิน De Havilland DHC-6 Twin Otter ที่ติดตั้ง Optical Communication Terminal (OCT) ขนาด 12 นิ้ว ซึ่งยิงเลเซอร์พลังงาน 10 วัตต์ไปยังดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO) โดยสามารถส่งข้อมูลได้สูงสุดถึง 2.5 Gbps และมีระยะทำการถึง 3,417 ไมล์ แม้ในการทดสอบจริงจะใช้ระยะสั้นกว่านั้น แต่ก็สามารถส่งข้อมูลได้ที่ความเร็ว 1 Gbps อย่างเสถียร

    ความสำเร็จนี้ถือเป็น “ครั้งแรกของโลก” ที่สามารถเชื่อมโยงการสื่อสารแบบสองทางระหว่างเครื่องบินที่เคลื่อนที่กับดาวเทียมในอวกาศได้ผ่านเลเซอร์ โดยระบบสามารถทำงานได้ครบทุกขั้นตอน: การชี้เป้า, การจับสัญญาณ, การติดตาม และการล็อกเป้าหมาย ก่อนจะส่งข้อมูลแบบ uplink และ downlink ได้สำเร็จ

    สิ่งที่น่าสนใจคืออุปกรณ์ OCT นี้ถูกออกแบบให้รองรับมาตรฐานเปิดของ Space Development Agency (SDA) ซึ่งหมายความว่าอุปกรณ์จากผู้ผลิตต่างกันสามารถทำงานร่วมกันได้ — เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารแบบกระจายตัวที่ปลอดภัยและมีประสิทธิภาพสูงสำหรับภารกิจทางทหารและเชิงพาณิชย์

    ในอนาคต GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026 เพื่อทดสอบกับดาวเทียม Tranche-1 ซึ่งจะเป็นการขยายขีดความสามารถของการสื่อสารอากาศสู่อวกาศให้ครอบคลุมมากขึ้น

    ข้อมูลจากการทดสอบเลเซอร์สื่อสารอากาศสู่อวกาศ
    ใช้เครื่องบิน DHC-6 Twin Otter ติดตั้ง Optical Communication Terminal (OCT)
    เชื่อมต่อกับดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO)
    ใช้เลเซอร์พลังงาน 10 วัตต์ ส่งข้อมูลได้สูงสุด 2.5 Gbps
    ระยะทำการสูงสุด 3,417 ไมล์ (5,500 กม.)
    ความเร็วในการส่งข้อมูลจริงในการทดสอบคือ 1 Gbps

    ความสำเร็จของระบบ OCT
    ทำงานครบทุกขั้นตอน: ชี้เป้า, จับสัญญาณ, ติดตาม, ล็อกเป้าหมาย
    ส่งข้อมูลแบบสองทาง (uplink/downlink) ได้สำเร็จ
    รองรับมาตรฐาน SDA Tranche-0 สำหรับการสื่อสารแบบเปิด
    พิสูจน์ว่าอุปกรณ์จากหลายผู้ผลิตสามารถทำงานร่วมกันได้

    ความร่วมมือระหว่าง GA-EMS และ Kepler
    GA-EMS พัฒนา OCT สำหรับภารกิจทางทหารและพาณิชย์
    Kepler มีดาวเทียมที่รองรับ SDA และเคยทดสอบการสื่อสารกับสถานีภาคพื้น
    การร่วมมือครั้งนี้เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารหลายโดเมน

    แผนในอนาคต
    GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026
    ทดสอบกับดาวเทียม Tranche-1 เพื่อขยายขีดความสามารถ
    SDA มีแผนสร้างเครือข่ายดาวเทียมหลายร้อยดวงในอีกไม่กี่ปีข้างหน้า

    ข้อมูลเสริมจากภายนอก
    NASA เคยทดสอบระบบเลเซอร์ใน Deep Space Optical Communications
    Google เคยพัฒนาโครงการ Taara สำหรับเลเซอร์สื่อสารภาคพื้น
    การสื่อสารด้วยเลเซอร์มีความปลอดภัยสูงและไม่ต้องใช้คลื่นวิทยุ
    เหมาะกับภารกิจที่ต้องการความเร็วและความมั่นคงของข้อมูล เช่น การทหาร, การบิน, และการสำรวจอวกาศ

    https://www.tomshardware.com/networking/worlds-first-laser-communication-link-between-a-plane-and-satellite-ran-at-1-gbps-10-watt-laser-which-has-a-3-417-mile-range-and-2-5-gbps-max-data-rate
    🔴 “เลเซอร์เชื่อมเครื่องบินกับดาวเทียมสำเร็จ! General Atomics และ Kepler สร้างระบบสื่อสารอากาศสู่อวกาศที่เร็วกว่า 1 Gbps — เตรียมพลิกโฉมการสื่อสารทางทหารและพาณิชย์” ลองจินตนาการว่าเครื่องบินที่บินอยู่กลางฟ้า สามารถส่งข้อมูลไปยังดาวเทียมในวงโคจรได้ทันที ด้วยความเร็วระดับกิกะบิต — ไม่ใช่ผ่านคลื่นวิทยุแบบเดิม แต่ผ่านลำแสงเลเซอร์ที่แม่นยำและปลอดภัยกว่า นั่นคือสิ่งที่เกิดขึ้นจริงในการทดสอบล่าสุดโดย General Atomics Electromagnetic Systems (GA-EMS) ร่วมกับ Kepler Communications การทดสอบนี้ใช้เครื่องบิน De Havilland DHC-6 Twin Otter ที่ติดตั้ง Optical Communication Terminal (OCT) ขนาด 12 นิ้ว ซึ่งยิงเลเซอร์พลังงาน 10 วัตต์ไปยังดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO) โดยสามารถส่งข้อมูลได้สูงสุดถึง 2.5 Gbps และมีระยะทำการถึง 3,417 ไมล์ แม้ในการทดสอบจริงจะใช้ระยะสั้นกว่านั้น แต่ก็สามารถส่งข้อมูลได้ที่ความเร็ว 1 Gbps อย่างเสถียร ความสำเร็จนี้ถือเป็น “ครั้งแรกของโลก” ที่สามารถเชื่อมโยงการสื่อสารแบบสองทางระหว่างเครื่องบินที่เคลื่อนที่กับดาวเทียมในอวกาศได้ผ่านเลเซอร์ โดยระบบสามารถทำงานได้ครบทุกขั้นตอน: การชี้เป้า, การจับสัญญาณ, การติดตาม และการล็อกเป้าหมาย ก่อนจะส่งข้อมูลแบบ uplink และ downlink ได้สำเร็จ สิ่งที่น่าสนใจคืออุปกรณ์ OCT นี้ถูกออกแบบให้รองรับมาตรฐานเปิดของ Space Development Agency (SDA) ซึ่งหมายความว่าอุปกรณ์จากผู้ผลิตต่างกันสามารถทำงานร่วมกันได้ — เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารแบบกระจายตัวที่ปลอดภัยและมีประสิทธิภาพสูงสำหรับภารกิจทางทหารและเชิงพาณิชย์ ในอนาคต GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026 เพื่อทดสอบกับดาวเทียม Tranche-1 ซึ่งจะเป็นการขยายขีดความสามารถของการสื่อสารอากาศสู่อวกาศให้ครอบคลุมมากขึ้น ✅ ข้อมูลจากการทดสอบเลเซอร์สื่อสารอากาศสู่อวกาศ ➡️ ใช้เครื่องบิน DHC-6 Twin Otter ติดตั้ง Optical Communication Terminal (OCT) ➡️ เชื่อมต่อกับดาวเทียม Kepler ที่โคจรในระดับต่ำ (LEO) ➡️ ใช้เลเซอร์พลังงาน 10 วัตต์ ส่งข้อมูลได้สูงสุด 2.5 Gbps ➡️ ระยะทำการสูงสุด 3,417 ไมล์ (5,500 กม.) ➡️ ความเร็วในการส่งข้อมูลจริงในการทดสอบคือ 1 Gbps ✅ ความสำเร็จของระบบ OCT ➡️ ทำงานครบทุกขั้นตอน: ชี้เป้า, จับสัญญาณ, ติดตาม, ล็อกเป้าหมาย ➡️ ส่งข้อมูลแบบสองทาง (uplink/downlink) ได้สำเร็จ ➡️ รองรับมาตรฐาน SDA Tranche-0 สำหรับการสื่อสารแบบเปิด ➡️ พิสูจน์ว่าอุปกรณ์จากหลายผู้ผลิตสามารถทำงานร่วมกันได้ ✅ ความร่วมมือระหว่าง GA-EMS และ Kepler ➡️ GA-EMS พัฒนา OCT สำหรับภารกิจทางทหารและพาณิชย์ ➡️ Kepler มีดาวเทียมที่รองรับ SDA และเคยทดสอบการสื่อสารกับสถานีภาคพื้น ➡️ การร่วมมือครั้งนี้เป็นก้าวสำคัญในการสร้างเครือข่ายสื่อสารหลายโดเมน ✅ แผนในอนาคต ➡️ GA-EMS เตรียมส่ง OCT รุ่นใหม่ขึ้นไปกับยาน GA-75 ในปี 2026 ➡️ ทดสอบกับดาวเทียม Tranche-1 เพื่อขยายขีดความสามารถ ➡️ SDA มีแผนสร้างเครือข่ายดาวเทียมหลายร้อยดวงในอีกไม่กี่ปีข้างหน้า ✅ ข้อมูลเสริมจากภายนอก ➡️ NASA เคยทดสอบระบบเลเซอร์ใน Deep Space Optical Communications ➡️ Google เคยพัฒนาโครงการ Taara สำหรับเลเซอร์สื่อสารภาคพื้น ➡️ การสื่อสารด้วยเลเซอร์มีความปลอดภัยสูงและไม่ต้องใช้คลื่นวิทยุ ➡️ เหมาะกับภารกิจที่ต้องการความเร็วและความมั่นคงของข้อมูล เช่น การทหาร, การบิน, และการสำรวจอวกาศ https://www.tomshardware.com/networking/worlds-first-laser-communication-link-between-a-plane-and-satellite-ran-at-1-gbps-10-watt-laser-which-has-a-3-417-mile-range-and-2-5-gbps-max-data-rate
    0 Comments 0 Shares 154 Views 0 Reviews
  • “XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!”

    ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด

    ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2

    แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่

    MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน

    XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่

    การเปิดตัว MX1 Computational Memory
    เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้
    ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ
    รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง

    แนวคิด near-data processing
    ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM
    เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล
    ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์

    การขยายหน่วยความจำด้วย SSD tiering
    รองรับการขยายความจุถึงระดับ petabyte
    มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability
    ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว

    แผนการเปิดตัวผลิตภัณฑ์
    MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร
    MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links
    ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ

    การสนับสนุนสำหรับนักพัฒนา
    มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment
    รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics
    ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน

    รางวัลและการยอมรับ
    ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025
    เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024
    ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม

    https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
    🧠 “XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!” ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2 แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่ MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่ ✅ การเปิดตัว MX1 Computational Memory ➡️ เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้ ➡️ ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ ➡️ รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง ✅ แนวคิด near-data processing ➡️ ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ➡️ เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล ➡️ ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์ ✅ การขยายหน่วยความจำด้วย SSD tiering ➡️ รองรับการขยายความจุถึงระดับ petabyte ➡️ มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability ➡️ ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว ✅ แผนการเปิดตัวผลิตภัณฑ์ ➡️ MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร ➡️ MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links ➡️ ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ ✅ การสนับสนุนสำหรับนักพัฒนา ➡️ มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment ➡️ รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics ➡️ ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน ✅ รางวัลและการยอมรับ ➡️ ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025 ➡️ เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024 ➡️ ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
    0 Comments 0 Shares 193 Views 0 Reviews
More Results