• “ย้อนรอย 50 ปี AMD กับชิป Am9080: จากการลอกแบบสู่การครองตลาด CPU”

    รู้ไหมว่า AMD เริ่มต้นเข้าสู่ตลาด CPU ด้วยการ “ลอกแบบ” ชิปของ Intel? เรื่องนี้เกิดขึ้นเมื่อ 50 ปีก่อน ตอนที่ AMD ผลิตชิปชื่อว่า Am9080 ซึ่งเป็นการ reverse-engineer จาก Intel 8080 โดยตรง

    เรื่องเริ่มจากทีมวิศวกร 3 คน—Ashawna Hailey, Kim Hailey และ Jay Kumar—ที่ถ่ายภาพตัวอย่างชิป Intel 8080 แล้วนำไปสร้างแผนผังวงจรขึ้นมาใหม่ จากนั้นก็เสนอให้บริษัทต่าง ๆ ใน Silicon Valley พิจารณา และ AMD ก็ตอบรับทันที

    ชิป Am9080 นี้ผลิตได้ในราคาประมาณ 50 เซนต์ต่อชิ้น แต่สามารถขายให้ลูกค้าระดับองค์กร เช่น กองทัพ ได้ในราคาสูงถึง 700 ดอลลาร์! เรียกได้ว่าเป็นจุดเริ่มต้นที่ทำให้ AMD มีทุนและชื่อเสียงในการเข้าสู่ตลาด CPU อย่างจริงจัง

    แม้จะเริ่มต้นด้วยการลอกแบบ แต่ AMD ก็ไม่หยุดแค่นั้น ในปี 1976 พวกเขาทำข้อตกลงกับ Intel เพื่อเป็นผู้ผลิตสำรอง (second source) อย่างถูกกฎหมาย และต่อยอดไปสู่การผลิตชิป x86 ของตัวเองในปี 1982

    ชิป Am9080 ยังมีจุดเด่นที่เหนือกว่า Intel 8080 ด้วยการใช้กระบวนการผลิตแบบ N-channel MOS ที่ทันสมัยกว่า ทำให้มีขนาดเล็กกว่าและความเร็วสูงกว่า โดยบางรุ่นสามารถทำงานได้ถึง 4.0 MHz ในขณะที่ Intel 8080 ทำได้สูงสุดแค่ 3.125 MHz เท่านั้น

    จุดเริ่มต้นของ AMD ในตลาด CPU
    ปี 1975 AMD เริ่มผลิต Am9080 โดยลอกแบบจาก Intel 8080
    ใช้ภาพถ่ายจากตัวอย่างชิปเพื่อสร้างแผนผังวงจรใหม่
    เป็นการ reverse-engineer ที่นำไปสู่การผลิตจริง

    ต้นทุนต่ำ กำไรสูง
    ต้นทุนการผลิตชิป Am9080 อยู่ที่ประมาณ 50 เซนต์ต่อชิ้น
    ขายให้ลูกค้าระดับองค์กรในราคาสูงถึง 700 ดอลลาร์
    เป็นจุดเริ่มต้นที่ช่วยสร้างฐานการเงินให้ AMD

    ข้อตกลงกับ Intel เพื่อความถูกต้องตามกฎหมาย
    ปี 1976 AMD เซ็นสัญญา cross-licensing กับ Intel
    จ่ายค่าลิขสิทธิ์ 25,000 ดอลลาร์ และ 75,000 ดอลลาร์ต่อปี
    ได้สิทธิ์เป็นผู้ผลิตสำรอง (second source) อย่างเป็นทางการ

    การพัฒนาเทคโนโลยีที่เหนือกว่า Intel
    ใช้กระบวนการผลิต N-channel MOS ที่ทันสมัยกว่า
    ขนาด die ของ Am9080 เล็กกว่า Intel 8080
    ความเร็วสูงสุดของ Am9080 อยู่ที่ 4.0 MHz ในขณะที่ Intel 8080 สูงสุดแค่ 3.125 MHz

    การต่อยอดสู่ชิป x86 ของ AMD
    ปี 1982 AMD ผลิต Am286 ซึ่งเป็นเวอร์ชันลิขสิทธิ์ของ Intel 80286
    เป็นจุดเริ่มต้นของการผลิต CPU x86 ของ AMD อย่างเต็มตัว

    https://www.tomshardware.com/pc-components/cpus/amd-first-entered-the-cpu-market-with-reverse-engineered-intel-8080-clone-50-years-ago-the-am9080-cost-50-cents-apiece-to-make-but-sold-for-usd700
    🕰️ “ย้อนรอย 50 ปี AMD กับชิป Am9080: จากการลอกแบบสู่การครองตลาด CPU” รู้ไหมว่า AMD เริ่มต้นเข้าสู่ตลาด CPU ด้วยการ “ลอกแบบ” ชิปของ Intel? เรื่องนี้เกิดขึ้นเมื่อ 50 ปีก่อน ตอนที่ AMD ผลิตชิปชื่อว่า Am9080 ซึ่งเป็นการ reverse-engineer จาก Intel 8080 โดยตรง เรื่องเริ่มจากทีมวิศวกร 3 คน—Ashawna Hailey, Kim Hailey และ Jay Kumar—ที่ถ่ายภาพตัวอย่างชิป Intel 8080 แล้วนำไปสร้างแผนผังวงจรขึ้นมาใหม่ จากนั้นก็เสนอให้บริษัทต่าง ๆ ใน Silicon Valley พิจารณา และ AMD ก็ตอบรับทันที ชิป Am9080 นี้ผลิตได้ในราคาประมาณ 50 เซนต์ต่อชิ้น แต่สามารถขายให้ลูกค้าระดับองค์กร เช่น กองทัพ ได้ในราคาสูงถึง 700 ดอลลาร์! เรียกได้ว่าเป็นจุดเริ่มต้นที่ทำให้ AMD มีทุนและชื่อเสียงในการเข้าสู่ตลาด CPU อย่างจริงจัง แม้จะเริ่มต้นด้วยการลอกแบบ แต่ AMD ก็ไม่หยุดแค่นั้น ในปี 1976 พวกเขาทำข้อตกลงกับ Intel เพื่อเป็นผู้ผลิตสำรอง (second source) อย่างถูกกฎหมาย และต่อยอดไปสู่การผลิตชิป x86 ของตัวเองในปี 1982 ชิป Am9080 ยังมีจุดเด่นที่เหนือกว่า Intel 8080 ด้วยการใช้กระบวนการผลิตแบบ N-channel MOS ที่ทันสมัยกว่า ทำให้มีขนาดเล็กกว่าและความเร็วสูงกว่า โดยบางรุ่นสามารถทำงานได้ถึง 4.0 MHz ในขณะที่ Intel 8080 ทำได้สูงสุดแค่ 3.125 MHz เท่านั้น ✅ จุดเริ่มต้นของ AMD ในตลาด CPU ➡️ ปี 1975 AMD เริ่มผลิต Am9080 โดยลอกแบบจาก Intel 8080 ➡️ ใช้ภาพถ่ายจากตัวอย่างชิปเพื่อสร้างแผนผังวงจรใหม่ ➡️ เป็นการ reverse-engineer ที่นำไปสู่การผลิตจริง ✅ ต้นทุนต่ำ กำไรสูง ➡️ ต้นทุนการผลิตชิป Am9080 อยู่ที่ประมาณ 50 เซนต์ต่อชิ้น ➡️ ขายให้ลูกค้าระดับองค์กรในราคาสูงถึง 700 ดอลลาร์ ➡️ เป็นจุดเริ่มต้นที่ช่วยสร้างฐานการเงินให้ AMD ✅ ข้อตกลงกับ Intel เพื่อความถูกต้องตามกฎหมาย ➡️ ปี 1976 AMD เซ็นสัญญา cross-licensing กับ Intel ➡️ จ่ายค่าลิขสิทธิ์ 25,000 ดอลลาร์ และ 75,000 ดอลลาร์ต่อปี ➡️ ได้สิทธิ์เป็นผู้ผลิตสำรอง (second source) อย่างเป็นทางการ ✅ การพัฒนาเทคโนโลยีที่เหนือกว่า Intel ➡️ ใช้กระบวนการผลิต N-channel MOS ที่ทันสมัยกว่า ➡️ ขนาด die ของ Am9080 เล็กกว่า Intel 8080 ➡️ ความเร็วสูงสุดของ Am9080 อยู่ที่ 4.0 MHz ในขณะที่ Intel 8080 สูงสุดแค่ 3.125 MHz ✅ การต่อยอดสู่ชิป x86 ของ AMD ➡️ ปี 1982 AMD ผลิต Am286 ซึ่งเป็นเวอร์ชันลิขสิทธิ์ของ Intel 80286 ➡️ เป็นจุดเริ่มต้นของการผลิต CPU x86 ของ AMD อย่างเต็มตัว https://www.tomshardware.com/pc-components/cpus/amd-first-entered-the-cpu-market-with-reverse-engineered-intel-8080-clone-50-years-ago-the-am9080-cost-50-cents-apiece-to-make-but-sold-for-usd700
    WWW.TOMSHARDWARE.COM
    AMD first entered the CPU market with reverse-engineered Intel 8080 clone 50 years ago — the Am9080 cost 50 cents apiece to make, but sold for $700
    In 1975, AMD could make these processors for 50 cents and sell them for $700, providing a great financial springboard to establish the company in PC CPU making.
    0 Comments 0 Shares 103 Views 0 Reviews
  • “CISA เตือนช่องโหว่ Raisecom RAX701-GC – SSH เข้า root ได้โดยไม่ต้องยืนยันตัวตน!”

    CISA ออกประกาศเตือนช่องโหว่ร้ายแรงในเราเตอร์ Raisecom รุ่น RAX701-GC ที่ใช้ในระบบอุตสาหกรรมและโทรคมนาคม โดยช่องโหว่นี้มีรหัสว่า CVE-2025-11534 และได้คะแนน CVSS สูงถึง 9.8 ซึ่งถือว่า “วิกฤต” เพราะเปิดให้ผู้โจมตีสามารถเข้าถึง shell ของระบบด้วยสิทธิ์ root โดยไม่ต้องยืนยันตัวตนผ่าน SSH เลย

    ช่องโหว่นี้เกิดจากการที่อุปกรณ์อนุญาตให้สร้าง session SSH ได้โดยไม่ต้องผ่านขั้นตอนการยืนยันตัวตน ซึ่งผิดหลักการของระบบความปลอดภัยอย่างร้ายแรง โดย CISA จัดช่องโหว่นี้ไว้ในหมวด CWE-288: Authentication Bypass Using an Alternate Path or Channel

    อุปกรณ์ที่ได้รับผลกระทบคือ Raisecom RAX701-GC-WP-01 ที่ใช้ firmware เวอร์ชัน P200R002C52 และ P200R002C53 ซึ่งรวมถึงเวอร์ชัน 5.5.13_20180720, 5.5.27_20190111 และ 5.5.36_20190709

    ช่องโหว่นี้ถูกค้นพบโดย HD Moore และ Tod Beardsley จาก runZero และถูกแจ้งไปยัง CISA เพื่อเปิดเผยอย่างเป็นทางการ แต่ทาง Raisecom ยังไม่ตอบรับหรือออกแพตช์ใด ๆ ทำให้ผู้ดูแลระบบต้องใช้วิธีป้องกันเชิงเครือข่าย เช่น segmentation และ firewall เพื่อจำกัดการเข้าถึง

    แม้ยังไม่มีรายงานการโจมตีจริง แต่ CISA เตือนว่าเนื่องจากช่องโหว่นี้สามารถใช้จากระยะไกลได้ง่าย และให้สิทธิ์สูงสุด จึงควรรีบดำเนินการป้องกันทันที

    รายละเอียดช่องโหว่ CVE-2025-11534
    เกิดจากการ bypass authentication ใน SSH
    ผู้โจมตีสามารถเข้าถึง shell ด้วยสิทธิ์ root โดยไม่ต้อง login
    ได้คะแนน CVSS v3.1 สูงถึง 9.8
    จัดอยู่ในหมวด CWE-288 โดย CISA
    ส่งผลกระทบต่อ Raisecom RAX701-GC-WP-01 firmware หลายเวอร์ชัน

    การค้นพบและการเปิดเผย
    ค้นพบโดย HD Moore และ Tod Beardsley จาก runZero
    แจ้งไปยัง CISA เพื่อเปิดเผยอย่างเป็นทางการ
    Raisecom ยังไม่ตอบรับหรือออกแพตช์ใด ๆ
    ผู้ดูแลระบบต้องใช้วิธีป้องกันเชิงเครือข่ายแทน

    แนวทางการป้องกันจาก CISA
    แยกเครือข่ายควบคุมออกจากเครือข่ายธุรกิจ
    ใช้ firewall เพื่อจำกัดการเข้าถึงจากภายนอก
    ใช้ VPN ที่ปลอดภัยและอัปเดตอยู่เสมอ
    ตรวจสอบการเชื่อมต่อ SSH ที่ไม่ได้รับอนุญาต
    เฝ้าระวังพฤติกรรมผิดปกติจากอุปกรณ์ Raisecom

    https://securityonline.info/cisa-warns-critical-raisecom-router-flaw-cve-2025-11534-cvss-9-8-allows-unauthenticated-root-ssh-access/
    🚨 “CISA เตือนช่องโหว่ Raisecom RAX701-GC – SSH เข้า root ได้โดยไม่ต้องยืนยันตัวตน!” CISA ออกประกาศเตือนช่องโหว่ร้ายแรงในเราเตอร์ Raisecom รุ่น RAX701-GC ที่ใช้ในระบบอุตสาหกรรมและโทรคมนาคม โดยช่องโหว่นี้มีรหัสว่า CVE-2025-11534 และได้คะแนน CVSS สูงถึง 9.8 ซึ่งถือว่า “วิกฤต” เพราะเปิดให้ผู้โจมตีสามารถเข้าถึง shell ของระบบด้วยสิทธิ์ root โดยไม่ต้องยืนยันตัวตนผ่าน SSH เลย ช่องโหว่นี้เกิดจากการที่อุปกรณ์อนุญาตให้สร้าง session SSH ได้โดยไม่ต้องผ่านขั้นตอนการยืนยันตัวตน ซึ่งผิดหลักการของระบบความปลอดภัยอย่างร้ายแรง โดย CISA จัดช่องโหว่นี้ไว้ในหมวด CWE-288: Authentication Bypass Using an Alternate Path or Channel อุปกรณ์ที่ได้รับผลกระทบคือ Raisecom RAX701-GC-WP-01 ที่ใช้ firmware เวอร์ชัน P200R002C52 และ P200R002C53 ซึ่งรวมถึงเวอร์ชัน 5.5.13_20180720, 5.5.27_20190111 และ 5.5.36_20190709 ช่องโหว่นี้ถูกค้นพบโดย HD Moore และ Tod Beardsley จาก runZero และถูกแจ้งไปยัง CISA เพื่อเปิดเผยอย่างเป็นทางการ แต่ทาง Raisecom ยังไม่ตอบรับหรือออกแพตช์ใด ๆ ทำให้ผู้ดูแลระบบต้องใช้วิธีป้องกันเชิงเครือข่าย เช่น segmentation และ firewall เพื่อจำกัดการเข้าถึง แม้ยังไม่มีรายงานการโจมตีจริง แต่ CISA เตือนว่าเนื่องจากช่องโหว่นี้สามารถใช้จากระยะไกลได้ง่าย และให้สิทธิ์สูงสุด จึงควรรีบดำเนินการป้องกันทันที ✅ รายละเอียดช่องโหว่ CVE-2025-11534 ➡️ เกิดจากการ bypass authentication ใน SSH ➡️ ผู้โจมตีสามารถเข้าถึง shell ด้วยสิทธิ์ root โดยไม่ต้อง login ➡️ ได้คะแนน CVSS v3.1 สูงถึง 9.8 ➡️ จัดอยู่ในหมวด CWE-288 โดย CISA ➡️ ส่งผลกระทบต่อ Raisecom RAX701-GC-WP-01 firmware หลายเวอร์ชัน ✅ การค้นพบและการเปิดเผย ➡️ ค้นพบโดย HD Moore และ Tod Beardsley จาก runZero ➡️ แจ้งไปยัง CISA เพื่อเปิดเผยอย่างเป็นทางการ ➡️ Raisecom ยังไม่ตอบรับหรือออกแพตช์ใด ๆ ➡️ ผู้ดูแลระบบต้องใช้วิธีป้องกันเชิงเครือข่ายแทน ✅ แนวทางการป้องกันจาก CISA ➡️ แยกเครือข่ายควบคุมออกจากเครือข่ายธุรกิจ ➡️ ใช้ firewall เพื่อจำกัดการเข้าถึงจากภายนอก ➡️ ใช้ VPN ที่ปลอดภัยและอัปเดตอยู่เสมอ ➡️ ตรวจสอบการเชื่อมต่อ SSH ที่ไม่ได้รับอนุญาต ➡️ เฝ้าระวังพฤติกรรมผิดปกติจากอุปกรณ์ Raisecom https://securityonline.info/cisa-warns-critical-raisecom-router-flaw-cve-2025-11534-cvss-9-8-allows-unauthenticated-root-ssh-access/
    SECURITYONLINE.INFO
    CISA Warns: Critical Raisecom Router Flaw (CVE-2025-11534, CVSS 9.8) Allows Unauthenticated Root SSH Access
    CISA issued an alert for a Critical (CVSS 9.8) Auth Bypass flaw (CVE-2025-11534) in Raisecom RAX701-GC routers, allowing unauthenticated root shell via SSH. The vendor has not yet responded with a patch.
    0 Comments 0 Shares 139 Views 0 Reviews
  • “Scattered LAPSUS$ Hunters เปลี่ยนกลยุทธ์ – เปิดบริการ EaaS และล่าคนวงใน หลังแฮก Salesforce!”

    นักวิจัยจาก Unit 42 ของ Palo Alto Networks พบว่ากลุ่มแฮกเกอร์ชื่อ Scattered LAPSUS$ Hunters ซึ่งเชื่อมโยงกับ Bling Libra syndicate กำลังเปลี่ยนกลยุทธ์จากการใช้ ransomware มาเป็น Extortion-as-a-Service (EaaS) คือเน้นขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัสไฟล์

    หลังจากแฮก Salesforce และขโมยข้อมูลกว่า 1 พันล้านรายการ พวกเขาเริ่มรุกหนัก โดยเปิด Telegram channel ชื่อ “SLSH 6.0 part 3” เพื่อโชว์ข้อมูลที่ขโมยมา และประกาศว่า “จะไม่ปล่อยข้อมูลเพิ่ม เพราะสิ่งที่มีอยู่มันร้ายแรงเกินกว่าจะเปิดเผย”

    กลุ่มนี้ยังเปิดรับสมัคร “คนวงใน” จากบริษัทต่าง ๆ เช่น call center, gaming, SaaS, telecom และ hosting provider ในหลายประเทศ เพื่อให้พนักงานขาย credentials หรือเข้าถึงระบบภายในได้ง่ายขึ้น

    ที่น่าสนใจคือพวกเขา tease ว่ากำลังพัฒนา ransomware ตัวใหม่ชื่อ SHINYSP1D3R ซึ่งอาจเป็นแค่เครื่องมือสร้างภาพลักษณ์เพื่อดึง affiliate เข้าร่วม EaaS มากกว่าจะใช้จริง เพราะจนถึงตอนนี้ยังไม่มีการเข้ารหัสไฟล์จากกลุ่มนี้เลย

    Unit 42 ยังพบว่าเว็บไซต์ data leak ของกลุ่มถูก deface และไม่สามารถยืนยันได้ว่าข้อมูลยังอยู่หรือไม่ ซึ่งอาจเป็นผลจากแรงกดดันจากหน่วยงานรัฐหรือความเสี่ยงทางกฎหมาย

    กลยุทธ์ใหม่ของ Scattered LAPSUS$ Hunters
    เปลี่ยนจาก ransomware เป็น Extortion-as-a-Service (EaaS)
    ขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัส
    ลดความเสี่ยงจากการถูกไล่ล่าทางกฎหมาย
    ใช้ Telegram channel เป็นช่องทางสื่อสารและโชว์ข้อมูล

    การล่าคนวงใน
    เปิดรับสมัครพนักงานจากหลายอุตสาหกรรม
    เน้น call center, gaming, SaaS, telecom และ hosting provider
    ใช้ insider access เพื่อ bypass ระบบรักษาความปลอดภัย
    คล้ายกับกลยุทธ์ของกลุ่ม Muddled Libra (Scattered Spider)

    การ tease ransomware ใหม่
    ชื่อว่า SHINYSP1D3R
    อาจเป็นแค่เครื่องมือสร้างภาพลักษณ์
    ยังไม่มีหลักฐานการเข้ารหัสไฟล์
    อาจใช้เพื่อดึง affiliate เข้าร่วม EaaS

    ความเคลื่อนไหวล่าสุด
    ข้อมูลจาก 6 องค์กรถูกปล่อยหลัง deadline
    รวมถึง PII เช่น ชื่อ, วันเกิด, เบอร์โทร, ข้อมูล frequent flyer
    เว็บไซต์ data leak ถูก deface ไม่สามารถเข้าถึงได้
    กลุ่มประกาศว่าจะไม่ปล่อยข้อมูลเพิ่ม

    https://securityonline.info/scattered-lapsus-hunters-pivot-to-eaas-launch-insider-recruitment-campaign-after-salesforce-extortion/
    🕶️ “Scattered LAPSUS$ Hunters เปลี่ยนกลยุทธ์ – เปิดบริการ EaaS และล่าคนวงใน หลังแฮก Salesforce!” นักวิจัยจาก Unit 42 ของ Palo Alto Networks พบว่ากลุ่มแฮกเกอร์ชื่อ Scattered LAPSUS$ Hunters ซึ่งเชื่อมโยงกับ Bling Libra syndicate กำลังเปลี่ยนกลยุทธ์จากการใช้ ransomware มาเป็น Extortion-as-a-Service (EaaS) คือเน้นขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัสไฟล์ หลังจากแฮก Salesforce และขโมยข้อมูลกว่า 1 พันล้านรายการ พวกเขาเริ่มรุกหนัก โดยเปิด Telegram channel ชื่อ “SLSH 6.0 part 3” เพื่อโชว์ข้อมูลที่ขโมยมา และประกาศว่า “จะไม่ปล่อยข้อมูลเพิ่ม เพราะสิ่งที่มีอยู่มันร้ายแรงเกินกว่าจะเปิดเผย” กลุ่มนี้ยังเปิดรับสมัคร “คนวงใน” จากบริษัทต่าง ๆ เช่น call center, gaming, SaaS, telecom และ hosting provider ในหลายประเทศ เพื่อให้พนักงานขาย credentials หรือเข้าถึงระบบภายในได้ง่ายขึ้น ที่น่าสนใจคือพวกเขา tease ว่ากำลังพัฒนา ransomware ตัวใหม่ชื่อ SHINYSP1D3R ซึ่งอาจเป็นแค่เครื่องมือสร้างภาพลักษณ์เพื่อดึง affiliate เข้าร่วม EaaS มากกว่าจะใช้จริง เพราะจนถึงตอนนี้ยังไม่มีการเข้ารหัสไฟล์จากกลุ่มนี้เลย Unit 42 ยังพบว่าเว็บไซต์ data leak ของกลุ่มถูก deface และไม่สามารถยืนยันได้ว่าข้อมูลยังอยู่หรือไม่ ซึ่งอาจเป็นผลจากแรงกดดันจากหน่วยงานรัฐหรือความเสี่ยงทางกฎหมาย ✅ กลยุทธ์ใหม่ของ Scattered LAPSUS$ Hunters ➡️ เปลี่ยนจาก ransomware เป็น Extortion-as-a-Service (EaaS) ➡️ ขโมยข้อมูลแล้วเรียกค่าไถ่โดยไม่เข้ารหัส ➡️ ลดความเสี่ยงจากการถูกไล่ล่าทางกฎหมาย ➡️ ใช้ Telegram channel เป็นช่องทางสื่อสารและโชว์ข้อมูล ✅ การล่าคนวงใน ➡️ เปิดรับสมัครพนักงานจากหลายอุตสาหกรรม ➡️ เน้น call center, gaming, SaaS, telecom และ hosting provider ➡️ ใช้ insider access เพื่อ bypass ระบบรักษาความปลอดภัย ➡️ คล้ายกับกลยุทธ์ของกลุ่ม Muddled Libra (Scattered Spider) ✅ การ tease ransomware ใหม่ ➡️ ชื่อว่า SHINYSP1D3R ➡️ อาจเป็นแค่เครื่องมือสร้างภาพลักษณ์ ➡️ ยังไม่มีหลักฐานการเข้ารหัสไฟล์ ➡️ อาจใช้เพื่อดึง affiliate เข้าร่วม EaaS ✅ ความเคลื่อนไหวล่าสุด ➡️ ข้อมูลจาก 6 องค์กรถูกปล่อยหลัง deadline ➡️ รวมถึง PII เช่น ชื่อ, วันเกิด, เบอร์โทร, ข้อมูล frequent flyer ➡️ เว็บไซต์ data leak ถูก deface ไม่สามารถเข้าถึงได้ ➡️ กลุ่มประกาศว่าจะไม่ปล่อยข้อมูลเพิ่ม https://securityonline.info/scattered-lapsus-hunters-pivot-to-eaas-launch-insider-recruitment-campaign-after-salesforce-extortion/
    SECURITYONLINE.INFO
    Scattered LAPSUS$ Hunters Pivot to EaaS, Launch Insider Recruitment Campaign After Salesforce Extortion
    Unit 42 exposed Scattered LAPSUS$ Hunters pivoting to Extortion-as-a-Service (EaaS) after Salesforce leaks. The group is recruiting insiders and teasing SHINYSP1D3R ransomware on Telegram.
    0 Comments 0 Shares 118 Views 0 Reviews
  • “Your Data Model Is Your Destiny” — เมื่อโครงสร้างข้อมูลกลายเป็นโชคชะตาของผลิตภัณฑ์

    Matt Brown จาก Matrix Partners เสนอแนวคิดที่ทรงพลังว่า “โมเดลข้อมูล” (data model) คือแก่นแท้ที่กำหนดทิศทางของสตาร์ทอัพ ไม่ใช่แค่ในระดับฐานข้อมูล แต่รวมถึงวิธีที่ผลิตภัณฑ์เข้าใจโลก, การออกแบบ UI, การตั้งราคาจนถึงกลยุทธ์ go-to-market

    เขาอธิบายว่า ทุกบริษัทมี data model อยู่แล้ว ไม่ว่าจะรู้ตัวหรือไม่ และการเลือกโมเดลที่ “ถูกต้อง” ตั้งแต่ต้นสามารถสร้างความได้เปรียบที่คู่แข่งเลียนแบบไม่ได้ เพราะมันฝังอยู่ในโครงสร้างลึกของผลิตภัณฑ์

    ตัวอย่างบริษัทที่ประสบความสำเร็จจากการเลือก data model ที่แตกต่าง:

    Slack: ใช้ “channel” เป็นหน่วยหลัก แทนที่จะเป็นข้อความชั่วคราวแบบ email
    Toast: ยกระดับ “menu item” ให้เป็นวัตถุหลักที่มีตรรกะของร้านอาหารในตัว
    Notion: ใช้ “block” แทน document ทำให้ยืดหยุ่นและรวมหลายเครื่องมือไว้ในที่เดียว
    Figma: เปลี่ยนจากไฟล์เป็น “canvas” ที่แชร์ได้แบบเรียลไทม์
    Rippling: ใช้ “employee” เป็นศูนย์กลาง เชื่อมโยง HR, IT, finance เข้าด้วยกัน
    Klaviyo: ยกระดับ “order data” ให้เทียบเท่า email เพื่อการตลาดที่แม่นยำ
    ServiceNow: เชื่อม ticket เข้ากับ service map ทำให้ IT ทำงานเชิงรุกแทนการแก้ปัญหาเฉพาะหน้า

    Brown เตือนว่า AI กำลังทำให้การเขียนโค้ดกลายเป็น commodity แต่โมเดลข้อมูลที่ดีจะกลายเป็น “moat” ที่ป้องกันไม่ให้คู่แข่งลอกเลียนได้ง่าย

    Data model คือสิ่งที่ผลิตภัณฑ์เลือกให้ความสำคัญ
    มันกำหนดว่า “อะไร” คือหน่วยหลักของโลกที่ผลิตภัณฑ์เข้าใจ

    โมเดลข้อมูลส่งผลต่อ UI, การตั้งราคา, การตลาด และกลยุทธ์
    เช่น UI จะเน้น object ไหน, คิดเงินตามอะไร, ขายด้วย pain point อะไร

    บริษัทที่ประสบความสำเร็จมักมี data model ที่แตกต่างและลึกซึ้ง
    เช่น Slack, Notion, Figma, Toast, Rippling

    โมเดลข้อมูลที่ดีจะสร้าง “compound advantage”
    ฟีเจอร์ใหม่จะต่อยอดจากข้อมูลเดิมได้ทันที

    การเลือก data model ที่ดีควรเริ่มจาก “workflow” ไม่ใช่ schema
    ถามว่า “หน่วยงานหลักของงานในโดเมนนี้คืออะไร”

    การ audit data model ทำได้โดยดู foreign keys และ core actions
    ตารางไหนมี foreign key มากสุด อาจเป็น object หลักของระบบ

    https://notes.mtb.xyz/p/your-data-model-is-your-destiny
    🧩 “Your Data Model Is Your Destiny” — เมื่อโครงสร้างข้อมูลกลายเป็นโชคชะตาของผลิตภัณฑ์ Matt Brown จาก Matrix Partners เสนอแนวคิดที่ทรงพลังว่า “โมเดลข้อมูล” (data model) คือแก่นแท้ที่กำหนดทิศทางของสตาร์ทอัพ ไม่ใช่แค่ในระดับฐานข้อมูล แต่รวมถึงวิธีที่ผลิตภัณฑ์เข้าใจโลก, การออกแบบ UI, การตั้งราคาจนถึงกลยุทธ์ go-to-market เขาอธิบายว่า ทุกบริษัทมี data model อยู่แล้ว ไม่ว่าจะรู้ตัวหรือไม่ และการเลือกโมเดลที่ “ถูกต้อง” ตั้งแต่ต้นสามารถสร้างความได้เปรียบที่คู่แข่งเลียนแบบไม่ได้ เพราะมันฝังอยู่ในโครงสร้างลึกของผลิตภัณฑ์ ตัวอย่างบริษัทที่ประสบความสำเร็จจากการเลือก data model ที่แตกต่าง: 🍁 Slack: ใช้ “channel” เป็นหน่วยหลัก แทนที่จะเป็นข้อความชั่วคราวแบบ email 🍁 Toast: ยกระดับ “menu item” ให้เป็นวัตถุหลักที่มีตรรกะของร้านอาหารในตัว 🍁 Notion: ใช้ “block” แทน document ทำให้ยืดหยุ่นและรวมหลายเครื่องมือไว้ในที่เดียว 🍁 Figma: เปลี่ยนจากไฟล์เป็น “canvas” ที่แชร์ได้แบบเรียลไทม์ 🍁 Rippling: ใช้ “employee” เป็นศูนย์กลาง เชื่อมโยง HR, IT, finance เข้าด้วยกัน 🍁 Klaviyo: ยกระดับ “order data” ให้เทียบเท่า email เพื่อการตลาดที่แม่นยำ 🍁 ServiceNow: เชื่อม ticket เข้ากับ service map ทำให้ IT ทำงานเชิงรุกแทนการแก้ปัญหาเฉพาะหน้า Brown เตือนว่า AI กำลังทำให้การเขียนโค้ดกลายเป็น commodity แต่โมเดลข้อมูลที่ดีจะกลายเป็น “moat” ที่ป้องกันไม่ให้คู่แข่งลอกเลียนได้ง่าย ✅ Data model คือสิ่งที่ผลิตภัณฑ์เลือกให้ความสำคัญ ➡️ มันกำหนดว่า “อะไร” คือหน่วยหลักของโลกที่ผลิตภัณฑ์เข้าใจ ✅ โมเดลข้อมูลส่งผลต่อ UI, การตั้งราคา, การตลาด และกลยุทธ์ ➡️ เช่น UI จะเน้น object ไหน, คิดเงินตามอะไร, ขายด้วย pain point อะไร ✅ บริษัทที่ประสบความสำเร็จมักมี data model ที่แตกต่างและลึกซึ้ง ➡️ เช่น Slack, Notion, Figma, Toast, Rippling ✅ โมเดลข้อมูลที่ดีจะสร้าง “compound advantage” ➡️ ฟีเจอร์ใหม่จะต่อยอดจากข้อมูลเดิมได้ทันที ✅ การเลือก data model ที่ดีควรเริ่มจาก “workflow” ไม่ใช่ schema ➡️ ถามว่า “หน่วยงานหลักของงานในโดเมนนี้คืออะไร” ✅ การ audit data model ทำได้โดยดู foreign keys และ core actions ➡️ ตารางไหนมี foreign key มากสุด อาจเป็น object หลักของระบบ https://notes.mtb.xyz/p/your-data-model-is-your-destiny
    NOTES.MTB.XYZ
    Your data model is your destiny
    Your product's core abstractions determine whether new features compound into a moat or just add to a feature list. Here's how to get it right.
    0 Comments 0 Shares 153 Views 0 Reviews
  • https://youtu.be/HN1J7szaQ_w?si=Wqhi2TT7QYTfNMGc เล่าเรื่องฟังเพลินๆ #shinachannel #เคลียร์INSIDE #นักข่าว #สายทหาร #ไทยกัมพูชา #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #ว่างว่างก็แวะมา
    https://youtu.be/HN1J7szaQ_w?si=Wqhi2TT7QYTfNMGc เล่าเรื่องฟังเพลินๆ #shinachannel #เคลียร์INSIDE #นักข่าว #สายทหาร #ไทยกัมพูชา #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #ว่างว่างก็แวะมา
    0 Comments 0 Shares 90 Views 0 Reviews
  • “PipeWire 1.6 มาแล้ว!” — รองรับ Bluetooth ASHA สำหรับเครื่องช่วยฟัง พร้อมฟีเจอร์ใหม่เพียบสำหรับสายเสียงและวิดีโอบน Linux

    PipeWire 1.6 ซึ่งเป็นระบบจัดการเสียงและวิดีโอแบบ low-latency บน Linux ได้เข้าสู่ช่วงพัฒนาแล้ว โดยเวอร์ชันใหม่นี้มาพร้อมฟีเจอร์เด่นคือการรองรับ Bluetooth ASHA (Audio Streaming for Hearing Aid) ซึ่งช่วยให้ผู้ใช้เครื่องช่วยฟังสามารถเชื่อมต่อกับระบบเสียงของ Linux ได้โดยตรงผ่าน Bluetooth

    นอกจากนี้ยังมีการปรับปรุงหลายด้าน เช่น:
    รองรับ MIDI 2.0 clip
    เพิ่มตัวช่วยจัดการ timeout แบบใหม่
    เพิ่มตัวอย่าง config สำหรับ Dolby Surround และ Dolby Pro Logic II
    รองรับหูฟัง Razer BlackShark v3 และลำโพง Logitech Z407
    ปรับปรุงการตั้งค่า ALSA node ให้ทำงานร่วมกับ Firewire driver ได้ดีขึ้น
    เพิ่มฟีเจอร์ telephony และแก้ปัญหา packet loss สำหรับ Bluetooth codecs
    รองรับการอ่านตำแหน่ง channel จาก HDMI ELD
    เพิ่ม benchmark สำหรับ AEC แบบ offline
    รองรับ H.265 เป็น video format
    เพิ่ม ONNX filter และ FFmpeg avfilter plugin
    ปรับปรุงการเล่น DSD ด้วย pw-cat
    รองรับ metadata และ latency ใน filter-graph
    เพิ่มความสามารถให้ plugin filter-graph รับได้ถึง 8 channel

    PipeWire 1.6 ยังมีการปรับปรุงด้านความปลอดภัย เช่น การ rewrite parser ของ control stream ให้ปลอดภัยจาก concurrent update และการ lock loop ด้วย priority inversion

    ผู้ใช้สามารถดาวน์โหลด Release Candidate ได้จาก GitLab ของโครงการ แต่ควรทราบว่านี่เป็นเวอร์ชัน pre-release ที่ยังไม่เหมาะกับการใช้งานจริงในระบบ production

    ข้อมูลในข่าว
    PipeWire 1.6 รองรับ Bluetooth ASHA สำหรับเครื่องช่วยฟัง
    เพิ่ม MIDI 2.0 clip support และ timer-queue helper
    มี config ตัวอย่างสำหรับ Dolby Surround และ Pro Logic II
    รองรับอุปกรณ์ใหม่ เช่น Razer BlackShark v3 และ Logitech Z407
    ปรับปรุง ALSA node สำหรับ Firewire driver
    เพิ่มฟีเจอร์ telephony และแก้ packet loss สำหรับ Bluetooth codecs
    รองรับ HDMI ELD, offline AEC benchmark และ H.265 video format
    เพิ่ม ONNX filter และ FFmpeg plugin
    ปรับปรุง DSD playback, metadata, latency และ channel support
    ปรับ parser ให้ปลอดภัยจาก concurrent update
    รองรับ plugin filter-graph สูงสุด 8 channel
    Release Candidate พร้อมดาวน์โหลดจาก GitLab

    https://9to5linux.com/pipewire-1-6-promises-bluetooth-audio-streaming-for-hearing-aid-support
    🔊 “PipeWire 1.6 มาแล้ว!” — รองรับ Bluetooth ASHA สำหรับเครื่องช่วยฟัง พร้อมฟีเจอร์ใหม่เพียบสำหรับสายเสียงและวิดีโอบน Linux PipeWire 1.6 ซึ่งเป็นระบบจัดการเสียงและวิดีโอแบบ low-latency บน Linux ได้เข้าสู่ช่วงพัฒนาแล้ว โดยเวอร์ชันใหม่นี้มาพร้อมฟีเจอร์เด่นคือการรองรับ Bluetooth ASHA (Audio Streaming for Hearing Aid) ซึ่งช่วยให้ผู้ใช้เครื่องช่วยฟังสามารถเชื่อมต่อกับระบบเสียงของ Linux ได้โดยตรงผ่าน Bluetooth นอกจากนี้ยังมีการปรับปรุงหลายด้าน เช่น: 🎗️ รองรับ MIDI 2.0 clip 🎗️ เพิ่มตัวช่วยจัดการ timeout แบบใหม่ 🎗️ เพิ่มตัวอย่าง config สำหรับ Dolby Surround และ Dolby Pro Logic II 🎗️ รองรับหูฟัง Razer BlackShark v3 และลำโพง Logitech Z407 🎗️ ปรับปรุงการตั้งค่า ALSA node ให้ทำงานร่วมกับ Firewire driver ได้ดีขึ้น 🎗️ เพิ่มฟีเจอร์ telephony และแก้ปัญหา packet loss สำหรับ Bluetooth codecs 🎗️ รองรับการอ่านตำแหน่ง channel จาก HDMI ELD 🎗️ เพิ่ม benchmark สำหรับ AEC แบบ offline 🎗️ รองรับ H.265 เป็น video format 🎗️ เพิ่ม ONNX filter และ FFmpeg avfilter plugin 🎗️ ปรับปรุงการเล่น DSD ด้วย pw-cat 🎗️ รองรับ metadata และ latency ใน filter-graph 🎗️ เพิ่มความสามารถให้ plugin filter-graph รับได้ถึง 8 channel PipeWire 1.6 ยังมีการปรับปรุงด้านความปลอดภัย เช่น การ rewrite parser ของ control stream ให้ปลอดภัยจาก concurrent update และการ lock loop ด้วย priority inversion ผู้ใช้สามารถดาวน์โหลด Release Candidate ได้จาก GitLab ของโครงการ แต่ควรทราบว่านี่เป็นเวอร์ชัน pre-release ที่ยังไม่เหมาะกับการใช้งานจริงในระบบ production ✅ ข้อมูลในข่าว ➡️ PipeWire 1.6 รองรับ Bluetooth ASHA สำหรับเครื่องช่วยฟัง ➡️ เพิ่ม MIDI 2.0 clip support และ timer-queue helper ➡️ มี config ตัวอย่างสำหรับ Dolby Surround และ Pro Logic II ➡️ รองรับอุปกรณ์ใหม่ เช่น Razer BlackShark v3 และ Logitech Z407 ➡️ ปรับปรุง ALSA node สำหรับ Firewire driver ➡️ เพิ่มฟีเจอร์ telephony และแก้ packet loss สำหรับ Bluetooth codecs ➡️ รองรับ HDMI ELD, offline AEC benchmark และ H.265 video format ➡️ เพิ่ม ONNX filter และ FFmpeg plugin ➡️ ปรับปรุง DSD playback, metadata, latency และ channel support ➡️ ปรับ parser ให้ปลอดภัยจาก concurrent update ➡️ รองรับ plugin filter-graph สูงสุด 8 channel ➡️ Release Candidate พร้อมดาวน์โหลดจาก GitLab https://9to5linux.com/pipewire-1-6-promises-bluetooth-audio-streaming-for-hearing-aid-support
    9TO5LINUX.COM
    PipeWire 1.6 Promises Bluetooth Audio Streaming for Hearing Aid Support - 9to5Linux
    PipeWire 1.6 open-source server for handling audio/video streams and hardware on Linux is now available for public beta testing.
    0 Comments 0 Shares 139 Views 0 Reviews
  • “Frore LiquidJet: แผ่นระบายความร้อนยุคใหม่เพื่อ AI GPU พลังสูง” — รับมือความร้อนระดับ 4,400W ด้วยเทคโนโลยีไมโครเจ็ต 3D

    Frore Systems เปิดตัว LiquidJet แผ่นระบายความร้อนแบบ coldplate รุ่นใหม่ที่ออกแบบมาเพื่อรองรับ GPU สำหรับงาน AI ที่มีอัตราการใช้พลังงานสูงมาก เช่น Nvidia Blackwell Ultra และ Feynman ที่มี TDP สูงสุดถึง 4,400W

    LiquidJet ใช้โครงสร้างไมโครเจ็ตแบบ 3D short-loop jet-channel ซึ่งช่วยเพิ่มความหนาแน่นของพลังงานที่จุดร้อน (hotspot) ได้ถึง 600 W/cm² และลดการสูญเสียแรงดันถึง 4 เท่าเมื่อเทียบกับ coldplate แบบเดิม ทำให้สามารถรักษาอุณหภูมิและประสิทธิภาพของ GPU ได้แม้ในสภาวะโหลดเต็ม

    เทคโนโลยีนี้ใช้กระบวนการผลิตแบบเดียวกับเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะระดับไมครอน เพื่อให้สามารถปรับโครงสร้างของเจ็ตให้เหมาะกับแผนที่ความร้อนของแต่ละชิปได้อย่างแม่นยำ

    LiquidJet ยังสามารถปรับใช้กับ GPU รุ่นถัดไป เช่น Rubin (1,800W), Rubin Ultra (3,600W) และ Feynman (4,400W) โดยไม่ต้องเปลี่ยนโครงสร้างระบบระบายความร้อนทั้งหมด

    นอกจากการลดอุณหภูมิแล้ว ระบบนี้ยังช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน รวมถึงลดการใช้พลังงานของปั๊มน้ำ ทำให้ประหยัดค่าใช้จ่ายและเพิ่มประสิทธิภาพโดยรวมของศูนย์ข้อมูล

    ข้อมูลในข่าว
    Frore เปิดตัว LiquidJet coldplate สำหรับ GPU ที่ใช้พลังงานสูงถึง 4,400W
    ใช้โครงสร้าง 3D short-loop jet-channel เพื่อเพิ่มประสิทธิภาพการระบายความร้อน
    รองรับ hotspot power density สูงถึง 600 W/cm²
    ลดแรงดันตกจาก 0.94 psi เหลือ 0.24 psi
    ใช้กระบวนการผลิตแบบเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะ
    ปรับโครงสร้างเจ็ตให้เหมาะกับ hotspot map ของแต่ละชิป
    รองรับ GPU รุ่นถัดไป เช่น Rubin, Rubin Ultra และ Feynman
    ช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน
    ลดการใช้พลังงานของปั๊มน้ำ เพิ่ม PUE และลด TCO
    พร้อมใช้งานกับระบบ Blackwell Ultra และสามารถติดตั้งแบบ drop-in

    คำเตือนจากข้อมูลข่าว
    GPU ยุคใหม่มีอัตราการใช้พลังงานสูงมาก อาจเกินขีดจำกัดของระบบระบายความร้อนเดิม
    การผลิต coldplate แบบ 3D ต้องใช้เทคโนโลยีขั้นสูงและต้นทุนสูง
    การปรับโครงสร้างเจ็ตให้เหมาะกับแต่ละชิปต้องใช้ข้อมูลความร้อนที่แม่นยำ
    หากไม่ใช้ระบบระบายความร้อนที่เหมาะสม อาจทำให้ GPU ทำงานไม่เต็มประสิทธิภาพ
    การเปลี่ยนมาใช้ LiquidJet อาจต้องปรับระบบปั๊มน้ำและการติดตั้งใหม่
    ความร้อนที่สูงขึ้นในศูนย์ข้อมูลอาจส่งผลต่ออุปกรณ์อื่นและโครงสร้างพื้นฐาน

    https://www.tomshardware.com/pc-components/liquid-cooling/frores-new-liquidjet-coldplates-are-equipped-to-handle-the-spiralling-power-demands-of-future-ai-gpus-built-to-handle-up-to-4-4kw-tdps-solution-could-be-deployed-in-power-hungry-feynman-data-centers
    💧 “Frore LiquidJet: แผ่นระบายความร้อนยุคใหม่เพื่อ AI GPU พลังสูง” — รับมือความร้อนระดับ 4,400W ด้วยเทคโนโลยีไมโครเจ็ต 3D Frore Systems เปิดตัว LiquidJet แผ่นระบายความร้อนแบบ coldplate รุ่นใหม่ที่ออกแบบมาเพื่อรองรับ GPU สำหรับงาน AI ที่มีอัตราการใช้พลังงานสูงมาก เช่น Nvidia Blackwell Ultra และ Feynman ที่มี TDP สูงสุดถึง 4,400W LiquidJet ใช้โครงสร้างไมโครเจ็ตแบบ 3D short-loop jet-channel ซึ่งช่วยเพิ่มความหนาแน่นของพลังงานที่จุดร้อน (hotspot) ได้ถึง 600 W/cm² และลดการสูญเสียแรงดันถึง 4 เท่าเมื่อเทียบกับ coldplate แบบเดิม ทำให้สามารถรักษาอุณหภูมิและประสิทธิภาพของ GPU ได้แม้ในสภาวะโหลดเต็ม เทคโนโลยีนี้ใช้กระบวนการผลิตแบบเดียวกับเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะระดับไมครอน เพื่อให้สามารถปรับโครงสร้างของเจ็ตให้เหมาะกับแผนที่ความร้อนของแต่ละชิปได้อย่างแม่นยำ LiquidJet ยังสามารถปรับใช้กับ GPU รุ่นถัดไป เช่น Rubin (1,800W), Rubin Ultra (3,600W) และ Feynman (4,400W) โดยไม่ต้องเปลี่ยนโครงสร้างระบบระบายความร้อนทั้งหมด นอกจากการลดอุณหภูมิแล้ว ระบบนี้ยังช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน รวมถึงลดการใช้พลังงานของปั๊มน้ำ ทำให้ประหยัดค่าใช้จ่ายและเพิ่มประสิทธิภาพโดยรวมของศูนย์ข้อมูล ✅ ข้อมูลในข่าว ➡️ Frore เปิดตัว LiquidJet coldplate สำหรับ GPU ที่ใช้พลังงานสูงถึง 4,400W ➡️ ใช้โครงสร้าง 3D short-loop jet-channel เพื่อเพิ่มประสิทธิภาพการระบายความร้อน ➡️ รองรับ hotspot power density สูงถึง 600 W/cm² ➡️ ลดแรงดันตกจาก 0.94 psi เหลือ 0.24 psi ➡️ ใช้กระบวนการผลิตแบบเซมิคอนดักเตอร์ เช่น การกัดและเชื่อมแผ่นโลหะ ➡️ ปรับโครงสร้างเจ็ตให้เหมาะกับ hotspot map ของแต่ละชิป ➡️ รองรับ GPU รุ่นถัดไป เช่น Rubin, Rubin Ultra และ Feynman ➡️ ช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่เพิ่มพลังงาน ➡️ ลดการใช้พลังงานของปั๊มน้ำ เพิ่ม PUE และลด TCO ➡️ พร้อมใช้งานกับระบบ Blackwell Ultra และสามารถติดตั้งแบบ drop-in ‼️ คำเตือนจากข้อมูลข่าว ⛔ GPU ยุคใหม่มีอัตราการใช้พลังงานสูงมาก อาจเกินขีดจำกัดของระบบระบายความร้อนเดิม ⛔ การผลิต coldplate แบบ 3D ต้องใช้เทคโนโลยีขั้นสูงและต้นทุนสูง ⛔ การปรับโครงสร้างเจ็ตให้เหมาะกับแต่ละชิปต้องใช้ข้อมูลความร้อนที่แม่นยำ ⛔ หากไม่ใช้ระบบระบายความร้อนที่เหมาะสม อาจทำให้ GPU ทำงานไม่เต็มประสิทธิภาพ ⛔ การเปลี่ยนมาใช้ LiquidJet อาจต้องปรับระบบปั๊มน้ำและการติดตั้งใหม่ ⛔ ความร้อนที่สูงขึ้นในศูนย์ข้อมูลอาจส่งผลต่ออุปกรณ์อื่นและโครงสร้างพื้นฐาน https://www.tomshardware.com/pc-components/liquid-cooling/frores-new-liquidjet-coldplates-are-equipped-to-handle-the-spiralling-power-demands-of-future-ai-gpus-built-to-handle-up-to-4-4kw-tdps-solution-could-be-deployed-in-power-hungry-feynman-data-centers
    0 Comments 0 Shares 208 Views 0 Reviews
  • “Firefox 144 มาแล้ว! ปรับปรุง PiP, เสริมความปลอดภัย และเพิ่มฟีเจอร์ใหม่เพียบทั้งบนเว็บและมือถือ”

    Mozilla ได้ปล่อย Firefox 144 อย่างเป็นทางการเมื่อวันที่ 13 ตุลาคม 2025 โดยมาพร้อมฟีเจอร์ใหม่ที่น่าสนใจทั้งด้านความสะดวกในการใช้งาน ความปลอดภัย และการสนับสนุนนักพัฒนาเว็บ โดยเฉพาะการปรับปรุงฟีเจอร์ Picture-in-Picture (PiP) ที่ให้ผู้ใช้สามารถปิดหน้าต่างวิดีโอแบบลอยได้โดยไม่หยุดเล่นวิดีโอ ด้วยการกด Shift + Click หรือ Shift + Esc

    นอกจากนี้ Firefox 144 ยังอัปเดตปุ่ม Firefox Account บนแถบเครื่องมือให้แสดงคำว่า “Sign In” ชัดเจนขึ้น และปรับปรุงระบบเข้ารหัสรหัสผ่านใน Password Manager จาก 3DES-CBC เป็น AES-256-CBC เพื่อความปลอดภัยที่ทันสมัยยิ่งขึ้น

    สำหรับผู้ใช้ Android จะเห็นแบนเนอร์แปลภาษาใหม่ และมีการลบตัวเลือก “Allow screenshots in private browsing” ออกไป ส่วนผู้ใช้ Windows จะเห็นการเปลี่ยนแปลงพฤติกรรมของการเปิดลิงก์จากแอปอื่นให้เปิดใน virtual desktop เดียวกัน

    ปล่อย Firefox 144 อย่างเป็นทางการเมื่อ 13 ตุลาคม 2025
    พร้อม Firefox 140.4 และ 115.29.0 ESR

    ปรับปรุง Picture-in-Picture (PiP)
    ปิดหน้าต่าง PiP โดยไม่หยุดวิดีโอด้วย Shift + Click หรือ Shift + Esc

    ปรับปรุงปุ่ม Firefox Account บน toolbar
    แสดงคำว่า “Sign In” ถัดจากไอคอน

    เสริมความปลอดภัยใน Password Manager
    เปลี่ยนการเข้ารหัสจาก 3DES-CBC เป็น AES-256-CBC

    สำหรับ Android:
    เพิ่มแบนเนอร์แปลภาษา
    ลบตัวเลือก “Allow screenshots in private browsing”

    สำหรับ Windows:
    เปิดลิงก์จากแอปอื่นใน virtual desktop เดียวกัน

    สำหรับนักพัฒนาเว็บ:
    รองรับ Element.moveBefore API
    รองรับ math-shift compact
    รองรับ PerformanceEventTiming.interactionId
    รองรับ command และ commandfor attributes
    รองรับ View Transition API Level 1
    รองรับ resizeMode ใน getUserMedia
    รองรับ worker transfer สำหรับ RTCDataChannel
    รองรับ upsert proposal (getOrInsert, getOrInsertComputed)
    รองรับ WebGPU GPUDevice.importExternalTexture (Windows)
    รองรับ lock() และ unlock() ของ ScreenOrientation (Windows/Android)
    รองรับ dithering สำหรับ gradients บน WebRender
    เพิ่ม batch-encoding path ให้ VideoEncoder ใน WebCodecs (Windows)
    ปรับปรุง tooltip ใน Inspector ให้แสดง badge สำหรับ custom events

    https://9to5linux.com/firefox-144-is-now-available-for-download-this-is-whats-new
    🦊 “Firefox 144 มาแล้ว! ปรับปรุง PiP, เสริมความปลอดภัย และเพิ่มฟีเจอร์ใหม่เพียบทั้งบนเว็บและมือถือ” Mozilla ได้ปล่อย Firefox 144 อย่างเป็นทางการเมื่อวันที่ 13 ตุลาคม 2025 โดยมาพร้อมฟีเจอร์ใหม่ที่น่าสนใจทั้งด้านความสะดวกในการใช้งาน ความปลอดภัย และการสนับสนุนนักพัฒนาเว็บ โดยเฉพาะการปรับปรุงฟีเจอร์ Picture-in-Picture (PiP) ที่ให้ผู้ใช้สามารถปิดหน้าต่างวิดีโอแบบลอยได้โดยไม่หยุดเล่นวิดีโอ ด้วยการกด Shift + Click หรือ Shift + Esc นอกจากนี้ Firefox 144 ยังอัปเดตปุ่ม Firefox Account บนแถบเครื่องมือให้แสดงคำว่า “Sign In” ชัดเจนขึ้น และปรับปรุงระบบเข้ารหัสรหัสผ่านใน Password Manager จาก 3DES-CBC เป็น AES-256-CBC เพื่อความปลอดภัยที่ทันสมัยยิ่งขึ้น สำหรับผู้ใช้ Android จะเห็นแบนเนอร์แปลภาษาใหม่ และมีการลบตัวเลือก “Allow screenshots in private browsing” ออกไป ส่วนผู้ใช้ Windows จะเห็นการเปลี่ยนแปลงพฤติกรรมของการเปิดลิงก์จากแอปอื่นให้เปิดใน virtual desktop เดียวกัน ✅ ปล่อย Firefox 144 อย่างเป็นทางการเมื่อ 13 ตุลาคม 2025 ➡️ พร้อม Firefox 140.4 และ 115.29.0 ESR ✅ ปรับปรุง Picture-in-Picture (PiP) ➡️ ปิดหน้าต่าง PiP โดยไม่หยุดวิดีโอด้วย Shift + Click หรือ Shift + Esc ✅ ปรับปรุงปุ่ม Firefox Account บน toolbar ➡️ แสดงคำว่า “Sign In” ถัดจากไอคอน ✅ เสริมความปลอดภัยใน Password Manager ➡️ เปลี่ยนการเข้ารหัสจาก 3DES-CBC เป็น AES-256-CBC ✅ สำหรับ Android: ➡️ เพิ่มแบนเนอร์แปลภาษา ➡️ ลบตัวเลือก “Allow screenshots in private browsing” ✅ สำหรับ Windows: ➡️ เปิดลิงก์จากแอปอื่นใน virtual desktop เดียวกัน ✅ สำหรับนักพัฒนาเว็บ: ➡️ รองรับ Element.moveBefore API ➡️ รองรับ math-shift compact ➡️ รองรับ PerformanceEventTiming.interactionId ➡️ รองรับ command และ commandfor attributes ➡️ รองรับ View Transition API Level 1 ➡️ รองรับ resizeMode ใน getUserMedia ➡️ รองรับ worker transfer สำหรับ RTCDataChannel ➡️ รองรับ upsert proposal (getOrInsert, getOrInsertComputed) ➡️ รองรับ WebGPU GPUDevice.importExternalTexture (Windows) ➡️ รองรับ lock() และ unlock() ของ ScreenOrientation (Windows/Android) ➡️ รองรับ dithering สำหรับ gradients บน WebRender ➡️ เพิ่ม batch-encoding path ให้ VideoEncoder ใน WebCodecs (Windows) ➡️ ปรับปรุง tooltip ใน Inspector ให้แสดง badge สำหรับ custom events https://9to5linux.com/firefox-144-is-now-available-for-download-this-is-whats-new
    9TO5LINUX.COM
    Firefox 144 Is Now Available for Download, This Is What’s New - 9to5Linux
    Firefox 144 open-source web browser is now available for download with various new features and improvements. Here's what's new!
    0 Comments 0 Shares 221 Views 0 Reviews
  • “ChaosBot: มัลแวร์สายลับยุคใหม่ ใช้ Discord เป็นช่องสั่งการ — เจาะระบบการเงินผ่าน VPN และบัญชีแอดมิน”

    นักวิจัยจาก eSentire Threat Response Unit (TRU) ตรวจพบมัลแวร์ตัวใหม่ชื่อ “ChaosBot” ที่เขียนด้วยภาษา Rust และถูกใช้ในการโจมตีองค์กรด้านการเงิน โดยมีความสามารถพิเศษคือใช้ Discord เป็นช่องทาง Command-and-Control (C2) แบบเต็มรูปแบบ ซึ่งถือเป็นการผสมผสานระหว่างแพลตฟอร์มโซเชียลกับการปฏิบัติการไซเบอร์อย่างแนบเนียน

    ChaosBot ถูกควบคุมผ่านบัญชี Discord ที่ใช้ bot token แบบ hardcoded และสร้าง channel ใหม่ตามชื่อเครื่องที่ติดมัลแวร์ เพื่อให้แฮกเกอร์สามารถส่งคำสั่ง เช่น รัน PowerShell, ดาวน์โหลดไฟล์, อัปโหลดข้อมูล หรือจับภาพหน้าจอได้แบบเรียลไทม์

    การติดตั้งมัลแวร์เริ่มจากการใช้บัญชี Active Directory ที่มีสิทธิ์สูง (เช่น serviceaccount) และ VPN ของ Cisco ที่ถูกขโมยมา จากนั้นใช้ WMI เพื่อรันคำสั่งระยะไกลและโหลด DLL ที่ชื่อ msedge_elf.dll โดยใช้เทคนิค side-loading ผ่านไฟล์ identity_helper.exe ของ Microsoft Edge

    หลังจากติดตั้งแล้ว ChaosBot จะทำการสำรวจระบบและติดตั้ง Fast Reverse Proxy (FRP) เพื่อเปิดช่องทางสื่อสารกลับไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ SOCKS5 plugin และ IP จาก AWS ฮ่องกง นอกจากนี้ยังมีการทดลองใช้ฟีเจอร์ Tunnel ของ Visual Studio Code เพื่อสร้าง backdoor เพิ่มเติม

    มัลแวร์ยังถูกกระจายผ่านแคมเปญ phishing ที่ใช้ไฟล์ .LNK และ PowerShell script พร้อมเปิด PDF หลอกล่อ เช่นจดหมายปลอมจากธนาคารกลางเวียดนาม เพื่อเบี่ยงเบนความสนใจของเหยื่อ

    ข้อมูลสำคัญจากข่าว
    ChaosBot เป็นมัลแวร์ภาษา Rust ที่ใช้ Discord เป็นช่องทาง C2
    สร้าง channel ใหม่ตามชื่อเครื่องที่ติดมัลแวร์เพื่อควบคุมแบบเรียลไทม์
    ใช้บัญชี Active Directory และ VPN ที่ถูกขโมยมาเพื่อรันคำสั่งผ่าน WMI
    โหลด DLL ผ่าน side-loading โดยใช้ไฟล์จาก Microsoft Edge
    ติดตั้ง FRP เพื่อเปิด reverse proxy กลับไปยังเซิร์ฟเวอร์ของแฮกเกอร์
    ใช้ SOCKS5 plugin และ IP จาก AWS ฮ่องกง
    ทดลองใช้ Tunnel ของ Visual Studio Code เพื่อสร้าง backdoor เพิ่ม
    กระจายผ่าน phishing ที่ใช้ไฟล์ .LNK และ PowerShell script พร้อม PDF หลอก
    บัญชี Discord ที่ใช้ควบคุมคือ chaos_00019 และ lovebb0024
    มีการใช้คำสั่ง shell, download, upload และ screenshot ผ่าน Discord

    ข้อมูลเสริมจากภายนอก
    Rust เป็นภาษาที่นิยมใช้ในมัลแวร์ยุคใหม่เพราะประสิทธิภาพสูงและตรวจจับยาก
    Discord API เปิดให้สร้าง bot และ channel ได้ง่าย ทำให้ถูกใช้เป็น C2 ได้สะดวก
    FRP เป็นเครื่องมือโอเพ่นซอร์สที่ใช้สร้าง reverse proxy แบบเข้ารหัส
    WMI (Windows Management Instrumentation) เป็นช่องทางรันคำสั่งระยะไกลที่นิยมในองค์กร
    Side-loading คือเทคนิคที่ใช้ไฟล์จากโปรแกรมจริงเพื่อโหลด DLL อันตรายโดยไม่ถูกตรวจจับ

    https://securityonline.info/new-rust-backdoor-chaosbot-uses-discord-as-covert-c2-channel-to-target-financial-services/
    🕵️ “ChaosBot: มัลแวร์สายลับยุคใหม่ ใช้ Discord เป็นช่องสั่งการ — เจาะระบบการเงินผ่าน VPN และบัญชีแอดมิน” นักวิจัยจาก eSentire Threat Response Unit (TRU) ตรวจพบมัลแวร์ตัวใหม่ชื่อ “ChaosBot” ที่เขียนด้วยภาษา Rust และถูกใช้ในการโจมตีองค์กรด้านการเงิน โดยมีความสามารถพิเศษคือใช้ Discord เป็นช่องทาง Command-and-Control (C2) แบบเต็มรูปแบบ ซึ่งถือเป็นการผสมผสานระหว่างแพลตฟอร์มโซเชียลกับการปฏิบัติการไซเบอร์อย่างแนบเนียน ChaosBot ถูกควบคุมผ่านบัญชี Discord ที่ใช้ bot token แบบ hardcoded และสร้าง channel ใหม่ตามชื่อเครื่องที่ติดมัลแวร์ เพื่อให้แฮกเกอร์สามารถส่งคำสั่ง เช่น รัน PowerShell, ดาวน์โหลดไฟล์, อัปโหลดข้อมูล หรือจับภาพหน้าจอได้แบบเรียลไทม์ การติดตั้งมัลแวร์เริ่มจากการใช้บัญชี Active Directory ที่มีสิทธิ์สูง (เช่น serviceaccount) และ VPN ของ Cisco ที่ถูกขโมยมา จากนั้นใช้ WMI เพื่อรันคำสั่งระยะไกลและโหลด DLL ที่ชื่อ msedge_elf.dll โดยใช้เทคนิค side-loading ผ่านไฟล์ identity_helper.exe ของ Microsoft Edge หลังจากติดตั้งแล้ว ChaosBot จะทำการสำรวจระบบและติดตั้ง Fast Reverse Proxy (FRP) เพื่อเปิดช่องทางสื่อสารกลับไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ SOCKS5 plugin และ IP จาก AWS ฮ่องกง นอกจากนี้ยังมีการทดลองใช้ฟีเจอร์ Tunnel ของ Visual Studio Code เพื่อสร้าง backdoor เพิ่มเติม มัลแวร์ยังถูกกระจายผ่านแคมเปญ phishing ที่ใช้ไฟล์ .LNK และ PowerShell script พร้อมเปิด PDF หลอกล่อ เช่นจดหมายปลอมจากธนาคารกลางเวียดนาม เพื่อเบี่ยงเบนความสนใจของเหยื่อ ✅ ข้อมูลสำคัญจากข่าว ➡️ ChaosBot เป็นมัลแวร์ภาษา Rust ที่ใช้ Discord เป็นช่องทาง C2 ➡️ สร้าง channel ใหม่ตามชื่อเครื่องที่ติดมัลแวร์เพื่อควบคุมแบบเรียลไทม์ ➡️ ใช้บัญชี Active Directory และ VPN ที่ถูกขโมยมาเพื่อรันคำสั่งผ่าน WMI ➡️ โหลด DLL ผ่าน side-loading โดยใช้ไฟล์จาก Microsoft Edge ➡️ ติดตั้ง FRP เพื่อเปิด reverse proxy กลับไปยังเซิร์ฟเวอร์ของแฮกเกอร์ ➡️ ใช้ SOCKS5 plugin และ IP จาก AWS ฮ่องกง ➡️ ทดลองใช้ Tunnel ของ Visual Studio Code เพื่อสร้าง backdoor เพิ่ม ➡️ กระจายผ่าน phishing ที่ใช้ไฟล์ .LNK และ PowerShell script พร้อม PDF หลอก ➡️ บัญชี Discord ที่ใช้ควบคุมคือ chaos_00019 และ lovebb0024 ➡️ มีการใช้คำสั่ง shell, download, upload และ screenshot ผ่าน Discord ✅ ข้อมูลเสริมจากภายนอก ➡️ Rust เป็นภาษาที่นิยมใช้ในมัลแวร์ยุคใหม่เพราะประสิทธิภาพสูงและตรวจจับยาก ➡️ Discord API เปิดให้สร้าง bot และ channel ได้ง่าย ทำให้ถูกใช้เป็น C2 ได้สะดวก ➡️ FRP เป็นเครื่องมือโอเพ่นซอร์สที่ใช้สร้าง reverse proxy แบบเข้ารหัส ➡️ WMI (Windows Management Instrumentation) เป็นช่องทางรันคำสั่งระยะไกลที่นิยมในองค์กร ➡️ Side-loading คือเทคนิคที่ใช้ไฟล์จากโปรแกรมจริงเพื่อโหลด DLL อันตรายโดยไม่ถูกตรวจจับ https://securityonline.info/new-rust-backdoor-chaosbot-uses-discord-as-covert-c2-channel-to-target-financial-services/
    SECURITYONLINE.INFO
    New Rust Backdoor ChaosBot Uses Discord as Covert C2 Channel to Target Financial Services
    eSentire discovered ChaosBot, a Rust-based malware deployed via DLL sideloading that uses Discord channels as a covert C2 platform to perform reconnaissance and command execution.
    0 Comments 0 Shares 176 Views 0 Reviews
  • https://youtu.be/WLdKMFujWVQ?si=NLiwt1XgqBTjZomm เล่าเรื่องฟังเพลินๆ #shinachannel #เคลียร์INSIDE #นักข่าว #สายทหาร #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #Thaitimes #ว่างว่างก็แวะมา
    https://youtu.be/WLdKMFujWVQ?si=NLiwt1XgqBTjZomm เล่าเรื่องฟังเพลินๆ #shinachannel #เคลียร์INSIDE #นักข่าว #สายทหาร #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #Thaitimes #ว่างว่างก็แวะมา
    0 Comments 0 Shares 176 Views 0 Reviews
  • “Microsoft ปิดทางสร้างบัญชี Local บน Windows 11 — บังคับใช้ Microsoft Account ท่ามกลางการสิ้นสุดของ Windows 10”

    Microsoft กำลังทดสอบการเปลี่ยนแปลงที่สร้างแรงกระเพื่อมในกลุ่มผู้ใช้ Windows 11 โดยเฉพาะผู้ที่ต้องการความเป็นส่วนตัวและควบคุมระบบของตนเองมากขึ้น ล่าสุดใน Insider Preview Build 26220.6772 ทั้งใน Dev และ Beta Channel ได้มีการ “ปิดช่องทางทั้งหมด” ที่เคยใช้เพื่อสร้างบัญชี Local ระหว่างขั้นตอนติดตั้งระบบ (OOBE - Out-of-Box Experience)

    ก่อนหน้านี้ ผู้ใช้สามารถใช้คำสั่งพิเศษ เช่น oobe\bypassnro หรือ start ms-cxh:localonly เพื่อข้ามการล็อกอินด้วย Microsoft Account ได้ แต่ในเวอร์ชันใหม่นี้ วิธีเหล่านั้นถูกปิดหมด ทำให้ผู้ใช้ Windows 11 Home ต้องล็อกอินด้วยบัญชี Microsoft เท่านั้นในขั้นตอนติดตั้ง

    แม้ว่า Windows 11 Pro ยังสามารถใช้ “Domain Join” เพื่อสร้างบัญชี Local ได้ แต่ก็เป็นทางเลือกที่ซับซ้อนและไม่เหมาะกับผู้ใช้ทั่วไป ส่วนผู้ใช้ที่มีความรู้ด้านเทคนิคอาจใช้เครื่องมืออย่าง Rufus เพื่อสร้างไฟล์ติดตั้งที่ปรับแต่งให้ข้ามขั้นตอนนี้ได้

    ที่น่าสนใจคือ หลังจากติดตั้งเสร็จ ผู้ใช้ยังสามารถลบบัญชี Microsoft และสร้างบัญชี Local ได้ตามปกติ ซึ่งทำให้เหตุผลของ Microsoft ที่ว่า “ต้องใช้บัญชีเพื่อการตั้งค่าที่ถูกต้อง” ดูขัดแย้งในตัวเอง

    การเปลี่ยนแปลงนี้เกิดขึ้นในช่วงเวลาเดียวกับที่ Windows 10 กำลังจะสิ้นสุดการสนับสนุนในวันที่ 14 ตุลาคม 2025 ทำให้ผู้ใช้หลายล้านคนต้องย้ายไป Windows 11 และอาจพบข้อจำกัดนี้โดยไม่ทันตั้งตัว

    ข้อมูลสำคัญจากข่าว
    Microsoft ปิดช่องทางสร้างบัญชี Local ระหว่างติดตั้ง Windows 11 ใน Insider Build 26220.6772
    คำสั่ง oobe\bypassnro และ start ms-cxh:localonly ถูกปิดใช้งาน
    Windows 11 Home ต้องล็อกอินด้วย Microsoft Account ในขั้นตอนติดตั้ง
    Windows 11 Pro ยังสามารถใช้ Domain Join เพื่อสร้างบัญชี Local ได้
    เครื่องมืออย่าง Rufus ยังสามารถใช้สร้างไฟล์ติดตั้งที่ข้ามขั้นตอนนี้ได้
    หลังติดตั้งเสร็จ ผู้ใช้ยังสามารถลบบัญชี Microsoft และสร้างบัญชี Local ได้
    การเปลี่ยนแปลงนี้เกิดขึ้นก่อน Windows 10 จะสิ้นสุดการสนับสนุนในวันที่ 14 ตุลาคม 2025
    Microsoft อ้างว่าเพื่อ “การตั้งค่าที่ถูกต้อง” แต่ยังเปิดให้ลบบัญชีหลังติดตั้ง

    ข้อมูลเสริมจากภายนอก
    Windows 11 มีการผสาน Copilot และ AI เข้ากับแอปพื้นฐาน เช่น Paint และ Notepad
    การใช้ Microsoft Account ทำให้ข้อมูลผู้ใช้ถูกเชื่อมโยงกับบริการคลาวด์ เช่น OneDrive และ Microsoft 365
    ผู้ใช้บางกลุ่มมองว่าการบังคับใช้บัญชี Microsoft เป็น “dark pattern” ที่ลดเสรีภาพในการใช้งาน
    Linux กลายเป็นทางเลือกที่ได้รับความนิยมมากขึ้นในปี 2025 โดยเฉพาะในกลุ่มผู้ใช้ที่ต้องการความเป็นส่วนตัว
    การใช้บัญชี Microsoft อาจทำให้ระบบติดตั้งแอปหรือแสดงโฆษณาโดยอัตโนมัติ

    https://news.itsfoss.com/windows-11-local-account-setup-killed/
    🔒 “Microsoft ปิดทางสร้างบัญชี Local บน Windows 11 — บังคับใช้ Microsoft Account ท่ามกลางการสิ้นสุดของ Windows 10” Microsoft กำลังทดสอบการเปลี่ยนแปลงที่สร้างแรงกระเพื่อมในกลุ่มผู้ใช้ Windows 11 โดยเฉพาะผู้ที่ต้องการความเป็นส่วนตัวและควบคุมระบบของตนเองมากขึ้น ล่าสุดใน Insider Preview Build 26220.6772 ทั้งใน Dev และ Beta Channel ได้มีการ “ปิดช่องทางทั้งหมด” ที่เคยใช้เพื่อสร้างบัญชี Local ระหว่างขั้นตอนติดตั้งระบบ (OOBE - Out-of-Box Experience) ก่อนหน้านี้ ผู้ใช้สามารถใช้คำสั่งพิเศษ เช่น oobe\bypassnro หรือ start ms-cxh:localonly เพื่อข้ามการล็อกอินด้วย Microsoft Account ได้ แต่ในเวอร์ชันใหม่นี้ วิธีเหล่านั้นถูกปิดหมด ทำให้ผู้ใช้ Windows 11 Home ต้องล็อกอินด้วยบัญชี Microsoft เท่านั้นในขั้นตอนติดตั้ง แม้ว่า Windows 11 Pro ยังสามารถใช้ “Domain Join” เพื่อสร้างบัญชี Local ได้ แต่ก็เป็นทางเลือกที่ซับซ้อนและไม่เหมาะกับผู้ใช้ทั่วไป ส่วนผู้ใช้ที่มีความรู้ด้านเทคนิคอาจใช้เครื่องมืออย่าง Rufus เพื่อสร้างไฟล์ติดตั้งที่ปรับแต่งให้ข้ามขั้นตอนนี้ได้ ที่น่าสนใจคือ หลังจากติดตั้งเสร็จ ผู้ใช้ยังสามารถลบบัญชี Microsoft และสร้างบัญชี Local ได้ตามปกติ ซึ่งทำให้เหตุผลของ Microsoft ที่ว่า “ต้องใช้บัญชีเพื่อการตั้งค่าที่ถูกต้อง” ดูขัดแย้งในตัวเอง การเปลี่ยนแปลงนี้เกิดขึ้นในช่วงเวลาเดียวกับที่ Windows 10 กำลังจะสิ้นสุดการสนับสนุนในวันที่ 14 ตุลาคม 2025 ทำให้ผู้ใช้หลายล้านคนต้องย้ายไป Windows 11 และอาจพบข้อจำกัดนี้โดยไม่ทันตั้งตัว ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ปิดช่องทางสร้างบัญชี Local ระหว่างติดตั้ง Windows 11 ใน Insider Build 26220.6772 ➡️ คำสั่ง oobe\bypassnro และ start ms-cxh:localonly ถูกปิดใช้งาน ➡️ Windows 11 Home ต้องล็อกอินด้วย Microsoft Account ในขั้นตอนติดตั้ง ➡️ Windows 11 Pro ยังสามารถใช้ Domain Join เพื่อสร้างบัญชี Local ได้ ➡️ เครื่องมืออย่าง Rufus ยังสามารถใช้สร้างไฟล์ติดตั้งที่ข้ามขั้นตอนนี้ได้ ➡️ หลังติดตั้งเสร็จ ผู้ใช้ยังสามารถลบบัญชี Microsoft และสร้างบัญชี Local ได้ ➡️ การเปลี่ยนแปลงนี้เกิดขึ้นก่อน Windows 10 จะสิ้นสุดการสนับสนุนในวันที่ 14 ตุลาคม 2025 ➡️ Microsoft อ้างว่าเพื่อ “การตั้งค่าที่ถูกต้อง” แต่ยังเปิดให้ลบบัญชีหลังติดตั้ง ✅ ข้อมูลเสริมจากภายนอก ➡️ Windows 11 มีการผสาน Copilot และ AI เข้ากับแอปพื้นฐาน เช่น Paint และ Notepad ➡️ การใช้ Microsoft Account ทำให้ข้อมูลผู้ใช้ถูกเชื่อมโยงกับบริการคลาวด์ เช่น OneDrive และ Microsoft 365 ➡️ ผู้ใช้บางกลุ่มมองว่าการบังคับใช้บัญชี Microsoft เป็น “dark pattern” ที่ลดเสรีภาพในการใช้งาน ➡️ Linux กลายเป็นทางเลือกที่ได้รับความนิยมมากขึ้นในปี 2025 โดยเฉพาะในกลุ่มผู้ใช้ที่ต้องการความเป็นส่วนตัว ➡️ การใช้บัญชี Microsoft อาจทำให้ระบบติดตั้งแอปหรือแสดงโฆษณาโดยอัตโนมัติ https://news.itsfoss.com/windows-11-local-account-setup-killed/
    NEWS.ITSFOSS.COM
    Microsoft Kills Windows 11 Local Account Setup Just as Windows 10 Reaches End of Life
    Local account workarounds removed just before Windows 10 goes dark.
    0 Comments 0 Shares 212 Views 0 Reviews
  • “Microsoft แก้บั๊ก ‘Update and Shutdown’ บน Windows 11 ที่หลอกให้เครื่องรีสตาร์ทแทนการปิด — ปัญหายาวนานหลายปีใกล้จบแล้ว”

    ใครที่เคยใช้ Windows 11 แล้วเลือกคำสั่ง “Update and Shutdown” เพื่อให้เครื่องอัปเดตแล้วปิดตัวลงทันที อาจเคยเจอเหตุการณ์ไม่คาดคิด: เครื่องกลับรีสตาร์ทแทนที่จะปิด ทำให้ต้องรอให้ระบบกลับมาหน้าเดสก์ท็อป แล้วค่อยกดปิดเครื่องอีกครั้ง — เสียเวลาและพลังงานโดยไม่จำเป็น

    บั๊กนี้เกิดขึ้นตั้งแต่ช่วงแรก ๆ ที่ Windows 11 เปิดตัว และยังคงหลอกผู้ใช้มาเรื่อย ๆ โดยเฉพาะผู้ใช้แล็ปท็อปที่คิดว่าเครื่องจะปิด แต่กลับเปิดค้างไว้จนแบตหมดโดยไม่รู้ตัว

    ล่าสุด Microsoft ได้ประกาศใน Windows 11 Preview Build (Dev Channel) ว่าได้แก้ไขปัญหานี้แล้ว โดยระบุว่า “Fixed an underlying issue which could lead ‘Update and shutdown’ to not actually shut down your PC after.” ซึ่งหมายความว่าคำสั่งนี้จะทำงานตามที่ควรเป็น — อัปเดตแล้วปิดเครื่องทันที

    แม้การแก้ไขยังอยู่ในขั้นตอนการทดสอบ แต่ถือเป็นสัญญาณดีว่าปัญหานี้กำลังจะหมดไป และผู้ใช้จะสามารถใช้คำสั่ง “Update and Shutdown” ได้อย่างมั่นใจอีกครั้ง

    ข้อมูลสำคัญจากข่าว
    Microsoft แก้ไขบั๊กคำสั่ง “Update and Shutdown” บน Windows 11
    ปัญหาคือเครื่องรีสตาร์ทแทนที่จะปิดหลังอัปเดต
    บั๊กนี้เกิดขึ้นตั้งแต่ช่วงแรกของ Windows 11 และยังคงอยู่หลายปี
    ผู้ใช้แล็ปท็อปได้รับผลกระทบมากที่สุด เพราะเครื่องอาจเปิดค้างจนแบตหมด
    การแก้ไขอยู่ใน Windows 11 Preview Build (Dev Channel)
    Microsoft ระบุว่าได้แก้ไข “underlying issue” ที่ทำให้คำสั่งไม่ทำงานตามที่ควร
    คำสั่ง “Update and Shutdown” จะกลับมาทำงานได้ตามปกติ
    ผู้ใช้ไม่ต้องรอให้เครื่องรีสตาร์ทแล้วค่อยปิดเองอีกต่อไป

    ข้อมูลเสริมจากภายนอก
    Windows 11 เวอร์ชัน 24H2 และ 25H2 มีการปรับปรุงเสถียรภาพหลายจุด
    Microsoft เคยเผชิญปัญหาบั๊กการอัปเดตหลายครั้งในปี 2023–2024
    คำสั่ง “Update and Restart” ทำงานได้ปกติมากกว่าคำสั่ง “Update and Shutdown”
    ผู้ใช้บางคนหลีกเลี่ยงการใช้คำสั่งนี้มานานเพราะไม่มั่นใจในผลลัพธ์
    การแก้ไขบั๊กนี้เป็นส่วนหนึ่งของความพยายามทำให้ Windows 11 เป็นเวอร์ชันที่ “เสถียรที่สุด”

    https://www.techradar.com/computing/windows/microsoft-fixes-weird-bug-thats-been-messing-with-windows-11-updates-for-years
    🛠️ “Microsoft แก้บั๊ก ‘Update and Shutdown’ บน Windows 11 ที่หลอกให้เครื่องรีสตาร์ทแทนการปิด — ปัญหายาวนานหลายปีใกล้จบแล้ว” ใครที่เคยใช้ Windows 11 แล้วเลือกคำสั่ง “Update and Shutdown” เพื่อให้เครื่องอัปเดตแล้วปิดตัวลงทันที อาจเคยเจอเหตุการณ์ไม่คาดคิด: เครื่องกลับรีสตาร์ทแทนที่จะปิด ทำให้ต้องรอให้ระบบกลับมาหน้าเดสก์ท็อป แล้วค่อยกดปิดเครื่องอีกครั้ง — เสียเวลาและพลังงานโดยไม่จำเป็น บั๊กนี้เกิดขึ้นตั้งแต่ช่วงแรก ๆ ที่ Windows 11 เปิดตัว และยังคงหลอกผู้ใช้มาเรื่อย ๆ โดยเฉพาะผู้ใช้แล็ปท็อปที่คิดว่าเครื่องจะปิด แต่กลับเปิดค้างไว้จนแบตหมดโดยไม่รู้ตัว ล่าสุด Microsoft ได้ประกาศใน Windows 11 Preview Build (Dev Channel) ว่าได้แก้ไขปัญหานี้แล้ว โดยระบุว่า “Fixed an underlying issue which could lead ‘Update and shutdown’ to not actually shut down your PC after.” ซึ่งหมายความว่าคำสั่งนี้จะทำงานตามที่ควรเป็น — อัปเดตแล้วปิดเครื่องทันที แม้การแก้ไขยังอยู่ในขั้นตอนการทดสอบ แต่ถือเป็นสัญญาณดีว่าปัญหานี้กำลังจะหมดไป และผู้ใช้จะสามารถใช้คำสั่ง “Update and Shutdown” ได้อย่างมั่นใจอีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft แก้ไขบั๊กคำสั่ง “Update and Shutdown” บน Windows 11 ➡️ ปัญหาคือเครื่องรีสตาร์ทแทนที่จะปิดหลังอัปเดต ➡️ บั๊กนี้เกิดขึ้นตั้งแต่ช่วงแรกของ Windows 11 และยังคงอยู่หลายปี ➡️ ผู้ใช้แล็ปท็อปได้รับผลกระทบมากที่สุด เพราะเครื่องอาจเปิดค้างจนแบตหมด ➡️ การแก้ไขอยู่ใน Windows 11 Preview Build (Dev Channel) ➡️ Microsoft ระบุว่าได้แก้ไข “underlying issue” ที่ทำให้คำสั่งไม่ทำงานตามที่ควร ➡️ คำสั่ง “Update and Shutdown” จะกลับมาทำงานได้ตามปกติ ➡️ ผู้ใช้ไม่ต้องรอให้เครื่องรีสตาร์ทแล้วค่อยปิดเองอีกต่อไป ✅ ข้อมูลเสริมจากภายนอก ➡️ Windows 11 เวอร์ชัน 24H2 และ 25H2 มีการปรับปรุงเสถียรภาพหลายจุด ➡️ Microsoft เคยเผชิญปัญหาบั๊กการอัปเดตหลายครั้งในปี 2023–2024 ➡️ คำสั่ง “Update and Restart” ทำงานได้ปกติมากกว่าคำสั่ง “Update and Shutdown” ➡️ ผู้ใช้บางคนหลีกเลี่ยงการใช้คำสั่งนี้มานานเพราะไม่มั่นใจในผลลัพธ์ ➡️ การแก้ไขบั๊กนี้เป็นส่วนหนึ่งของความพยายามทำให้ Windows 11 เป็นเวอร์ชันที่ “เสถียรที่สุด” https://www.techradar.com/computing/windows/microsoft-fixes-weird-bug-thats-been-messing-with-windows-11-updates-for-years
    WWW.TECHRADAR.COM
    Ever come back to a laptop with a dead battery when you told Windows 11 to 'Update and shutdown'? Microsoft has finally fixed this annoying bug
    Windows 11 could soon actually obey your instructions when you apply an update and want your PC to shut down
    0 Comments 0 Shares 172 Views 0 Reviews
  • “Jensen Huang ชี้ช่างไฟและช่างประปาจะเป็นฮีโร่แห่งยุค AI — เมื่อการสร้างศูนย์ข้อมูลกลายเป็นภารกิจระดับชาติ”

    ในขณะที่หลายคนกังวลว่า AI จะเข้ามาแทนที่งานมนุษย์ Jensen Huang ซีอีโอของ Nvidia กลับมองต่างออกไป เขาเชื่อว่า “งานช่างฝีมือ” อย่างช่างไฟฟ้าและช่างประปาจะกลายเป็นกลุ่มอาชีพที่มีความต้องการสูงที่สุดในยุค AI โดยเฉพาะในช่วงที่โลกกำลังเร่งสร้างศูนย์ข้อมูลขนาดมหึมาเพื่อรองรับการประมวลผลของโมเดลอัจฉริยะ

    Huang กล่าวในบทสัมภาษณ์กับ Channel 4 News ว่า “เราจะต้องการช่างไฟฟ้า ช่างประปา และช่างไม้เป็นจำนวนหลายแสนคน เพื่อสร้างโรงงานและศูนย์ข้อมูลเหล่านี้” พร้อมย้ำว่าเศรษฐกิจทุกประเทศจะเห็นการเติบโตของภาคแรงงานฝีมืออย่างชัดเจน

    การสร้างโครงสร้างพื้นฐาน AI ไม่ใช่เรื่องเล็ก — Huang ระบุว่าการลงทุนจะเพิ่มขึ้นเป็นเท่าตัวทุกปี และจะดำเนินต่อเนื่องไปอีกเป็นทศวรรษ โดยเฉพาะในสหราชอาณาจักรที่เขาเชื่อว่าจะกลายเป็นศูนย์กลางของการขยายโครงสร้าง AI

    ไม่ใช่แค่ Huang ที่มองเห็นปัญหานี้ Larry Fink ซีอีโอของ BlackRock ก็เคยเตือนว่า “เรากำลังจะขาดช่างไฟฟ้าอย่างรุนแรง” และ Brad Smith จาก Microsoft ก็ชี้ว่าการขยายศูนย์ข้อมูลในสหรัฐฯ กำลังเผชิญกับวิกฤตแรงงานฝีมืออย่างหนัก

    เพื่อแก้ปัญหา Google ได้ลงทุนหลายล้านดอลลาร์ในโครงการฝึกอบรมช่างไฟฟ้า โดยมีเป้าหมายผลิตแรงงานใหม่กว่า 130,000 คนภายในไม่กี่ปีข้างหน้า ขณะที่การวิเคราะห์จาก CSIS ระบุว่า สหรัฐฯ ต้องการแรงงานฝีมือเพิ่มอีกกว่า 140,000 คนภายในปี 2030 ซึ่งไม่สามารถบรรลุได้หากไม่ปรับปรุงระบบการฝึกอบรมและการออกใบอนุญาต

    แม้จะมีคำเตือนจากหลายฝ่ายว่า AI จะทำให้พนักงานออฟฟิศจำนวนมากตกงาน แต่ Huang กลับมองว่า “คนจะไม่ถูกแทนที่ด้วย AI แต่จะถูกแทนที่ด้วยคนที่ใช้ AI ได้” และหากเขาอายุ 20 ปีอีกครั้ง เขาจะเลือกเรียนสายวิทยาศาสตร์กายภาพมากกว่าวิทยาการคอมพิวเตอร์

    ข้อมูลสำคัญจากข่าว
    Jensen Huang เชื่อว่าช่างไฟฟ้าและช่างประปาจะเป็นอาชีพที่เติบโตมากที่สุดในยุค AI
    การสร้างศูนย์ข้อมูลต้องใช้แรงงานฝีมือหลายแสนคนทั่วโลก
    การลงทุนในโครงสร้างพื้นฐาน AI จะเพิ่มขึ้นเป็นเท่าตัวทุกปี
    สหราชอาณาจักรจะเป็นศูนย์กลางการขยายโครงสร้าง AI ในทศวรรษหน้า
    Larry Fink และ Brad Smith เตือนถึงวิกฤตแรงงานฝีมือในสหรัฐฯ
    Google ลงทุนฝึกอบรมช่างไฟฟ้า 130,000 คนเพื่อรองรับความต้องการ
    CSIS ระบุว่าต้องเพิ่มแรงงานฝีมืออีก 140,000 คนภายในปี 2030
    Huang มองว่า AI จะเปลี่ยนทุกงาน แต่คนที่ใช้ AI ได้จะเป็นผู้ได้เปรียบ
    เขาแนะนำให้คนรุ่นใหม่หันไปเรียนสายวิทยาศาสตร์กายภาพ

    ข้อมูลเสริมจากภายนอก
    การสร้างศูนย์ข้อมูลขนาด 250,000 ตารางฟุตต้องใช้แรงงานก่อสร้างถึง 1,500 คน
    งานช่างฝีมือในศูนย์ข้อมูลมีรายได้เฉลี่ยมากกว่า $100,000 ต่อปี
    การขาดแรงงานฝีมือเกิดจากการลดการฝึกอบรมและนโยบายตรวจคนเข้าเมืองที่เข้มงวด
    การขยายศูนย์ข้อมูลทั่วโลกอาจใช้เงินลงทุนรวมกว่า $7 ล้านล้านภายในปี 2030
    การสร้างงานในศูนย์ข้อมูลหนึ่งแห่งสามารถกระตุ้นเศรษฐกิจโดยรอบได้ถึง 3.5 เท่า

    https://www.slashgear.com/1987555/nvidia-ceo-ai-trade-jobs-electrians-plumbers/
    🔧 “Jensen Huang ชี้ช่างไฟและช่างประปาจะเป็นฮีโร่แห่งยุค AI — เมื่อการสร้างศูนย์ข้อมูลกลายเป็นภารกิจระดับชาติ” ในขณะที่หลายคนกังวลว่า AI จะเข้ามาแทนที่งานมนุษย์ Jensen Huang ซีอีโอของ Nvidia กลับมองต่างออกไป เขาเชื่อว่า “งานช่างฝีมือ” อย่างช่างไฟฟ้าและช่างประปาจะกลายเป็นกลุ่มอาชีพที่มีความต้องการสูงที่สุดในยุค AI โดยเฉพาะในช่วงที่โลกกำลังเร่งสร้างศูนย์ข้อมูลขนาดมหึมาเพื่อรองรับการประมวลผลของโมเดลอัจฉริยะ Huang กล่าวในบทสัมภาษณ์กับ Channel 4 News ว่า “เราจะต้องการช่างไฟฟ้า ช่างประปา และช่างไม้เป็นจำนวนหลายแสนคน เพื่อสร้างโรงงานและศูนย์ข้อมูลเหล่านี้” พร้อมย้ำว่าเศรษฐกิจทุกประเทศจะเห็นการเติบโตของภาคแรงงานฝีมืออย่างชัดเจน การสร้างโครงสร้างพื้นฐาน AI ไม่ใช่เรื่องเล็ก — Huang ระบุว่าการลงทุนจะเพิ่มขึ้นเป็นเท่าตัวทุกปี และจะดำเนินต่อเนื่องไปอีกเป็นทศวรรษ โดยเฉพาะในสหราชอาณาจักรที่เขาเชื่อว่าจะกลายเป็นศูนย์กลางของการขยายโครงสร้าง AI ไม่ใช่แค่ Huang ที่มองเห็นปัญหานี้ Larry Fink ซีอีโอของ BlackRock ก็เคยเตือนว่า “เรากำลังจะขาดช่างไฟฟ้าอย่างรุนแรง” และ Brad Smith จาก Microsoft ก็ชี้ว่าการขยายศูนย์ข้อมูลในสหรัฐฯ กำลังเผชิญกับวิกฤตแรงงานฝีมืออย่างหนัก เพื่อแก้ปัญหา Google ได้ลงทุนหลายล้านดอลลาร์ในโครงการฝึกอบรมช่างไฟฟ้า โดยมีเป้าหมายผลิตแรงงานใหม่กว่า 130,000 คนภายในไม่กี่ปีข้างหน้า ขณะที่การวิเคราะห์จาก CSIS ระบุว่า สหรัฐฯ ต้องการแรงงานฝีมือเพิ่มอีกกว่า 140,000 คนภายในปี 2030 ซึ่งไม่สามารถบรรลุได้หากไม่ปรับปรุงระบบการฝึกอบรมและการออกใบอนุญาต แม้จะมีคำเตือนจากหลายฝ่ายว่า AI จะทำให้พนักงานออฟฟิศจำนวนมากตกงาน แต่ Huang กลับมองว่า “คนจะไม่ถูกแทนที่ด้วย AI แต่จะถูกแทนที่ด้วยคนที่ใช้ AI ได้” และหากเขาอายุ 20 ปีอีกครั้ง เขาจะเลือกเรียนสายวิทยาศาสตร์กายภาพมากกว่าวิทยาการคอมพิวเตอร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Jensen Huang เชื่อว่าช่างไฟฟ้าและช่างประปาจะเป็นอาชีพที่เติบโตมากที่สุดในยุค AI ➡️ การสร้างศูนย์ข้อมูลต้องใช้แรงงานฝีมือหลายแสนคนทั่วโลก ➡️ การลงทุนในโครงสร้างพื้นฐาน AI จะเพิ่มขึ้นเป็นเท่าตัวทุกปี ➡️ สหราชอาณาจักรจะเป็นศูนย์กลางการขยายโครงสร้าง AI ในทศวรรษหน้า ➡️ Larry Fink และ Brad Smith เตือนถึงวิกฤตแรงงานฝีมือในสหรัฐฯ ➡️ Google ลงทุนฝึกอบรมช่างไฟฟ้า 130,000 คนเพื่อรองรับความต้องการ ➡️ CSIS ระบุว่าต้องเพิ่มแรงงานฝีมืออีก 140,000 คนภายในปี 2030 ➡️ Huang มองว่า AI จะเปลี่ยนทุกงาน แต่คนที่ใช้ AI ได้จะเป็นผู้ได้เปรียบ ➡️ เขาแนะนำให้คนรุ่นใหม่หันไปเรียนสายวิทยาศาสตร์กายภาพ ✅ ข้อมูลเสริมจากภายนอก ➡️ การสร้างศูนย์ข้อมูลขนาด 250,000 ตารางฟุตต้องใช้แรงงานก่อสร้างถึง 1,500 คน ➡️ งานช่างฝีมือในศูนย์ข้อมูลมีรายได้เฉลี่ยมากกว่า $100,000 ต่อปี ➡️ การขาดแรงงานฝีมือเกิดจากการลดการฝึกอบรมและนโยบายตรวจคนเข้าเมืองที่เข้มงวด ➡️ การขยายศูนย์ข้อมูลทั่วโลกอาจใช้เงินลงทุนรวมกว่า $7 ล้านล้านภายในปี 2030 ➡️ การสร้างงานในศูนย์ข้อมูลหนึ่งแห่งสามารถกระตุ้นเศรษฐกิจโดยรอบได้ถึง 3.5 เท่า https://www.slashgear.com/1987555/nvidia-ceo-ai-trade-jobs-electrians-plumbers/
    WWW.SLASHGEAR.COM
    Nvidia CEO Says These Two Trade Jobs Will Be Crucial To The AI Boom - SlashGear
    Nvidia CEO Jensen Huang says trades like electricians and plumbers will be crucial in building the data center infrastructure behind the AI boom.
    0 Comments 0 Shares 238 Views 0 Reviews
  • “Microsoft Teams เพิ่มฟีเจอร์แยกหน้าต่างช่องสนทนา — ยกระดับการทำงานหลายอย่างพร้อมกันแบบมืออาชีพ”

    หลังจากที่ผู้ใช้เรียกร้องกันมานาน Microsoft Teams กำลังจะเปิดตัวฟีเจอร์ใหม่ที่ช่วยให้การทำงานหลายอย่างพร้อมกัน (multitasking) มีประสิทธิภาพมากขึ้น ด้วยการเพิ่มความสามารถในการ “แยกหน้าต่างช่องสนทนา” หรือ pop-out channels ซึ่งก่อนหน้านี้สามารถทำได้เฉพาะกับแชตส่วนตัวเท่านั้น

    ฟีเจอร์นี้จะเริ่มทยอยเปิดใช้งานทั่วโลกตั้งแต่ปลายตุลาคมถึงพฤศจิกายน 2025 โดยผู้ใช้ Teams บนเดสก์ท็อปทั้ง Windows และ macOS จะสามารถคลิกขวาที่ช่องสนทนา แล้วเลือก “Pop out” เพื่อเปิดหน้าต่างแยกออกมา ทำให้สามารถติดตามหลายช่องทางพร้อมกันได้ เช่น ช่องประกาศของทีม ช่องโครงการ และแชตส่วนตัว โดยไม่ต้องสลับหน้าจอไปมา

    การอัปเดตนี้จะช่วยลดปัญหา “context switching” หรือการเสียสมาธิจากการเปลี่ยนหน้าต่างบ่อย ๆ ซึ่งเป็นอุปสรรคสำคัญต่อประสิทธิภาพการทำงาน โดยเฉพาะในยุคที่การประชุมออนไลน์และการทำงานแบบไฮบริดกลายเป็นเรื่องปกติ

    Microsoft ยังระบุว่า ฟีเจอร์นี้จะเปิดใช้งานโดยอัตโนมัติ ไม่ต้องตั้งค่าหรือดำเนินการใด ๆ จากผู้ดูแลระบบ และไม่มีผลกระทบต่อฟังก์ชันเดิมของ Teams แต่อย่างใด

    นอกจากนี้ Microsoft ยังมีแผนเพิ่มฟีเจอร์อื่น ๆ เช่น การอัปเดตตำแหน่งที่ทำงานอัตโนมัติผ่าน Wi-Fi และการสนับสนุนการสนทนาแบบ threaded ในช่อง เพื่อให้การติดตามบทสนทนาหลายสายง่ายขึ้น

    ข้อมูลสำคัญจากข่าว
    Microsoft Teams เพิ่มฟีเจอร์แยกหน้าต่างช่องสนทนา (pop-out channels)
    ฟีเจอร์นี้จะเริ่มเปิดใช้งานทั่วโลกตั้งแต่ปลายตุลาคมถึงพฤศจิกายน 2025
    รองรับผู้ใช้บนเดสก์ท็อปทั้ง Windows และ macOS
    ผู้ใช้สามารถเปิดช่องสนทนาในหน้าต่างแยกเพื่อดูหลายช่องพร้อมกัน
    ลดปัญหา context switching และเพิ่มประสิทธิภาพการทำงาน
    ฟีเจอร์เปิดใช้งานโดยอัตโนมัติ ไม่ต้องตั้งค่าหรือดำเนินการใด ๆ
    ไม่มีผลกระทบต่อฟังก์ชันเดิมของ Teams
    Microsoft มีแผนเพิ่มฟีเจอร์อื่น เช่น การอัปเดตตำแหน่งผ่าน Wi-Fi และ threaded conversations

    ข้อมูลเสริมจากภายนอก
    ฟีเจอร์ pop-out chats มีอยู่แล้วใน Teams แต่ช่องสนทนายังไม่เคยรองรับมาก่อน
    การทำงานหลายอย่างพร้อมกันเป็นพฤติกรรมที่พบได้บ่อยในประชุมออนไลน์
    การเปิดหลายหน้าต่างช่วยให้ผู้ใช้สามารถจัด workspace ตามความต้องการ
    การสนทนาแบบ threaded ช่วยให้ติดตามบทสนทนาได้ง่ายขึ้นโดยไม่รบกวนช่องหลัก
    Microsoft Research พบว่า 30% ของการประชุมมีการทำงานอื่นร่วมด้วย

    https://www.techradar.com/pro/microsoft-teams-is-finally-adding-this-much-demanded-feature-and-it-could-massively-boost-your-productivity
    🖥️ “Microsoft Teams เพิ่มฟีเจอร์แยกหน้าต่างช่องสนทนา — ยกระดับการทำงานหลายอย่างพร้อมกันแบบมืออาชีพ” หลังจากที่ผู้ใช้เรียกร้องกันมานาน Microsoft Teams กำลังจะเปิดตัวฟีเจอร์ใหม่ที่ช่วยให้การทำงานหลายอย่างพร้อมกัน (multitasking) มีประสิทธิภาพมากขึ้น ด้วยการเพิ่มความสามารถในการ “แยกหน้าต่างช่องสนทนา” หรือ pop-out channels ซึ่งก่อนหน้านี้สามารถทำได้เฉพาะกับแชตส่วนตัวเท่านั้น ฟีเจอร์นี้จะเริ่มทยอยเปิดใช้งานทั่วโลกตั้งแต่ปลายตุลาคมถึงพฤศจิกายน 2025 โดยผู้ใช้ Teams บนเดสก์ท็อปทั้ง Windows และ macOS จะสามารถคลิกขวาที่ช่องสนทนา แล้วเลือก “Pop out” เพื่อเปิดหน้าต่างแยกออกมา ทำให้สามารถติดตามหลายช่องทางพร้อมกันได้ เช่น ช่องประกาศของทีม ช่องโครงการ และแชตส่วนตัว โดยไม่ต้องสลับหน้าจอไปมา การอัปเดตนี้จะช่วยลดปัญหา “context switching” หรือการเสียสมาธิจากการเปลี่ยนหน้าต่างบ่อย ๆ ซึ่งเป็นอุปสรรคสำคัญต่อประสิทธิภาพการทำงาน โดยเฉพาะในยุคที่การประชุมออนไลน์และการทำงานแบบไฮบริดกลายเป็นเรื่องปกติ Microsoft ยังระบุว่า ฟีเจอร์นี้จะเปิดใช้งานโดยอัตโนมัติ ไม่ต้องตั้งค่าหรือดำเนินการใด ๆ จากผู้ดูแลระบบ และไม่มีผลกระทบต่อฟังก์ชันเดิมของ Teams แต่อย่างใด นอกจากนี้ Microsoft ยังมีแผนเพิ่มฟีเจอร์อื่น ๆ เช่น การอัปเดตตำแหน่งที่ทำงานอัตโนมัติผ่าน Wi-Fi และการสนับสนุนการสนทนาแบบ threaded ในช่อง เพื่อให้การติดตามบทสนทนาหลายสายง่ายขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft Teams เพิ่มฟีเจอร์แยกหน้าต่างช่องสนทนา (pop-out channels) ➡️ ฟีเจอร์นี้จะเริ่มเปิดใช้งานทั่วโลกตั้งแต่ปลายตุลาคมถึงพฤศจิกายน 2025 ➡️ รองรับผู้ใช้บนเดสก์ท็อปทั้ง Windows และ macOS ➡️ ผู้ใช้สามารถเปิดช่องสนทนาในหน้าต่างแยกเพื่อดูหลายช่องพร้อมกัน ➡️ ลดปัญหา context switching และเพิ่มประสิทธิภาพการทำงาน ➡️ ฟีเจอร์เปิดใช้งานโดยอัตโนมัติ ไม่ต้องตั้งค่าหรือดำเนินการใด ๆ ➡️ ไม่มีผลกระทบต่อฟังก์ชันเดิมของ Teams ➡️ Microsoft มีแผนเพิ่มฟีเจอร์อื่น เช่น การอัปเดตตำแหน่งผ่าน Wi-Fi และ threaded conversations ✅ ข้อมูลเสริมจากภายนอก ➡️ ฟีเจอร์ pop-out chats มีอยู่แล้วใน Teams แต่ช่องสนทนายังไม่เคยรองรับมาก่อน ➡️ การทำงานหลายอย่างพร้อมกันเป็นพฤติกรรมที่พบได้บ่อยในประชุมออนไลน์ ➡️ การเปิดหลายหน้าต่างช่วยให้ผู้ใช้สามารถจัด workspace ตามความต้องการ ➡️ การสนทนาแบบ threaded ช่วยให้ติดตามบทสนทนาได้ง่ายขึ้นโดยไม่รบกวนช่องหลัก ➡️ Microsoft Research พบว่า 30% ของการประชุมมีการทำงานอื่นร่วมด้วย https://www.techradar.com/pro/microsoft-teams-is-finally-adding-this-much-demanded-feature-and-it-could-massively-boost-your-productivity
    0 Comments 0 Shares 302 Views 0 Reviews
  • “Mic-E-Mouse: เมาส์เกมมิ่งกลายเป็นไมโครโฟนลับ — งานวิจัยใหม่เผย AI สามารถดักฟังเสียงผ่านเซนเซอร์เมาส์ได้จริง”

    ในยุคที่อุปกรณ์ทุกชิ้นอาจกลายเป็นช่องทางละเมิดความเป็นส่วนตัว ล่าสุดทีมนักวิจัยจากมหาวิทยาลัย UC Irvine ได้เปิดเผยเทคนิคใหม่ชื่อว่า “Mic-E-Mouse” ซึ่งสามารถใช้เซนเซอร์ของเมาส์ประสิทธิภาพสูงในการดักฟังเสียงของผู้ใช้ผ่านพื้นโต๊ะ โดยไม่ต้องใช้ไมโครโฟนเลยแม้แต่นิดเดียว

    หลักการทำงานของ Mic-E-Mouse คือการใช้เซนเซอร์ของเมาส์ที่มี DPI สูง (20,000 DPI ขึ้นไป) และ polling rate สูง ซึ่งสามารถตรวจจับการสั่นสะเทือนเล็ก ๆ จากเสียงพูดที่สะท้อนผ่านพื้นโต๊ะได้ จากนั้นข้อมูลดิบเหล่านี้จะถูกส่งผ่านกระบวนการประมวลผลสัญญาณและโมเดล AI เพื่อแปลงเป็นเสียงพูดที่ฟังรู้เรื่อง

    สิ่งที่น่าตกใจคือ การโจมตีนี้ไม่จำเป็นต้องใช้มัลแวร์ซับซ้อน เพียงแค่มีซอฟต์แวร์ที่สามารถอ่านข้อมูลจากเมาส์ได้ เช่น แอปสร้างสรรค์หรือเกมบางประเภท ก็สามารถเก็บข้อมูลเหล่านี้ได้แล้ว และเมื่อส่งออกไปประมวลผลนอกเครื่อง ก็สามารถสร้างคลื่นเสียงที่มีความแม่นยำในการรู้จำคำพูดได้ถึง 42–61%

    ทีมวิจัยใช้เทคนิค Wiener filtering และ neural spectrogram enhancement เพื่อเพิ่มความชัดเจนของเสียง โดยสามารถเพิ่มค่า SNR ได้ถึง +19 dB และแม้จะใช้เมาส์ระดับ consumer ที่มีราคาต่ำกว่า $50 ก็ยังสามารถดักฟังได้อย่างมีประสิทธิภาพ

    เทคนิคนี้คล้ายกับการดักฟังในยุคสงครามเย็น เช่นกรณี KGB ซ่อนไมโครโฟนไว้ในตรา Great Seal ที่มอบให้ทูตสหรัฐฯ แต่ต่างกันตรงที่ Mic-E-Mouse ใช้ AI และอุปกรณ์ทั่วไปที่ผู้ใช้ไม่เคยสงสัยเลยว่าอาจกลายเป็น “หู” ที่แอบฟังอยู่ตลอดเวลา

    ข้อมูลสำคัญจากข่าว
    Mic-E-Mouse เป็นเทคนิคที่ใช้เซนเซอร์เมาส์ในการดักฟังเสียงพูดผ่านพื้นโต๊ะ
    ใช้เมาส์ที่มี DPI สูง (20,000+) และ polling rate สูงในการตรวจจับการสั่นสะเทือน
    ข้อมูลดิบถูกส่งผ่าน Wiener filtering และ neural spectrogram enhancement เพื่อแปลงเป็นเสียง
    ความแม่นยำในการรู้จำคำพูดอยู่ที่ 42–61% และเพิ่ม SNR ได้ถึง +19 dB
    ใช้เมาส์ระดับ consumer ได้ ไม่จำเป็นต้องใช้ฮาร์ดแวร์เฉพาะทาง
    ไม่ต้องใช้มัลแวร์ซับซ้อน แค่ซอฟต์แวร์ที่อ่านข้อมูลเมาส์ก็เพียงพอ
    ข้อมูลสามารถส่งออกไปประมวลผลนอกเครื่องได้โดยไม่ต้องใช้สิทธิ์ระดับระบบ
    เทคนิคนี้ได้รับแรงบันดาลใจจากการดักฟังในยุคสงครามเย็น แต่ใช้ AI แทนไมโครโฟน

    ข้อมูลเสริมจากภายนอก
    DPI (dots per inch) คือค่าความละเอียดของเซนเซอร์เมาส์ ยิ่งสูงยิ่งไวต่อการเคลื่อนไหว
    Polling rate คือความถี่ที่เมาส์ส่งข้อมูลไปยังคอมพิวเตอร์ ยิ่งสูงยิ่งแม่นยำ
    Wiener filter เป็นเทคนิคลด noise ในสัญญาณเสียงที่ใช้กันแพร่หลายในงานวิศวกรรมเสียง
    Spectrogram neural enhancement คือการใช้โมเดล AI เพื่อปรับปรุงความชัดของคลื่นเสียง
    การดักฟังผ่านอุปกรณ์ทั่วไปเป็นแนวทางใหม่ของการโจมตีแบบ side-channel

    https://www.tomshardware.com/tech-industry/cyber-security/high-performance-mice-can-be-used-as-a-microphone-to-spy-on-users-thanks-to-ai-mic-e-mouse-technique-uses-mouse-sensors-to-convert-acoustic-vibrations-into-speech
    🖱️ “Mic-E-Mouse: เมาส์เกมมิ่งกลายเป็นไมโครโฟนลับ — งานวิจัยใหม่เผย AI สามารถดักฟังเสียงผ่านเซนเซอร์เมาส์ได้จริง” ในยุคที่อุปกรณ์ทุกชิ้นอาจกลายเป็นช่องทางละเมิดความเป็นส่วนตัว ล่าสุดทีมนักวิจัยจากมหาวิทยาลัย UC Irvine ได้เปิดเผยเทคนิคใหม่ชื่อว่า “Mic-E-Mouse” ซึ่งสามารถใช้เซนเซอร์ของเมาส์ประสิทธิภาพสูงในการดักฟังเสียงของผู้ใช้ผ่านพื้นโต๊ะ โดยไม่ต้องใช้ไมโครโฟนเลยแม้แต่นิดเดียว หลักการทำงานของ Mic-E-Mouse คือการใช้เซนเซอร์ของเมาส์ที่มี DPI สูง (20,000 DPI ขึ้นไป) และ polling rate สูง ซึ่งสามารถตรวจจับการสั่นสะเทือนเล็ก ๆ จากเสียงพูดที่สะท้อนผ่านพื้นโต๊ะได้ จากนั้นข้อมูลดิบเหล่านี้จะถูกส่งผ่านกระบวนการประมวลผลสัญญาณและโมเดล AI เพื่อแปลงเป็นเสียงพูดที่ฟังรู้เรื่อง สิ่งที่น่าตกใจคือ การโจมตีนี้ไม่จำเป็นต้องใช้มัลแวร์ซับซ้อน เพียงแค่มีซอฟต์แวร์ที่สามารถอ่านข้อมูลจากเมาส์ได้ เช่น แอปสร้างสรรค์หรือเกมบางประเภท ก็สามารถเก็บข้อมูลเหล่านี้ได้แล้ว และเมื่อส่งออกไปประมวลผลนอกเครื่อง ก็สามารถสร้างคลื่นเสียงที่มีความแม่นยำในการรู้จำคำพูดได้ถึง 42–61% ทีมวิจัยใช้เทคนิค Wiener filtering และ neural spectrogram enhancement เพื่อเพิ่มความชัดเจนของเสียง โดยสามารถเพิ่มค่า SNR ได้ถึง +19 dB และแม้จะใช้เมาส์ระดับ consumer ที่มีราคาต่ำกว่า $50 ก็ยังสามารถดักฟังได้อย่างมีประสิทธิภาพ เทคนิคนี้คล้ายกับการดักฟังในยุคสงครามเย็น เช่นกรณี KGB ซ่อนไมโครโฟนไว้ในตรา Great Seal ที่มอบให้ทูตสหรัฐฯ แต่ต่างกันตรงที่ Mic-E-Mouse ใช้ AI และอุปกรณ์ทั่วไปที่ผู้ใช้ไม่เคยสงสัยเลยว่าอาจกลายเป็น “หู” ที่แอบฟังอยู่ตลอดเวลา ✅ ข้อมูลสำคัญจากข่าว ➡️ Mic-E-Mouse เป็นเทคนิคที่ใช้เซนเซอร์เมาส์ในการดักฟังเสียงพูดผ่านพื้นโต๊ะ ➡️ ใช้เมาส์ที่มี DPI สูง (20,000+) และ polling rate สูงในการตรวจจับการสั่นสะเทือน ➡️ ข้อมูลดิบถูกส่งผ่าน Wiener filtering และ neural spectrogram enhancement เพื่อแปลงเป็นเสียง ➡️ ความแม่นยำในการรู้จำคำพูดอยู่ที่ 42–61% และเพิ่ม SNR ได้ถึง +19 dB ➡️ ใช้เมาส์ระดับ consumer ได้ ไม่จำเป็นต้องใช้ฮาร์ดแวร์เฉพาะทาง ➡️ ไม่ต้องใช้มัลแวร์ซับซ้อน แค่ซอฟต์แวร์ที่อ่านข้อมูลเมาส์ก็เพียงพอ ➡️ ข้อมูลสามารถส่งออกไปประมวลผลนอกเครื่องได้โดยไม่ต้องใช้สิทธิ์ระดับระบบ ➡️ เทคนิคนี้ได้รับแรงบันดาลใจจากการดักฟังในยุคสงครามเย็น แต่ใช้ AI แทนไมโครโฟน ✅ ข้อมูลเสริมจากภายนอก ➡️ DPI (dots per inch) คือค่าความละเอียดของเซนเซอร์เมาส์ ยิ่งสูงยิ่งไวต่อการเคลื่อนไหว ➡️ Polling rate คือความถี่ที่เมาส์ส่งข้อมูลไปยังคอมพิวเตอร์ ยิ่งสูงยิ่งแม่นยำ ➡️ Wiener filter เป็นเทคนิคลด noise ในสัญญาณเสียงที่ใช้กันแพร่หลายในงานวิศวกรรมเสียง ➡️ Spectrogram neural enhancement คือการใช้โมเดล AI เพื่อปรับปรุงความชัดของคลื่นเสียง ➡️ การดักฟังผ่านอุปกรณ์ทั่วไปเป็นแนวทางใหม่ของการโจมตีแบบ side-channel https://www.tomshardware.com/tech-industry/cyber-security/high-performance-mice-can-be-used-as-a-microphone-to-spy-on-users-thanks-to-ai-mic-e-mouse-technique-uses-mouse-sensors-to-convert-acoustic-vibrations-into-speech
    0 Comments 0 Shares 299 Views 0 Reviews
  • “LatentCSI: เปลี่ยนสัญญาณ Wi-Fi ให้กลายเป็นภาพห้องแบบสมจริง — AI วาดภาพจากคลื่นที่มองไม่เห็น”

    นักวิจัยจากสถาบันวิทยาศาสตร์โตเกียวได้เปิดตัวเทคโนโลยีใหม่ชื่อว่า LatentCSI ซึ่งสามารถใช้สัญญาณ Wi-Fi ที่อยู่รอบตัวเราในการสร้างภาพความละเอียดสูงของห้องหรือพื้นที่ได้อย่างแม่นยำ โดยอาศัยโมเดล AI แบบ diffusion ที่ถูกฝึกไว้ล่วงหน้า เช่น Stable Diffusion 3

    หลักการทำงานคือการใช้ข้อมูล Wi-Fi CSI (Channel State Information) ซึ่งเป็นข้อมูลที่เกิดจากการสะท้อนของคลื่น Wi-Fi กับวัตถุต่าง ๆ ในห้อง เช่น ผนัง เฟอร์นิเจอร์ หรือแม้แต่คน แล้วนำข้อมูลนั้นไปแปลงเป็น “latent space” แทนที่จะเป็น “pixel space” แบบภาพทั่วไป จากนั้น AI จะเติมรายละเอียดที่ขาดหายไป และสร้างภาพที่สมจริงออกมา

    สิ่งที่ทำให้ LatentCSI แตกต่างจากเทคโนโลยีเดิมคือความเร็วและความแม่นยำ เพราะไม่ต้องใช้การประมวลผลหนักแบบ GAN หรือการวิเคราะห์ภาพแบบเดิม ๆ อีกต่อไป โดยใช้ encoder ที่ถูกปรับแต่งให้รับข้อมูล Wi-Fi แทนภาพ และสามารถสร้างภาพได้รวดเร็วกว่าเดิมหลายเท่า

    อย่างไรก็ตาม ระบบนี้ยังต้องใช้โมเดลที่ถูกฝึกไว้ล่วงหน้าด้วยภาพจริงของพื้นที่นั้น ๆ ก่อน จึงจะสามารถสร้างภาพจาก Wi-Fi ได้อย่างแม่นยำ ซึ่งหมายความว่าไม่สามารถใช้กับพื้นที่ที่ไม่เคยถูกฝึกไว้ได้ทันที และยังมีข้อกังวลเรื่องความเป็นส่วนตัว หากเทคโนโลยีนี้ถูกนำไปใช้ในอุปกรณ์ทั่วไป เช่น เราเตอร์หรือโมเด็มที่มีฟีเจอร์ตรวจจับการเคลื่อนไหว

    ข้อมูลสำคัญจากข่าว
    LatentCSI ใช้ข้อมูล Wi-Fi CSI เพื่อสร้างภาพห้องแบบสมจริง
    ข้อมูล CSI เกิดจากการสะท้อนคลื่น Wi-Fi กับวัตถุในพื้นที่
    ระบบแปลง CSI เป็น latent space แล้วใช้ AI เติมรายละเอียด
    ใช้ Stable Diffusion 3 ที่ถูกฝึกไว้ล่วงหน้าในการสร้างภาพ
    Encoder ถูกปรับให้รับข้อมูล Wi-Fi แทนภาพทั่วไป
    LatentCSI ทำงานเร็วและแม่นยำกว่าระบบเดิมที่ใช้ GAN
    สามารถตรวจจับตำแหน่งคนและวัตถุในห้องได้แบบเรียลไทม์
    ใช้ภาพจริงในการฝึกโมเดลก่อนนำไปใช้กับ Wi-Fi CSI

    ข้อมูลเสริมจากภายนอก
    Wi-Fi CSI ถูกใช้ในงานวิจัยด้าน motion sensing และ indoor mapping มานาน
    Latent space คือการแทนภาพในรูปแบบที่บีบอัดและเข้าใจง่ายสำหรับ AI
    Stable Diffusion เป็นโมเดลสร้างภาพที่ได้รับความนิยมสูงในงาน generative AI
    เทคโนโลยีนี้สามารถนำไปใช้ใน smart home, robotics หรือระบบรักษาความปลอดภัย
    การใช้ latent diffusion ช่วยลดภาระการประมวลผลและเพิ่มความเร็วในการสร้างภาพ

    https://www.tomshardware.com/tech-industry/wi-fi-signals-can-now-create-accurate-images-of-a-room-with-the-help-of-pre-trained-ai-latentcsi-leverages-stable-diffusion-3-to-turn-wi-fi-data-into-a-digital-paintbrush
    📡 “LatentCSI: เปลี่ยนสัญญาณ Wi-Fi ให้กลายเป็นภาพห้องแบบสมจริง — AI วาดภาพจากคลื่นที่มองไม่เห็น” นักวิจัยจากสถาบันวิทยาศาสตร์โตเกียวได้เปิดตัวเทคโนโลยีใหม่ชื่อว่า LatentCSI ซึ่งสามารถใช้สัญญาณ Wi-Fi ที่อยู่รอบตัวเราในการสร้างภาพความละเอียดสูงของห้องหรือพื้นที่ได้อย่างแม่นยำ โดยอาศัยโมเดล AI แบบ diffusion ที่ถูกฝึกไว้ล่วงหน้า เช่น Stable Diffusion 3 หลักการทำงานคือการใช้ข้อมูล Wi-Fi CSI (Channel State Information) ซึ่งเป็นข้อมูลที่เกิดจากการสะท้อนของคลื่น Wi-Fi กับวัตถุต่าง ๆ ในห้อง เช่น ผนัง เฟอร์นิเจอร์ หรือแม้แต่คน แล้วนำข้อมูลนั้นไปแปลงเป็น “latent space” แทนที่จะเป็น “pixel space” แบบภาพทั่วไป จากนั้น AI จะเติมรายละเอียดที่ขาดหายไป และสร้างภาพที่สมจริงออกมา สิ่งที่ทำให้ LatentCSI แตกต่างจากเทคโนโลยีเดิมคือความเร็วและความแม่นยำ เพราะไม่ต้องใช้การประมวลผลหนักแบบ GAN หรือการวิเคราะห์ภาพแบบเดิม ๆ อีกต่อไป โดยใช้ encoder ที่ถูกปรับแต่งให้รับข้อมูล Wi-Fi แทนภาพ และสามารถสร้างภาพได้รวดเร็วกว่าเดิมหลายเท่า อย่างไรก็ตาม ระบบนี้ยังต้องใช้โมเดลที่ถูกฝึกไว้ล่วงหน้าด้วยภาพจริงของพื้นที่นั้น ๆ ก่อน จึงจะสามารถสร้างภาพจาก Wi-Fi ได้อย่างแม่นยำ ซึ่งหมายความว่าไม่สามารถใช้กับพื้นที่ที่ไม่เคยถูกฝึกไว้ได้ทันที และยังมีข้อกังวลเรื่องความเป็นส่วนตัว หากเทคโนโลยีนี้ถูกนำไปใช้ในอุปกรณ์ทั่วไป เช่น เราเตอร์หรือโมเด็มที่มีฟีเจอร์ตรวจจับการเคลื่อนไหว ✅ ข้อมูลสำคัญจากข่าว ➡️ LatentCSI ใช้ข้อมูล Wi-Fi CSI เพื่อสร้างภาพห้องแบบสมจริง ➡️ ข้อมูล CSI เกิดจากการสะท้อนคลื่น Wi-Fi กับวัตถุในพื้นที่ ➡️ ระบบแปลง CSI เป็น latent space แล้วใช้ AI เติมรายละเอียด ➡️ ใช้ Stable Diffusion 3 ที่ถูกฝึกไว้ล่วงหน้าในการสร้างภาพ ➡️ Encoder ถูกปรับให้รับข้อมูล Wi-Fi แทนภาพทั่วไป ➡️ LatentCSI ทำงานเร็วและแม่นยำกว่าระบบเดิมที่ใช้ GAN ➡️ สามารถตรวจจับตำแหน่งคนและวัตถุในห้องได้แบบเรียลไทม์ ➡️ ใช้ภาพจริงในการฝึกโมเดลก่อนนำไปใช้กับ Wi-Fi CSI ✅ ข้อมูลเสริมจากภายนอก ➡️ Wi-Fi CSI ถูกใช้ในงานวิจัยด้าน motion sensing และ indoor mapping มานาน ➡️ Latent space คือการแทนภาพในรูปแบบที่บีบอัดและเข้าใจง่ายสำหรับ AI ➡️ Stable Diffusion เป็นโมเดลสร้างภาพที่ได้รับความนิยมสูงในงาน generative AI ➡️ เทคโนโลยีนี้สามารถนำไปใช้ใน smart home, robotics หรือระบบรักษาความปลอดภัย ➡️ การใช้ latent diffusion ช่วยลดภาระการประมวลผลและเพิ่มความเร็วในการสร้างภาพ https://www.tomshardware.com/tech-industry/wi-fi-signals-can-now-create-accurate-images-of-a-room-with-the-help-of-pre-trained-ai-latentcsi-leverages-stable-diffusion-3-to-turn-wi-fi-data-into-a-digital-paintbrush
    0 Comments 0 Shares 250 Views 0 Reviews
  • “Chrome 141 อัปเดตด่วน! อุดช่องโหว่ WebGPU และ Video เสี่ยงถูกโจมตีระดับโค้ด — ผู้ใช้ทุกระบบควรรีบอัปเดตทันที”

    Google ได้ปล่อยอัปเดต Chrome 141 สู่ช่องทาง Stable สำหรับผู้ใช้บน Windows, macOS และ Linux โดยเวอร์ชันนี้มาพร้อมการแก้ไขช่องโหว่ด้านความปลอดภัยถึง 21 รายการ ซึ่งรวมถึงช่องโหว่ระดับร้ายแรง 2 จุดที่อาจเปิดทางให้ผู้โจมตีเข้าควบคุมระบบผ่านการจัดการหน่วยความจำผิดพลาด

    ช่องโหว่แรกคือ CVE-2025-11205 ซึ่งเป็น heap buffer overflow ใน WebGPU — เทคโนโลยีที่ใช้เร่งกราฟิกและการเรนเดอร์บนเว็บสมัยใหม่ ช่องโหว่นี้ถูกค้นพบโดย Atte Kettunen จาก OUSPG และได้รับเงินรางวัลถึง $25,000 ซึ่งถือว่าสูงที่สุดในการอัปเดตครั้งนี้ ช่องโหว่นี้สามารถนำไปสู่การเข้าถึงหน่วยความจำนอกขอบเขต และเปิดทางให้ผู้โจมตีรันโค้ดอันตรายหรือทำให้เบราว์เซอร์ล่มได้

    ช่องโหว่ที่สองคือ CVE-2025-11206 ซึ่งเป็น heap buffer overflow ในระบบ Video ของ Chrome โดยนักวิจัย Elias Hohl ช่องโหว่นี้แม้จะรุนแรงน้อยกว่า WebGPU แต่ก็สามารถถูกใช้เพื่อควบคุมหน่วยความจำระหว่างการเล่นวิดีโอ และอาจนำไปสู่การโจมตีหรือทำให้เบราว์เซอร์ไม่เสถียร

    นอกจากช่องโหว่หลักทั้งสองแล้ว Chrome 141 ยังแก้ไขช่องโหว่ระดับกลางและต่ำอีกหลายรายการ เช่น การรั่วไหลข้อมูลผ่าน side-channel ใน Storage และ Tab, การ implement ที่ไม่เหมาะสมใน Media และ Omnibox รวมถึงข้อผิดพลาดใน V8 JavaScript engine ที่อาจเปิดช่องให้รันโค้ดผ่านเว็บเพจที่ออกแบบมาเฉพาะ

    Google แนะนำให้ผู้ใช้ทุกระบบอัปเดต Chrome เป็นเวอร์ชัน 141.0.7390.54 (Linux) หรือ 141.0.7390.54/55 (Windows และ Mac) โดยเร็วที่สุด เพื่อป้องกันการถูกโจมตีจากช่องโหว่ที่ถูกเปิดเผยแล้ว

    ข้อมูลสำคัญจากข่าว
    Chrome 141 อัปเดตเพื่อแก้ไขช่องโหว่ด้านความปลอดภัย 21 รายการ
    CVE-2025-11205: heap buffer overflow ใน WebGPU เสี่ยงรันโค้ดอันตราย
    CVE-2025-11206: heap buffer overflow ใน Video component เสี่ยงทำให้เบราว์เซอร์ล่ม
    ช่องโหว่ WebGPU ได้รับรางวัล $25,000 จาก Google
    ช่องโหว่ Video ได้รับรางวัล $4,000
    Chrome 141 แก้ไขช่องโหว่ใน Storage, Media, Omnibox และ V8 JavaScript engine
    เวอร์ชันที่ปล่อยคือ 141.0.7390.54 สำหรับ Linux และ 54/55 สำหรับ Windows/Mac
    Google แนะนำให้อัปเดตทันทีเพื่อป้องกันการโจมตี

    ข้อมูลเสริมจากภายนอก
    WebGPU เป็น API ใหม่ที่ใช้เร่งกราฟิกในเว็บแอป เช่น เกมและแอป 3D
    Heap buffer overflow เป็นช่องโหว่ที่เกิดจากการเขียนข้อมูลเกินขอบเขตหน่วยความจำ
    Side-channel attack สามารถใช้วิเคราะห์พฤติกรรมระบบเพื่อขโมยข้อมูล
    V8 เป็น engine ที่รัน JavaScript ใน Chrome และมีบทบาทสำคัญในความปลอดภัย
    Google ใช้ระบบ AI ภายในชื่อ Big Sleep เพื่อช่วยตรวจจับช่องโหว่ในโค้ด

    https://securityonline.info/chrome-141-stable-channel-update-patches-high-severity-vulnerabilities-cve-2025-11205-cve-2025-11206/
    🛡️ “Chrome 141 อัปเดตด่วน! อุดช่องโหว่ WebGPU และ Video เสี่ยงถูกโจมตีระดับโค้ด — ผู้ใช้ทุกระบบควรรีบอัปเดตทันที” Google ได้ปล่อยอัปเดต Chrome 141 สู่ช่องทาง Stable สำหรับผู้ใช้บน Windows, macOS และ Linux โดยเวอร์ชันนี้มาพร้อมการแก้ไขช่องโหว่ด้านความปลอดภัยถึง 21 รายการ ซึ่งรวมถึงช่องโหว่ระดับร้ายแรง 2 จุดที่อาจเปิดทางให้ผู้โจมตีเข้าควบคุมระบบผ่านการจัดการหน่วยความจำผิดพลาด ช่องโหว่แรกคือ CVE-2025-11205 ซึ่งเป็น heap buffer overflow ใน WebGPU — เทคโนโลยีที่ใช้เร่งกราฟิกและการเรนเดอร์บนเว็บสมัยใหม่ ช่องโหว่นี้ถูกค้นพบโดย Atte Kettunen จาก OUSPG และได้รับเงินรางวัลถึง $25,000 ซึ่งถือว่าสูงที่สุดในการอัปเดตครั้งนี้ ช่องโหว่นี้สามารถนำไปสู่การเข้าถึงหน่วยความจำนอกขอบเขต และเปิดทางให้ผู้โจมตีรันโค้ดอันตรายหรือทำให้เบราว์เซอร์ล่มได้ ช่องโหว่ที่สองคือ CVE-2025-11206 ซึ่งเป็น heap buffer overflow ในระบบ Video ของ Chrome โดยนักวิจัย Elias Hohl ช่องโหว่นี้แม้จะรุนแรงน้อยกว่า WebGPU แต่ก็สามารถถูกใช้เพื่อควบคุมหน่วยความจำระหว่างการเล่นวิดีโอ และอาจนำไปสู่การโจมตีหรือทำให้เบราว์เซอร์ไม่เสถียร นอกจากช่องโหว่หลักทั้งสองแล้ว Chrome 141 ยังแก้ไขช่องโหว่ระดับกลางและต่ำอีกหลายรายการ เช่น การรั่วไหลข้อมูลผ่าน side-channel ใน Storage และ Tab, การ implement ที่ไม่เหมาะสมใน Media และ Omnibox รวมถึงข้อผิดพลาดใน V8 JavaScript engine ที่อาจเปิดช่องให้รันโค้ดผ่านเว็บเพจที่ออกแบบมาเฉพาะ Google แนะนำให้ผู้ใช้ทุกระบบอัปเดต Chrome เป็นเวอร์ชัน 141.0.7390.54 (Linux) หรือ 141.0.7390.54/55 (Windows และ Mac) โดยเร็วที่สุด เพื่อป้องกันการถูกโจมตีจากช่องโหว่ที่ถูกเปิดเผยแล้ว ✅ ข้อมูลสำคัญจากข่าว ➡️ Chrome 141 อัปเดตเพื่อแก้ไขช่องโหว่ด้านความปลอดภัย 21 รายการ ➡️ CVE-2025-11205: heap buffer overflow ใน WebGPU เสี่ยงรันโค้ดอันตราย ➡️ CVE-2025-11206: heap buffer overflow ใน Video component เสี่ยงทำให้เบราว์เซอร์ล่ม ➡️ ช่องโหว่ WebGPU ได้รับรางวัล $25,000 จาก Google ➡️ ช่องโหว่ Video ได้รับรางวัล $4,000 ➡️ Chrome 141 แก้ไขช่องโหว่ใน Storage, Media, Omnibox และ V8 JavaScript engine ➡️ เวอร์ชันที่ปล่อยคือ 141.0.7390.54 สำหรับ Linux และ 54/55 สำหรับ Windows/Mac ➡️ Google แนะนำให้อัปเดตทันทีเพื่อป้องกันการโจมตี ✅ ข้อมูลเสริมจากภายนอก ➡️ WebGPU เป็น API ใหม่ที่ใช้เร่งกราฟิกในเว็บแอป เช่น เกมและแอป 3D ➡️ Heap buffer overflow เป็นช่องโหว่ที่เกิดจากการเขียนข้อมูลเกินขอบเขตหน่วยความจำ ➡️ Side-channel attack สามารถใช้วิเคราะห์พฤติกรรมระบบเพื่อขโมยข้อมูล ➡️ V8 เป็น engine ที่รัน JavaScript ใน Chrome และมีบทบาทสำคัญในความปลอดภัย ➡️ Google ใช้ระบบ AI ภายในชื่อ Big Sleep เพื่อช่วยตรวจจับช่องโหว่ในโค้ด https://securityonline.info/chrome-141-stable-channel-update-patches-high-severity-vulnerabilities-cve-2025-11205-cve-2025-11206/
    SECURITYONLINE.INFO
    Chrome 141 Stable Channel Update Patches High-Severity Vulnerabilities (CVE-2025-11205 & CVE-2025-11206)
    Google promoted Chrome 141 to Stable, patching 21 flaws including a High-severity Heap Buffer Overflow (CVE-2025-11205) in WebGPU that could lead to RCE.
    0 Comments 0 Shares 233 Views 0 Reviews
  • “OpenSSL แพตช์ช่องโหว่ 3 รายการ — เสี่ยง RCE, Side-Channel และ Crash จาก IPv6 ‘no_proxy’”

    OpenSSL ซึ่งเป็นไลบรารีเข้ารหัสที่ใช้กันอย่างแพร่หลายทั่วโลก ได้ออกแพตช์อัปเดตเมื่อวันที่ 30 กันยายน 2025 เพื่อแก้ไขช่องโหว่ความปลอดภัย 3 รายการที่ส่งผลกระทบต่อทุกเวอร์ชันหลัก ตั้งแต่ 1.0.2 ถึง 3.5 โดยมีระดับความรุนแรงตั้งแต่ Low ถึง Moderate แต่มีผลกระทบที่อาจร้ายแรงในบางบริบท

    ช่องโหว่แรก (CVE-2025-9230) เป็นการอ่านและเขียนข้อมูลนอกขอบเขต (Out-of-Bounds Read & Write) ในกระบวนการถอดรหัส CMS ที่ใช้การเข้ารหัสแบบรหัสผ่าน (PWRI) ซึ่งอาจนำไปสู่การ crash หรือแม้แต่การรันโค้ดจากผู้โจมตีได้ แม้โอกาสในการโจมตีจะต่ำ เพราะ CMS แบบ PWRI ใช้น้อยมากในโลกจริง แต่ช่องโหว่นี้ยังคงถูกจัดว่า “Moderate” และส่งผลต่อทุกเวอร์ชันหลักของ OpenSSL

    ช่องโหว่ที่สอง (CVE-2025-9231) เป็นการโจมตีแบบ Timing Side-Channel บนแพลตฟอร์ม ARM64 ที่ใช้ SM2 algorithm ซึ่งอาจเปิดช่องให้ผู้โจมตีสามารถวัดเวลาและกู้คืน private key ได้จากระยะไกลในบางกรณี โดยเฉพาะเมื่อมีการใช้ provider แบบ custom ที่รองรับ SM2

    ช่องโหว่สุดท้าย (CVE-2025-9232) เป็นการอ่านข้อมูลนอกขอบเขตใน HTTP client API เมื่อมีการตั้งค่า no_proxy และใช้ URL ที่มี IPv6 ซึ่งอาจทำให้แอปพลิเคชัน crash ได้ แม้จะมีโอกาสโจมตีต่ำ แต่ก็ส่งผลต่อระบบที่ใช้ OCSP และ CMP ที่อิง HTTP client ของ OpenSSL

    OpenSSL ได้ออกแพตช์สำหรับเวอร์ชัน 3.5.4, 3.4.3, 3.3.5, 3.2.6, 3.0.18, 1.1.1zd และ 1.0.2zm โดยแนะนำให้ผู้ใช้ทุกคนอัปเดตทันทีเพื่อป้องกันความเสี่ยง แม้ FIPS module จะไม่ได้รับผลกระทบ แต่โค้ดที่อยู่ภายนอกยังคงเสี่ยงต่อการโจมตี

    ข้อมูลสำคัญจากข่าว
    OpenSSL ออกแพตช์แก้ไขช่องโหว่ 3 รายการเมื่อวันที่ 30 กันยายน 2025
    CVE-2025-9230: Out-of-Bounds Read & Write ในการถอดรหัส CMS แบบ PWRI
    CVE-2025-9231: Timing Side-Channel ใน SM2 บน ARM64 อาจกู้คืน private key ได้
    CVE-2025-9232: Out-of-Bounds Read ใน HTTP client เมื่อใช้ no_proxy กับ IPv6
    ช่องโหว่ทั้งหมดส่งผลต่อเวอร์ชัน 1.0.2 ถึง 3.5 ของ OpenSSL
    แพตช์ใหม่ได้แก่เวอร์ชัน 3.5.4, 3.4.3, 3.3.5, 3.2.6, 3.0.18, 1.1.1zd และ 1.0.2zm
    FIPS module ไม่ได้รับผลกระทบ เพราะโค้ดที่มีช่องโหว่อยู่ภายนอก boundary

    ข้อมูลเสริมจากภายนอก
    SM2 เป็นอัลกอริธึมเข้ารหัสที่ใช้ในประเทศจีน และไม่เป็นมาตรฐาน TLS ทั่วไป
    Timing Side-Channel เป็นเทคนิคที่ใช้วัดเวลาการประมวลผลเพื่อกู้ข้อมูลลับ
    CMS (Cryptographic Message Syntax) ใช้ในระบบอีเมลและเอกสารที่เข้ารหัส
    no_proxy เป็น environment variable ที่ใช้ควบคุมการ bypass proxy ใน HTTP client
    OCSP และ CMP เป็นโปรโตคอลที่ใช้ตรวจสอบใบรับรองดิจิทัลในระบบ PKI

    https://securityonline.info/openssl-patches-three-flaws-timing-side-channel-rce-risk-and-memory-corruption-affect-all-versions/
    🔐 “OpenSSL แพตช์ช่องโหว่ 3 รายการ — เสี่ยง RCE, Side-Channel และ Crash จาก IPv6 ‘no_proxy’” OpenSSL ซึ่งเป็นไลบรารีเข้ารหัสที่ใช้กันอย่างแพร่หลายทั่วโลก ได้ออกแพตช์อัปเดตเมื่อวันที่ 30 กันยายน 2025 เพื่อแก้ไขช่องโหว่ความปลอดภัย 3 รายการที่ส่งผลกระทบต่อทุกเวอร์ชันหลัก ตั้งแต่ 1.0.2 ถึง 3.5 โดยมีระดับความรุนแรงตั้งแต่ Low ถึง Moderate แต่มีผลกระทบที่อาจร้ายแรงในบางบริบท ช่องโหว่แรก (CVE-2025-9230) เป็นการอ่านและเขียนข้อมูลนอกขอบเขต (Out-of-Bounds Read & Write) ในกระบวนการถอดรหัส CMS ที่ใช้การเข้ารหัสแบบรหัสผ่าน (PWRI) ซึ่งอาจนำไปสู่การ crash หรือแม้แต่การรันโค้ดจากผู้โจมตีได้ แม้โอกาสในการโจมตีจะต่ำ เพราะ CMS แบบ PWRI ใช้น้อยมากในโลกจริง แต่ช่องโหว่นี้ยังคงถูกจัดว่า “Moderate” และส่งผลต่อทุกเวอร์ชันหลักของ OpenSSL ช่องโหว่ที่สอง (CVE-2025-9231) เป็นการโจมตีแบบ Timing Side-Channel บนแพลตฟอร์ม ARM64 ที่ใช้ SM2 algorithm ซึ่งอาจเปิดช่องให้ผู้โจมตีสามารถวัดเวลาและกู้คืน private key ได้จากระยะไกลในบางกรณี โดยเฉพาะเมื่อมีการใช้ provider แบบ custom ที่รองรับ SM2 ช่องโหว่สุดท้าย (CVE-2025-9232) เป็นการอ่านข้อมูลนอกขอบเขตใน HTTP client API เมื่อมีการตั้งค่า no_proxy และใช้ URL ที่มี IPv6 ซึ่งอาจทำให้แอปพลิเคชัน crash ได้ แม้จะมีโอกาสโจมตีต่ำ แต่ก็ส่งผลต่อระบบที่ใช้ OCSP และ CMP ที่อิง HTTP client ของ OpenSSL OpenSSL ได้ออกแพตช์สำหรับเวอร์ชัน 3.5.4, 3.4.3, 3.3.5, 3.2.6, 3.0.18, 1.1.1zd และ 1.0.2zm โดยแนะนำให้ผู้ใช้ทุกคนอัปเดตทันทีเพื่อป้องกันความเสี่ยง แม้ FIPS module จะไม่ได้รับผลกระทบ แต่โค้ดที่อยู่ภายนอกยังคงเสี่ยงต่อการโจมตี ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenSSL ออกแพตช์แก้ไขช่องโหว่ 3 รายการเมื่อวันที่ 30 กันยายน 2025 ➡️ CVE-2025-9230: Out-of-Bounds Read & Write ในการถอดรหัส CMS แบบ PWRI ➡️ CVE-2025-9231: Timing Side-Channel ใน SM2 บน ARM64 อาจกู้คืน private key ได้ ➡️ CVE-2025-9232: Out-of-Bounds Read ใน HTTP client เมื่อใช้ no_proxy กับ IPv6 ➡️ ช่องโหว่ทั้งหมดส่งผลต่อเวอร์ชัน 1.0.2 ถึง 3.5 ของ OpenSSL ➡️ แพตช์ใหม่ได้แก่เวอร์ชัน 3.5.4, 3.4.3, 3.3.5, 3.2.6, 3.0.18, 1.1.1zd และ 1.0.2zm ➡️ FIPS module ไม่ได้รับผลกระทบ เพราะโค้ดที่มีช่องโหว่อยู่ภายนอก boundary ✅ ข้อมูลเสริมจากภายนอก ➡️ SM2 เป็นอัลกอริธึมเข้ารหัสที่ใช้ในประเทศจีน และไม่เป็นมาตรฐาน TLS ทั่วไป ➡️ Timing Side-Channel เป็นเทคนิคที่ใช้วัดเวลาการประมวลผลเพื่อกู้ข้อมูลลับ ➡️ CMS (Cryptographic Message Syntax) ใช้ในระบบอีเมลและเอกสารที่เข้ารหัส ➡️ no_proxy เป็น environment variable ที่ใช้ควบคุมการ bypass proxy ใน HTTP client ➡️ OCSP และ CMP เป็นโปรโตคอลที่ใช้ตรวจสอบใบรับรองดิจิทัลในระบบ PKI https://securityonline.info/openssl-patches-three-flaws-timing-side-channel-rce-risk-and-memory-corruption-affect-all-versions/
    SECURITYONLINE.INFO
    OpenSSL Patches Three Flaws: Timing Side-Channel RCE Risk and Memory Corruption Affect All Versions
    OpenSSL patches three flaws, including CVE-2025-9230 (RCE/DoS risk) and a SM2 timing side-channel (CVE-2025-9231) that could allow private key recovery on ARM64.
    0 Comments 0 Shares 244 Views 0 Reviews
  • “Crucial เปิดตัว LPCAMM2 แรมโน้ตบุ๊กยุคใหม่เร็วสุด 8,533MT/s — พร้อมรองรับ AI และอัปเกรดได้ในเครื่องบางเบา”

    Micron Technology ได้เปิดตัวหน่วยความจำ Crucial LPCAMM2 ซึ่งเป็นแรมโน้ตบุ๊กรุ่นใหม่ที่ใช้ LPDDR5X และมีความเร็วสูงสุดถึง 8,533MT/s ถือเป็นการก้าวกระโดดครั้งสำคัญในวงการหน่วยความจำสำหรับโน้ตบุ๊ก โดยออกแบบมาเพื่อรองรับงาน AI, การประมวลผลแบบเรียลไทม์ และการใช้งานหนักในเครื่องบางเบา

    LPCAMM2 มีขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึงครึ่งหนึ่ง แต่ให้ประสิทธิภาพสูงกว่า 1.5 เท่า และใช้พลังงานน้อยลงอย่างมาก โดยลดการใช้พลังงานขณะ standby ได้ถึง 80% และลดการใช้พลังงานขณะทำงานได้ถึง 58% ทำให้เหมาะกับโน้ตบุ๊กที่ต้องการประสิทธิภาพสูงแต่ยังคงอายุแบตเตอรี่ยาวนาน

    จุดเด่นอีกอย่างคือ “ความสามารถในการอัปเกรด” ซึ่งแตกต่างจาก LPDDR ที่มักถูกบัดกรีติดกับเมนบอร์ด LPCAMM2 มาในรูปแบบโมดูลที่สามารถถอดเปลี่ยนได้ ทำให้ผู้ใช้สามารถเพิ่มความจุหรือเปลี่ยนแรมได้ในอนาคต ลดปัญหาขยะอิเล็กทรอนิกส์ และเพิ่มอายุการใช้งานของเครื่อง

    Crucial ระบุว่า LPCAMM2 เหมาะกับผู้ใช้สายสร้างสรรค์, นักพัฒนา AI และผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพสูงในการทำงานหลายอย่างพร้อมกัน เช่น การประชุมวิดีโอ, การตัดต่อภาพ, การเขียนเอกสาร และการจัดการข้อมูลขนาดใหญ่ โดยสามารถเพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์ จากผลทดสอบ PCMark 10

    หน่วยความจำนี้รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell และคาดว่าจะมีการนำไปใช้ในโน้ตบุ๊ก AI รุ่นถัดไปอย่างแพร่หลาย

    ข้อมูลสำคัญจากข่าว
    Crucial เปิดตัว LPCAMM2 หน่วยความจำ LPDDR5X สำหรับโน้ตบุ๊ก
    ความเร็วสูงสุดถึง 8,533MT/s เร็วกว่า DDR5 SODIMM ถึง 1.5 เท่า
    ลดการใช้พลังงานขณะ standby ได้ถึง 80% และขณะทำงานได้ถึง 58%
    ขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึง 64%
    รองรับการอัปเกรดและเปลี่ยนแรมได้ ไม่ต้องบัดกรีติดเมนบอร์ด
    เหมาะกับงาน AI, การสร้างสรรค์, และการทำงานหลายอย่างพร้อมกัน
    เพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์
    รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell
    มีจำหน่ายแล้วผ่านช่องทางค้าปลีกและตัวแทนจำหน่ายทั่วโลก

    LPDDR5X เป็นหน่วยความจำที่ใช้ในสมาร์ตโฟนระดับเรือธง เช่น Galaxy S Ultra และ iPhone Pro
    CAMM (Compression Attached Memory Module) เป็นมาตรฐานใหม่ที่กำลังแทนที่ SODIMM
    LPCAMM2 ใช้การเชื่อมต่อแบบ dual-channel ในโมดูลเดียว เพิ่มแบนด์วิดธ์ได้เต็ม 128 บิต
    การออกแบบบางเบาและไม่มีพัดลมช่วยให้โน้ตบุ๊กมีดีไซน์ที่บางลงและเงียบขึ้น
    การอัปเกรดแรมในโน้ตบุ๊กเป็นสิ่งที่ผู้ใช้เรียกร้องมานาน หลังจากหลายรุ่นใช้แรมบัดกรีถาวร

    https://www.techpowerup.com/341496/crucial-unveils-lpcamm2-memory-with-record-8-533mt-s-performance-for-ai-ready-laptops
    🚀 “Crucial เปิดตัว LPCAMM2 แรมโน้ตบุ๊กยุคใหม่เร็วสุด 8,533MT/s — พร้อมรองรับ AI และอัปเกรดได้ในเครื่องบางเบา” Micron Technology ได้เปิดตัวหน่วยความจำ Crucial LPCAMM2 ซึ่งเป็นแรมโน้ตบุ๊กรุ่นใหม่ที่ใช้ LPDDR5X และมีความเร็วสูงสุดถึง 8,533MT/s ถือเป็นการก้าวกระโดดครั้งสำคัญในวงการหน่วยความจำสำหรับโน้ตบุ๊ก โดยออกแบบมาเพื่อรองรับงาน AI, การประมวลผลแบบเรียลไทม์ และการใช้งานหนักในเครื่องบางเบา LPCAMM2 มีขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึงครึ่งหนึ่ง แต่ให้ประสิทธิภาพสูงกว่า 1.5 เท่า และใช้พลังงานน้อยลงอย่างมาก โดยลดการใช้พลังงานขณะ standby ได้ถึง 80% และลดการใช้พลังงานขณะทำงานได้ถึง 58% ทำให้เหมาะกับโน้ตบุ๊กที่ต้องการประสิทธิภาพสูงแต่ยังคงอายุแบตเตอรี่ยาวนาน จุดเด่นอีกอย่างคือ “ความสามารถในการอัปเกรด” ซึ่งแตกต่างจาก LPDDR ที่มักถูกบัดกรีติดกับเมนบอร์ด LPCAMM2 มาในรูปแบบโมดูลที่สามารถถอดเปลี่ยนได้ ทำให้ผู้ใช้สามารถเพิ่มความจุหรือเปลี่ยนแรมได้ในอนาคต ลดปัญหาขยะอิเล็กทรอนิกส์ และเพิ่มอายุการใช้งานของเครื่อง Crucial ระบุว่า LPCAMM2 เหมาะกับผู้ใช้สายสร้างสรรค์, นักพัฒนา AI และผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพสูงในการทำงานหลายอย่างพร้อมกัน เช่น การประชุมวิดีโอ, การตัดต่อภาพ, การเขียนเอกสาร และการจัดการข้อมูลขนาดใหญ่ โดยสามารถเพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์ จากผลทดสอบ PCMark 10 หน่วยความจำนี้รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell และคาดว่าจะมีการนำไปใช้ในโน้ตบุ๊ก AI รุ่นถัดไปอย่างแพร่หลาย ✅ ข้อมูลสำคัญจากข่าว ➡️ Crucial เปิดตัว LPCAMM2 หน่วยความจำ LPDDR5X สำหรับโน้ตบุ๊ก ➡️ ความเร็วสูงสุดถึง 8,533MT/s เร็วกว่า DDR5 SODIMM ถึง 1.5 เท่า ➡️ ลดการใช้พลังงานขณะ standby ได้ถึง 80% และขณะทำงานได้ถึง 58% ➡️ ขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึง 64% ➡️ รองรับการอัปเกรดและเปลี่ยนแรมได้ ไม่ต้องบัดกรีติดเมนบอร์ด ➡️ เหมาะกับงาน AI, การสร้างสรรค์, และการทำงานหลายอย่างพร้อมกัน ➡️ เพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์ ➡️ รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell ➡️ มีจำหน่ายแล้วผ่านช่องทางค้าปลีกและตัวแทนจำหน่ายทั่วโลก ➡️ LPDDR5X เป็นหน่วยความจำที่ใช้ในสมาร์ตโฟนระดับเรือธง เช่น Galaxy S Ultra และ iPhone Pro ➡️ CAMM (Compression Attached Memory Module) เป็นมาตรฐานใหม่ที่กำลังแทนที่ SODIMM ➡️ LPCAMM2 ใช้การเชื่อมต่อแบบ dual-channel ในโมดูลเดียว เพิ่มแบนด์วิดธ์ได้เต็ม 128 บิต ➡️ การออกแบบบางเบาและไม่มีพัดลมช่วยให้โน้ตบุ๊กมีดีไซน์ที่บางลงและเงียบขึ้น ➡️ การอัปเกรดแรมในโน้ตบุ๊กเป็นสิ่งที่ผู้ใช้เรียกร้องมานาน หลังจากหลายรุ่นใช้แรมบัดกรีถาวร https://www.techpowerup.com/341496/crucial-unveils-lpcamm2-memory-with-record-8-533mt-s-performance-for-ai-ready-laptops
    WWW.TECHPOWERUP.COM
    Crucial Unveils LPCAMM2 Memory with Record 8,533MT/s Performance for AI-Ready Laptops
    Micron Technology is pushing the boundaries of laptop performance with higher speeds for Crucial LPCAMM2 memory, now reaching up to 8,533 megatransfers per second (MT/s). This latest enhancement brings even more performance to Crucial's standards-based compact memory module, purpose-built to allow e...
    0 Comments 0 Shares 264 Views 0 Reviews
  • “Zhaoxin เปิดตัว KH-50000 ซีพียูเซิร์ฟเวอร์ 96 คอร์ — ยกระดับเทคโนโลยีจีนด้วยดีไซน์ chiplet และแบนด์วิดธ์มหาศาล”

    Zhaoxin ผู้ผลิตซีพียูจากจีนเปิดตัว KH-50000 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาดเซิร์ฟเวอร์ภายในประเทศ ด้วยสเปกที่เรียกได้ว่า “ท้าชน AMD EPYC” โดยเฉพาะรุ่น Bergamo ที่มี 96 คอร์เช่นกัน

    KH-50000 ใช้ดีไซน์แบบ chiplet โดยประกอบด้วย 12 compute chiplets และ 1 IO chiplet ขนาดใหญ่ รองรับสูงสุด 96 คอร์ พร้อมแคช L3 ขนาด 384MB และความเร็ว 2.0GHz base / 3.0GHz boost แม้ยังไม่ยืนยันว่ารองรับ SMT หรือไม่ แต่ IPC เพิ่มขึ้นถึง 30% จากรุ่นก่อนหน้า KH-40000

    จุดเด่นอีกอย่างคือการรองรับหน่วยความจำ DDR5 แบบ 12-channel ECC และ PCIe 5.0 สูงสุด 128 เลน พร้อม ZPI 5.0 interconnect ที่รองรับระบบ dual และ quad-socket ได้สูงสุดถึง 384 คอร์ในเมนบอร์ดเดียว ซึ่งถือเป็นก้าวกระโดดด้านแบนด์วิดธ์และ latency

    ดีไซน์ภายนอกของ KH-50000 ยังคล้ายกับ AMD EPYC Bergamo อย่างเห็นได้ชัด ทั้ง IHS และแพ็กเกจ โดย Zhaoxin ตั้งใจให้เป็นทางเลือกที่ผลิตภายในประเทศจีนอย่างแท้จริง

    นอกจาก KH-50000 แล้ว Zhaoxin ยังเปิดตัว KX-7000N สำหรับตลาด consumer ซึ่งเพิ่ม NPU สำหรับงาน AI และเตรียมเข้าสู่ยุค “AI PC” ด้วยการรองรับ PCIe 5.0 และการออกแบบสถาปัตยกรรมใหม่ที่เน้นการประมวลผลแบบ heterogeneous

    ข้อมูลสำคัญจากข่าว
    Zhaoxin เปิดตัว KH-50000 ซีพียูเซิร์ฟเวอร์แบบ chiplet รองรับสูงสุด 96 คอร์
    ประกอบด้วย 12 compute chiplets และ 1 IO chiplet ขนาดใหญ่
    ความเร็ว 2.0GHz base / 3.0GHz boost พร้อมแคช L3 ขนาด 384MB
    IPC เพิ่มขึ้น 30% จาก KH-40000 รุ่นก่อนหน้า
    รองรับ DDR5 แบบ 12-channel ECC และ PCIe 5.0 สูงสุด 128 เลน
    ใช้ ZPI 5.0 interconnect รองรับ dual และ quad-socket สูงสุด 384 คอร์
    ดีไซน์ภายนอกคล้าย AMD EPYC Bergamo ทั้ง IHS และแพ็กเกจ
    เปิดตัว KX-7000N สำหรับตลาด consumer พร้อม NPU สำหรับงาน AI
    KX-7000N รองรับ PCIe 5.0 และเตรียมเข้าสู่ยุค AI PC

    ข้อมูลเสริมจากภายนอก
    AMD EPYC Bergamo ใช้ Zen 5 รองรับ 96 คอร์ 192 เธรด และแคช 384MB เช่นกัน
    ZPI 5.0 เป็น interconnect ที่พัฒนาโดย Zhaoxin เพื่อรองรับระบบหลายซ็อกเก็ต
    PCIe 5.0 มีแบนด์วิดธ์สูงถึง 32GT/s ต่อเลน เหมาะกับงาน HPC และ AI
    NPU (Neural Processing Unit) ช่วยเร่งงาน AI เช่น inference และการประมวลผลภาพ
    ตลาด AI PC กำลังเติบโตอย่างรวดเร็ว โดยมี Intel และ AMD เตรียมเปิดตัวชิปที่มี NPU ในปี 2026

    https://wccftech.com/zhaoxin-launches-kh-50000-cpus-up-to-96-cores-first-die-shots-12-compute-chiplet/
    🧠 “Zhaoxin เปิดตัว KH-50000 ซีพียูเซิร์ฟเวอร์ 96 คอร์ — ยกระดับเทคโนโลยีจีนด้วยดีไซน์ chiplet และแบนด์วิดธ์มหาศาล” Zhaoxin ผู้ผลิตซีพียูจากจีนเปิดตัว KH-50000 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาดเซิร์ฟเวอร์ภายในประเทศ ด้วยสเปกที่เรียกได้ว่า “ท้าชน AMD EPYC” โดยเฉพาะรุ่น Bergamo ที่มี 96 คอร์เช่นกัน KH-50000 ใช้ดีไซน์แบบ chiplet โดยประกอบด้วย 12 compute chiplets และ 1 IO chiplet ขนาดใหญ่ รองรับสูงสุด 96 คอร์ พร้อมแคช L3 ขนาด 384MB และความเร็ว 2.0GHz base / 3.0GHz boost แม้ยังไม่ยืนยันว่ารองรับ SMT หรือไม่ แต่ IPC เพิ่มขึ้นถึง 30% จากรุ่นก่อนหน้า KH-40000 จุดเด่นอีกอย่างคือการรองรับหน่วยความจำ DDR5 แบบ 12-channel ECC และ PCIe 5.0 สูงสุด 128 เลน พร้อม ZPI 5.0 interconnect ที่รองรับระบบ dual และ quad-socket ได้สูงสุดถึง 384 คอร์ในเมนบอร์ดเดียว ซึ่งถือเป็นก้าวกระโดดด้านแบนด์วิดธ์และ latency ดีไซน์ภายนอกของ KH-50000 ยังคล้ายกับ AMD EPYC Bergamo อย่างเห็นได้ชัด ทั้ง IHS และแพ็กเกจ โดย Zhaoxin ตั้งใจให้เป็นทางเลือกที่ผลิตภายในประเทศจีนอย่างแท้จริง นอกจาก KH-50000 แล้ว Zhaoxin ยังเปิดตัว KX-7000N สำหรับตลาด consumer ซึ่งเพิ่ม NPU สำหรับงาน AI และเตรียมเข้าสู่ยุค “AI PC” ด้วยการรองรับ PCIe 5.0 และการออกแบบสถาปัตยกรรมใหม่ที่เน้นการประมวลผลแบบ heterogeneous ✅ ข้อมูลสำคัญจากข่าว ➡️ Zhaoxin เปิดตัว KH-50000 ซีพียูเซิร์ฟเวอร์แบบ chiplet รองรับสูงสุด 96 คอร์ ➡️ ประกอบด้วย 12 compute chiplets และ 1 IO chiplet ขนาดใหญ่ ➡️ ความเร็ว 2.0GHz base / 3.0GHz boost พร้อมแคช L3 ขนาด 384MB ➡️ IPC เพิ่มขึ้น 30% จาก KH-40000 รุ่นก่อนหน้า ➡️ รองรับ DDR5 แบบ 12-channel ECC และ PCIe 5.0 สูงสุด 128 เลน ➡️ ใช้ ZPI 5.0 interconnect รองรับ dual และ quad-socket สูงสุด 384 คอร์ ➡️ ดีไซน์ภายนอกคล้าย AMD EPYC Bergamo ทั้ง IHS และแพ็กเกจ ➡️ เปิดตัว KX-7000N สำหรับตลาด consumer พร้อม NPU สำหรับงาน AI ➡️ KX-7000N รองรับ PCIe 5.0 และเตรียมเข้าสู่ยุค AI PC ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD EPYC Bergamo ใช้ Zen 5 รองรับ 96 คอร์ 192 เธรด และแคช 384MB เช่นกัน ➡️ ZPI 5.0 เป็น interconnect ที่พัฒนาโดย Zhaoxin เพื่อรองรับระบบหลายซ็อกเก็ต ➡️ PCIe 5.0 มีแบนด์วิดธ์สูงถึง 32GT/s ต่อเลน เหมาะกับงาน HPC และ AI ➡️ NPU (Neural Processing Unit) ช่วยเร่งงาน AI เช่น inference และการประมวลผลภาพ ➡️ ตลาด AI PC กำลังเติบโตอย่างรวดเร็ว โดยมี Intel และ AMD เตรียมเปิดตัวชิปที่มี NPU ในปี 2026 https://wccftech.com/zhaoxin-launches-kh-50000-cpus-up-to-96-cores-first-die-shots-12-compute-chiplet/
    WCCFTECH.COM
    Zhaoxin Launches Its KH-50000 CPUs With Up To 96 Cores: First Die Shots Reveal 12 Compute Chiplet Accompanying A Massive IO Chiplet
    Zhaoxin has finally launched its KH-50000 CPUs for servers, offering up to 96 cores and a chiplet design for the domestic Chinese markets.
    0 Comments 0 Shares 184 Views 0 Reviews
  • “Intel Granite Rapids-WS เปิดตัว — ยักษ์ 86 คอร์ที่พร้อมท้าชน AMD Threadripper 9995WX ในสนามเวิร์กสเตชันระดับสูง”

    Intel กำลังเตรียมเปิดตัวซีพียูรุ่นใหม่ในสาย Granite Rapids-WS ซึ่งออกแบบมาเพื่อแข่งขันโดยตรงกับ AMD Threadripper 9995WX ที่ครองตลาดเวิร์กสเตชันระดับสูงมาหลายปี โดยรุ่นที่ถูกเปิดเผยล่าสุดมีจำนวนคอร์ถึง 86 คอร์ 172 เธรด และสามารถเร่งความเร็วได้สูงสุดถึง 4.8GHz ซึ่งถือว่าใกล้เคียงกับ Threadripper 9995WX ที่มี 96 คอร์ และเร่งได้ถึง 5.4GHz

    Granite Rapids-WS ใช้สถาปัตยกรรมแบบ tile-based โดยแบ่งเป็นสอง compute tiles ซึ่งช่วยลดต้นทุนการผลิตเมื่อเทียบกับการใช้สาม die เพื่อไปถึง 128 คอร์ ซึ่งเป็นขีดจำกัดสูงสุดของสถาปัตยกรรมนี้ แม้จะยังไม่ใช่รุ่นเรือธงเต็มรูปแบบ แต่ก็ถือเป็นก้าวสำคัญของ Intel ในการกลับเข้าสู่การแข่งขันในตลาด HEDT และเวิร์กสเตชัน หลังจากที่ซีรีส์ W-3500 รุ่นก่อนหน้ามีเพียง 60 คอร์เท่านั้น

    นอกจากนี้ยังมีข่าวลือว่า Granite Rapids-WS จะรองรับ PCIe 5.0 สูงสุดถึง 128 เลน, หน่วยความจำ DDR5 แบบ 8-channel และใช้ชิปเซ็ต W890 ซึ่งจะทำให้มันกลายเป็นตัวเลือกที่ทรงพลังสำหรับงานระดับมืออาชีพ เช่น การเรนเดอร์ 3D, การจำลองทางวิศวกรรม และการประมวลผลข้อมูลขนาดใหญ่

    ในฝั่ง AMD นั้น Threadripper 9995WX ยังคงเป็นคู่แข่งที่แข็งแกร่ง ด้วยเทคโนโลยี Zen 5, L3 cache ขนาด 384MB, รองรับ ECC, PCIe Gen 5 และ TDP สูงถึง 350W ซึ่งหมายความว่าผู้ใช้ต้องมีระบบระบายความร้อนระดับสูงเพื่อใช้งานได้เต็มประสิทธิภาพ

    ข้อมูลสำคัญจากข่าว
    Intel เตรียมเปิดตัว Granite Rapids-WS รุ่นใหม่ที่มี 86 คอร์ 172 เธรด
    ความเร็วสูงสุดอยู่ที่ 4.8GHz ซึ่งสูงกว่ารุ่น Xeon 6787P ที่ใช้สถาปัตยกรรมเดียวกัน
    ใช้สถาปัตยกรรมแบบ tile-based โดยใช้สอง compute tiles เพื่อลดต้นทุน
    Granite Rapids รองรับการขยายถึง 128 คอร์ หากใช้สาม die
    รุ่น WS อาจรองรับ PCIe 5.0 สูงสุด 128 เลน และ DDR5 แบบ 8-channel
    ใช้ชิปเซ็ต W890 ซึ่งออกแบบมาสำหรับเวิร์กสเตชันระดับสูง
    เป็นการกลับเข้าสู่ตลาด HEDT ของ Intel หลังจากห่างหายไปหลายปี
    AMD Threadripper 9995WX มี 96 คอร์ Zen 5, เร่งได้ถึง 5.4GHz และ L3 cache 384MB
    รองรับ ECC, PCIe Gen 5 และมี TDP สูงถึง 350W เหมาะกับงานหนักระดับมืออาชีพ

    ข้อมูลเสริมจากภายนอก
    Granite Rapids เป็นสถาปัตยกรรมที่ Intel ใช้ในเซิร์ฟเวอร์ Xeon รุ่นใหม่ เช่น Xeon 6900P
    Threadripper 9995WX ผลิตบนเทคโนโลยี 4nm โดย TSMC และรองรับการโอเวอร์คล็อก
    AMD มีความได้เปรียบในตลาด HEDT มาตั้งแต่ซีรีส์ Threadripper 3000
    Intel เคยเสียส่วนแบ่งตลาดให้ AMD เนื่องจากข้อจำกัดด้านจำนวนคอร์และประสิทธิภาพ
    การแข่งขันครั้งนี้อาจส่งผลให้ราคาซีพียูระดับสูงลดลง และผู้ใช้มีตัวเลือกมากขึ้น

    https://www.tomshardware.com/pc-components/cpus/intel-aims-at-amds-threadripper-with-its-new-granite-rapids-ws-cpu-chip-armed-with-core-count-approaching-the-flagship-amd-threadripper-9995wx-boasts-a-4-8ghz-boost-clock
    ⚙️ “Intel Granite Rapids-WS เปิดตัว — ยักษ์ 86 คอร์ที่พร้อมท้าชน AMD Threadripper 9995WX ในสนามเวิร์กสเตชันระดับสูง” Intel กำลังเตรียมเปิดตัวซีพียูรุ่นใหม่ในสาย Granite Rapids-WS ซึ่งออกแบบมาเพื่อแข่งขันโดยตรงกับ AMD Threadripper 9995WX ที่ครองตลาดเวิร์กสเตชันระดับสูงมาหลายปี โดยรุ่นที่ถูกเปิดเผยล่าสุดมีจำนวนคอร์ถึง 86 คอร์ 172 เธรด และสามารถเร่งความเร็วได้สูงสุดถึง 4.8GHz ซึ่งถือว่าใกล้เคียงกับ Threadripper 9995WX ที่มี 96 คอร์ และเร่งได้ถึง 5.4GHz Granite Rapids-WS ใช้สถาปัตยกรรมแบบ tile-based โดยแบ่งเป็นสอง compute tiles ซึ่งช่วยลดต้นทุนการผลิตเมื่อเทียบกับการใช้สาม die เพื่อไปถึง 128 คอร์ ซึ่งเป็นขีดจำกัดสูงสุดของสถาปัตยกรรมนี้ แม้จะยังไม่ใช่รุ่นเรือธงเต็มรูปแบบ แต่ก็ถือเป็นก้าวสำคัญของ Intel ในการกลับเข้าสู่การแข่งขันในตลาด HEDT และเวิร์กสเตชัน หลังจากที่ซีรีส์ W-3500 รุ่นก่อนหน้ามีเพียง 60 คอร์เท่านั้น นอกจากนี้ยังมีข่าวลือว่า Granite Rapids-WS จะรองรับ PCIe 5.0 สูงสุดถึง 128 เลน, หน่วยความจำ DDR5 แบบ 8-channel และใช้ชิปเซ็ต W890 ซึ่งจะทำให้มันกลายเป็นตัวเลือกที่ทรงพลังสำหรับงานระดับมืออาชีพ เช่น การเรนเดอร์ 3D, การจำลองทางวิศวกรรม และการประมวลผลข้อมูลขนาดใหญ่ ในฝั่ง AMD นั้น Threadripper 9995WX ยังคงเป็นคู่แข่งที่แข็งแกร่ง ด้วยเทคโนโลยี Zen 5, L3 cache ขนาด 384MB, รองรับ ECC, PCIe Gen 5 และ TDP สูงถึง 350W ซึ่งหมายความว่าผู้ใช้ต้องมีระบบระบายความร้อนระดับสูงเพื่อใช้งานได้เต็มประสิทธิภาพ ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel เตรียมเปิดตัว Granite Rapids-WS รุ่นใหม่ที่มี 86 คอร์ 172 เธรด ➡️ ความเร็วสูงสุดอยู่ที่ 4.8GHz ซึ่งสูงกว่ารุ่น Xeon 6787P ที่ใช้สถาปัตยกรรมเดียวกัน ➡️ ใช้สถาปัตยกรรมแบบ tile-based โดยใช้สอง compute tiles เพื่อลดต้นทุน ➡️ Granite Rapids รองรับการขยายถึง 128 คอร์ หากใช้สาม die ➡️ รุ่น WS อาจรองรับ PCIe 5.0 สูงสุด 128 เลน และ DDR5 แบบ 8-channel ➡️ ใช้ชิปเซ็ต W890 ซึ่งออกแบบมาสำหรับเวิร์กสเตชันระดับสูง ➡️ เป็นการกลับเข้าสู่ตลาด HEDT ของ Intel หลังจากห่างหายไปหลายปี ➡️ AMD Threadripper 9995WX มี 96 คอร์ Zen 5, เร่งได้ถึง 5.4GHz และ L3 cache 384MB ➡️ รองรับ ECC, PCIe Gen 5 และมี TDP สูงถึง 350W เหมาะกับงานหนักระดับมืออาชีพ ✅ ข้อมูลเสริมจากภายนอก ➡️ Granite Rapids เป็นสถาปัตยกรรมที่ Intel ใช้ในเซิร์ฟเวอร์ Xeon รุ่นใหม่ เช่น Xeon 6900P ➡️ Threadripper 9995WX ผลิตบนเทคโนโลยี 4nm โดย TSMC และรองรับการโอเวอร์คล็อก ➡️ AMD มีความได้เปรียบในตลาด HEDT มาตั้งแต่ซีรีส์ Threadripper 3000 ➡️ Intel เคยเสียส่วนแบ่งตลาดให้ AMD เนื่องจากข้อจำกัดด้านจำนวนคอร์และประสิทธิภาพ ➡️ การแข่งขันครั้งนี้อาจส่งผลให้ราคาซีพียูระดับสูงลดลง และผู้ใช้มีตัวเลือกมากขึ้น https://www.tomshardware.com/pc-components/cpus/intel-aims-at-amds-threadripper-with-its-new-granite-rapids-ws-cpu-chip-armed-with-core-count-approaching-the-flagship-amd-threadripper-9995wx-boasts-a-4-8ghz-boost-clock
    WWW.TOMSHARDWARE.COM
    Intel aims at AMD's Threadripper with its new Granite Rapids-WS CPU — chip armed with core count approaching the flagship AMD Threadripper 9995WX, boasts a 4.8GHz boost clock
    Granite Rapids-WS has the chance to outdo Threadripper 9000WX in core count, similar to what the architecture has done for Intel on the server side.
    0 Comments 0 Shares 267 Views 0 Reviews
  • “Intel Granite Rapids-WS โผล่พร้อม 86 คอร์ 172 เธรด — ยุคใหม่ของเวิร์กสเตชันระดับ HEDT กำลังจะเริ่มต้น”

    Intel กำลังเตรียมกลับเข้าสู่ตลาดเวิร์กสเตชันระดับสูง (HEDT) อย่างจริงจัง ด้วยการเปิดตัว Granite Rapids-WS ซึ่งเป็นซีพียูรุ่นใหม่ที่มีจำนวนคอร์สูงถึง 86 คอร์ และ 172 เธรด โดยใช้โครงสร้างจากชิปเซิร์ฟเวอร์ XCC ที่ประกอบด้วย 2 compute tiles และ 2 I/O tiles สำหรับจัดการ PCIe และหน่วยความจำ

    ข้อมูลนี้ปรากฏจากฐานข้อมูล OpenBenchmark.org ซึ่งแสดงตัวอย่างชิปที่มีความเร็วสูงสุดใกล้เคียง 4.8 GHz (คาดว่าเป็น turbo boost เฉพาะบางคอร์) แม้จะยังไม่มีข้อมูลด้านพลังงานหรือความถี่พื้นฐาน แต่ก็สะท้อนถึงศักยภาพของแพลตฟอร์มใหม่ที่ Intel กำลังพัฒนา

    Granite Rapids-WS จะใช้แพลตฟอร์ม W890 พร้อมซ็อกเก็ตใหม่ LGA 4710 และมีการแบ่งออกเป็นสองระดับ: รุ่น mainstream รองรับ DDR5 แบบ 4-channel และ PCIe Gen5 จำนวน 80 เลน ส่วนรุ่น expert รองรับ DDR5 แบบ 8-channel และ PCIe Gen5 ถึง 128 เลน ซึ่งถือว่าใกล้เคียงกับ AMD Threadripper 9000 ที่มี 96 คอร์ และแคชสูงถึง 384MB

    แม้ Intel จะยังตามหลัง AMD เล็กน้อยในด้านจำนวนคอร์ แต่ Granite Rapids-WS มีข้อได้เปรียบด้านสถาปัตยกรรมใหม่, ความเร็วหน่วยความจำที่สูงถึง DDR5-8000 และการออกแบบแพลตฟอร์มที่ทันสมัย ซึ่งอาจช่วยให้ Intel กลับมาแข่งขันในตลาดเวิร์กสเตชันได้อีกครั้ง

    ข้อมูลสำคัญจากข่าว
    Granite Rapids-WS มี 86 คอร์ 172 เธรด ใช้โครงสร้างจากชิปเซิร์ฟเวอร์ XCC
    ความเร็วสูงสุดที่พบคือ 4.8 GHz (คาดว่าเป็น turbo boost เฉพาะบางคอร์)
    ใช้แพลตฟอร์ม W890 และซ็อกเก็ตใหม่ LGA 4710
    รุ่น mainstream รองรับ DDR5 แบบ 4-channel และ PCIe Gen5 80 เลน
    รุ่น expert รองรับ DDR5 แบบ 8-channel และ PCIe Gen5 128 เลน
    รองรับแคชสูงสุด 336MB และ TDP สูงสุดประมาณ 350W
    มีการทดสอบบนระบบที่ใช้ RAM DDR5 512GB และ GPU RTX 3090
    Granite Rapids-WS อาจเป็นทางเลือกใหม่แทน Threadripper สำหรับผู้ใช้ระดับมืออาชีพ

    ข้อมูลเสริมจากภายนอก
    AMD Threadripper 9000 มีสูงสุด 96 คอร์ และแคช 384MB
    Threadripper ใช้ซ็อกเก็ต sTR5 ซึ่งสามารถอัปเกรดผ่าน BIOS ได้ง่าย
    Intel เคยลดบทบาทในตลาด HEDT แต่กำลังกลับมาแข่งขันอีกครั้ง
    Xeon 6700P เป็นรุ่นที่ใกล้เคียงกับ Granite Rapids-WS ในด้านโครงสร้าง
    DDR5-8000 เป็นความเร็วที่สูงมากสำหรับงานเวิร์กสเตชันและ AI

    https://www.techpowerup.com/341448/intel-granite-rapids-ws-appears-with-86-cores-and-172-threads-built-for-hedt
    🧠 “Intel Granite Rapids-WS โผล่พร้อม 86 คอร์ 172 เธรด — ยุคใหม่ของเวิร์กสเตชันระดับ HEDT กำลังจะเริ่มต้น” Intel กำลังเตรียมกลับเข้าสู่ตลาดเวิร์กสเตชันระดับสูง (HEDT) อย่างจริงจัง ด้วยการเปิดตัว Granite Rapids-WS ซึ่งเป็นซีพียูรุ่นใหม่ที่มีจำนวนคอร์สูงถึง 86 คอร์ และ 172 เธรด โดยใช้โครงสร้างจากชิปเซิร์ฟเวอร์ XCC ที่ประกอบด้วย 2 compute tiles และ 2 I/O tiles สำหรับจัดการ PCIe และหน่วยความจำ ข้อมูลนี้ปรากฏจากฐานข้อมูล OpenBenchmark.org ซึ่งแสดงตัวอย่างชิปที่มีความเร็วสูงสุดใกล้เคียง 4.8 GHz (คาดว่าเป็น turbo boost เฉพาะบางคอร์) แม้จะยังไม่มีข้อมูลด้านพลังงานหรือความถี่พื้นฐาน แต่ก็สะท้อนถึงศักยภาพของแพลตฟอร์มใหม่ที่ Intel กำลังพัฒนา Granite Rapids-WS จะใช้แพลตฟอร์ม W890 พร้อมซ็อกเก็ตใหม่ LGA 4710 และมีการแบ่งออกเป็นสองระดับ: รุ่น mainstream รองรับ DDR5 แบบ 4-channel และ PCIe Gen5 จำนวน 80 เลน ส่วนรุ่น expert รองรับ DDR5 แบบ 8-channel และ PCIe Gen5 ถึง 128 เลน ซึ่งถือว่าใกล้เคียงกับ AMD Threadripper 9000 ที่มี 96 คอร์ และแคชสูงถึง 384MB แม้ Intel จะยังตามหลัง AMD เล็กน้อยในด้านจำนวนคอร์ แต่ Granite Rapids-WS มีข้อได้เปรียบด้านสถาปัตยกรรมใหม่, ความเร็วหน่วยความจำที่สูงถึง DDR5-8000 และการออกแบบแพลตฟอร์มที่ทันสมัย ซึ่งอาจช่วยให้ Intel กลับมาแข่งขันในตลาดเวิร์กสเตชันได้อีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ Granite Rapids-WS มี 86 คอร์ 172 เธรด ใช้โครงสร้างจากชิปเซิร์ฟเวอร์ XCC ➡️ ความเร็วสูงสุดที่พบคือ 4.8 GHz (คาดว่าเป็น turbo boost เฉพาะบางคอร์) ➡️ ใช้แพลตฟอร์ม W890 และซ็อกเก็ตใหม่ LGA 4710 ➡️ รุ่น mainstream รองรับ DDR5 แบบ 4-channel และ PCIe Gen5 80 เลน ➡️ รุ่น expert รองรับ DDR5 แบบ 8-channel และ PCIe Gen5 128 เลน ➡️ รองรับแคชสูงสุด 336MB และ TDP สูงสุดประมาณ 350W ➡️ มีการทดสอบบนระบบที่ใช้ RAM DDR5 512GB และ GPU RTX 3090 ➡️ Granite Rapids-WS อาจเป็นทางเลือกใหม่แทน Threadripper สำหรับผู้ใช้ระดับมืออาชีพ ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD Threadripper 9000 มีสูงสุด 96 คอร์ และแคช 384MB ➡️ Threadripper ใช้ซ็อกเก็ต sTR5 ซึ่งสามารถอัปเกรดผ่าน BIOS ได้ง่าย ➡️ Intel เคยลดบทบาทในตลาด HEDT แต่กำลังกลับมาแข่งขันอีกครั้ง ➡️ Xeon 6700P เป็นรุ่นที่ใกล้เคียงกับ Granite Rapids-WS ในด้านโครงสร้าง ➡️ DDR5-8000 เป็นความเร็วที่สูงมากสำหรับงานเวิร์กสเตชันและ AI https://www.techpowerup.com/341448/intel-granite-rapids-ws-appears-with-86-cores-and-172-threads-built-for-hedt
    WWW.TECHPOWERUP.COM
    Intel "Granite Rapids-WS" Appears with 86 Cores and 172 Threads Built for HEDT
    According to listing on OpenBenchmark.org, spotted by @momomo_us on X, appears to show a "Granite Rapids-WS" engineering sample running with 86 cores and 172 threads. The entry lists peak core speeds near 4.8 GHz, which likely reflects a turboboost on a few cores rather than a sustained all-core clo...
    0 Comments 0 Shares 182 Views 0 Reviews
  • “AMD จดสิทธิบัตร HB-DIMM อีกครั้ง — แต่เทคโนโลยีนี้อาจไม่มา เพราะ MRDIMM แซงหน้าไปแล้ว”

    เมื่อเร็ว ๆ นี้ AMD ได้จดสิทธิบัตรใหม่ในชื่อ “High-bandwidth memory module architecture” ซึ่งหลายคนเข้าใจว่าเป็นการเปิดตัวเทคโนโลยี RAM แบบใหม่ที่ใช้ DDR5 เป็นฐาน โดยเรียกว่า HB-DIMM (High-Bandwidth DIMM) แต่แท้จริงแล้ว สิทธิบัตรนี้เป็นเพียงการต่อยอดจากเอกสารเดิมที่ยื่นไว้ตั้งแต่ปี 2022 และถูกแทนที่ด้วยเทคโนโลยี MRDIMM ไปแล้วตั้งแต่ปี 2023

    HB-DIMM เป็นแนวคิดที่ใช้ “pseudo-channels” หรือช่องสัญญาณจำลองภายในโมดูลเดียว เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ได้ถึงสองเท่า โดยไม่ต้องเปลี่ยนชิป DRAM แต่ต้องเพิ่มชิ้นส่วน เช่น data buffers และ RCD (Register Clock Driver) ซึ่งทำให้ HB-DIMM มีศักยภาพเหนือกว่า RDIMM และ CUDIMM แบบเดิม

    อย่างไรก็ตาม เทคโนโลยีนี้ได้ถูกนำไปพัฒนาเป็นมาตรฐานใหม่ชื่อ MRDIMM (Multiplexed-Rank DIMM) โดย JEDEC ซึ่งรวมแนวคิดของ HB-DIMM และ MCR-DIMM (จาก Intel และ SK hynix) เข้าด้วยกัน เพื่อหลีกเลี่ยงการเกิดมาตรฐานที่ไม่เข้ากันในตลาด

    MRDIMM ได้รับการสนับสนุนจาก Intel และ AMD แล้ว โดย Intel ใช้ในซีพียู Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ที่มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ซึ่งตรงกับความเร็วที่ JEDEC ระบุไว้สำหรับ MRDIMM รุ่นที่สอง

    แม้จะมีประสิทธิภาพสูง แต่ MRDIMM ยังมีราคาสูงมาก โดยแพงกว่ารุ่น DDR5 RDIMM ทั่วไปถึง 28–114% ต่อ GB ซึ่งอาจเป็นอุปสรรคต่อการนำมาใช้ในระบบทั่วไป

    ข้อมูลสำคัญจากข่าว
    AMD จดสิทธิบัตร HB-DIMM อีกครั้งในปี 2025 แต่เป็นการต่อยอดจากเอกสารเดิม
    HB-DIMM ใช้ pseudo-channels เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5
    ต้องใช้ชิ้นส่วนเพิ่ม เช่น data buffers และ RCD เพื่อให้ทำงานได้
    แนวคิด HB-DIMM ถูกนำไปพัฒนาเป็นมาตรฐาน MRDIMM โดย JEDEC
    MRDIMM รวมแนวคิดจาก HB-DIMM และ MCR-DIMM เพื่อหลีกเลี่ยงความไม่เข้ากัน
    Intel ใช้ MRDIMM ใน Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’
    EPYC ‘Venice’ มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต
    MRDIMM รุ่นที่สองมีความเร็วสูงถึง 12,800 Mbps ตามมาตรฐาน JEDEC
    MRDIMM มีราคาสูงกว่ารุ่น DDR5 RDIMM ถึง 28–114% ต่อ GB

    ข้อมูลเสริมจากภายนอก
    HB-DIMM ไม่ใช่เทคโนโลยีใหม่ แต่เป็นแนวคิดที่ถูกพัฒนาไปแล้ว
    JEDEC เป็นองค์กรที่กำหนดมาตรฐานหน่วยความจำระดับโลก
    pseudo-channels ช่วยให้สามารถเข้าถึงข้อมูลแบบขนานภายในโมดูลเดียว
    MRDIMM ช่วยลด latency และเพิ่ม throughput ในงานที่ใช้หน่วยความจำหนัก
    AMD และ Intel มีแนวโน้มร่วมมือกันมากขึ้นในด้านมาตรฐานหน่วยความจำ

    https://www.tomshardware.com/pc-components/ram/amds-memory-patent-outlining-a-new-improved-ram-made-from-ddr5-memory-isnt-a-new-development-hb-dimms-already-superseded-probably-wont-come-to-market
    🧠 “AMD จดสิทธิบัตร HB-DIMM อีกครั้ง — แต่เทคโนโลยีนี้อาจไม่มา เพราะ MRDIMM แซงหน้าไปแล้ว” เมื่อเร็ว ๆ นี้ AMD ได้จดสิทธิบัตรใหม่ในชื่อ “High-bandwidth memory module architecture” ซึ่งหลายคนเข้าใจว่าเป็นการเปิดตัวเทคโนโลยี RAM แบบใหม่ที่ใช้ DDR5 เป็นฐาน โดยเรียกว่า HB-DIMM (High-Bandwidth DIMM) แต่แท้จริงแล้ว สิทธิบัตรนี้เป็นเพียงการต่อยอดจากเอกสารเดิมที่ยื่นไว้ตั้งแต่ปี 2022 และถูกแทนที่ด้วยเทคโนโลยี MRDIMM ไปแล้วตั้งแต่ปี 2023 HB-DIMM เป็นแนวคิดที่ใช้ “pseudo-channels” หรือช่องสัญญาณจำลองภายในโมดูลเดียว เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ได้ถึงสองเท่า โดยไม่ต้องเปลี่ยนชิป DRAM แต่ต้องเพิ่มชิ้นส่วน เช่น data buffers และ RCD (Register Clock Driver) ซึ่งทำให้ HB-DIMM มีศักยภาพเหนือกว่า RDIMM และ CUDIMM แบบเดิม อย่างไรก็ตาม เทคโนโลยีนี้ได้ถูกนำไปพัฒนาเป็นมาตรฐานใหม่ชื่อ MRDIMM (Multiplexed-Rank DIMM) โดย JEDEC ซึ่งรวมแนวคิดของ HB-DIMM และ MCR-DIMM (จาก Intel และ SK hynix) เข้าด้วยกัน เพื่อหลีกเลี่ยงการเกิดมาตรฐานที่ไม่เข้ากันในตลาด MRDIMM ได้รับการสนับสนุนจาก Intel และ AMD แล้ว โดย Intel ใช้ในซีพียู Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ที่มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ซึ่งตรงกับความเร็วที่ JEDEC ระบุไว้สำหรับ MRDIMM รุ่นที่สอง แม้จะมีประสิทธิภาพสูง แต่ MRDIMM ยังมีราคาสูงมาก โดยแพงกว่ารุ่น DDR5 RDIMM ทั่วไปถึง 28–114% ต่อ GB ซึ่งอาจเป็นอุปสรรคต่อการนำมาใช้ในระบบทั่วไป ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD จดสิทธิบัตร HB-DIMM อีกครั้งในปี 2025 แต่เป็นการต่อยอดจากเอกสารเดิม ➡️ HB-DIMM ใช้ pseudo-channels เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ➡️ ต้องใช้ชิ้นส่วนเพิ่ม เช่น data buffers และ RCD เพื่อให้ทำงานได้ ➡️ แนวคิด HB-DIMM ถูกนำไปพัฒนาเป็นมาตรฐาน MRDIMM โดย JEDEC ➡️ MRDIMM รวมแนวคิดจาก HB-DIMM และ MCR-DIMM เพื่อหลีกเลี่ยงความไม่เข้ากัน ➡️ Intel ใช้ MRDIMM ใน Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ➡️ EPYC ‘Venice’ มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ➡️ MRDIMM รุ่นที่สองมีความเร็วสูงถึง 12,800 Mbps ตามมาตรฐาน JEDEC ➡️ MRDIMM มีราคาสูงกว่ารุ่น DDR5 RDIMM ถึง 28–114% ต่อ GB ✅ ข้อมูลเสริมจากภายนอก ➡️ HB-DIMM ไม่ใช่เทคโนโลยีใหม่ แต่เป็นแนวคิดที่ถูกพัฒนาไปแล้ว ➡️ JEDEC เป็นองค์กรที่กำหนดมาตรฐานหน่วยความจำระดับโลก ➡️ pseudo-channels ช่วยให้สามารถเข้าถึงข้อมูลแบบขนานภายในโมดูลเดียว ➡️ MRDIMM ช่วยลด latency และเพิ่ม throughput ในงานที่ใช้หน่วยความจำหนัก ➡️ AMD และ Intel มีแนวโน้มร่วมมือกันมากขึ้นในด้านมาตรฐานหน่วยความจำ https://www.tomshardware.com/pc-components/ram/amds-memory-patent-outlining-a-new-improved-ram-made-from-ddr5-memory-isnt-a-new-development-hb-dimms-already-superseded-probably-wont-come-to-market
    0 Comments 0 Shares 217 Views 0 Reviews
  • “Markov Chains: ต้นกำเนิดของโมเดลภาษา — เมื่อความน่าจะเป็นกลายเป็นเครื่องมือสร้างภาษา”

    ในบทความที่เขียนโดย Elijah Potter นักเรียนมัธยมปลายผู้หลงใหลในคณิตศาสตร์และการเขียนโปรแกรม ได้ย้อนกลับไปสำรวจรากฐานของโมเดลภาษา (Language Models) ผ่านมุมมองของ Markov Chains ซึ่งเป็นระบบทางคณิตศาสตร์ที่ใช้ในการคาดการณ์เหตุการณ์แบบสุ่ม โดยอิงจากสถานะก่อนหน้าเพียงหนึ่งขั้นตอน

    Potter เริ่มต้นด้วยการเล่าประสบการณ์ส่วนตัวเกี่ยวกับวงจรความรู้สึกต่อ AI ตั้งแต่ความตื่นเต้น ความผิดหวัง ความสับสน จนถึงความเบื่อหน่าย และนำไปสู่ความตั้งใจที่จะ “กลับไปสู่รากฐาน” ด้วยการศึกษาระบบที่เรียบง่ายแต่ทรงพลังอย่าง Markov Chains

    เขาอธิบายหลักการของ Markov Chains ผ่านตัวอย่างของ Alice ที่อยู่ระหว่างร้านขายของชำและท้องฟ้าจำลอง โดยใช้ตารางความน่าจะเป็นในการคาดการณ์การเคลื่อนที่ของเธอในแต่ละชั่วโมง ซึ่งสามารถแปลงเป็น matrix และ vector เพื่อคำนวณสถานะในอนาคตได้อย่างแม่นยำ

    จากนั้น Potter นำแนวคิดนี้มาประยุกต์ใช้กับการสร้างระบบ autocomplete โดยใช้ภาษา Rust และ WebAssembly ในการสร้าง transition matrix จากข้อความตัวอย่าง แล้วใช้ matrix multiplication เพื่อคาดการณ์คำถัดไปที่มีความเป็นไปได้สูงที่สุด

    เขายังพูดถึงข้อจำกัดของ Markov Chains ในการสร้างข้อความแบบต่อเนื่อง เพราะระบบจะมีแนวโน้มเข้าสู่ “steady state” หรือสถานะคงที่เมื่อรันไปนาน ๆ ทำให้ข้อความที่สร้างออกมาดูซ้ำซากและคาดเดาได้ง่าย จึงเสนอวิธีการสุ่มแบบใหม่โดยใช้ matrix R ที่มีค่าบนเส้นทแยงมุมเป็นตัวเลขสุ่ม เพื่อเพิ่มความหลากหลายในการเลือกคำ

    บทความนี้ไม่เพียงแต่เป็นการสาธิตเชิงเทคนิค แต่ยังสะท้อนถึงความพยายามในการเข้าใจโมเดลภาษาอย่างลึกซึ้ง โดยไม่พึ่งพา “เวทมนตร์ของ AI” ที่หลายคนรู้สึกว่าเข้าใจยากและควบคุมไม่ได้

    ข้อมูลสำคัญจากบทความ
    Elijah Potter ใช้ Markov Chains เพื่อสร้างระบบ autocomplete ด้วย Rust และ WebAssembly
    อธิบายหลักการผ่านตัวอย่าง Alice ที่เคลื่อนที่ระหว่างสถานที่ด้วยความน่าจะเป็น
    ใช้ matrix และ vector ในการคำนวณสถานะในอนาคต
    สร้าง transition matrix จากข้อความตัวอย่างเพื่อคาดการณ์คำถัดไป
    ระบบสามารถเลือกคำถัดไปโดยใช้ matrix multiplication
    เสนอวิธีสุ่มคำถัดไปโดยใช้ matrix R เพื่อหลีกเลี่ยงการเข้าสู่ steady state
    บทความสะท้อนความตั้งใจในการเข้าใจโมเดลภาษาอย่างโปร่งใสและควบคุมได้

    ข้อมูลเสริมจากภายนอก
    Markov Chains ถูกคิดค้นโดย Andrey Markov ในศตวรรษที่ 20 เพื่อศึกษาลำดับเหตุการณ์แบบสุ่ม
    โมเดลภาษาในยุคแรก เช่น Shannon’s bigram model ก็ใช้แนวคิดคล้าย Markov
    โมเดล GPT และ Transformer ใช้บริบทหลายคำ ไม่ใช่แค่คำก่อนหน้าเดียวแบบ Markov
    Steady state ใน Markov Chains คือสถานะที่ความน่าจะเป็นไม่เปลี่ยนแปลงเมื่อรันไปนาน ๆ
    การใช้ matrix multiplication ในการคำนวณความน่าจะเป็นเป็นพื้นฐานของหลายระบบ AI

    https://elijahpotter.dev/articles/markov_chains_are_the_original_language_models
    🔁 “Markov Chains: ต้นกำเนิดของโมเดลภาษา — เมื่อความน่าจะเป็นกลายเป็นเครื่องมือสร้างภาษา” ในบทความที่เขียนโดย Elijah Potter นักเรียนมัธยมปลายผู้หลงใหลในคณิตศาสตร์และการเขียนโปรแกรม ได้ย้อนกลับไปสำรวจรากฐานของโมเดลภาษา (Language Models) ผ่านมุมมองของ Markov Chains ซึ่งเป็นระบบทางคณิตศาสตร์ที่ใช้ในการคาดการณ์เหตุการณ์แบบสุ่ม โดยอิงจากสถานะก่อนหน้าเพียงหนึ่งขั้นตอน Potter เริ่มต้นด้วยการเล่าประสบการณ์ส่วนตัวเกี่ยวกับวงจรความรู้สึกต่อ AI ตั้งแต่ความตื่นเต้น ความผิดหวัง ความสับสน จนถึงความเบื่อหน่าย และนำไปสู่ความตั้งใจที่จะ “กลับไปสู่รากฐาน” ด้วยการศึกษาระบบที่เรียบง่ายแต่ทรงพลังอย่าง Markov Chains เขาอธิบายหลักการของ Markov Chains ผ่านตัวอย่างของ Alice ที่อยู่ระหว่างร้านขายของชำและท้องฟ้าจำลอง โดยใช้ตารางความน่าจะเป็นในการคาดการณ์การเคลื่อนที่ของเธอในแต่ละชั่วโมง ซึ่งสามารถแปลงเป็น matrix และ vector เพื่อคำนวณสถานะในอนาคตได้อย่างแม่นยำ จากนั้น Potter นำแนวคิดนี้มาประยุกต์ใช้กับการสร้างระบบ autocomplete โดยใช้ภาษา Rust และ WebAssembly ในการสร้าง transition matrix จากข้อความตัวอย่าง แล้วใช้ matrix multiplication เพื่อคาดการณ์คำถัดไปที่มีความเป็นไปได้สูงที่สุด เขายังพูดถึงข้อจำกัดของ Markov Chains ในการสร้างข้อความแบบต่อเนื่อง เพราะระบบจะมีแนวโน้มเข้าสู่ “steady state” หรือสถานะคงที่เมื่อรันไปนาน ๆ ทำให้ข้อความที่สร้างออกมาดูซ้ำซากและคาดเดาได้ง่าย จึงเสนอวิธีการสุ่มแบบใหม่โดยใช้ matrix R ที่มีค่าบนเส้นทแยงมุมเป็นตัวเลขสุ่ม เพื่อเพิ่มความหลากหลายในการเลือกคำ บทความนี้ไม่เพียงแต่เป็นการสาธิตเชิงเทคนิค แต่ยังสะท้อนถึงความพยายามในการเข้าใจโมเดลภาษาอย่างลึกซึ้ง โดยไม่พึ่งพา “เวทมนตร์ของ AI” ที่หลายคนรู้สึกว่าเข้าใจยากและควบคุมไม่ได้ ✅ ข้อมูลสำคัญจากบทความ ➡️ Elijah Potter ใช้ Markov Chains เพื่อสร้างระบบ autocomplete ด้วย Rust และ WebAssembly ➡️ อธิบายหลักการผ่านตัวอย่าง Alice ที่เคลื่อนที่ระหว่างสถานที่ด้วยความน่าจะเป็น ➡️ ใช้ matrix และ vector ในการคำนวณสถานะในอนาคต ➡️ สร้าง transition matrix จากข้อความตัวอย่างเพื่อคาดการณ์คำถัดไป ➡️ ระบบสามารถเลือกคำถัดไปโดยใช้ matrix multiplication ➡️ เสนอวิธีสุ่มคำถัดไปโดยใช้ matrix R เพื่อหลีกเลี่ยงการเข้าสู่ steady state ➡️ บทความสะท้อนความตั้งใจในการเข้าใจโมเดลภาษาอย่างโปร่งใสและควบคุมได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Markov Chains ถูกคิดค้นโดย Andrey Markov ในศตวรรษที่ 20 เพื่อศึกษาลำดับเหตุการณ์แบบสุ่ม ➡️ โมเดลภาษาในยุคแรก เช่น Shannon’s bigram model ก็ใช้แนวคิดคล้าย Markov ➡️ โมเดล GPT และ Transformer ใช้บริบทหลายคำ ไม่ใช่แค่คำก่อนหน้าเดียวแบบ Markov ➡️ Steady state ใน Markov Chains คือสถานะที่ความน่าจะเป็นไม่เปลี่ยนแปลงเมื่อรันไปนาน ๆ ➡️ การใช้ matrix multiplication ในการคำนวณความน่าจะเป็นเป็นพื้นฐานของหลายระบบ AI https://elijahpotter.dev/articles/markov_chains_are_the_original_language_models
    ELIJAHPOTTER.DEV
    Markov Chains Are the Original Language Models
    Back in my day, we used math for autocomplete.
    0 Comments 0 Shares 280 Views 0 Reviews
  • “Microsoft ฝังช่องน้ำหล่อเย็นลงในซิลิคอน — พลิกโฉมการระบายความร้อน AI ด้วยไมโครฟลูอิดิก 3 เท่าเหนือกว่า cold plate”

    ในยุคที่ AI accelerators ปล่อยความร้อนระดับ 2,000 วัตต์ต่อชิป Microsoft เผยโฉมเทคโนโลยีระบายความร้อนแบบใหม่ที่อาจเปลี่ยนเกมของ data center ไปตลอดกาล — ด้วยการ “ฝังช่องน้ำหล่อเย็นขนาดจิ๋ว” ลงไปในแผ่นซิลิคอนโดยตรง แทนที่จะใช้ cold plate แบบเดิมที่วางอยู่ด้านบนของชิป

    เทคโนโลยีนี้เรียกว่า microfluidic cooling ซึ่งใช้ช่องทางขนาดเท่าเส้นผมที่ถูกแกะสลักลงในด้านหลังของแผ่นซิลิคอน เพื่อให้ของเหลวไหลเข้าไปใกล้แหล่งความร้อนจริงอย่างทรานซิสเตอร์มากที่สุด โดย Microsoft ใช้ AI เพื่อวิเคราะห์ thermal fingerprint ของแต่ละชิป แล้วออกแบบช่องทางให้เหมาะกับจุดร้อนเฉพาะตัว — ลวดลายของช่องทางคล้ายเส้นใบไม้มากกว่าท่อตรงแบบเดิม

    ผลการทดสอบภายในของ Microsoft พบว่าระบบนี้สามารถลดอุณหภูมิสูงสุดของ GPU ได้ถึงสองในสาม และระบายความร้อนได้ดีกว่า cold plate แบบเดิมถึง 3 เท่า ซึ่งหมายความว่า data center สามารถเพิ่มความหนาแน่นของชิป, เพิ่มความเร็วในช่วงโหลดสูง และเปิดทางให้กับการออกแบบชิปแบบ 3D ที่เคยติดปัญหาเรื่องความร้อน

    อย่างไรก็ตาม การนำของเหลวเข้าไปในตัวชิปโดยตรงไม่ใช่เรื่องง่าย — ต้องออกแบบให้ช่องลึกพอที่จะดูดซับความร้อน แต่ไม่ลึกจนทำให้โครงสร้างชิปอ่อนแอ และต้องมั่นใจว่าไม่มีการรั่วซึมในระบบทั้งหมด ตั้งแต่ซิลิคอนไปจนถึงบอร์ดและท่อใน data center

    Microsoft กำลังทดลองหลายรูปแบบเพื่อพัฒนาเทคโนโลยีนี้ร่วมกับผู้ผลิตชิปอย่าง TSMC, Intel และ Samsung โดยหวังว่าจะนำไปใช้กับชิปในอนาคต รวมถึงอาจใช้กับ GPU ระดับสูงอย่าง Rubin Ultra ที่ปล่อยความร้อนถึง 2,300 วัตต์ต่อตัว

    ข้อมูลสำคัญจากข่าว
    Microsoft พัฒนาเทคโนโลยี microfluidic cooling โดยฝังช่องน้ำหล่อเย็นลงในซิลิคอน
    ช่องทางมีขนาดเท่าเส้นผมและออกแบบตามลวดลายธรรมชาติคล้ายเส้นใบไม้
    ใช้ AI วิเคราะห์ thermal fingerprint เพื่อออกแบบช่องทางเฉพาะจุดร้อน
    ระบายความร้อนได้ดีกว่า cold plate ถึง 3 เท่า
    ลดอุณหภูมิสูงสุดของ GPU ได้ถึงสองในสาม
    เปิดทางให้กับการออกแบบชิปแบบ 3D และเพิ่มความหนาแน่นของ rack
    Microsoft กำลังทดลองร่วมกับ TSMC, Intel และ Samsung
    อาจนำไปใช้กับ GPU ระดับสูง เช่น Rubin Ultra ที่ปล่อยความร้อน 2,300 วัตต์

    ข้อมูลเสริมจากภายนอก
    Microfluidics เคยถูกใช้ในงานชีววิทยา เช่น lab-on-chip และการวิเคราะห์เลือด
    IBM เคยทดลองแนวคิดคล้ายกันในปี 2011 แต่ยังไม่สามารถผลิตเชิงพาณิชย์
    AMD และ TSMC มีสิทธิบัตรเกี่ยวกับการระบายความร้อนในตัวชิปแบบฝัง
    Rubin Ultra เป็น GPU ที่ออกแบบมาสำหรับงาน AI ขนาดใหญ่ เช่น LLM และ simulation
    การออกแบบ thermal-aware ด้วย AI เริ่มใช้ในหลายบริษัท เช่น Meta และ Google

    https://www.techpowerup.com/341271/microsoft-etches-microfluidic-channels-into-silicon-for-3x-better-cooling
    💧 “Microsoft ฝังช่องน้ำหล่อเย็นลงในซิลิคอน — พลิกโฉมการระบายความร้อน AI ด้วยไมโครฟลูอิดิก 3 เท่าเหนือกว่า cold plate” ในยุคที่ AI accelerators ปล่อยความร้อนระดับ 2,000 วัตต์ต่อชิป Microsoft เผยโฉมเทคโนโลยีระบายความร้อนแบบใหม่ที่อาจเปลี่ยนเกมของ data center ไปตลอดกาล — ด้วยการ “ฝังช่องน้ำหล่อเย็นขนาดจิ๋ว” ลงไปในแผ่นซิลิคอนโดยตรง แทนที่จะใช้ cold plate แบบเดิมที่วางอยู่ด้านบนของชิป เทคโนโลยีนี้เรียกว่า microfluidic cooling ซึ่งใช้ช่องทางขนาดเท่าเส้นผมที่ถูกแกะสลักลงในด้านหลังของแผ่นซิลิคอน เพื่อให้ของเหลวไหลเข้าไปใกล้แหล่งความร้อนจริงอย่างทรานซิสเตอร์มากที่สุด โดย Microsoft ใช้ AI เพื่อวิเคราะห์ thermal fingerprint ของแต่ละชิป แล้วออกแบบช่องทางให้เหมาะกับจุดร้อนเฉพาะตัว — ลวดลายของช่องทางคล้ายเส้นใบไม้มากกว่าท่อตรงแบบเดิม ผลการทดสอบภายในของ Microsoft พบว่าระบบนี้สามารถลดอุณหภูมิสูงสุดของ GPU ได้ถึงสองในสาม และระบายความร้อนได้ดีกว่า cold plate แบบเดิมถึง 3 เท่า ซึ่งหมายความว่า data center สามารถเพิ่มความหนาแน่นของชิป, เพิ่มความเร็วในช่วงโหลดสูง และเปิดทางให้กับการออกแบบชิปแบบ 3D ที่เคยติดปัญหาเรื่องความร้อน อย่างไรก็ตาม การนำของเหลวเข้าไปในตัวชิปโดยตรงไม่ใช่เรื่องง่าย — ต้องออกแบบให้ช่องลึกพอที่จะดูดซับความร้อน แต่ไม่ลึกจนทำให้โครงสร้างชิปอ่อนแอ และต้องมั่นใจว่าไม่มีการรั่วซึมในระบบทั้งหมด ตั้งแต่ซิลิคอนไปจนถึงบอร์ดและท่อใน data center Microsoft กำลังทดลองหลายรูปแบบเพื่อพัฒนาเทคโนโลยีนี้ร่วมกับผู้ผลิตชิปอย่าง TSMC, Intel และ Samsung โดยหวังว่าจะนำไปใช้กับชิปในอนาคต รวมถึงอาจใช้กับ GPU ระดับสูงอย่าง Rubin Ultra ที่ปล่อยความร้อนถึง 2,300 วัตต์ต่อตัว ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft พัฒนาเทคโนโลยี microfluidic cooling โดยฝังช่องน้ำหล่อเย็นลงในซิลิคอน ➡️ ช่องทางมีขนาดเท่าเส้นผมและออกแบบตามลวดลายธรรมชาติคล้ายเส้นใบไม้ ➡️ ใช้ AI วิเคราะห์ thermal fingerprint เพื่อออกแบบช่องทางเฉพาะจุดร้อน ➡️ ระบายความร้อนได้ดีกว่า cold plate ถึง 3 เท่า ➡️ ลดอุณหภูมิสูงสุดของ GPU ได้ถึงสองในสาม ➡️ เปิดทางให้กับการออกแบบชิปแบบ 3D และเพิ่มความหนาแน่นของ rack ➡️ Microsoft กำลังทดลองร่วมกับ TSMC, Intel และ Samsung ➡️ อาจนำไปใช้กับ GPU ระดับสูง เช่น Rubin Ultra ที่ปล่อยความร้อน 2,300 วัตต์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Microfluidics เคยถูกใช้ในงานชีววิทยา เช่น lab-on-chip และการวิเคราะห์เลือด ➡️ IBM เคยทดลองแนวคิดคล้ายกันในปี 2011 แต่ยังไม่สามารถผลิตเชิงพาณิชย์ ➡️ AMD และ TSMC มีสิทธิบัตรเกี่ยวกับการระบายความร้อนในตัวชิปแบบฝัง ➡️ Rubin Ultra เป็น GPU ที่ออกแบบมาสำหรับงาน AI ขนาดใหญ่ เช่น LLM และ simulation ➡️ การออกแบบ thermal-aware ด้วย AI เริ่มใช้ในหลายบริษัท เช่น Meta และ Google https://www.techpowerup.com/341271/microsoft-etches-microfluidic-channels-into-silicon-for-3x-better-cooling
    WWW.TECHPOWERUP.COM
    Microsoft Etches Microfluidic Channels Into Silicon for 3x Better Cooling
    When you have hundreds of thousands of AI accelerators in your datacenters, like Microsoft, problems easily build up, especially with cooling. Today, Microsoft showcased its custom cooling plates, which utilize microfluidics to carry liquid coolant into microscopic channels etched directly into the ...
    0 Comments 0 Shares 226 Views 0 Reviews
More Results