• “Firewalla อัปเดตใหม่หลอกลูกให้เลิกเล่นมือถือด้วย ‘เน็ตช้า’ — เมื่อการควบคุมพฤติกรรมดิจิทัลไม่ต้องใช้คำสั่ง แต่ใช้ความรู้สึก”

    ในยุคที่เด็ก ๆ ใช้เวลาบนหน้าจอมากกว่าการเล่นกลางแจ้ง Firewalla แอปจัดการเครือข่ายและความปลอดภัยสำหรับครอบครัว ได้เปิดตัวฟีเจอร์ใหม่ในเวอร์ชัน 1.66 ที่ชื่อว่า “Disturb” ซึ่งใช้วิธีแปลกใหม่ในการควบคุมพฤติกรรมการใช้งานมือถือของเด็ก ๆ โดยไม่ต้องบล็อกแอปหรือปิดอินเทอร์เน็ต — แต่ใช้การ “หลอกว่าเน็ตช้า” เพื่อให้เด็กเบื่อและเลิกเล่นไปเอง

    ฟีเจอร์นี้จะจำลองอาการอินเทอร์เน็ตช้า เช่น การบัฟเฟอร์ การโหลดช้า หรือดีเลย์ในการใช้งานแอปยอดนิยมอย่าง Snapchat โดยไม่แจ้งให้ผู้ใช้รู้ว่าเป็นการตั้งใจ ทำให้เด็กเข้าใจว่าเป็นปัญหาทางเทคนิค และเลือกที่จะหยุดใช้งานเอง ซึ่งเป็นการสร้างแรงจูงใจแบบนุ่มนวลมากกว่าการลงโทษ

    นอกจากฟีเจอร์ Disturb แล้ว Firewalla ยังเพิ่มความสามารถด้านความปลอดภัย เช่น “Device Active Protect” ที่ใช้แนวคิด Zero Trust ในการเรียนรู้พฤติกรรมของอุปกรณ์ และบล็อกกิจกรรมที่ผิดปกติโดยอัตโนมัติ รวมถึงการเชื่อมต่อกับระบบตรวจจับภัยคุกคามแบบเปิดอย่าง Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับมัลแวร์และการโจมตีเครือข่าย

    สำหรับผู้ใช้งานระดับบ้านและธุรกิจขนาดเล็ก Firewalla ยังเพิ่มฟีเจอร์ Multi-WAN Data Usage Tracking ที่สามารถติดตามการใช้งานอินเทอร์เน็ตจากหลายสายพร้อมกัน พร้อมระบบแจ้งเตือนและรายงานแบบละเอียด

    ฟีเจอร์ใหม่ใน Firewalla App 1.66
    “Disturb” จำลองอินเทอร์เน็ตช้าเพื่อเบี่ยงเบนพฤติกรรมเด็กจากการใช้แอป
    ไม่บล็อกแอปโดยตรง แต่สร้างความรู้สึกว่าเน็ตไม่เสถียร
    ใช้กับแอปที่ใช้เวลานาน เช่น Snapchat, TikTok, YouTube
    เป็นวิธีควบคุมแบบนุ่มนวล ไม่ใช่การลงโทษ

    ฟีเจอร์ด้านความปลอดภัยเพิ่มเติม
    “Device Active Protect” ใช้ Zero Trust เพื่อเรียนรู้พฤติกรรมอุปกรณ์
    บล็อกกิจกรรมที่ผิดปกติโดยไม่ต้องตั้งค่ากฎเอง
    เชื่อมต่อกับ Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับภัย
    เพิ่มระบบ FireAI วิเคราะห์เหตุการณ์เครือข่ายแบบเรียลไทม์

    ฟีเจอร์สำหรับผู้ใช้ระดับบ้านและธุรกิจ
    Multi-WAN Data Usage Tracking ติดตามการใช้งานอินเทอร์เน็ตหลายสาย
    มีระบบแจ้งเตือนเมื่อใช้งานเกินขีดจำกัด
    รายงานการใช้งานแบบละเอียดสำหรับการวางแผนเครือข่าย
    รองรับการใช้งานในบ้านที่มีหลายอุปกรณ์หรือหลายเครือข่าย

    ข้อมูลเสริมจากภายนอก
    Suricata เป็นระบบตรวจจับภัยคุกคามแบบ open-source ที่ใช้ในองค์กรขนาดใหญ่
    Zero Trust เป็นแนวคิดด้านความปลอดภัยที่ไม่เชื่อถืออุปกรณ์ใด ๆ โดยอัตโนมัติ
    Firewalla ได้รับความนิยมในกลุ่มผู้ใช้ที่ต้องการควบคุมเครือข่ายภายในบ้าน
    ฟีเจอร์ Disturb อาจเป็นต้นแบบของการควบคุมพฤติกรรมเชิงจิตวิทยาในยุคดิจิทัล

    https://www.techradar.com/pro/phone-communications/this-security-app-deliberately-slows-down-internet-speeds-to-encourage-your-kids-to-log-off-their-snapchat-accounts
    📱 “Firewalla อัปเดตใหม่หลอกลูกให้เลิกเล่นมือถือด้วย ‘เน็ตช้า’ — เมื่อการควบคุมพฤติกรรมดิจิทัลไม่ต้องใช้คำสั่ง แต่ใช้ความรู้สึก” ในยุคที่เด็ก ๆ ใช้เวลาบนหน้าจอมากกว่าการเล่นกลางแจ้ง Firewalla แอปจัดการเครือข่ายและความปลอดภัยสำหรับครอบครัว ได้เปิดตัวฟีเจอร์ใหม่ในเวอร์ชัน 1.66 ที่ชื่อว่า “Disturb” ซึ่งใช้วิธีแปลกใหม่ในการควบคุมพฤติกรรมการใช้งานมือถือของเด็ก ๆ โดยไม่ต้องบล็อกแอปหรือปิดอินเทอร์เน็ต — แต่ใช้การ “หลอกว่าเน็ตช้า” เพื่อให้เด็กเบื่อและเลิกเล่นไปเอง ฟีเจอร์นี้จะจำลองอาการอินเทอร์เน็ตช้า เช่น การบัฟเฟอร์ การโหลดช้า หรือดีเลย์ในการใช้งานแอปยอดนิยมอย่าง Snapchat โดยไม่แจ้งให้ผู้ใช้รู้ว่าเป็นการตั้งใจ ทำให้เด็กเข้าใจว่าเป็นปัญหาทางเทคนิค และเลือกที่จะหยุดใช้งานเอง ซึ่งเป็นการสร้างแรงจูงใจแบบนุ่มนวลมากกว่าการลงโทษ นอกจากฟีเจอร์ Disturb แล้ว Firewalla ยังเพิ่มความสามารถด้านความปลอดภัย เช่น “Device Active Protect” ที่ใช้แนวคิด Zero Trust ในการเรียนรู้พฤติกรรมของอุปกรณ์ และบล็อกกิจกรรมที่ผิดปกติโดยอัตโนมัติ รวมถึงการเชื่อมต่อกับระบบตรวจจับภัยคุกคามแบบเปิดอย่าง Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับมัลแวร์และการโจมตีเครือข่าย สำหรับผู้ใช้งานระดับบ้านและธุรกิจขนาดเล็ก Firewalla ยังเพิ่มฟีเจอร์ Multi-WAN Data Usage Tracking ที่สามารถติดตามการใช้งานอินเทอร์เน็ตจากหลายสายพร้อมกัน พร้อมระบบแจ้งเตือนและรายงานแบบละเอียด ✅ ฟีเจอร์ใหม่ใน Firewalla App 1.66 ➡️ “Disturb” จำลองอินเทอร์เน็ตช้าเพื่อเบี่ยงเบนพฤติกรรมเด็กจากการใช้แอป ➡️ ไม่บล็อกแอปโดยตรง แต่สร้างความรู้สึกว่าเน็ตไม่เสถียร ➡️ ใช้กับแอปที่ใช้เวลานาน เช่น Snapchat, TikTok, YouTube ➡️ เป็นวิธีควบคุมแบบนุ่มนวล ไม่ใช่การลงโทษ ✅ ฟีเจอร์ด้านความปลอดภัยเพิ่มเติม ➡️ “Device Active Protect” ใช้ Zero Trust เพื่อเรียนรู้พฤติกรรมอุปกรณ์ ➡️ บล็อกกิจกรรมที่ผิดปกติโดยไม่ต้องตั้งค่ากฎเอง ➡️ เชื่อมต่อกับ Suricata เพื่อเพิ่มความแม่นยำในการตรวจจับภัย ➡️ เพิ่มระบบ FireAI วิเคราะห์เหตุการณ์เครือข่ายแบบเรียลไทม์ ✅ ฟีเจอร์สำหรับผู้ใช้ระดับบ้านและธุรกิจ ➡️ Multi-WAN Data Usage Tracking ติดตามการใช้งานอินเทอร์เน็ตหลายสาย ➡️ มีระบบแจ้งเตือนเมื่อใช้งานเกินขีดจำกัด ➡️ รายงานการใช้งานแบบละเอียดสำหรับการวางแผนเครือข่าย ➡️ รองรับการใช้งานในบ้านที่มีหลายอุปกรณ์หรือหลายเครือข่าย ✅ ข้อมูลเสริมจากภายนอก ➡️ Suricata เป็นระบบตรวจจับภัยคุกคามแบบ open-source ที่ใช้ในองค์กรขนาดใหญ่ ➡️ Zero Trust เป็นแนวคิดด้านความปลอดภัยที่ไม่เชื่อถืออุปกรณ์ใด ๆ โดยอัตโนมัติ ➡️ Firewalla ได้รับความนิยมในกลุ่มผู้ใช้ที่ต้องการควบคุมเครือข่ายภายในบ้าน ➡️ ฟีเจอร์ Disturb อาจเป็นต้นแบบของการควบคุมพฤติกรรมเชิงจิตวิทยาในยุคดิจิทัล https://www.techradar.com/pro/phone-communications/this-security-app-deliberately-slows-down-internet-speeds-to-encourage-your-kids-to-log-off-their-snapchat-accounts
    0 Comments 0 Shares 23 Views 0 Reviews
  • “OpenAI ผนึก Broadcom สร้างชิป Titan — ยุทธศาสตร์ใหม่ลดพึ่งพา Nvidia ด้วยคำสั่งซื้อ $10 พันล้าน และเป้าหมายสู่ AGI”

    ในยุคที่การแข่งขันด้าน AI รุนแรงขึ้นทุกวัน OpenAI กำลังเดินเกมใหม่ที่อาจเปลี่ยนสมดุลของอุตสาหกรรมฮาร์ดแวร์ ด้วยการร่วมมือกับ Broadcom เพื่อพัฒนาชิปประมวลผล AI แบบกำหนดเอง (custom ASIC) ภายใต้ชื่อ “Titan” โดยมีเป้าหมายเพื่อลดการพึ่งพา GPU จาก Nvidia ซึ่งมีราคาสูงและขาดแคลนอย่างต่อเนื่อง

    Broadcom ซึ่งเคยเป็นผู้ผลิตชิปสำหรับสมาร์ตโฟน ได้ขยายเข้าสู่ตลาด data center และกลายเป็นผู้นำด้านการออกแบบ XPU สำหรับงาน AI โดยก่อนหน้านี้มีลูกค้าระดับยักษ์อย่าง Google, Meta และ ByteDance ล่าสุด OpenAI กลายเป็นลูกค้ารายที่สี่ พร้อมสั่งซื้อ rack ระบบ AI มูลค่ากว่า $10 พันล้าน ซึ่งจะเริ่มส่งมอบในไตรมาสที่ 3 ปีงบประมาณ 20262

    ชิป Titan จะถูกใช้สำหรับงาน inference โดยเฉพาะ และนำโดย Richard Ho อดีตวิศวกรผู้ออกแบบ Google TPU ซึ่งแสดงให้เห็นว่า OpenAI ต้องการควบคุมโครงสร้างพื้นฐานของตนเองอย่างจริงจัง เพื่อรองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ที่มีเป้าหมายสู่ AGI ภายใน 4 ปี

    การตัดสินใจนี้เกิดขึ้นหลังจาก OpenAI ประสบปัญหาขาดแคลน GPU อย่างหนักในช่วงต้นปี 2025 ซึ่งส่งผลให้การเปิดตัว GPT-4.5 ล่าช้า แม้จะมีเงินทุนจาก Microsoft และการระดมทุนรอบ Series F และการขายหุ้นภายในที่ดันมูลค่าบริษัทขึ้นถึง $500 พันล้าน แต่การลงทุนในโครงสร้างพื้นฐานยังเป็นภาระที่ต้องจัดการอย่างเร่งด่วน

    ความร่วมมือระหว่าง OpenAI และ Broadcom
    OpenAI เป็นลูกค้ารายที่ 4 ของ Broadcom ในโครงการ custom XPU
    สั่งซื้อ rack ระบบ AI มูลค่า $10 พันล้าน เริ่มส่งมอบปี 2026
    ชิป Titan ออกแบบสำหรับงาน inference โดยเฉพาะ
    นำโดย Richard Ho อดีตวิศวกร Google TPU

    เหตุผลเบื้องหลังการพัฒนา Titan
    ลดการพึ่งพา Nvidia ที่มีราคาสูงและขาดแคลน
    รองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate
    เพิ่มประสิทธิภาพและควบคุมต้นทุนโครงสร้างพื้นฐาน
    ตอบสนองความต้องการด้าน compute ที่เพิ่มขึ้นอย่างรวดเร็ว

    ข้อมูลเสริมจากภายนอก
    Broadcom ขยายจากตลาดสมาร์ตโฟนสู่ data center และ AI infrastructure
    Titan เป็นส่วนหนึ่งของยุทธศาสตร์ AGI ภายใน 4 ปีของ OpenAI
    OpenAI เคยพึ่ง Azure cloud ของ Microsoft แต่ต้องการควบคุมระบบมากขึ้น
    การระดมทุน Series F และการขายหุ้นภายในดันมูลค่าบริษัทถึง $500 พันล้าน

    https://www.techradar.com/ai-platforms-assistants/chatgpt/nvidias-biggest-customers-are-lining-up-to-take-it-down-using-asics-and-broadcom-could-be-the-winner-of-that-battle
    💥 “OpenAI ผนึก Broadcom สร้างชิป Titan — ยุทธศาสตร์ใหม่ลดพึ่งพา Nvidia ด้วยคำสั่งซื้อ $10 พันล้าน และเป้าหมายสู่ AGI” ในยุคที่การแข่งขันด้าน AI รุนแรงขึ้นทุกวัน OpenAI กำลังเดินเกมใหม่ที่อาจเปลี่ยนสมดุลของอุตสาหกรรมฮาร์ดแวร์ ด้วยการร่วมมือกับ Broadcom เพื่อพัฒนาชิปประมวลผล AI แบบกำหนดเอง (custom ASIC) ภายใต้ชื่อ “Titan” โดยมีเป้าหมายเพื่อลดการพึ่งพา GPU จาก Nvidia ซึ่งมีราคาสูงและขาดแคลนอย่างต่อเนื่อง Broadcom ซึ่งเคยเป็นผู้ผลิตชิปสำหรับสมาร์ตโฟน ได้ขยายเข้าสู่ตลาด data center และกลายเป็นผู้นำด้านการออกแบบ XPU สำหรับงาน AI โดยก่อนหน้านี้มีลูกค้าระดับยักษ์อย่าง Google, Meta และ ByteDance ล่าสุด OpenAI กลายเป็นลูกค้ารายที่สี่ พร้อมสั่งซื้อ rack ระบบ AI มูลค่ากว่า $10 พันล้าน ซึ่งจะเริ่มส่งมอบในไตรมาสที่ 3 ปีงบประมาณ 20262 ชิป Titan จะถูกใช้สำหรับงาน inference โดยเฉพาะ และนำโดย Richard Ho อดีตวิศวกรผู้ออกแบบ Google TPU ซึ่งแสดงให้เห็นว่า OpenAI ต้องการควบคุมโครงสร้างพื้นฐานของตนเองอย่างจริงจัง เพื่อรองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ที่มีเป้าหมายสู่ AGI ภายใน 4 ปี การตัดสินใจนี้เกิดขึ้นหลังจาก OpenAI ประสบปัญหาขาดแคลน GPU อย่างหนักในช่วงต้นปี 2025 ซึ่งส่งผลให้การเปิดตัว GPT-4.5 ล่าช้า แม้จะมีเงินทุนจาก Microsoft และการระดมทุนรอบ Series F และการขายหุ้นภายในที่ดันมูลค่าบริษัทขึ้นถึง $500 พันล้าน แต่การลงทุนในโครงสร้างพื้นฐานยังเป็นภาระที่ต้องจัดการอย่างเร่งด่วน ✅ ความร่วมมือระหว่าง OpenAI และ Broadcom ➡️ OpenAI เป็นลูกค้ารายที่ 4 ของ Broadcom ในโครงการ custom XPU ➡️ สั่งซื้อ rack ระบบ AI มูลค่า $10 พันล้าน เริ่มส่งมอบปี 2026 ➡️ ชิป Titan ออกแบบสำหรับงาน inference โดยเฉพาะ ➡️ นำโดย Richard Ho อดีตวิศวกร Google TPU ✅ เหตุผลเบื้องหลังการพัฒนา Titan ➡️ ลดการพึ่งพา Nvidia ที่มีราคาสูงและขาดแคลน ➡️ รองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ➡️ เพิ่มประสิทธิภาพและควบคุมต้นทุนโครงสร้างพื้นฐาน ➡️ ตอบสนองความต้องการด้าน compute ที่เพิ่มขึ้นอย่างรวดเร็ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Broadcom ขยายจากตลาดสมาร์ตโฟนสู่ data center และ AI infrastructure ➡️ Titan เป็นส่วนหนึ่งของยุทธศาสตร์ AGI ภายใน 4 ปีของ OpenAI ➡️ OpenAI เคยพึ่ง Azure cloud ของ Microsoft แต่ต้องการควบคุมระบบมากขึ้น ➡️ การระดมทุน Series F และการขายหุ้นภายในดันมูลค่าบริษัทถึง $500 พันล้าน https://www.techradar.com/ai-platforms-assistants/chatgpt/nvidias-biggest-customers-are-lining-up-to-take-it-down-using-asics-and-broadcom-could-be-the-winner-of-that-battle
    0 Comments 0 Shares 21 Views 0 Reviews
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 Comments 0 Shares 22 Views 0 Reviews
  • “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้”

    Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ

    Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s

    การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน

    ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation

    แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ

    จุดเด่นของ Intel Arc Pro B50
    ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines
    หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า
    แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS
    ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม

    ประสิทธิภาพในการใช้งานจริง
    Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy
    Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ
    Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง
    MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation

    ความเหมาะสมกับงานมืออาชีพ
    ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk
    มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง
    เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์
    ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน

    ข้อมูลเสริมจากภายนอก
    Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8
    มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit
    มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ
    Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน

    https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    🎨 “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้” Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ ✅ จุดเด่นของ Intel Arc Pro B50 ➡️ ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines ➡️ หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า ➡️ แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS ➡️ ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม ✅ ประสิทธิภาพในการใช้งานจริง ➡️ Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy ➡️ Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ ➡️ Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง ➡️ MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation ✅ ความเหมาะสมกับงานมืออาชีพ ➡️ ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk ➡️ มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง ➡️ เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์ ➡️ ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8 ➡️ มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit ➡️ มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ ➡️ Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    0 Comments 0 Shares 23 Views 0 Reviews
  • “Microsoft ผนึกกำลัง Nebius สร้างโครงสร้างพื้นฐาน AI มูลค่า $17.4 พันล้าน — ขยายศูนย์ข้อมูลในสหรัฐฯ รับยุค AI เต็มรูปแบบ”

    ในยุคที่ความต้องการด้านการประมวลผล AI พุ่งทะยานอย่างไม่หยุดยั้ง Microsoft ได้ประกาศความร่วมมือครั้งใหญ่กับ Nebius บริษัทโครงสร้างพื้นฐาน AI สัญชาติเนเธอร์แลนด์ (อดีตส่วนหนึ่งของ Yandex) เพื่อสร้างศูนย์ข้อมูลใหม่ในเมือง Vineland รัฐนิวเจอร์ซีย์ โดยมีมูลค่าสัญญาเบื้องต้นอยู่ที่ $17.4 พันล้าน และอาจขยายถึง $19.4 พันล้านหากมีการเพิ่มบริการหรือความจุในอนาคต

    ศูนย์ข้อมูลแห่งนี้จะให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ซึ่ง Microsoft ต้องการอย่างเร่งด่วนเพื่อรองรับการเติบโตของบริการ AI ทั้งภายในบริษัทและลูกค้าบน Azure โดยเฉพาะในช่วงที่บริษัทเผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลเดิม

    Nebius ซึ่งมีสำนักงานใหญ่อยู่ในอัมสเตอร์ดัม และได้รับการสนับสนุนจาก Nvidia และ Accel จะใช้เงินจากสัญญานี้ร่วมกับเงินกู้ระยะสั้นที่มีเงื่อนไขพิเศษจาก Microsoft เพื่อเร่งการก่อสร้างและขยายธุรกิจ AI cloud ของตน โดยคาดว่าจะเติบโตอย่างรวดเร็วในปี 2026 เป็นต้นไป

    ข้อตกลงนี้ยังสะท้อนถึงการแข่งขันในตลาดโครงสร้างพื้นฐาน AI ที่รุนแรงขึ้น โดยก่อนหน้านี้ Microsoft เคยพึ่งพา CoreWeave สำหรับ GPU capacity แต่ไม่ได้ทำสัญญาระยะยาวเช่นนี้ ทำให้ OpenAI เข้าซื้อสิทธิ์จาก CoreWeave ไปแทน

    รายละเอียดข้อตกลงระหว่าง Microsoft และ Nebius
    มูลค่าสัญญาเบื้องต้น $17.4 พันล้าน ขยายได้ถึง $19.4 พันล้าน
    ระยะเวลาสัญญายาวถึงปี 2031
    เริ่มต้นด้วยการสร้างศูนย์ข้อมูลใหม่ใน Vineland, New Jersey
    ให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ

    จุดแข็งของ Nebius
    เป็นบริษัทที่แยกตัวจาก Yandex และมุ่งเน้นด้าน AI cloud infrastructure
    ได้รับการสนับสนุนจาก Nvidia และ Accel
    มีศูนย์ R&D ในยุโรป อเมริกา และอิสราเอล
    มีแพลตฟอร์ม cloud ที่ออกแบบมาเฉพาะสำหรับงาน AI เช่น training และ deployment

    ผลกระทบและการเติบโต
    หุ้นของ Nebius พุ่งขึ้นกว่า 40% หลังประกาศข้อตกลง
    รายได้ Q2 เพิ่มขึ้น 625% เมื่อเทียบกับปีก่อนหน้า
    Microsoft ได้รับความจุเพิ่มเติมเพื่อรองรับบริการ AI ที่เติบโตอย่างรวดเร็ว
    Nebius เตรียมขยายศูนย์ข้อมูลในหลายประเทศ เช่น ฟินแลนด์ อิสราเอล และอังกฤษ

    ข้อมูลเสริมจากภายนอก
    Microsoft เผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลในปี 2025
    OpenAI ทำสัญญา multibillion กับ CoreWeave เพื่อ GPU capacity
    Nvidia คาดว่าโครงสร้างพื้นฐาน AI จะมีมูลค่ารวมถึง $3–4 พันล้านภายในปี 2030
    Microsoft กำลังสำรวจเทคโนโลยี optical computing เพื่อลดพลังงานในการประมวลผล AI

    https://www.techradar.com/pro/nebius-and-microsoft-to-collaborate-on-multi-billion-ai-infrastructure-agreement
    🌐 “Microsoft ผนึกกำลัง Nebius สร้างโครงสร้างพื้นฐาน AI มูลค่า $17.4 พันล้าน — ขยายศูนย์ข้อมูลในสหรัฐฯ รับยุค AI เต็มรูปแบบ” ในยุคที่ความต้องการด้านการประมวลผล AI พุ่งทะยานอย่างไม่หยุดยั้ง Microsoft ได้ประกาศความร่วมมือครั้งใหญ่กับ Nebius บริษัทโครงสร้างพื้นฐาน AI สัญชาติเนเธอร์แลนด์ (อดีตส่วนหนึ่งของ Yandex) เพื่อสร้างศูนย์ข้อมูลใหม่ในเมือง Vineland รัฐนิวเจอร์ซีย์ โดยมีมูลค่าสัญญาเบื้องต้นอยู่ที่ $17.4 พันล้าน และอาจขยายถึง $19.4 พันล้านหากมีการเพิ่มบริการหรือความจุในอนาคต ศูนย์ข้อมูลแห่งนี้จะให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ซึ่ง Microsoft ต้องการอย่างเร่งด่วนเพื่อรองรับการเติบโตของบริการ AI ทั้งภายในบริษัทและลูกค้าบน Azure โดยเฉพาะในช่วงที่บริษัทเผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลเดิม Nebius ซึ่งมีสำนักงานใหญ่อยู่ในอัมสเตอร์ดัม และได้รับการสนับสนุนจาก Nvidia และ Accel จะใช้เงินจากสัญญานี้ร่วมกับเงินกู้ระยะสั้นที่มีเงื่อนไขพิเศษจาก Microsoft เพื่อเร่งการก่อสร้างและขยายธุรกิจ AI cloud ของตน โดยคาดว่าจะเติบโตอย่างรวดเร็วในปี 2026 เป็นต้นไป ข้อตกลงนี้ยังสะท้อนถึงการแข่งขันในตลาดโครงสร้างพื้นฐาน AI ที่รุนแรงขึ้น โดยก่อนหน้านี้ Microsoft เคยพึ่งพา CoreWeave สำหรับ GPU capacity แต่ไม่ได้ทำสัญญาระยะยาวเช่นนี้ ทำให้ OpenAI เข้าซื้อสิทธิ์จาก CoreWeave ไปแทน ✅ รายละเอียดข้อตกลงระหว่าง Microsoft และ Nebius ➡️ มูลค่าสัญญาเบื้องต้น $17.4 พันล้าน ขยายได้ถึง $19.4 พันล้าน ➡️ ระยะเวลาสัญญายาวถึงปี 2031 ➡️ เริ่มต้นด้วยการสร้างศูนย์ข้อมูลใหม่ใน Vineland, New Jersey ➡️ ให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ✅ จุดแข็งของ Nebius ➡️ เป็นบริษัทที่แยกตัวจาก Yandex และมุ่งเน้นด้าน AI cloud infrastructure ➡️ ได้รับการสนับสนุนจาก Nvidia และ Accel ➡️ มีศูนย์ R&D ในยุโรป อเมริกา และอิสราเอล ➡️ มีแพลตฟอร์ม cloud ที่ออกแบบมาเฉพาะสำหรับงาน AI เช่น training และ deployment ✅ ผลกระทบและการเติบโต ➡️ หุ้นของ Nebius พุ่งขึ้นกว่า 40% หลังประกาศข้อตกลง ➡️ รายได้ Q2 เพิ่มขึ้น 625% เมื่อเทียบกับปีก่อนหน้า ➡️ Microsoft ได้รับความจุเพิ่มเติมเพื่อรองรับบริการ AI ที่เติบโตอย่างรวดเร็ว ➡️ Nebius เตรียมขยายศูนย์ข้อมูลในหลายประเทศ เช่น ฟินแลนด์ อิสราเอล และอังกฤษ ✅ ข้อมูลเสริมจากภายนอก ➡️ Microsoft เผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลในปี 2025 ➡️ OpenAI ทำสัญญา multibillion กับ CoreWeave เพื่อ GPU capacity ➡️ Nvidia คาดว่าโครงสร้างพื้นฐาน AI จะมีมูลค่ารวมถึง $3–4 พันล้านภายในปี 2030 ➡️ Microsoft กำลังสำรวจเทคโนโลยี optical computing เพื่อลดพลังงานในการประมวลผล AI https://www.techradar.com/pro/nebius-and-microsoft-to-collaborate-on-multi-billion-ai-infrastructure-agreement
    0 Comments 0 Shares 19 Views 0 Reviews
  • “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร”

    ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง

    ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง

    Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด

    หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C

    การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก

    การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle
    TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park
    เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง
    ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ
    เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก

    ความสำคัญของ pellicle ใน EUV
    ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง
    ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์
    EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C
    pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง

    เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา
    ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน
    ลด optical absorption และ wavefront distortion
    รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง
    เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm

    ข้อมูลเสริมจากภายนอก
    ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui
    EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ
    ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี
    การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect

    https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    🔬 “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร” ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก ✅ การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle ➡️ TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park ➡️ เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง ➡️ ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ ➡️ เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก ✅ ความสำคัญของ pellicle ใน EUV ➡️ ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง ➡️ ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์ ➡️ EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C ➡️ pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง ✅ เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา ➡️ ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน ➡️ ลด optical absorption และ wavefront distortion ➡️ รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง ➡️ เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm ✅ ข้อมูลเสริมจากภายนอก ➡️ ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui ➡️ EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ ➡️ ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี ➡️ การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    WWW.TECHPOWERUP.COM
    TSMC Repurposing Old Fabs to Bring EUV Pellicle Production In-House
    TSMC is repurposing its old, wound-down, 8-inch Fab 3 in Hsinchu Science Park to produce extreme ultraviolet pellicles, bringing this production in-house. An EUV pellicle is a thin, highly transparent membrane stretched above a photomask to prevent particles from contacting the mask during EUV expos...
    0 Comments 0 Shares 14 Views 0 Reviews
  • “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ”

    จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ

    แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน

    แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ

    นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป

    ความคืบหน้าการผลิตชิป AI ในจีน
    Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026
    SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class
    Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B
    SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027

    ปัญหาด้านหน่วยความจำ HBM
    Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน
    คาดว่า HBM จะหมดภายในสิ้นปี 2025
    CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป
    YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM

    การลงทุนและแผนระยะยาว
    Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง
    ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน
    หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ
    เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ

    ข้อมูลเสริมจากภายนอก
    NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้
    CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน
    Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI
    จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    🇨🇳 “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ” จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป ✅ ความคืบหน้าการผลิตชิป AI ในจีน ➡️ Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026 ➡️ SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class ➡️ Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B ➡️ SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027 ✅ ปัญหาด้านหน่วยความจำ HBM ➡️ Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน ➡️ คาดว่า HBM จะหมดภายในสิ้นปี 2025 ➡️ CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป ➡️ YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM ✅ การลงทุนและแผนระยะยาว ➡️ Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง ➡️ ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน ➡️ หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ ➡️ เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้ ➡️ CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน ➡️ Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI ➡️ จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    0 Comments 0 Shares 15 Views 0 Reviews
  • “สหรัฐฯ ตั้งค่าหัว $11 ล้าน ล่าตัวแฮกเกอร์ยูเครน Volodymyr Tymoshchuk — ผู้อยู่เบื้องหลังการโจมตีไซเบอร์มูลค่า $18 พันล้านทั่วโลก”

    Volodymyr Tymoshchuk ชายชาวยูเครนวัย 28 ปี กลายเป็นเป้าหมายอันดับต้น ๆ ของหน่วยงานความมั่นคงไซเบอร์ทั่วโลก หลังจากถูกกล่าวหาว่าเป็นหัวหน้าทีมแฮกเกอร์ที่อยู่เบื้องหลังการโจมตีด้วย ransomware ชุดใหญ่ ได้แก่ MegaCortex, LockerGoga และ Nefilim ซึ่งสร้างความเสียหายให้กับบริษัทกว่า 250 แห่งในสหรัฐฯ และอีกหลายร้อยแห่งทั่วโลก รวมมูลค่าความเสียหายกว่า $18 พันล้าน

    หนึ่งในเหตุการณ์ที่โด่งดังที่สุดคือการโจมตีบริษัทพลังงานหมุนเวียน Norsk Hydro ในปี 2019 ซึ่งทำให้ระบบของบริษัทกว่า 170 แห่งทั่วโลกหยุดชะงัก และสร้างความเสียหายกว่า $81 ล้าน. Tymoshchuk ถูกกล่าวหาว่าใช้เครื่องมือเจาะระบบอย่าง Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่ายของเหยื่อเป็นเวลาหลายเดือนก่อนปล่อย ransomware

    หลังจาก LockerGoga และ MegaCortex ถูกถอดรหัสโดยหน่วยงานความมั่นคง Tymoshchuk ก็หันไปพัฒนา Nefilim ซึ่งเน้นโจมตีบริษัทที่มีมูลค่ามากกว่า $100 ล้าน โดยขายสิทธิ์การเข้าถึงให้กับแฮกเกอร์รายอื่น แลกกับส่วนแบ่ง 20% จากเงินค่าไถ่ที่ได้รับ

    ล่าสุด กระทรวงยุติธรรมสหรัฐฯ ได้ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลที่นำไปสู่การจับกุม Tymoshchuk และเปิดเผยรายชื่อเหยื่อบางส่วนในคำฟ้องที่ถูกเปิดเผยเมื่อวันที่ 9 กันยายน 2025 โดยเขาถูกตั้งข้อหาทั้งหมด 7 กระทง รวมถึงการทำลายข้อมูลโดยเจตนา การเข้าถึงระบบโดยไม่ได้รับอนุญาต และการข่มขู่เปิดเผยข้อมูลส่วนตัว

    ข้อมูลจากข่าวการตั้งค่าหัว
    สหรัฐฯ ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลนำไปสู่การจับกุม Tymoshchuk
    ถูกกล่าวหาว่าอยู่เบื้องหลัง ransomware MegaCortex, LockerGoga และ Nefilim
    สร้างความเสียหายรวมกว่า $18 พันล้านทั่วโลก
    หน่วยงานที่ร่วมมือ ได้แก่ FBI, DOJ, Europol และรัฐบาลฝรั่งเศส, เยอรมนี, นอร์เวย์

    รายละเอียดการโจมตี
    MegaCortex เปลี่ยนรหัสผ่าน Windows และเข้ารหัสไฟล์ของเหยื่อ
    LockerGoga โจมตี Norsk Hydro ทำให้ระบบกว่า 170 แห่งหยุดชะงัก
    Nefilim เน้นโจมตีบริษัทมูลค่ามากกว่า $100 ล้าน และขายสิทธิ์ให้แฮกเกอร์อื่น
    ใช้เครื่องมือเจาะระบบ เช่น Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่าย

    ข้อมูลเสริมจากภายนอก
    Tymoshchuk ใช้นามแฝงหลายชื่อ เช่น “deadforz”, “Boba”, “msfv”, “farnetwork”
    Europol จัดให้เขาอยู่ในรายชื่อ “Most Wanted” ของยุโรป
    การโจมตีบางครั้งทำให้บริษัทต้องจ่ายค่าไถ่เกิน $1 ล้านต่อครั้ง
    คำฟ้องระบุว่าเขาอาจถูกลงโทษสูงสุดถึงจำคุกตลอดชีวิต หากถูกจับและตัดสินว่าผิด

    คำเตือนและข้อจำกัด
    Tymoshchuk ยังไม่ถูกจับ — ยังคงหลบหนีและอาจมีการโจมตีเพิ่มเติม
    การโจมตีแบบแฝงตัวหลายเดือนทำให้ตรวจจับได้ยาก
    บริษัทที่ถูกโจมตีมักไม่มีทางเลือกอื่นนอกจากจ่ายค่าไถ่
    การใช้เครื่องมือเจาะระบบที่ถูกต้องตามกฎหมายในทางผิด ทำให้การป้องกันซับซ้อน
    การเปิดเผยข้อมูลส่วนตัวของเหยื่อเป็นภัยร้ายแรงต่อความมั่นคงองค์กร

    https://www.tomshardware.com/tech-industry/cyber-security/u-s-places-usd11-million-bounty-on-ukrainian-ransomware-mastermind-tymoshchuk-allegedly-stole-usd18-billion-from-large-companies-over-3-years
    🕵️‍♂️ “สหรัฐฯ ตั้งค่าหัว $11 ล้าน ล่าตัวแฮกเกอร์ยูเครน Volodymyr Tymoshchuk — ผู้อยู่เบื้องหลังการโจมตีไซเบอร์มูลค่า $18 พันล้านทั่วโลก” Volodymyr Tymoshchuk ชายชาวยูเครนวัย 28 ปี กลายเป็นเป้าหมายอันดับต้น ๆ ของหน่วยงานความมั่นคงไซเบอร์ทั่วโลก หลังจากถูกกล่าวหาว่าเป็นหัวหน้าทีมแฮกเกอร์ที่อยู่เบื้องหลังการโจมตีด้วย ransomware ชุดใหญ่ ได้แก่ MegaCortex, LockerGoga และ Nefilim ซึ่งสร้างความเสียหายให้กับบริษัทกว่า 250 แห่งในสหรัฐฯ และอีกหลายร้อยแห่งทั่วโลก รวมมูลค่าความเสียหายกว่า $18 พันล้าน หนึ่งในเหตุการณ์ที่โด่งดังที่สุดคือการโจมตีบริษัทพลังงานหมุนเวียน Norsk Hydro ในปี 2019 ซึ่งทำให้ระบบของบริษัทกว่า 170 แห่งทั่วโลกหยุดชะงัก และสร้างความเสียหายกว่า $81 ล้าน. Tymoshchuk ถูกกล่าวหาว่าใช้เครื่องมือเจาะระบบอย่าง Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่ายของเหยื่อเป็นเวลาหลายเดือนก่อนปล่อย ransomware หลังจาก LockerGoga และ MegaCortex ถูกถอดรหัสโดยหน่วยงานความมั่นคง Tymoshchuk ก็หันไปพัฒนา Nefilim ซึ่งเน้นโจมตีบริษัทที่มีมูลค่ามากกว่า $100 ล้าน โดยขายสิทธิ์การเข้าถึงให้กับแฮกเกอร์รายอื่น แลกกับส่วนแบ่ง 20% จากเงินค่าไถ่ที่ได้รับ ล่าสุด กระทรวงยุติธรรมสหรัฐฯ ได้ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลที่นำไปสู่การจับกุม Tymoshchuk และเปิดเผยรายชื่อเหยื่อบางส่วนในคำฟ้องที่ถูกเปิดเผยเมื่อวันที่ 9 กันยายน 2025 โดยเขาถูกตั้งข้อหาทั้งหมด 7 กระทง รวมถึงการทำลายข้อมูลโดยเจตนา การเข้าถึงระบบโดยไม่ได้รับอนุญาต และการข่มขู่เปิดเผยข้อมูลส่วนตัว ✅ ข้อมูลจากข่าวการตั้งค่าหัว ➡️ สหรัฐฯ ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลนำไปสู่การจับกุม Tymoshchuk ➡️ ถูกกล่าวหาว่าอยู่เบื้องหลัง ransomware MegaCortex, LockerGoga และ Nefilim ➡️ สร้างความเสียหายรวมกว่า $18 พันล้านทั่วโลก ➡️ หน่วยงานที่ร่วมมือ ได้แก่ FBI, DOJ, Europol และรัฐบาลฝรั่งเศส, เยอรมนี, นอร์เวย์ ✅ รายละเอียดการโจมตี ➡️ MegaCortex เปลี่ยนรหัสผ่าน Windows และเข้ารหัสไฟล์ของเหยื่อ ➡️ LockerGoga โจมตี Norsk Hydro ทำให้ระบบกว่า 170 แห่งหยุดชะงัก ➡️ Nefilim เน้นโจมตีบริษัทมูลค่ามากกว่า $100 ล้าน และขายสิทธิ์ให้แฮกเกอร์อื่น ➡️ ใช้เครื่องมือเจาะระบบ เช่น Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่าย ✅ ข้อมูลเสริมจากภายนอก ➡️ Tymoshchuk ใช้นามแฝงหลายชื่อ เช่น “deadforz”, “Boba”, “msfv”, “farnetwork” ➡️ Europol จัดให้เขาอยู่ในรายชื่อ “Most Wanted” ของยุโรป ➡️ การโจมตีบางครั้งทำให้บริษัทต้องจ่ายค่าไถ่เกิน $1 ล้านต่อครั้ง ➡️ คำฟ้องระบุว่าเขาอาจถูกลงโทษสูงสุดถึงจำคุกตลอดชีวิต หากถูกจับและตัดสินว่าผิด ‼️ คำเตือนและข้อจำกัด ⛔ Tymoshchuk ยังไม่ถูกจับ — ยังคงหลบหนีและอาจมีการโจมตีเพิ่มเติม ⛔ การโจมตีแบบแฝงตัวหลายเดือนทำให้ตรวจจับได้ยาก ⛔ บริษัทที่ถูกโจมตีมักไม่มีทางเลือกอื่นนอกจากจ่ายค่าไถ่ ⛔ การใช้เครื่องมือเจาะระบบที่ถูกต้องตามกฎหมายในทางผิด ทำให้การป้องกันซับซ้อน ⛔ การเปิดเผยข้อมูลส่วนตัวของเหยื่อเป็นภัยร้ายแรงต่อความมั่นคงองค์กร https://www.tomshardware.com/tech-industry/cyber-security/u-s-places-usd11-million-bounty-on-ukrainian-ransomware-mastermind-tymoshchuk-allegedly-stole-usd18-billion-from-large-companies-over-3-years
    WWW.TOMSHARDWARE.COM
    U.S. places $11 million bounty on Ukrainian ransomware mastermind — Tymoshchuk allegedly stole $18 billion from large companies over 3 years
    Volodymyr Tymoshchuk is accused of masterminding ransomware that disrupted 250 companies in the United States alone.
    0 Comments 0 Shares 16 Views 0 Reviews
  • “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป”

    ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล

    เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว

    ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods

    แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์

    การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง

    วิธีการอัปเกรด RTX 4090 เป็น 48GB
    ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style
    ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่
    ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB
    ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน

    ประสิทธิภาพและการใช้งาน
    สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล
    ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม
    ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU
    ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร

    ข้อมูลเสริมจากภายนอก
    การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39%
    GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning
    PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน
    เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง

    https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    🧠 “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป” ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์ การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง ✅ วิธีการอัปเกรด RTX 4090 เป็น 48GB ➡️ ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style ➡️ ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่ ➡️ ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB ➡️ ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน ✅ ประสิทธิภาพและการใช้งาน ➡️ สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล ➡️ ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม ➡️ ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU ➡️ ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39% ➡️ GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning ➡️ PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน ➡️ เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    0 Comments 0 Shares 16 Views 0 Reviews
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 Comments 0 Shares 12 Views 0 Reviews
  • “Intel ยืนยันรีเฟรช Arrow Lake ปี 2026 ก่อนเปิดตัว Nova Lake ปลายปี — ยอมรับมีช่องโหว่ในตลาดเดสก์ท็อป แต่มั่นใจแผนระยะยาว”

    ในงานประชุมเทคโนโลยีของ Goldman Sachs ล่าสุด Intel ได้ออกมายืนยันแผนการเปิดตัวซีพียูรุ่นใหม่ โดยจะเริ่มจากการรีเฟรช Arrow Lake ในช่วงครึ่งแรกของปี 2026 ก่อนจะเปิดตัว Nova Lake ซึ่งเป็นสถาปัตยกรรมใหม่อย่างแท้จริงในช่วงปลายปีเดียวกัน และอาจลากยาวไปถึงต้นปี 2027

    John Pitzer รองประธานฝ่ายนักลงทุนสัมพันธ์ของ Intel ยอมรับว่า “มีช่องโหว่ที่ต้องเติมเต็มในตลาดเดสก์ท็อป” โดยเฉพาะเมื่อ AMD ยังคงครองตำแหน่งผู้นำด้านประสิทธิภาพการเล่นเกมด้วย Ryzen 9000 และเตรียมเปิดตัว Zen 6 ภายในปีหน้า ซึ่งอาจทำให้ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake รุ่นรีเฟรชให้มากขึ้น

    Arrow Lake Refresh จะยังคงใช้แพลตฟอร์ม LGA1851 เดิม และคาดว่าจะอยู่ในตระกูล Core Ultra Series 2 โดยมีการปรับปรุงด้าน binning และความเร็ว boost clock แต่ยังไม่เปลี่ยนแปลงจำนวนคอร์หลักมากนัก ส่วน Nova Lake จะใช้ซ็อกเก็ตใหม่ LGA1954 และเป็น Core Ultra Series 4 ที่มาพร้อมสถาปัตยกรรมใหม่ทั้งหมด เช่น Coyote Cove P-core และ Arctic Wolf E-core รวมถึงการรองรับการประมวลผลแบบ multi-tile

    แม้จะมีข่าวลือว่า Nova Lake จะใช้เทคโนโลยีการผลิตระดับ 2nm จาก TSMC แต่ Intel ก็ยังคงใช้ 18A node สำหรับบางรุ่น และเตรียมเปิดตัวเวอร์ชันโมบายในปี 2027 ตามหลังรุ่นเดสก์ท็อป

    แผนการเปิดตัวซีพียูของ Intel
    Arrow Lake Refresh เปิดตัวครึ่งแรกของปี 2026
    Nova Lake เปิดตัวปลายปี 2026 และต่อเนื่องถึงต้นปี 2027
    Arrow Lake ใช้แพลตฟอร์ม LGA1851 เดิม
    Nova Lake ใช้ซ็อกเก็ตใหม่ LGA1954 และสถาปัตยกรรมใหม่ทั้งหมด

    รายละเอียดทางเทคนิค
    Arrow Lake Refresh ปรับปรุง binning และ boost clock
    Nova Lake ใช้ Coyote Cove P-core และ Arctic Wolf E-core
    รองรับ multi-tile และกราฟิก Xe3 “Celestial”
    คาดว่าจะมีรุ่นสูงสุดถึง 52 คอร์ในเวอร์ชันเดสก์ท็อป

    สถานการณ์การแข่งขันกับ AMD
    AMD Ryzen 9000 ยังคงครองตำแหน่งผู้นำด้านเกม
    Zen 6 คาดว่าจะเปิดตัวก่อนสิ้นปี 2026
    AMD อาจเปิดตัวเวอร์ชันโมบายในปี 2027
    Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake Refresh

    ข้อมูลเสริมจากภายนอก
    Panther Lake จะเปิดตัวก่อน Arrow Lake Refresh สำหรับตลาดโน้ตบุ๊ก
    Nova Lake จะเป็นซีพียูรุ่นแรกของ Intel ที่ใช้ multi-compute die
    Intel อาจใช้ 14A node สำหรับลูกค้าภายนอกในอนาคต
    Core Ultra Series 3 จะใช้กับ Panther Lake และ Series 4 กับ Nova Lake

    https://www.tomshardware.com/pc-components/cpus/intel-confirms-arrow-lake-refresh-set-for-2026-nova-lake-later-that-year-company-admits-there-are-holes-to-fill-on-the-desktop-front-says-it-is-confident-in-the-roadmap
    🧩 “Intel ยืนยันรีเฟรช Arrow Lake ปี 2026 ก่อนเปิดตัว Nova Lake ปลายปี — ยอมรับมีช่องโหว่ในตลาดเดสก์ท็อป แต่มั่นใจแผนระยะยาว” ในงานประชุมเทคโนโลยีของ Goldman Sachs ล่าสุด Intel ได้ออกมายืนยันแผนการเปิดตัวซีพียูรุ่นใหม่ โดยจะเริ่มจากการรีเฟรช Arrow Lake ในช่วงครึ่งแรกของปี 2026 ก่อนจะเปิดตัว Nova Lake ซึ่งเป็นสถาปัตยกรรมใหม่อย่างแท้จริงในช่วงปลายปีเดียวกัน และอาจลากยาวไปถึงต้นปี 2027 John Pitzer รองประธานฝ่ายนักลงทุนสัมพันธ์ของ Intel ยอมรับว่า “มีช่องโหว่ที่ต้องเติมเต็มในตลาดเดสก์ท็อป” โดยเฉพาะเมื่อ AMD ยังคงครองตำแหน่งผู้นำด้านประสิทธิภาพการเล่นเกมด้วย Ryzen 9000 และเตรียมเปิดตัว Zen 6 ภายในปีหน้า ซึ่งอาจทำให้ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake รุ่นรีเฟรชให้มากขึ้น Arrow Lake Refresh จะยังคงใช้แพลตฟอร์ม LGA1851 เดิม และคาดว่าจะอยู่ในตระกูล Core Ultra Series 2 โดยมีการปรับปรุงด้าน binning และความเร็ว boost clock แต่ยังไม่เปลี่ยนแปลงจำนวนคอร์หลักมากนัก ส่วน Nova Lake จะใช้ซ็อกเก็ตใหม่ LGA1954 และเป็น Core Ultra Series 4 ที่มาพร้อมสถาปัตยกรรมใหม่ทั้งหมด เช่น Coyote Cove P-core และ Arctic Wolf E-core รวมถึงการรองรับการประมวลผลแบบ multi-tile แม้จะมีข่าวลือว่า Nova Lake จะใช้เทคโนโลยีการผลิตระดับ 2nm จาก TSMC แต่ Intel ก็ยังคงใช้ 18A node สำหรับบางรุ่น และเตรียมเปิดตัวเวอร์ชันโมบายในปี 2027 ตามหลังรุ่นเดสก์ท็อป ✅ แผนการเปิดตัวซีพียูของ Intel ➡️ Arrow Lake Refresh เปิดตัวครึ่งแรกของปี 2026 ➡️ Nova Lake เปิดตัวปลายปี 2026 และต่อเนื่องถึงต้นปี 2027 ➡️ Arrow Lake ใช้แพลตฟอร์ม LGA1851 เดิม ➡️ Nova Lake ใช้ซ็อกเก็ตใหม่ LGA1954 และสถาปัตยกรรมใหม่ทั้งหมด ✅ รายละเอียดทางเทคนิค ➡️ Arrow Lake Refresh ปรับปรุง binning และ boost clock ➡️ Nova Lake ใช้ Coyote Cove P-core และ Arctic Wolf E-core ➡️ รองรับ multi-tile และกราฟิก Xe3 “Celestial” ➡️ คาดว่าจะมีรุ่นสูงสุดถึง 52 คอร์ในเวอร์ชันเดสก์ท็อป ✅ สถานการณ์การแข่งขันกับ AMD ➡️ AMD Ryzen 9000 ยังคงครองตำแหน่งผู้นำด้านเกม ➡️ Zen 6 คาดว่าจะเปิดตัวก่อนสิ้นปี 2026 ➡️ AMD อาจเปิดตัวเวอร์ชันโมบายในปี 2027 ➡️ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake Refresh ✅ ข้อมูลเสริมจากภายนอก ➡️ Panther Lake จะเปิดตัวก่อน Arrow Lake Refresh สำหรับตลาดโน้ตบุ๊ก ➡️ Nova Lake จะเป็นซีพียูรุ่นแรกของ Intel ที่ใช้ multi-compute die ➡️ Intel อาจใช้ 14A node สำหรับลูกค้าภายนอกในอนาคต ➡️ Core Ultra Series 3 จะใช้กับ Panther Lake และ Series 4 กับ Nova Lake https://www.tomshardware.com/pc-components/cpus/intel-confirms-arrow-lake-refresh-set-for-2026-nova-lake-later-that-year-company-admits-there-are-holes-to-fill-on-the-desktop-front-says-it-is-confident-in-the-roadmap
    0 Comments 0 Shares 16 Views 0 Reviews
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 Comments 0 Shares 18 Views 0 Reviews
  • ยกระดับธุรกิจหอมเจียวให้ได้กำไรพุ่ง!
    สำหรับเจ้าของธุรกิจที่กำลังมองหาทางเพิ่มยอดผลิต และลดต้นทุนการจ้างคนปอกหอมแดง ต้องไม่พลาด! เครื่องปอกเปลือกแบบใช้น้ำขนาด 10 ลิตร คือคำตอบที่จะทำให้ธุรกิจของคุณเติบโตได้อย่างก้าวกระโดด!

    ทำไมเครื่องนี้ถึงตอบโจทย์ธุรกิจของคุณ?
    เร็วแรงแซงทุกการผลิต! ปอกหอมแดงได้ครั้งละ 5-7 กก. ในเวลาอันรวดเร็ว ทำให้คุณเพิ่มปริมาณการผลิตหอมเจียวได้มากขึ้นหลายเท่าตัว!

    ลดต้นทุนค่าแรง! ไม่ต้องจ้างคนงานจำนวนมากมานั่งปอกมืออีกต่อไป! คุ้มค่าในระยะยาว คืนทุนเร็วอย่างแน่นอน

    งานสะอาด ไม่มีคราบ! เครื่องปอกด้วยระบบน้ำ ทำให้หอมที่ได้สะอาด พร้อมนำไปทอดเป็นหอมเจียวกรอบๆ ได้เลย

    ทนทาน ใช้งานได้ยาวนาน! ตัวเครื่องทำจากสเตนเลสคุณภาพสูง แข็งแรง ทนทานต่อการใช้งานหนักในเชิงพาณิชย์

    มีรับประกัน 1 ปี! หมดห่วงเรื่องการซ่อมบำรุง เราพร้อมดูแลธุรกิจของคุณให้เดินหน้าได้อย่างราบรื่น

    รายละเอียดเครื่อง:
    มอเตอร์: 1 แรงม้า
    ขนาด: 50 x 74.5 x 85 ซม.
    น้ำหนัก: 58 กก.

    อย่าปล่อยให้คู่แข่งแซงหน้า! ลงทุนกับเครื่องปอกเปลือกคุณภาพ เพื่อเพิ่มศักยภาพและกำไรให้ธุรกิจหอมเจียวของคุณวันนี้!

    สนใจสินค้า? แวะมาดูเครื่องจริงได้เลย!
    เรายินดีให้คำแนะนำและช่วยเหลือผู้ประกอบการทุกท่านค่ะ

    เวลาทำการ:

    จันทร์ - ศุกร์: 8.00 - 17.00 น.
    เสาร์: 8.00 - 16.00 น.

    แผนที่ร้าน: https://maps.app.goo.gl/4ppsHfy3NYb1uPPu6
    ช่องทางติดต่อสอบถาม:
    Facebook Messenger: m.me/yonghahheng
    LINE Official Account: @yonghahheng (มี @ ข้างหน้า) หรือคลิก https://lin.ee/HV4lSKp
    โทรศัพท์: 02-215-3515-9 หรือ 081-3189098
    เว็บไซต์: www.yoryonghahheng.com
    อีเมล: sales@yoryonghahheng.com, yonghahheng@gmail.com

    #เครื่องปอกเปลือก #หอมแดง #หอมเจียว #ธุรกิจหอมเจียว #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มผลผลิต #SME #ผู้ประกอบการ #ลงทุนคุ้มค่า #หอมเจียวกรอบ #รับทำหอมเจียว #เครื่องทุ่นแรง #ธุรกิจอาหาร #ทำอาหารขาย #yonghahheng #เครื่องครัว #อุปกรณ์ทำครัว #ร้านอาหาร #โรงงานอาหาร
    🚀 ยกระดับธุรกิจหอมเจียวให้ได้กำไรพุ่ง! 🧅✨ สำหรับเจ้าของธุรกิจที่กำลังมองหาทางเพิ่มยอดผลิต และลดต้นทุนการจ้างคนปอกหอมแดง ต้องไม่พลาด! เครื่องปอกเปลือกแบบใช้น้ำขนาด 10 ลิตร คือคำตอบที่จะทำให้ธุรกิจของคุณเติบโตได้อย่างก้าวกระโดด! 🔥 ทำไมเครื่องนี้ถึงตอบโจทย์ธุรกิจของคุณ? 🔥 ✅ เร็วแรงแซงทุกการผลิต! ปอกหอมแดงได้ครั้งละ 5-7 กก. ในเวลาอันรวดเร็ว ทำให้คุณเพิ่มปริมาณการผลิตหอมเจียวได้มากขึ้นหลายเท่าตัว! ✅ ลดต้นทุนค่าแรง! ไม่ต้องจ้างคนงานจำนวนมากมานั่งปอกมืออีกต่อไป! คุ้มค่าในระยะยาว คืนทุนเร็วอย่างแน่นอน ✅ งานสะอาด ไม่มีคราบ! เครื่องปอกด้วยระบบน้ำ ทำให้หอมที่ได้สะอาด พร้อมนำไปทอดเป็นหอมเจียวกรอบๆ ได้เลย ✅ ทนทาน ใช้งานได้ยาวนาน! ตัวเครื่องทำจากสเตนเลสคุณภาพสูง แข็งแรง ทนทานต่อการใช้งานหนักในเชิงพาณิชย์ ✅ มีรับประกัน 1 ปี! หมดห่วงเรื่องการซ่อมบำรุง เราพร้อมดูแลธุรกิจของคุณให้เดินหน้าได้อย่างราบรื่น รายละเอียดเครื่อง: มอเตอร์: 1 แรงม้า ขนาด: 50 x 74.5 x 85 ซม. น้ำหนัก: 58 กก. ✨ อย่าปล่อยให้คู่แข่งแซงหน้า! ลงทุนกับเครื่องปอกเปลือกคุณภาพ เพื่อเพิ่มศักยภาพและกำไรให้ธุรกิจหอมเจียวของคุณวันนี้! ✨ 📍 สนใจสินค้า? แวะมาดูเครื่องจริงได้เลย! เรายินดีให้คำแนะนำและช่วยเหลือผู้ประกอบการทุกท่านค่ะ 🗓️ เวลาทำการ: จันทร์ - ศุกร์: 8.00 - 17.00 น. เสาร์: 8.00 - 16.00 น. 🗺️ แผนที่ร้าน: https://maps.app.goo.gl/4ppsHfy3NYb1uPPu6 💬 ช่องทางติดต่อสอบถาม: Facebook Messenger: m.me/yonghahheng LINE Official Account: @yonghahheng (มี @ ข้างหน้า) หรือคลิก https://lin.ee/HV4lSKp 📞 โทรศัพท์: 02-215-3515-9 หรือ 081-3189098 🌐 เว็บไซต์: www.yoryonghahheng.com 📧 อีเมล: sales@yoryonghahheng.com, yonghahheng@gmail.com #เครื่องปอกเปลือก #หอมแดง #หอมเจียว #ธุรกิจหอมเจียว #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มผลผลิต #SME #ผู้ประกอบการ #ลงทุนคุ้มค่า #หอมเจียวกรอบ #รับทำหอมเจียว #เครื่องทุ่นแรง #ธุรกิจอาหาร #ทำอาหารขาย #yonghahheng #เครื่องครัว #อุปกรณ์ทำครัว #ร้านอาหาร #โรงงานอาหาร
    Like
    1
    0 Comments 0 Shares 15 Views 0 Reviews
  • Santorini Cruise Port ท่าเรือโบราณที่เรียกว่า Skala หรือ Old Port of Fira เดิมท่าเรือนี้เคยเป็นจุดศูนย์กลางการค้าหลักของเกาะ แต่เมื่อการท่องเที่ยวเติบโตขึ้นในช่วงปลายศตวรรษที่ผ่านมา ท่าเปลี่ยนมาเป็นจุดรับนักท่องเที่ยวล่องเรือสำราญแทน 🏖

    Oia Village - หมู่บ้านโอเอีย
    หมู่บ้านที่มีชื่อเสียงที่สุดในซานโตรินี อดีตเคยเป็นหมู่บ้านชาวประมงมาก่อน เนื่องจากวิวพระอาทิตย์ตกที่ได้รับการขนานนามว่าเป็นจุดที่โรแมนติกที่สุดในโลก ตั้งอยู่บนหน้าผาสูงเหนือทะเลอีเจียน โอเอียเป็นแหล่งรวมอาคารสีขาวสะอาดตา

    Imerovigli Village - หมู่บ้านอิโมโรวิกลี
    หมู่บ้านอิโมโรวิกลีได้รับฉายาว่า "ระเบียงของซานโตรินี" เนื่องจากตั้งอยู่บนจุดที่สูงที่สุดของหน้าผาที่หันหน้าออกสู่แอ่งภูเขาไฟ Caldera ในอดีต ที่นี่เป็นจุดยุทธศาสตร์สำคัญในการป้องกันการรุกรานของศัตรู

    Perissa Black Beach - ชายหาดสีดำ
    ชายหาดเพริสซาเป็นชายหาดที่มีเอกลักษณ์เฉพาะตัวเนื่องจากทรายสีดำที่เกิดจากลาวาภูเขาไฟ เป็นชายหาดที่ยาวที่สุดแห่งหนึ่งในซานโตรินี

    Santo Wines Winery - โรงไวน์
    โรงไวน์ซานโต้เป็นหนึ่งในโรงไวน์ที่มีชื่อเสียงที่สุดในซานโตรินีก่อตั้งขึ้นในปี 1947 และตั้งอยู่บนหน้าผาที่มีวิวพาโนรามาของทะเลอีเจียน ที่นี่เป็นแหล่งผลิตไวน์ที่ได้รับการยอมรับจากทั่วโลก

    สอบถามเพิ่มเติมหรือจองแพ็คเกจได้ทันที!
    https://cruisedomain.com/
    LINE ID: @CruiseDomain 78s.me/c54029
    Facebook: CruiseDomain 78s.me/b8a121
    Youtube : CruiseDomain 78s.me/8af620
    : 0 2116 9696

    #SantoriniCruisePort #Skala #OldPortofFira #Greece #OiaVillage #ImerovigliVillage #PerissaBlackBeach #SantoWinesWinery #port #cruisedomain
    ✨Santorini Cruise Port ท่าเรือโบราณที่เรียกว่า Skala หรือ Old Port of Fira เดิมท่าเรือนี้เคยเป็นจุดศูนย์กลางการค้าหลักของเกาะ แต่เมื่อการท่องเที่ยวเติบโตขึ้นในช่วงปลายศตวรรษที่ผ่านมา ท่าเปลี่ยนมาเป็นจุดรับนักท่องเที่ยวล่องเรือสำราญแทน 🏖 ✅ Oia Village - หมู่บ้านโอเอีย หมู่บ้านที่มีชื่อเสียงที่สุดในซานโตรินี อดีตเคยเป็นหมู่บ้านชาวประมงมาก่อน เนื่องจากวิวพระอาทิตย์ตกที่ได้รับการขนานนามว่าเป็นจุดที่โรแมนติกที่สุดในโลก ตั้งอยู่บนหน้าผาสูงเหนือทะเลอีเจียน โอเอียเป็นแหล่งรวมอาคารสีขาวสะอาดตา ✅ Imerovigli Village - หมู่บ้านอิโมโรวิกลี หมู่บ้านอิโมโรวิกลีได้รับฉายาว่า "ระเบียงของซานโตรินี" เนื่องจากตั้งอยู่บนจุดที่สูงที่สุดของหน้าผาที่หันหน้าออกสู่แอ่งภูเขาไฟ Caldera ในอดีต ที่นี่เป็นจุดยุทธศาสตร์สำคัญในการป้องกันการรุกรานของศัตรู ✅ Perissa Black Beach - ชายหาดสีดำ ชายหาดเพริสซาเป็นชายหาดที่มีเอกลักษณ์เฉพาะตัวเนื่องจากทรายสีดำที่เกิดจากลาวาภูเขาไฟ เป็นชายหาดที่ยาวที่สุดแห่งหนึ่งในซานโตรินี ✅ Santo Wines Winery - โรงไวน์ โรงไวน์ซานโต้เป็นหนึ่งในโรงไวน์ที่มีชื่อเสียงที่สุดในซานโตรินีก่อตั้งขึ้นในปี 1947 และตั้งอยู่บนหน้าผาที่มีวิวพาโนรามาของทะเลอีเจียน ที่นี่เป็นแหล่งผลิตไวน์ที่ได้รับการยอมรับจากทั่วโลก 📩 สอบถามเพิ่มเติมหรือจองแพ็คเกจได้ทันที! https://cruisedomain.com/ LINE ID: @CruiseDomain 78s.me/c54029 Facebook: CruiseDomain 78s.me/b8a121 Youtube : CruiseDomain 78s.me/8af620 ☎️: 0 2116 9696 #SantoriniCruisePort #Skala #OldPortofFira #Greece #OiaVillage #ImerovigliVillage #PerissaBlackBeach #SantoWinesWinery #port #cruisedomain
    0 Comments 0 Shares 29 Views 0 Reviews
  • “Patch Tuesday กันยายน 2025: ช่องโหว่ SAP NetWeaver และ Microsoft NTLM ที่ต้องรีบอุด — เมื่อการเจาะระบบไม่ต้องล็อกอินก็ล้มเซิร์ฟเวอร์ได้”

    ในรอบอัปเดตความปลอดภัยประจำเดือนกันยายน 2025 หรือที่เรียกว่า “Patch Tuesday” มีช่องโหว่ระดับวิกฤตหลายรายการที่ผู้ดูแลระบบต้องรีบจัดการ โดยเฉพาะใน SAP NetWeaver และ Microsoft Windows ซึ่งมีช่องโหว่ที่สามารถนำไปสู่การควบคุมระบบทั้งหมดได้ แม้ผู้โจมตีจะไม่ต้องล็อกอินก็ตาม.

    ช่องโหว่ที่ร้ายแรงที่สุดคือ CVE-2025-42944 ใน SAP NetWeaver AS Java ซึ่งเป็นช่องโหว่แบบ insecure deserialization ในโมดูล RMI-P4 ที่เปิดให้ผู้โจมตีส่ง payload ผ่านพอร์ตที่เปิดอยู่ และสามารถรันคำสั่งระบบปฏิบัติการได้ทันที — โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย2. นักวิจัยจาก Onapsis เตือนว่า ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่มแฮกเกอร์ Scattered LAPSUS$ และ ShinyHunters เคยใช้มาก่อน และควรรีบอุดทันที

    อีกช่องโหว่ใน SAP ที่อันตรายไม่แพ้กันคือ CVE-2025-42922 ซึ่งเปิดให้ผู้ใช้ที่ไม่ใช่แอดมินสามารถอัปโหลดไฟล์อันตรายผ่าน HTTP และเมื่อไฟล์ถูกเรียกใช้งาน ก็สามารถควบคุมระบบได้เต็มรูปแบบ. แม้จะต้องล็อกอินก่อน แต่ก็ยังถือว่าเสี่ยงสูงมาก

    ฝั่ง Microsoft ก็มีช่องโหว่ที่ต้องจับตา โดยเฉพาะ CVE-2025-54918 ซึ่งเป็นช่องโหว่ในระบบ NTLM ที่อาจเปิดทางให้ผู้โจมตียกระดับสิทธิ์เป็น SYSTEM-level ได้ทั่วเครือข่าย และ Microsoft ยังระบุว่า “มีแนวโน้มจะถูกโจมตี” มากกว่าช่องโหว่อื่นๆ ในรอบนี้.

    นอกจากนี้ยังมีช่องโหว่ใน Hyper-V (CVE-2025-54098 และ CVE-2025-55224) ที่เปิดทางให้ผู้ใช้ใน guest VM หลบหนีออกมาและควบคุม host ได้ — เป็นภัยคุกคามต่อศูนย์ข้อมูลที่ใช้ virtualization อย่างหนัก

    ช่องโหว่ CVE-2025-55234 ใน SMB ก็สร้างความสับสน เพราะ Microsoft ระบุว่าเป็นช่องโหว่เพื่อ “ช่วยให้ลูกค้าประเมินความเข้ากันได้ก่อนปรับระบบ” มากกว่าจะเป็นช่องโหว่จริง ทำให้นักวิจัยบางคนตั้งคำถามว่า Microsoft ใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่หรือไม่

    ช่องโหว่สำคัญใน SAP NetWeaver
    CVE-2025-42944: ช่องโหว่ insecure deserialization ใน RMI-P4
    ไม่ต้องล็อกอินก็สามารถรันคำสั่ง OS ได้ทันที
    ควรใช้การกรองพอร์ต P4 ที่ระดับ ICM เป็นมาตรการชั่วคราว
    ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่ม Scattered LAPSUS$ เคยใช้

    ช่องโหว่ SAP อื่นที่ต้องอุด
    CVE-2025-42922: ช่องโหว่ file upload ผ่าน HTTP
    ผู้ใช้ทั่วไปสามารถอัปโหลดไฟล์อันตรายและรันได้
    CVE-2025-42958: ช่องโหว่ missing authentication check บน IBM i-series
    เปิดทางให้ผู้ใช้ที่มีสิทธิ์สูงเข้าถึงข้อมูลสำคัญ

    ช่องโหว่สำคัญใน Microsoft
    CVE-2025-54918: ช่องโหว่ NTLM ที่อาจยกระดับสิทธิ์เป็น SYSTEM
    Microsoft ระบุว่า “มีแนวโน้มถูกโจมตี” มากกว่าช่องโหว่อื่น
    CVE-2025-54098 และ CVE-2025-55224: ช่องโหว่ Hyper-V ที่เปิดทางให้ guest VM หลบหนี
    CVE-2025-55232: ช่องโหว่ใน HPC Pack ที่เปิดให้รันโค้ดผ่านเครือข่าย

    ช่องโหว่ SMB ที่สร้างข้อถกเถียง
    CVE-2025-55234: Microsoft ระบุว่าเป็นช่องโหว่เพื่อช่วยประเมินระบบก่อนปรับ
    นักวิจัยบางคนตั้งคำถามว่าเป็นการใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่
    การอัปเดตต้องทำหลายขั้นตอน เช่น audit, test compatibility, และ hardening

    https://www.csoonline.com/article/4054195/patch-tuesday-priorities-vulnerabilities-in-sap-netweaver-and-microsoft-ntlm-and-hyper-v.html
    🛠️ “Patch Tuesday กันยายน 2025: ช่องโหว่ SAP NetWeaver และ Microsoft NTLM ที่ต้องรีบอุด — เมื่อการเจาะระบบไม่ต้องล็อกอินก็ล้มเซิร์ฟเวอร์ได้” ในรอบอัปเดตความปลอดภัยประจำเดือนกันยายน 2025 หรือที่เรียกว่า “Patch Tuesday” มีช่องโหว่ระดับวิกฤตหลายรายการที่ผู้ดูแลระบบต้องรีบจัดการ โดยเฉพาะใน SAP NetWeaver และ Microsoft Windows ซึ่งมีช่องโหว่ที่สามารถนำไปสู่การควบคุมระบบทั้งหมดได้ แม้ผู้โจมตีจะไม่ต้องล็อกอินก็ตาม. ช่องโหว่ที่ร้ายแรงที่สุดคือ CVE-2025-42944 ใน SAP NetWeaver AS Java ซึ่งเป็นช่องโหว่แบบ insecure deserialization ในโมดูล RMI-P4 ที่เปิดให้ผู้โจมตีส่ง payload ผ่านพอร์ตที่เปิดอยู่ และสามารถรันคำสั่งระบบปฏิบัติการได้ทันที — โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย2. นักวิจัยจาก Onapsis เตือนว่า ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่มแฮกเกอร์ Scattered LAPSUS$ และ ShinyHunters เคยใช้มาก่อน และควรรีบอุดทันที อีกช่องโหว่ใน SAP ที่อันตรายไม่แพ้กันคือ CVE-2025-42922 ซึ่งเปิดให้ผู้ใช้ที่ไม่ใช่แอดมินสามารถอัปโหลดไฟล์อันตรายผ่าน HTTP และเมื่อไฟล์ถูกเรียกใช้งาน ก็สามารถควบคุมระบบได้เต็มรูปแบบ. แม้จะต้องล็อกอินก่อน แต่ก็ยังถือว่าเสี่ยงสูงมาก ฝั่ง Microsoft ก็มีช่องโหว่ที่ต้องจับตา โดยเฉพาะ CVE-2025-54918 ซึ่งเป็นช่องโหว่ในระบบ NTLM ที่อาจเปิดทางให้ผู้โจมตียกระดับสิทธิ์เป็น SYSTEM-level ได้ทั่วเครือข่าย และ Microsoft ยังระบุว่า “มีแนวโน้มจะถูกโจมตี” มากกว่าช่องโหว่อื่นๆ ในรอบนี้. นอกจากนี้ยังมีช่องโหว่ใน Hyper-V (CVE-2025-54098 และ CVE-2025-55224) ที่เปิดทางให้ผู้ใช้ใน guest VM หลบหนีออกมาและควบคุม host ได้ — เป็นภัยคุกคามต่อศูนย์ข้อมูลที่ใช้ virtualization อย่างหนัก ช่องโหว่ CVE-2025-55234 ใน SMB ก็สร้างความสับสน เพราะ Microsoft ระบุว่าเป็นช่องโหว่เพื่อ “ช่วยให้ลูกค้าประเมินความเข้ากันได้ก่อนปรับระบบ” มากกว่าจะเป็นช่องโหว่จริง ทำให้นักวิจัยบางคนตั้งคำถามว่า Microsoft ใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่หรือไม่ ✅ ช่องโหว่สำคัญใน SAP NetWeaver ➡️ CVE-2025-42944: ช่องโหว่ insecure deserialization ใน RMI-P4 ➡️ ไม่ต้องล็อกอินก็สามารถรันคำสั่ง OS ได้ทันที ➡️ ควรใช้การกรองพอร์ต P4 ที่ระดับ ICM เป็นมาตรการชั่วคราว ➡️ ช่องโหว่นี้คล้ายกับเทคนิคที่กลุ่ม Scattered LAPSUS$ เคยใช้ ✅ ช่องโหว่ SAP อื่นที่ต้องอุด ➡️ CVE-2025-42922: ช่องโหว่ file upload ผ่าน HTTP ➡️ ผู้ใช้ทั่วไปสามารถอัปโหลดไฟล์อันตรายและรันได้ ➡️ CVE-2025-42958: ช่องโหว่ missing authentication check บน IBM i-series ➡️ เปิดทางให้ผู้ใช้ที่มีสิทธิ์สูงเข้าถึงข้อมูลสำคัญ ✅ ช่องโหว่สำคัญใน Microsoft ➡️ CVE-2025-54918: ช่องโหว่ NTLM ที่อาจยกระดับสิทธิ์เป็น SYSTEM ➡️ Microsoft ระบุว่า “มีแนวโน้มถูกโจมตี” มากกว่าช่องโหว่อื่น ➡️ CVE-2025-54098 และ CVE-2025-55224: ช่องโหว่ Hyper-V ที่เปิดทางให้ guest VM หลบหนี ➡️ CVE-2025-55232: ช่องโหว่ใน HPC Pack ที่เปิดให้รันโค้ดผ่านเครือข่าย ✅ ช่องโหว่ SMB ที่สร้างข้อถกเถียง ➡️ CVE-2025-55234: Microsoft ระบุว่าเป็นช่องโหว่เพื่อช่วยประเมินระบบก่อนปรับ ➡️ นักวิจัยบางคนตั้งคำถามว่าเป็นการใช้ CVE เพื่อโปรโมตฟีเจอร์ใหม่ ➡️ การอัปเดตต้องทำหลายขั้นตอน เช่น audit, test compatibility, และ hardening https://www.csoonline.com/article/4054195/patch-tuesday-priorities-vulnerabilities-in-sap-netweaver-and-microsoft-ntlm-and-hyper-v.html
    WWW.CSOONLINE.COM
    Patch Tuesday priorities: Vulnerabilities in SAP NetWeaver and Microsoft NTLM and Hyper-V
    NetWeaver AS Java hole, rated severity 10, allows an unauthenticated attacker to execute arbitrary OS commands, and NTLM bug is rated likely for exploitation, warn security vendors.
    0 Comments 0 Shares 22 Views 0 Reviews
  • “EggStreme: มัลแวร์ไร้ไฟล์จากจีนเจาะระบบทหารฟิลิปปินส์ — ปฏิบัติการลับที่ซับซ้อนที่สุดในภูมิภาคเอเชียแปซิฟิก”

    Bitdefender เผยการค้นพบมัลแวร์สายพันธุ์ใหม่ชื่อว่า “EggStreme” ซึ่งถูกใช้โดยกลุ่ม APT (Advanced Persistent Threat) จากจีนในการเจาะระบบของบริษัทที่เกี่ยวข้องกับกองทัพฟิลิปปินส์ และยังพบการใช้งานในองค์กรทหารทั่วภูมิภาคเอเชียแปซิฟิก

    EggStreme ไม่ใช่มัลแวร์ทั่วไป แต่เป็น “framework” ที่ประกอบด้วยหลายโมดูลทำงานร่วมกันอย่างเป็นระบบ โดยเริ่มจาก EggStremeFuel ซึ่งเป็นตัวโหลดที่เตรียมสภาพแวดล้อม จากนั้นจึงเรียกใช้ EggStremeAgent ซึ่งเป็น backdoor หลักที่สามารถสอดแนมระบบ, ขโมยข้อมูล, ลบหรือแก้ไขไฟล์ และฝัง keylogger ลงใน explorer.exe ทุกครั้งที่มีการเปิด session ใหม่

    ความน่ากลัวของ EggStreme คือมันเป็น “fileless malware” — ไม่มีไฟล์มัลแวร์อยู่บนดิสก์ แต่จะถอดรหัสและรัน payload ในหน่วยความจำเท่านั้น ทำให้ระบบป้องกันทั่วไปตรวจจับได้ยากมาก และยังใช้เทคนิค DLL sideloading เพื่อแอบแฝงตัวในโปรแกรมที่ดูปลอดภัย

    นอกจาก EggStremeAgent ยังมี EggStremeWizard ซึ่งเป็น backdoor รองที่ใช้ xwizard.exe ในการ sideload DLL และมีรายชื่อ fallback servers เพื่อรักษาการเชื่อมต่อกับเซิร์ฟเวอร์ควบคุม (C2) แม้เซิร์ฟเวอร์หลักจะถูกปิดไปแล้ว พร้อมกับเครื่องมือ proxy ชื่อว่า Stowaway ที่ช่วยให้ผู้โจมตีสามารถส่งข้อมูลภายในเครือข่ายโดยไม่ถูกไฟร์วอลล์บล็อก

    การโจมตีนี้เกิดขึ้นท่ามกลางความตึงเครียดในทะเลจีนใต้ ซึ่งฟิลิปปินส์เผชิญกับการโจมตีไซเบอร์เพิ่มขึ้นกว่า 300% ตั้งแต่ต้นปี 2024 โดย EggStreme เป็นหนึ่งในเครื่องมือที่สะท้อนถึงการพัฒนาเชิงอุตสาหกรรมของการจารกรรมไซเบอร์ — ไม่ใช่แค่เครื่องมือเดี่ยว แต่เป็นระบบที่ออกแบบมาเพื่อควบคุมเป้าหมายในระยะยาว

    โครงสร้างมัลแวร์ EggStreme
    เริ่มจาก EggStremeFuel ที่เตรียมระบบและเรียกใช้ EggStremeLoader
    EggStremeReflectiveLoader จะรัน EggStremeAgent ซึ่งเป็น backdoor หลัก
    EggStremeAgent รองรับคำสั่ง 58 แบบ เช่น สแกนระบบ, ขโมยข้อมูล, ฝัง payload
    ฝัง keylogger ลงใน explorer.exe ทุกครั้งที่เปิด session ใหม่

    เทคนิคการแฝงตัว
    ใช้ DLL sideloading ผ่านไฟล์ที่ดูปลอดภัย เช่น xwizard.exe
    payload ถูกถอดรหัสและรันในหน่วยความจำเท่านั้น (fileless execution)
    สื่อสารกับเซิร์ฟเวอร์ควบคุมผ่าน gRPC แบบเข้ารหัส
    มี fallback servers เพื่อรักษาการเชื่อมต่อแม้เซิร์ฟเวอร์หลักถูกปิด

    เครื่องมือเสริมใน framework
    EggStremeWizard เป็น backdoor รองที่ให้ reverse shell และอัปโหลดไฟล์
    Stowaway proxy ช่วยส่งข้อมูลผ่านเครือข่ายภายในโดยไม่ถูกบล็อก
    ระบบสามารถเคลื่อนย้ายภายในเครือข่าย (lateral movement) ได้อย่างแนบเนียน
    framework ถูกออกแบบให้มีความยืดหยุ่นและปรับตัวตามเป้าหมาย

    ข้อมูลเสริมจากภายนอก
    Bitdefender พบการโจมตีครั้งแรกในต้นปี 2024 ผ่าน batch script บน SMB share
    ฟิลิปปินส์เผชิญการโจมตีไซเบอร์เพิ่มขึ้นกว่า 300% จากความขัดแย้งในทะเลจีนใต้
    EggStreme เป็นตัวอย่างของการพัฒนา “ชุดเครื่องมือจารกรรม” ที่มีความซับซ้อนสูง
    นักวิจัยเตือนว่าองค์กรใน APAC ควรใช้ IOC ที่เผยแพร่เพื่อป้องกันการโจมตี

    https://hackread.com/chinese-apt-philippine-military-eggstreme-fileless-malware/
    🕵️‍♂️ “EggStreme: มัลแวร์ไร้ไฟล์จากจีนเจาะระบบทหารฟิลิปปินส์ — ปฏิบัติการลับที่ซับซ้อนที่สุดในภูมิภาคเอเชียแปซิฟิก” Bitdefender เผยการค้นพบมัลแวร์สายพันธุ์ใหม่ชื่อว่า “EggStreme” ซึ่งถูกใช้โดยกลุ่ม APT (Advanced Persistent Threat) จากจีนในการเจาะระบบของบริษัทที่เกี่ยวข้องกับกองทัพฟิลิปปินส์ และยังพบการใช้งานในองค์กรทหารทั่วภูมิภาคเอเชียแปซิฟิก EggStreme ไม่ใช่มัลแวร์ทั่วไป แต่เป็น “framework” ที่ประกอบด้วยหลายโมดูลทำงานร่วมกันอย่างเป็นระบบ โดยเริ่มจาก EggStremeFuel ซึ่งเป็นตัวโหลดที่เตรียมสภาพแวดล้อม จากนั้นจึงเรียกใช้ EggStremeAgent ซึ่งเป็น backdoor หลักที่สามารถสอดแนมระบบ, ขโมยข้อมูล, ลบหรือแก้ไขไฟล์ และฝัง keylogger ลงใน explorer.exe ทุกครั้งที่มีการเปิด session ใหม่ ความน่ากลัวของ EggStreme คือมันเป็น “fileless malware” — ไม่มีไฟล์มัลแวร์อยู่บนดิสก์ แต่จะถอดรหัสและรัน payload ในหน่วยความจำเท่านั้น ทำให้ระบบป้องกันทั่วไปตรวจจับได้ยากมาก และยังใช้เทคนิค DLL sideloading เพื่อแอบแฝงตัวในโปรแกรมที่ดูปลอดภัย นอกจาก EggStremeAgent ยังมี EggStremeWizard ซึ่งเป็น backdoor รองที่ใช้ xwizard.exe ในการ sideload DLL และมีรายชื่อ fallback servers เพื่อรักษาการเชื่อมต่อกับเซิร์ฟเวอร์ควบคุม (C2) แม้เซิร์ฟเวอร์หลักจะถูกปิดไปแล้ว พร้อมกับเครื่องมือ proxy ชื่อว่า Stowaway ที่ช่วยให้ผู้โจมตีสามารถส่งข้อมูลภายในเครือข่ายโดยไม่ถูกไฟร์วอลล์บล็อก การโจมตีนี้เกิดขึ้นท่ามกลางความตึงเครียดในทะเลจีนใต้ ซึ่งฟิลิปปินส์เผชิญกับการโจมตีไซเบอร์เพิ่มขึ้นกว่า 300% ตั้งแต่ต้นปี 2024 โดย EggStreme เป็นหนึ่งในเครื่องมือที่สะท้อนถึงการพัฒนาเชิงอุตสาหกรรมของการจารกรรมไซเบอร์ — ไม่ใช่แค่เครื่องมือเดี่ยว แต่เป็นระบบที่ออกแบบมาเพื่อควบคุมเป้าหมายในระยะยาว ✅ โครงสร้างมัลแวร์ EggStreme ➡️ เริ่มจาก EggStremeFuel ที่เตรียมระบบและเรียกใช้ EggStremeLoader ➡️ EggStremeReflectiveLoader จะรัน EggStremeAgent ซึ่งเป็น backdoor หลัก ➡️ EggStremeAgent รองรับคำสั่ง 58 แบบ เช่น สแกนระบบ, ขโมยข้อมูล, ฝัง payload ➡️ ฝัง keylogger ลงใน explorer.exe ทุกครั้งที่เปิด session ใหม่ ✅ เทคนิคการแฝงตัว ➡️ ใช้ DLL sideloading ผ่านไฟล์ที่ดูปลอดภัย เช่น xwizard.exe ➡️ payload ถูกถอดรหัสและรันในหน่วยความจำเท่านั้น (fileless execution) ➡️ สื่อสารกับเซิร์ฟเวอร์ควบคุมผ่าน gRPC แบบเข้ารหัส ➡️ มี fallback servers เพื่อรักษาการเชื่อมต่อแม้เซิร์ฟเวอร์หลักถูกปิด ✅ เครื่องมือเสริมใน framework ➡️ EggStremeWizard เป็น backdoor รองที่ให้ reverse shell และอัปโหลดไฟล์ ➡️ Stowaway proxy ช่วยส่งข้อมูลผ่านเครือข่ายภายในโดยไม่ถูกบล็อก ➡️ ระบบสามารถเคลื่อนย้ายภายในเครือข่าย (lateral movement) ได้อย่างแนบเนียน ➡️ framework ถูกออกแบบให้มีความยืดหยุ่นและปรับตัวตามเป้าหมาย ✅ ข้อมูลเสริมจากภายนอก ➡️ Bitdefender พบการโจมตีครั้งแรกในต้นปี 2024 ผ่าน batch script บน SMB share ➡️ ฟิลิปปินส์เผชิญการโจมตีไซเบอร์เพิ่มขึ้นกว่า 300% จากความขัดแย้งในทะเลจีนใต้ ➡️ EggStreme เป็นตัวอย่างของการพัฒนา “ชุดเครื่องมือจารกรรม” ที่มีความซับซ้อนสูง ➡️ นักวิจัยเตือนว่าองค์กรใน APAC ควรใช้ IOC ที่เผยแพร่เพื่อป้องกันการโจมตี https://hackread.com/chinese-apt-philippine-military-eggstreme-fileless-malware/
    HACKREAD.COM
    Chinese APT Hits Philippine Military Firm with New EggStreme Fileless Malware
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 25 Views 0 Reviews
  • “Apple เปิดตัว Memory Integrity Enforcement บน iPhone 17 — ป้องกันมัลแวร์ระดับรัฐด้วยระบบความปลอดภัยหน่วยความจำที่ไม่เคยมีมาก่อน”

    Apple ประกาศเปิดตัวฟีเจอร์ใหม่ชื่อว่า Memory Integrity Enforcement (MIE) บน iPhone 17 และ iPhone Air ซึ่งถือเป็นการอัปเกรดด้านความปลอดภัยของหน่วยความจำครั้งใหญ่ที่สุดในประวัติศาสตร์ระบบปฏิบัติการสำหรับผู้บริโภค โดยใช้เวลาพัฒนานานกว่า 5 ปี และผสานการทำงานระหว่างฮาร์ดแวร์ Apple Silicon กับระบบปฏิบัติการ iOS อย่างลึกซึ้ง

    เป้าหมายของ MIE คือการป้องกันการโจมตีจากมัลแวร์ระดับสูง โดยเฉพาะ “mercenary spyware” เช่น Pegasus ที่มักถูกใช้โดยรัฐหรือองค์กรเพื่อเจาะระบบของบุคคลเป้าหมาย เช่น นักข่าว นักสิทธิมนุษยชน หรือเจ้าหน้าที่ระดับสูง ซึ่งการโจมตีเหล่านี้มักใช้ช่องโหว่ด้าน memory corruption เป็นหลัก

    หัวใจของ MIE คือการใช้ Enhanced Memory Tagging Extension (EMTE) ซึ่งเป็นการพัฒนาร่วมกับ Arm โดยทุกบล็อกหน่วยความจำจะถูกติด “แท็กลับ” และฮาร์ดแวร์จะตรวจสอบว่าโปรแกรมที่เข้าถึงหน่วยความจำนั้นมีแท็กตรงกันหรือไม่ ถ้าไม่ตรง ระบบจะบล็อกทันทีและปิดโปรเซส — ทำให้การโจมตีแบบ buffer overflow และ use-after-free แทบเป็นไปไม่ได้

    Apple ยังเสริมระบบด้วย Tag Confidentiality Enforcement เพื่อป้องกันการเจาะแท็กผ่าน side-channel และ speculative execution เช่น Spectre V1 โดยใช้เทคนิคใหม่ที่ลดผลกระทบต่อประสิทธิภาพแทบเป็นศูนย์

    นอกจากฮาร์ดแวร์ A19 และ A19 Pro ที่รองรับ MIE แล้ว Apple ยังเปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Xcode เพื่อทดสอบแอปของตนภายใต้ระบบความปลอดภัยใหม่นี้ โดยครอบคลุมมากกว่า 70 โปรเซสในระดับผู้ใช้และเคอร์เนล

    ฟีเจอร์ Memory Integrity Enforcement (MIE)
    ป้องกันช่องโหว่ memory corruption เช่น buffer overflow และ use-after-free
    ใช้ Enhanced Memory Tagging Extension (EMTE) แบบ synchronous
    ทุกบล็อกหน่วยความจำมีแท็กลับที่ต้องตรงกันก่อนเข้าถึง
    ระบบจะบล็อกทันทีหากแท็กไม่ตรง และปิดโปรเซสเพื่อความปลอดภัย

    การออกแบบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์
    ใช้ Apple Silicon A19 และ A19 Pro ที่มีพื้นที่เฉพาะสำหรับ MIE
    ผสานกับ secure memory allocators เช่น kalloc_type, xzone malloc และ libpas
    ป้องกันการโจมตีภายใน bucket หน่วยความจำที่ software ปกติป้องกันไม่ได้
    ลด overhead ของการตรวจสอบแท็กให้เหลือน้อยที่สุด

    การป้องกันขั้นสูง
    ใช้ Tag Confidentiality Enforcement ป้องกันการเจาะแท็กผ่าน side-channel
    มี mitigation สำหรับ Spectre V1 ที่แทบไม่มีผลต่อ CPU
    ป้องกันการเข้าถึงหน่วยความจำที่ไม่มีแท็ก เช่น global variables
    ใช้ Secure Page Table Monitor เพื่อป้องกันการเจาะเคอร์เนล

    การใช้งานจริงและผลการทดสอบ
    ทดสอบกับ exploit chains จริงจากมัลแวร์ระดับรัฐในช่วง 3 ปีที่ผ่านมา
    พบว่า MIE ตัดขาดขั้นตอนสำคัญของการโจมตี ทำให้ไม่สามารถสร้าง chain ใหม่ได้
    ระบบสามารถป้องกันได้ตั้งแต่ขั้นตอนแรกของการโจมตี
    เปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Enhanced Security ใน Xcode

    ข้อมูลเสริมจากภายนอก
    Google เริ่มใช้ MTE ใน Pixel 8 แต่ยังไม่ใช่แบบ always-on และไม่ผสาน OS ลึกเท่า Apple
    Microsoft มีระบบคล้ายกันใน Windows 11 แต่ยังไม่ครอบคลุมระดับเคอร์เนล
    Apple เป็นรายแรกที่ใช้ PAC ใน A12 และพัฒนา EMTE ต่อเนื่อง
    MIE ครอบคลุมมากกว่า 70 โปรเซสใน iOS 26 และ iPhone 17

    https://security.apple.com/blog/memory-integrity-enforcement/
    🛡️ “Apple เปิดตัว Memory Integrity Enforcement บน iPhone 17 — ป้องกันมัลแวร์ระดับรัฐด้วยระบบความปลอดภัยหน่วยความจำที่ไม่เคยมีมาก่อน” Apple ประกาศเปิดตัวฟีเจอร์ใหม่ชื่อว่า Memory Integrity Enforcement (MIE) บน iPhone 17 และ iPhone Air ซึ่งถือเป็นการอัปเกรดด้านความปลอดภัยของหน่วยความจำครั้งใหญ่ที่สุดในประวัติศาสตร์ระบบปฏิบัติการสำหรับผู้บริโภค โดยใช้เวลาพัฒนานานกว่า 5 ปี และผสานการทำงานระหว่างฮาร์ดแวร์ Apple Silicon กับระบบปฏิบัติการ iOS อย่างลึกซึ้ง เป้าหมายของ MIE คือการป้องกันการโจมตีจากมัลแวร์ระดับสูง โดยเฉพาะ “mercenary spyware” เช่น Pegasus ที่มักถูกใช้โดยรัฐหรือองค์กรเพื่อเจาะระบบของบุคคลเป้าหมาย เช่น นักข่าว นักสิทธิมนุษยชน หรือเจ้าหน้าที่ระดับสูง ซึ่งการโจมตีเหล่านี้มักใช้ช่องโหว่ด้าน memory corruption เป็นหลัก หัวใจของ MIE คือการใช้ Enhanced Memory Tagging Extension (EMTE) ซึ่งเป็นการพัฒนาร่วมกับ Arm โดยทุกบล็อกหน่วยความจำจะถูกติด “แท็กลับ” และฮาร์ดแวร์จะตรวจสอบว่าโปรแกรมที่เข้าถึงหน่วยความจำนั้นมีแท็กตรงกันหรือไม่ ถ้าไม่ตรง ระบบจะบล็อกทันทีและปิดโปรเซส — ทำให้การโจมตีแบบ buffer overflow และ use-after-free แทบเป็นไปไม่ได้ Apple ยังเสริมระบบด้วย Tag Confidentiality Enforcement เพื่อป้องกันการเจาะแท็กผ่าน side-channel และ speculative execution เช่น Spectre V1 โดยใช้เทคนิคใหม่ที่ลดผลกระทบต่อประสิทธิภาพแทบเป็นศูนย์ นอกจากฮาร์ดแวร์ A19 และ A19 Pro ที่รองรับ MIE แล้ว Apple ยังเปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Xcode เพื่อทดสอบแอปของตนภายใต้ระบบความปลอดภัยใหม่นี้ โดยครอบคลุมมากกว่า 70 โปรเซสในระดับผู้ใช้และเคอร์เนล ✅ ฟีเจอร์ Memory Integrity Enforcement (MIE) ➡️ ป้องกันช่องโหว่ memory corruption เช่น buffer overflow และ use-after-free ➡️ ใช้ Enhanced Memory Tagging Extension (EMTE) แบบ synchronous ➡️ ทุกบล็อกหน่วยความจำมีแท็กลับที่ต้องตรงกันก่อนเข้าถึง ➡️ ระบบจะบล็อกทันทีหากแท็กไม่ตรง และปิดโปรเซสเพื่อความปลอดภัย ✅ การออกแบบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ ➡️ ใช้ Apple Silicon A19 และ A19 Pro ที่มีพื้นที่เฉพาะสำหรับ MIE ➡️ ผสานกับ secure memory allocators เช่น kalloc_type, xzone malloc และ libpas ➡️ ป้องกันการโจมตีภายใน bucket หน่วยความจำที่ software ปกติป้องกันไม่ได้ ➡️ ลด overhead ของการตรวจสอบแท็กให้เหลือน้อยที่สุด ✅ การป้องกันขั้นสูง ➡️ ใช้ Tag Confidentiality Enforcement ป้องกันการเจาะแท็กผ่าน side-channel ➡️ มี mitigation สำหรับ Spectre V1 ที่แทบไม่มีผลต่อ CPU ➡️ ป้องกันการเข้าถึงหน่วยความจำที่ไม่มีแท็ก เช่น global variables ➡️ ใช้ Secure Page Table Monitor เพื่อป้องกันการเจาะเคอร์เนล ✅ การใช้งานจริงและผลการทดสอบ ➡️ ทดสอบกับ exploit chains จริงจากมัลแวร์ระดับรัฐในช่วง 3 ปีที่ผ่านมา ➡️ พบว่า MIE ตัดขาดขั้นตอนสำคัญของการโจมตี ทำให้ไม่สามารถสร้าง chain ใหม่ได้ ➡️ ระบบสามารถป้องกันได้ตั้งแต่ขั้นตอนแรกของการโจมตี ➡️ เปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Enhanced Security ใน Xcode ✅ ข้อมูลเสริมจากภายนอก ➡️ Google เริ่มใช้ MTE ใน Pixel 8 แต่ยังไม่ใช่แบบ always-on และไม่ผสาน OS ลึกเท่า Apple ➡️ Microsoft มีระบบคล้ายกันใน Windows 11 แต่ยังไม่ครอบคลุมระดับเคอร์เนล ➡️ Apple เป็นรายแรกที่ใช้ PAC ใน A12 และพัฒนา EMTE ต่อเนื่อง ➡️ MIE ครอบคลุมมากกว่า 70 โปรเซสใน iOS 26 และ iPhone 17 https://security.apple.com/blog/memory-integrity-enforcement/
    SECURITY.APPLE.COM
    Memory Integrity Enforcement: A complete vision for memory safety in Apple devices - Apple Security Research
    Memory Integrity Enforcement (MIE) is the culmination of an unprecedented design and engineering effort spanning half a decade that combines the unique strengths of Apple silicon hardware with our advanced operating system security to provide industry-first, always-on memory safety protection across our devices — without compromising our best-in-class device performance. We believe Memory Integrity Enforcement represents the most significant upgrade to memory safety in the history of consumer operating systems.
    0 Comments 0 Shares 29 Views 0 Reviews
  • “ยาภูมิคุ้มกันบำบัด 2141-V11 ทำมะเร็งหายทั้งร่าง! ทดลองฉีดเฉพาะจุดแต่ได้ผลทั่วร่าง — ความหวังใหม่ของผู้ป่วยมะเร็งระยะลุกลาม”

    ตลอด 20 ปีที่ผ่านมา ยาภูมิคุ้มกันบำบัดกลุ่ม CD40 agonist antibodies ถูกมองว่าเป็นความหวังใหม่ในการรักษามะเร็ง เพราะสามารถกระตุ้นระบบภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้โดยตรง แต่ในทางปฏิบัติ กลับพบว่ามีผลข้างเคียงรุนแรง เช่น ภูมิไวเกินทั่วร่าง, เกล็ดเลือดต่ำ, และพิษต่อตับ แม้จะใช้ในขนาดต่ำก็ตาม

    จนกระทั่งในปี 2018 ห้องทดลองของ Jeffrey V. Ravetch แห่งมหาวิทยาลัย Rockefeller ได้พัฒนายา CD40 รุ่นใหม่ชื่อว่า 2141-V11 โดยปรับโครงสร้างให้จับกับตัวรับ CD40 ได้แน่นขึ้น และเพิ่มการเชื่อมโยงกับ Fc receptor เพื่อเพิ่มประสิทธิภาพการกระตุ้นภูมิคุ้มกัน พร้อมเปลี่ยนวิธีการให้ยา จากเดิมที่ฉีดเข้าหลอดเลือด มาเป็นการฉีดตรงเข้าเนื้อมะเร็งโดยตรง

    ผลการทดลองในมนุษย์ระยะที่ 1 ล่าสุดเผยว่า จากผู้ป่วย 12 คนที่มีมะเร็งระยะลุกลาม เช่น เมลาโนมา มะเร็งไต และมะเร็งเต้านม พบว่า 6 คนมีขนาดก้อนมะเร็งลดลง และ 2 คนหายขาด — โดยฉีดยาเพียงแค่ก้อนเดียว แต่ก้อนอื่นในร่างกายก็หายไปด้วย

    ตัวอย่างที่น่าทึ่งคือ ผู้ป่วยเมลาโนมาที่มีมะเร็งแพร่กระจายทั่วขาและเท้า แต่หลังจากฉีดแค่ก้อนที่ต้นขา ก้อนอื่นทั้งหมดก็หายไป เช่นเดียวกับผู้ป่วยมะเร็งเต้านมที่มีมะเร็งในผิวหนัง ตับ และปอด — แต่ฉีดแค่ก้อนที่ผิวหนัง ก็ทำให้ก้อนอื่นหายไปทั้งหมด

    การตรวจเนื้อเยื่อพบว่า ภายในก้อนมะเร็งมีการรวมตัวของเซลล์ภูมิคุ้มกันหลายชนิด เช่น T cells, B cells และ dendritic cells ที่จัดเรียงตัวคล้ายโครงสร้างของต่อมน้ำเหลือง (tertiary lymphoid structures) ซึ่งเป็นสัญญาณของการตอบสนองต่อภูมิคุ้มกันที่ดี

    ผลลัพธ์นี้นำไปสู่การทดลองเพิ่มเติมในมะเร็งชนิดอื่น เช่น มะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma โดยมีผู้เข้าร่วมกว่า 200 คน เพื่อศึกษาว่าอะไรทำให้บางคนตอบสนองดี และบางคนไม่ตอบสนองเลย — โดยพบว่าผู้ที่หายขาดมี T cells ที่มีความหลากหลายสูงตั้งแต่ก่อนเริ่มการรักษา

    ข้อมูลจากการทดลองยา 2141-V11
    เป็น CD40 agonist antibody ที่ปรับโครงสร้างให้จับกับ Fc receptor ได้ดีขึ้น
    ฉีดตรงเข้าเนื้อมะเร็งแทนการฉีดเข้าหลอดเลือด
    ลดผลข้างเคียงรุนแรง เช่น ภูมิไวเกินและพิษต่อตับ
    กระตุ้นภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้ทั่วร่าง แม้ฉีดแค่ก้อนเดียว

    ผลลัพธ์จากการทดลองระยะที่ 1
    ผู้ป่วย 6 จาก 12 คนมีขนาดก้อนมะเร็งลดลง
    2 คนหายขาดจากมะเร็งเมลาโนมาและมะเร็งเต้านม
    พบการสร้าง tertiary lymphoid structures ภายในก้อนมะเร็ง
    เซลล์ภูมิคุ้มกันเคลื่อนที่ไปยังก้อนที่ไม่ได้ฉีดและทำลายเซลล์มะเร็ง

    การทดลองเพิ่มเติม
    ขยายการทดลองไปยังมะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma
    มีผู้เข้าร่วมกว่า 200 คนในระยะที่ 1 และ 2
    ศึกษาความสัมพันธ์ระหว่าง T cell clonality กับการตอบสนองต่อยา
    เป้าหมายคือการเปลี่ยนผู้ไม่ตอบสนองให้กลายเป็นผู้ตอบสนอง

    ข้อมูลเสริมจากภายนอก
    CD40 เป็นตัวรับบนเซลล์ภูมิคุ้มกันที่กระตุ้นการตอบสนองแบบเฉพาะเจาะจง
    การฉีดยาเฉพาะจุดช่วยลดการกระตุ้นเซลล์ที่ไม่ใช่มะเร็ง
    FcγRIIB เป็นตัวรับที่ช่วยเพิ่มประสิทธิภาพของการเชื่อมโยงภูมิคุ้มกัน
    Tertiary lymphoid structures เป็นตัวชี้วัดการตอบสนองต่อภูมิคุ้มกันที่ดี

    https://www.rockefeller.edu/news/38120-immunotherapy-drug-eliminates-aggressive-cancers-in-clinical-trial/
    🧬 “ยาภูมิคุ้มกันบำบัด 2141-V11 ทำมะเร็งหายทั้งร่าง! ทดลองฉีดเฉพาะจุดแต่ได้ผลทั่วร่าง — ความหวังใหม่ของผู้ป่วยมะเร็งระยะลุกลาม” ตลอด 20 ปีที่ผ่านมา ยาภูมิคุ้มกันบำบัดกลุ่ม CD40 agonist antibodies ถูกมองว่าเป็นความหวังใหม่ในการรักษามะเร็ง เพราะสามารถกระตุ้นระบบภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้โดยตรง แต่ในทางปฏิบัติ กลับพบว่ามีผลข้างเคียงรุนแรง เช่น ภูมิไวเกินทั่วร่าง, เกล็ดเลือดต่ำ, และพิษต่อตับ แม้จะใช้ในขนาดต่ำก็ตาม จนกระทั่งในปี 2018 ห้องทดลองของ Jeffrey V. Ravetch แห่งมหาวิทยาลัย Rockefeller ได้พัฒนายา CD40 รุ่นใหม่ชื่อว่า 2141-V11 โดยปรับโครงสร้างให้จับกับตัวรับ CD40 ได้แน่นขึ้น และเพิ่มการเชื่อมโยงกับ Fc receptor เพื่อเพิ่มประสิทธิภาพการกระตุ้นภูมิคุ้มกัน พร้อมเปลี่ยนวิธีการให้ยา จากเดิมที่ฉีดเข้าหลอดเลือด มาเป็นการฉีดตรงเข้าเนื้อมะเร็งโดยตรง ผลการทดลองในมนุษย์ระยะที่ 1 ล่าสุดเผยว่า จากผู้ป่วย 12 คนที่มีมะเร็งระยะลุกลาม เช่น เมลาโนมา มะเร็งไต และมะเร็งเต้านม พบว่า 6 คนมีขนาดก้อนมะเร็งลดลง และ 2 คนหายขาด — โดยฉีดยาเพียงแค่ก้อนเดียว แต่ก้อนอื่นในร่างกายก็หายไปด้วย ตัวอย่างที่น่าทึ่งคือ ผู้ป่วยเมลาโนมาที่มีมะเร็งแพร่กระจายทั่วขาและเท้า แต่หลังจากฉีดแค่ก้อนที่ต้นขา ก้อนอื่นทั้งหมดก็หายไป เช่นเดียวกับผู้ป่วยมะเร็งเต้านมที่มีมะเร็งในผิวหนัง ตับ และปอด — แต่ฉีดแค่ก้อนที่ผิวหนัง ก็ทำให้ก้อนอื่นหายไปทั้งหมด การตรวจเนื้อเยื่อพบว่า ภายในก้อนมะเร็งมีการรวมตัวของเซลล์ภูมิคุ้มกันหลายชนิด เช่น T cells, B cells และ dendritic cells ที่จัดเรียงตัวคล้ายโครงสร้างของต่อมน้ำเหลือง (tertiary lymphoid structures) ซึ่งเป็นสัญญาณของการตอบสนองต่อภูมิคุ้มกันที่ดี ผลลัพธ์นี้นำไปสู่การทดลองเพิ่มเติมในมะเร็งชนิดอื่น เช่น มะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma โดยมีผู้เข้าร่วมกว่า 200 คน เพื่อศึกษาว่าอะไรทำให้บางคนตอบสนองดี และบางคนไม่ตอบสนองเลย — โดยพบว่าผู้ที่หายขาดมี T cells ที่มีความหลากหลายสูงตั้งแต่ก่อนเริ่มการรักษา ✅ ข้อมูลจากการทดลองยา 2141-V11 ➡️ เป็น CD40 agonist antibody ที่ปรับโครงสร้างให้จับกับ Fc receptor ได้ดีขึ้น ➡️ ฉีดตรงเข้าเนื้อมะเร็งแทนการฉีดเข้าหลอดเลือด ➡️ ลดผลข้างเคียงรุนแรง เช่น ภูมิไวเกินและพิษต่อตับ ➡️ กระตุ้นภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้ทั่วร่าง แม้ฉีดแค่ก้อนเดียว ✅ ผลลัพธ์จากการทดลองระยะที่ 1 ➡️ ผู้ป่วย 6 จาก 12 คนมีขนาดก้อนมะเร็งลดลง ➡️ 2 คนหายขาดจากมะเร็งเมลาโนมาและมะเร็งเต้านม ➡️ พบการสร้าง tertiary lymphoid structures ภายในก้อนมะเร็ง ➡️ เซลล์ภูมิคุ้มกันเคลื่อนที่ไปยังก้อนที่ไม่ได้ฉีดและทำลายเซลล์มะเร็ง ✅ การทดลองเพิ่มเติม ➡️ ขยายการทดลองไปยังมะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma ➡️ มีผู้เข้าร่วมกว่า 200 คนในระยะที่ 1 และ 2 ➡️ ศึกษาความสัมพันธ์ระหว่าง T cell clonality กับการตอบสนองต่อยา ➡️ เป้าหมายคือการเปลี่ยนผู้ไม่ตอบสนองให้กลายเป็นผู้ตอบสนอง ✅ ข้อมูลเสริมจากภายนอก ➡️ CD40 เป็นตัวรับบนเซลล์ภูมิคุ้มกันที่กระตุ้นการตอบสนองแบบเฉพาะเจาะจง ➡️ การฉีดยาเฉพาะจุดช่วยลดการกระตุ้นเซลล์ที่ไม่ใช่มะเร็ง ➡️ FcγRIIB เป็นตัวรับที่ช่วยเพิ่มประสิทธิภาพของการเชื่อมโยงภูมิคุ้มกัน ➡️ Tertiary lymphoid structures เป็นตัวชี้วัดการตอบสนองต่อภูมิคุ้มกันที่ดี https://www.rockefeller.edu/news/38120-immunotherapy-drug-eliminates-aggressive-cancers-in-clinical-trial/
    WWW.ROCKEFELLER.EDU
    Immunotherapy drug eliminates aggressive cancers in clinical trial - News
    The researchers demonstrate that an engineered antibody improves a class of drugs that has struggled to make good on its early promise.
    0 Comments 0 Shares 27 Views 0 Reviews
  • “Pontevedra เมืองที่ออกแบบเพื่อคน ไม่ใช่รถ — โมเดลเมืองเดินได้ที่เปลี่ยนชีวิตคนทั้งเมือง และอาจเปลี่ยนยุโรปทั้งทวีป”

    ในขณะที่เมืองใหญ่ทั่วยุโรปกำลังเผชิญกับปัญหามลพิษทางอากาศ ความแออัด และอุบัติเหตุจากรถยนต์ เมืองเล็กๆ ทางตะวันตกเฉียงเหนือของสเปนชื่อว่า Pontevedra กลับเลือกเดินเส้นทางที่ต่างออกไป — โดยเปลี่ยนเมืองทั้งเมืองให้เป็นพื้นที่สำหรับคนเดินเท้า ไม่ใช่รถยนต์

    ตั้งแต่ปี 1999 ที่นายกเทศมนตรี Miguel Anxo Fernández Lores เข้ารับตำแหน่ง เมืองนี้ได้เริ่มเปลี่ยนแปลงโครงสร้างเมืองอย่างจริงจัง โดยไม่ห้ามรถยนต์แบบเด็ดขาด แต่จำกัดการใช้งานเฉพาะกรณีจำเป็น เช่น รถฉุกเฉิน รถบริการสาธารณะ หรือการขนส่งผู้มีข้อจำกัดในการเคลื่อนไหว

    ผลลัพธ์คือเมืองที่มีอากาศสะอาดขึ้น ปลอดภัยขึ้น และมีชีวิตชีวาขึ้นอย่างเห็นได้ชัด — เด็กๆ เดินไปโรงเรียนเองได้ ผู้สูงอายุออกมาเดินเล่นได้อย่างมั่นใจ และร้านค้าท้องถิ่นกลับมาคึกคักอีกครั้ง เพราะคนเดินเท้ามีโอกาสแวะซื้อของมากขึ้น

    Pontevedra ยังได้รับรางวัลระดับนานาชาติ เช่น UN-Habitat Award และ EU Urban Road Safety Award จากการลดอุบัติเหตุถึงขั้น “ไม่มีผู้เสียชีวิตบนถนนในเมืองเลย” เป็นเวลากว่า 10 ปี และลดการปล่อย CO₂ ได้ถึง 67% ตั้งแต่เริ่มโครงการ

    นอกจากการออกแบบเมืองให้เดินได้ เมืองยังมีระบบแผนที่ Metrominuto ที่บอกระยะทางและแคลอรี่ที่เผาผลาญจากการเดินไปยังจุดต่างๆ เพื่อส่งเสริมสุขภาพและความเข้าใจในการใช้พื้นที่เมืองอย่างมีประสิทธิภาพ

    โมเดลเมืองของ Pontevedra
    จำกัดการใช้รถยนต์เฉพาะกรณีจำเป็น เช่น รถฉุกเฉินและขนส่ง
    เปลี่ยนพื้นที่ 490 เฮกตาร์เป็น “เขตลดการจราจร”
    ไม่มีการจอดรถในพื้นที่สาธารณะระหว่าง 18.00–08.00 น.
    ความเร็วรถในเมืองถูกจำกัดเหลือ 10–30 กม./ชม. ตามพื้นที่

    ผลลัพธ์ที่เกิดขึ้น
    ไม่มีผู้เสียชีวิตจากอุบัติเหตุบนถนนในเมืองนานกว่า 10 ปี
    เด็ก 73% เดินไปโรงเรียน โดย 29% เดินเอง
    การเดินและปั่นจักรยานเพิ่มจาก 66% เป็น 90% ภายใน 10 ปี
    ลดการปล่อย CO₂ ได้ประมาณ 67% ตั้งแต่ปลายยุค 1990

    การออกแบบเมืองเพื่อคน
    ถนนและทางเท้าในใจกลางเมืองไม่มีเส้นแบ่ง — คนเดินนำ
    มีแผนที่ Metrominuto บอกระยะทางและแคลอรี่จากการเดิน
    ร้านค้าเล็กๆ กลับมาคึกคักเพราะคนเดินเท้าแวะซื้อของ
    พื้นที่สาธารณะถูกใช้จัดกิจกรรม วัฒนธรรม และการพบปะ

    ข้อมูลเสริมจากภายนอก
    เมืองอื่นในยุโรปเริ่มทำตาม เช่น Freiburg, Oslo, Barcelona
    EU มีโครงการ Climate-Neutral and Smart Cities สนับสนุนเมืองแบบนี้
    เครือข่าย “Ciudades que caminan” ส่งเสริมการเดินในเมืองทั่วสเปน
    เมืองที่ออกแบบให้เดินได้ช่วยเพิ่มสมาธิเด็กและสุขภาพประชาชน

    https://www.greeneuropeanjournal.eu/made-for-people-not-cars-reclaiming-european-cities/
    🚶‍♀️ “Pontevedra เมืองที่ออกแบบเพื่อคน ไม่ใช่รถ — โมเดลเมืองเดินได้ที่เปลี่ยนชีวิตคนทั้งเมือง และอาจเปลี่ยนยุโรปทั้งทวีป” ในขณะที่เมืองใหญ่ทั่วยุโรปกำลังเผชิญกับปัญหามลพิษทางอากาศ ความแออัด และอุบัติเหตุจากรถยนต์ เมืองเล็กๆ ทางตะวันตกเฉียงเหนือของสเปนชื่อว่า Pontevedra กลับเลือกเดินเส้นทางที่ต่างออกไป — โดยเปลี่ยนเมืองทั้งเมืองให้เป็นพื้นที่สำหรับคนเดินเท้า ไม่ใช่รถยนต์ ตั้งแต่ปี 1999 ที่นายกเทศมนตรี Miguel Anxo Fernández Lores เข้ารับตำแหน่ง เมืองนี้ได้เริ่มเปลี่ยนแปลงโครงสร้างเมืองอย่างจริงจัง โดยไม่ห้ามรถยนต์แบบเด็ดขาด แต่จำกัดการใช้งานเฉพาะกรณีจำเป็น เช่น รถฉุกเฉิน รถบริการสาธารณะ หรือการขนส่งผู้มีข้อจำกัดในการเคลื่อนไหว ผลลัพธ์คือเมืองที่มีอากาศสะอาดขึ้น ปลอดภัยขึ้น และมีชีวิตชีวาขึ้นอย่างเห็นได้ชัด — เด็กๆ เดินไปโรงเรียนเองได้ ผู้สูงอายุออกมาเดินเล่นได้อย่างมั่นใจ และร้านค้าท้องถิ่นกลับมาคึกคักอีกครั้ง เพราะคนเดินเท้ามีโอกาสแวะซื้อของมากขึ้น Pontevedra ยังได้รับรางวัลระดับนานาชาติ เช่น UN-Habitat Award และ EU Urban Road Safety Award จากการลดอุบัติเหตุถึงขั้น “ไม่มีผู้เสียชีวิตบนถนนในเมืองเลย” เป็นเวลากว่า 10 ปี และลดการปล่อย CO₂ ได้ถึง 67% ตั้งแต่เริ่มโครงการ นอกจากการออกแบบเมืองให้เดินได้ เมืองยังมีระบบแผนที่ Metrominuto ที่บอกระยะทางและแคลอรี่ที่เผาผลาญจากการเดินไปยังจุดต่างๆ เพื่อส่งเสริมสุขภาพและความเข้าใจในการใช้พื้นที่เมืองอย่างมีประสิทธิภาพ ✅ โมเดลเมืองของ Pontevedra ➡️ จำกัดการใช้รถยนต์เฉพาะกรณีจำเป็น เช่น รถฉุกเฉินและขนส่ง ➡️ เปลี่ยนพื้นที่ 490 เฮกตาร์เป็น “เขตลดการจราจร” ➡️ ไม่มีการจอดรถในพื้นที่สาธารณะระหว่าง 18.00–08.00 น. ➡️ ความเร็วรถในเมืองถูกจำกัดเหลือ 10–30 กม./ชม. ตามพื้นที่ ✅ ผลลัพธ์ที่เกิดขึ้น ➡️ ไม่มีผู้เสียชีวิตจากอุบัติเหตุบนถนนในเมืองนานกว่า 10 ปี ➡️ เด็ก 73% เดินไปโรงเรียน โดย 29% เดินเอง ➡️ การเดินและปั่นจักรยานเพิ่มจาก 66% เป็น 90% ภายใน 10 ปี ➡️ ลดการปล่อย CO₂ ได้ประมาณ 67% ตั้งแต่ปลายยุค 1990 ✅ การออกแบบเมืองเพื่อคน ➡️ ถนนและทางเท้าในใจกลางเมืองไม่มีเส้นแบ่ง — คนเดินนำ ➡️ มีแผนที่ Metrominuto บอกระยะทางและแคลอรี่จากการเดิน ➡️ ร้านค้าเล็กๆ กลับมาคึกคักเพราะคนเดินเท้าแวะซื้อของ ➡️ พื้นที่สาธารณะถูกใช้จัดกิจกรรม วัฒนธรรม และการพบปะ ✅ ข้อมูลเสริมจากภายนอก ➡️ เมืองอื่นในยุโรปเริ่มทำตาม เช่น Freiburg, Oslo, Barcelona ➡️ EU มีโครงการ Climate-Neutral and Smart Cities สนับสนุนเมืองแบบนี้ ➡️ เครือข่าย “Ciudades que caminan” ส่งเสริมการเดินในเมืองทั่วสเปน ➡️ เมืองที่ออกแบบให้เดินได้ช่วยเพิ่มสมาธิเด็กและสุขภาพประชาชน https://www.greeneuropeanjournal.eu/made-for-people-not-cars-reclaiming-european-cities/
    WWW.GREENEUROPEANJOURNAL.EU
    Made for People, Not Cars: Reclaiming European Cities
    By prioritising residents over private vehicles, a Spanish municipality has overcome some of the biggest challenges facing Europe’s cities.
    0 Comments 0 Shares 29 Views 0 Reviews
  • รัสเชียถล่มฝรั่งเศสตอนนี้เดือนนี้เลย ปล่อยให้มันสะสมอาวุธเตรียมพร้อมฆ่าคนรัสเชียทำไม,เปิดตัวขนาดนี้ ตัวพ่อเบื้องหลังก่อสงคราม ตัวพ่อเบื้องหลังก่ออาชยญากรรมสาระพัดทั่วโลกร่วมถึงสนับสนุนเขมรค้ามนุษย์ค้าอวัยวะค้ายาเสพติดของอีลิทdeep stateด้วยส่งเนื้อสดไปประเทศเครือข่ายฝรั่งเศสแปรรูปแน่นอนก่อนส่งไปให้พวกวาติกันแดกเนื้อมนุษย์กันทั่วรีตตาเดียวมันและอังกฤษคือตัวพ่ออีกตัวนั้นเอง,มันย้ายฐานมายูเครน อีลิทยุโรปจึงช่วยยูเครนเป็นการใหญ่เพราะใต้ดินใต้อุโมงค์ยูเครนคือแหล่งผลิตแปรรูปสาระพัดความชั่วร้ายเช่นแดกมนุษย์แดกเด็กแดกอะดริโนโครมผลิตอาวุธชีวภาพแบบเชื้อโรคโควิดเป็นต้นในโซนยุโรป,โซนเอเชียก็แหล่งค้ามนุษย์ค้าอวัยวะมนุษย์ตัวพ่อนอกจากสแกมเมอร์คอลเซนเตอร์ก็มีพม่ามีเขมรล่าสุดที่อพยพจากฐานพม่ามาสร้างที่เขมรแทนโดยมีรัฐบาลชั่วเลวของไทยสมคบคิดด้วยชุดก่อน สมยอมเขมรใต้ตีนมันหมด ฝรั่งเศสคือตัวปัญหาของเอเชียและอาเชียนจริงตลอดเรื่อยมา ยึดปล้นชิงทรัพยากรมีค่ามากมายจากคนเอเชียคนอาเชียนเราไม่น้อยจนถึงปัจจุบัน เช่นบ่อน้ำมันทั่วอาเชียนเรา สร้างความแตกแยกวุ่นวายโกลาหลทั่วเอเชียอาเชียนเป็นทีมเป็นขบวนการและแทรกแซงวิถีการปกครองไปหมดในเอเชียในอาเชียนเรา ,ยุโรปสมควรถูกกำจัดถูกทำลายโดยเฉพาะฝรั่งเศส รัสเชีย จีน อินเดีย เกาหลีเหนือยิงถล่มมันทิ้งเลย,เอเชียเราสงบสุขสันติแน่นอน แถมทรัพยากรมีค่ามากมายจะทำคุณประโยชน์พัฒนาคนเอเชียเราให้สุขสบายร่วมกันสันติสงบสุขได้.
    https://youtube.com/watch?v=xoLDX0C9240&si=GETJXaxrOqczGntC
    รัสเชียถล่มฝรั่งเศสตอนนี้เดือนนี้เลย ปล่อยให้มันสะสมอาวุธเตรียมพร้อมฆ่าคนรัสเชียทำไม,เปิดตัวขนาดนี้ ตัวพ่อเบื้องหลังก่อสงคราม ตัวพ่อเบื้องหลังก่ออาชยญากรรมสาระพัดทั่วโลกร่วมถึงสนับสนุนเขมรค้ามนุษย์ค้าอวัยวะค้ายาเสพติดของอีลิทdeep stateด้วยส่งเนื้อสดไปประเทศเครือข่ายฝรั่งเศสแปรรูปแน่นอนก่อนส่งไปให้พวกวาติกันแดกเนื้อมนุษย์กันทั่วรีตตาเดียวมันและอังกฤษคือตัวพ่ออีกตัวนั้นเอง,มันย้ายฐานมายูเครน อีลิทยุโรปจึงช่วยยูเครนเป็นการใหญ่เพราะใต้ดินใต้อุโมงค์ยูเครนคือแหล่งผลิตแปรรูปสาระพัดความชั่วร้ายเช่นแดกมนุษย์แดกเด็กแดกอะดริโนโครมผลิตอาวุธชีวภาพแบบเชื้อโรคโควิดเป็นต้นในโซนยุโรป,โซนเอเชียก็แหล่งค้ามนุษย์ค้าอวัยวะมนุษย์ตัวพ่อนอกจากสแกมเมอร์คอลเซนเตอร์ก็มีพม่ามีเขมรล่าสุดที่อพยพจากฐานพม่ามาสร้างที่เขมรแทนโดยมีรัฐบาลชั่วเลวของไทยสมคบคิดด้วยชุดก่อน สมยอมเขมรใต้ตีนมันหมด ฝรั่งเศสคือตัวปัญหาของเอเชียและอาเชียนจริงตลอดเรื่อยมา ยึดปล้นชิงทรัพยากรมีค่ามากมายจากคนเอเชียคนอาเชียนเราไม่น้อยจนถึงปัจจุบัน เช่นบ่อน้ำมันทั่วอาเชียนเรา สร้างความแตกแยกวุ่นวายโกลาหลทั่วเอเชียอาเชียนเป็นทีมเป็นขบวนการและแทรกแซงวิถีการปกครองไปหมดในเอเชียในอาเชียนเรา ,ยุโรปสมควรถูกกำจัดถูกทำลายโดยเฉพาะฝรั่งเศส รัสเชีย จีน อินเดีย เกาหลีเหนือยิงถล่มมันทิ้งเลย,เอเชียเราสงบสุขสันติแน่นอน แถมทรัพยากรมีค่ามากมายจะทำคุณประโยชน์พัฒนาคนเอเชียเราให้สุขสบายร่วมกันสันติสงบสุขได้. https://youtube.com/watch?v=xoLDX0C9240&si=GETJXaxrOqczGntC
    0 Comments 0 Shares 27 Views 0 Reviews
  • ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์

    https://thaitimes.co/posts/267154
    https://thaitimes.co/posts/267157
    https://thaitimes.co/posts/267159

    ทรัมป์โพสต์แสดงความเสียใจต่อการจากไปของเขา:
    "ชาร์ลี เคิร์ก เป็นตำนานผู้ยิ่งใหญ่ได้เสียชีวิตไปแล้ว ไม่มีใครเข้าใจหรือมีหัวใจของเยาวชนในสหรัฐอเมริกาดีไปกว่าชาร์ลีอีกแล้ว เขาเป็นที่รักและชื่นชมของทุกคน โดยเฉพาะผม และตอนนี้เขาจากไปแล้ว ผมขอแสดงความเสียใจกับเมลาเนียและเอริกา ภรรยาผู้แสนดีของเขา และครอบครัว ชาร์ลี พวกเรารักคุณ!" - ประธานาธิบดีโดนัลด์ เจ. ทรัมป์

    Kirk มีบทบาทสำคัญในการผลักดันให้คนรุ่นใหม่สนับสนุนทรัมป์ กิจกรรมของเขาที่จัดขึ้นตามมหาวิทยาลัยทั่วประเทศมักดึงดูดผู้คนจำนวนมาก

    เขาเคยแสดงความเห็นเกี่ยวกับเด็กและผู้หญิงที่เสียชีวิตในกาซา ว่าเป็นความรับผิดชอบของฮามาส "ไม่ใช่อิสราเอล" เช่นเดียวกับการเสียชีวิตของผู้คนในญี่ปุ่นช่วงสงครามโลกครั้งที่ 2 ซึ่งเป็นความผิดของญี่ปุ่น
    ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์ https://thaitimes.co/posts/267154 https://thaitimes.co/posts/267157 https://thaitimes.co/posts/267159 ทรัมป์โพสต์แสดงความเสียใจต่อการจากไปของเขา: "ชาร์ลี เคิร์ก เป็นตำนานผู้ยิ่งใหญ่ได้เสียชีวิตไปแล้ว ไม่มีใครเข้าใจหรือมีหัวใจของเยาวชนในสหรัฐอเมริกาดีไปกว่าชาร์ลีอีกแล้ว เขาเป็นที่รักและชื่นชมของทุกคน โดยเฉพาะผม และตอนนี้เขาจากไปแล้ว ผมขอแสดงความเสียใจกับเมลาเนียและเอริกา ภรรยาผู้แสนดีของเขา และครอบครัว ชาร์ลี พวกเรารักคุณ!" - ประธานาธิบดีโดนัลด์ เจ. ทรัมป์ Kirk มีบทบาทสำคัญในการผลักดันให้คนรุ่นใหม่สนับสนุนทรัมป์ กิจกรรมของเขาที่จัดขึ้นตามมหาวิทยาลัยทั่วประเทศมักดึงดูดผู้คนจำนวนมาก 👉เขาเคยแสดงความเห็นเกี่ยวกับเด็กและผู้หญิงที่เสียชีวิตในกาซา ว่าเป็นความรับผิดชอบของฮามาส "ไม่ใช่อิสราเอล" เช่นเดียวกับการเสียชีวิตของผู้คนในญี่ปุ่นช่วงสงครามโลกครั้งที่ 2 ซึ่งเป็นความผิดของญี่ปุ่น
    0 Comments 0 Shares 119 Views 0 Reviews
  • 3/
    ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์
    3/ ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์
    Like
    1
    0 Comments 0 Shares 94 Views 0 0 Reviews
  • 2/
    ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์
    2/ ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์
    0 Comments 0 Shares 94 Views 0 0 Reviews
  • 1/
    ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์
    1/ ช่วงเวลาที่ Charlie Kirk ซีอีโอและผู้ร่วมก่อตั้งองค์กรเยาวชนอนุรักษ์นิยม Turning Point USA ถูกลอบสังหารในงานที่มหาวิทยาลัย Utah Valley ในรัฐยูทาห์
    0 Comments 0 Shares 94 Views 0 0 Reviews
  • สำนักงานใหญ่ของ Kantipur TV Media Group ซึ่งเป็นที่ตั้งของสถานีโทรทัศน์ที่ใหญ่ที่สุดของเนปาล ก็ถูกกลุ่มผู้ประท้วงที่เรียกตัวเองว่า "คนรุ่นใหม่" หรือ Gen Z เผาทำลายเช่นกัน
    สำนักงานใหญ่ของ Kantipur TV Media Group ซึ่งเป็นที่ตั้งของสถานีโทรทัศน์ที่ใหญ่ที่สุดของเนปาล ก็ถูกกลุ่มผู้ประท้วงที่เรียกตัวเองว่า "คนรุ่นใหม่" หรือ Gen Z เผาทำลายเช่นกัน
    0 Comments 0 Shares 68 Views 0 0 Reviews
More Results