• เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง

    ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว

    แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ

    AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50%

    แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี

    AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน

    AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023
    หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก

    เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3
    มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่

    เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50%
    พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร

    AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI
    ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง

    MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน
    โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่

    AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน
    ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024

    MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว
    ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU

    AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA
    เน้นความยืดหยุ่นและลดการผูกขาด

    NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม
    ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD

    AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี
    ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด

    การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป
    แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์

    https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
    🚀🧠 เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50% แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน ✅ AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023 ➡️ หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก ✅ เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3 ➡️ มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่ ✅ เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50% ➡️ พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร ✅ AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI ➡️ ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง ✅ MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน ➡️ โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่ ✅ AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน ➡️ ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024 ✅ MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว ➡️ ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU ✅ AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA ➡️ เน้นความยืดหยุ่นและลดการผูกขาด ‼️ NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม ⛔ ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD ‼️ AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี ⛔ ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด ‼️ การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป ⛔ แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์ https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
    WCCFTECH.COM
    Is AMD the Next Major Threat to NVIDIA's Long-Standing AI Dominance? A Deep Dive into How the Firm's Recent Strategies Might Put It in a Much More Competitive Position
    Here's an analysis of how AMD's recent AI moves are shaping the company for a better future, rivaling NVIDIA more dominantly.
    0 ความคิดเห็น 0 การแบ่งปัน 65 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: เมืองเล็ก ๆ กับภัยไซเบอร์ที่ใหญ่เกินตัว

    ในยุคที่ทุกอย่างเชื่อมต่อกันผ่านอินเทอร์เน็ต ระบบของเทศบาลและเมืองต่าง ๆ ไม่ได้มีแค่ข้อมูลประชาชน แต่ยังรวมถึงบริการสำคัญ เช่น น้ำ ไฟ การแพทย์ และการรักษาความปลอดภัย ซึ่งหากถูกโจมตี อาจทำให้ทั้งเมืองหยุดชะงักได้ทันที

    ปัญหาคือระบบเหล่านี้มักถูกสร้างขึ้นโดยไม่คำนึงถึงความปลอดภัยตั้งแต่ต้น และยังใช้เทคโนโลยีเก่าที่เสี่ยงต่อการถูกเจาะระบบ แถมงบประมาณด้าน cybersecurity ก็ถูกจัดสรรน้อย เพราะต้องแข่งขันกับความต้องการอื่นที่เร่งด่วนกว่า เช่น การซ่อมถนนหรือการจัดการขยะ

    นอกจากนี้ เจ้าหน้าที่เทศบาลจำนวนมากยังไม่ได้รับการฝึกอบรมด้านความปลอดภัยไซเบอร์อย่างเพียงพอ ทำให้ตกเป็นเหยื่อของ phishing หรือมัลแวร์ได้ง่าย และเมื่อเกิดเหตุการณ์ขึ้น ผลกระทบอาจลุกลามไปถึงความเชื่อมั่นของประชาชนที่มีต่อรัฐบาลท้องถิ่น

    ระบบเทศบาลมีข้อมูลสำคัญและให้บริการพื้นฐาน เช่น น้ำ ไฟ ตำรวจ และดับเพลิง
    หากถูกโจมตี อาจทำให้บริการหยุดชะงักและเกิดความไม่ปลอดภัยในชุมชน
    ข้อมูลประชาชน เช่น หมายเลขประกันสังคมและประวัติสุขภาพ อาจถูกขโมย

    ระบบเหล่านี้มักสร้างขึ้นโดยไม่คำนึงถึงความปลอดภัยตั้งแต่ต้น
    ใช้เทคโนโลยีเก่าที่เสี่ยงต่อการถูกเจาะระบบ
    ขาดการอัปเดตและการตรวจสอบความปลอดภัยอย่างสม่ำเสมอ

    งบประมาณด้าน cybersecurity มักถูกจัดสรรน้อย เพราะมีความต้องการอื่นที่เร่งด่วนกว่า
    การอัปเกรดระบบหรือใช้เครื่องมือรักษาความปลอดภัยขั้นสูงจึงทำได้ยาก
    ส่งผลให้เมืองเล็ก ๆ กลายเป็นเป้าหมายที่ง่ายสำหรับแฮกเกอร์

    เจ้าหน้าที่เทศบาลมักไม่ได้รับการฝึกอบรมด้าน cybersecurity อย่างเพียงพอ
    เสี่ยงต่อการตกเป็นเหยื่อของ phishing หรือ social engineering
    ความผิดพลาดของมนุษย์เป็นจุดอ่อนหลักของระบบความปลอดภัย

    การฝึกอบรมและการร่วมมือกับผู้เชี่ยวชาญภายนอกสามารถช่วยเสริมความปลอดภัยได้
    การจัดอบรมอย่างสม่ำเสมอช่วยให้เจ้าหน้าที่รับมือกับภัยคุกคามใหม่ ๆ
    การร่วมมือกับบริษัท cybersecurity หรือหน่วยงานรัฐช่วยเพิ่มทรัพยากรและความรู้

    นโยบายและกฎระเบียบสามารถสร้างมาตรฐานขั้นต่ำด้านความปลอดภัยให้กับเทศบาล
    เช่น การตรวจสอบระบบเป็นระยะ และการฝึกอบรมพนักงานเป็นข้อบังคับ
    ช่วยให้เกิดความสม่ำเสมอและความร่วมมือระหว่างเมืองต่าง ๆ

    การละเลยด้าน cybersecurity อาจทำให้บริการพื้นฐานของเมืองหยุดชะงักทันทีเมื่อถูกโจมตี
    ส่งผลต่อความปลอดภัยของประชาชน เช่น การตอบสนองฉุกเฉินล่าช้า
    อาจเกิดความเสียหายทางเศรษฐกิจและสังคมในวงกว้าง

    การใช้เทคโนโลยีเก่าโดยไม่มีการอัปเดตเป็นช่องโหว่ที่แฮกเกอร์ใช้เจาะระบบได้ง่าย
    ระบบที่ไม่รองรับการป้องกันภัยใหม่ ๆ จะถูกโจมตีได้โดยไม่ต้องใช้เทคนิคซับซ้อน
    อาจถูกใช้เป็นฐานโจมตีระบบอื่นในเครือข่าย

    การขาดการฝึกอบรมทำให้เจ้าหน้าที่กลายเป็นจุดอ่อนของระบบความปลอดภัย
    การคลิกลิงก์ปลอมหรือเปิดไฟล์แนบอันตรายอาจทำให้ระบบถูกแฮก
    ความผิดพลาดเล็ก ๆ อาจนำไปสู่การละเมิดข้อมูลครั้งใหญ่

    การไม่มีนโยบายหรือมาตรฐานกลางทำให้แต่ละเมืองมีระดับความปลอดภัยไม่เท่ากัน
    เมืองที่ไม่มีทรัพยากรอาจไม่มีการป้องกันเลย
    ส่งผลต่อความมั่นคงของภูมิภาคโดยรวม

    การใช้กรอบการทำงานของ NIST ช่วยให้เทศบาลวางแผนด้าน cybersecurity ได้อย่างเป็นระบบ
    ครอบคลุม 5 ด้าน: Identify, Protect, Detect, Respond, Recover
    มีเครื่องมือและคู่มือให้ใช้ฟรีจากเว็บไซต์ของ NIST

    การทำประกันภัยไซเบอร์ช่วยลดความเสี่ยงทางการเงินเมื่อเกิดเหตุการณ์โจมตี
    คุ้มครองความเสียหายจากการละเมิดข้อมูลและการหยุดชะงักของระบบ
    แต่ต้องศึกษาข้อกำหนดและค่าใช้จ่ายให้รอบคอบ

    การประเมินระบบอย่างสม่ำเสมอช่วยให้รู้จุดอ่อนและปรับปรุงได้ทันเวลา
    ใช้เครื่องมือฟรีจาก CISA เช่น Cyber Resilience Review และ CSET
    ไม่จำเป็นต้องจ้างบริษัทภายนอกที่มีค่าใช้จ่ายสูงเสมอไป

    https://hackread.com/local-government-cybersecurity-municipal-systems-protection/
    🎙️ เรื่องเล่าจากข่าว: เมืองเล็ก ๆ กับภัยไซเบอร์ที่ใหญ่เกินตัว ในยุคที่ทุกอย่างเชื่อมต่อกันผ่านอินเทอร์เน็ต ระบบของเทศบาลและเมืองต่าง ๆ ไม่ได้มีแค่ข้อมูลประชาชน แต่ยังรวมถึงบริการสำคัญ เช่น น้ำ ไฟ การแพทย์ และการรักษาความปลอดภัย ซึ่งหากถูกโจมตี อาจทำให้ทั้งเมืองหยุดชะงักได้ทันที ปัญหาคือระบบเหล่านี้มักถูกสร้างขึ้นโดยไม่คำนึงถึงความปลอดภัยตั้งแต่ต้น และยังใช้เทคโนโลยีเก่าที่เสี่ยงต่อการถูกเจาะระบบ แถมงบประมาณด้าน cybersecurity ก็ถูกจัดสรรน้อย เพราะต้องแข่งขันกับความต้องการอื่นที่เร่งด่วนกว่า เช่น การซ่อมถนนหรือการจัดการขยะ นอกจากนี้ เจ้าหน้าที่เทศบาลจำนวนมากยังไม่ได้รับการฝึกอบรมด้านความปลอดภัยไซเบอร์อย่างเพียงพอ ทำให้ตกเป็นเหยื่อของ phishing หรือมัลแวร์ได้ง่าย และเมื่อเกิดเหตุการณ์ขึ้น ผลกระทบอาจลุกลามไปถึงความเชื่อมั่นของประชาชนที่มีต่อรัฐบาลท้องถิ่น ✅ ระบบเทศบาลมีข้อมูลสำคัญและให้บริการพื้นฐาน เช่น น้ำ ไฟ ตำรวจ และดับเพลิง ➡️ หากถูกโจมตี อาจทำให้บริการหยุดชะงักและเกิดความไม่ปลอดภัยในชุมชน ➡️ ข้อมูลประชาชน เช่น หมายเลขประกันสังคมและประวัติสุขภาพ อาจถูกขโมย ✅ ระบบเหล่านี้มักสร้างขึ้นโดยไม่คำนึงถึงความปลอดภัยตั้งแต่ต้น ➡️ ใช้เทคโนโลยีเก่าที่เสี่ยงต่อการถูกเจาะระบบ ➡️ ขาดการอัปเดตและการตรวจสอบความปลอดภัยอย่างสม่ำเสมอ ✅ งบประมาณด้าน cybersecurity มักถูกจัดสรรน้อย เพราะมีความต้องการอื่นที่เร่งด่วนกว่า ➡️ การอัปเกรดระบบหรือใช้เครื่องมือรักษาความปลอดภัยขั้นสูงจึงทำได้ยาก ➡️ ส่งผลให้เมืองเล็ก ๆ กลายเป็นเป้าหมายที่ง่ายสำหรับแฮกเกอร์ ✅ เจ้าหน้าที่เทศบาลมักไม่ได้รับการฝึกอบรมด้าน cybersecurity อย่างเพียงพอ ➡️ เสี่ยงต่อการตกเป็นเหยื่อของ phishing หรือ social engineering ➡️ ความผิดพลาดของมนุษย์เป็นจุดอ่อนหลักของระบบความปลอดภัย ✅ การฝึกอบรมและการร่วมมือกับผู้เชี่ยวชาญภายนอกสามารถช่วยเสริมความปลอดภัยได้ ➡️ การจัดอบรมอย่างสม่ำเสมอช่วยให้เจ้าหน้าที่รับมือกับภัยคุกคามใหม่ ๆ ➡️ การร่วมมือกับบริษัท cybersecurity หรือหน่วยงานรัฐช่วยเพิ่มทรัพยากรและความรู้ ✅ นโยบายและกฎระเบียบสามารถสร้างมาตรฐานขั้นต่ำด้านความปลอดภัยให้กับเทศบาล ➡️ เช่น การตรวจสอบระบบเป็นระยะ และการฝึกอบรมพนักงานเป็นข้อบังคับ ➡️ ช่วยให้เกิดความสม่ำเสมอและความร่วมมือระหว่างเมืองต่าง ๆ ‼️ การละเลยด้าน cybersecurity อาจทำให้บริการพื้นฐานของเมืองหยุดชะงักทันทีเมื่อถูกโจมตี ⛔ ส่งผลต่อความปลอดภัยของประชาชน เช่น การตอบสนองฉุกเฉินล่าช้า ⛔ อาจเกิดความเสียหายทางเศรษฐกิจและสังคมในวงกว้าง ‼️ การใช้เทคโนโลยีเก่าโดยไม่มีการอัปเดตเป็นช่องโหว่ที่แฮกเกอร์ใช้เจาะระบบได้ง่าย ⛔ ระบบที่ไม่รองรับการป้องกันภัยใหม่ ๆ จะถูกโจมตีได้โดยไม่ต้องใช้เทคนิคซับซ้อน ⛔ อาจถูกใช้เป็นฐานโจมตีระบบอื่นในเครือข่าย ‼️ การขาดการฝึกอบรมทำให้เจ้าหน้าที่กลายเป็นจุดอ่อนของระบบความปลอดภัย ⛔ การคลิกลิงก์ปลอมหรือเปิดไฟล์แนบอันตรายอาจทำให้ระบบถูกแฮก ⛔ ความผิดพลาดเล็ก ๆ อาจนำไปสู่การละเมิดข้อมูลครั้งใหญ่ ‼️ การไม่มีนโยบายหรือมาตรฐานกลางทำให้แต่ละเมืองมีระดับความปลอดภัยไม่เท่ากัน ⛔ เมืองที่ไม่มีทรัพยากรอาจไม่มีการป้องกันเลย ⛔ ส่งผลต่อความมั่นคงของภูมิภาคโดยรวม ✅ การใช้กรอบการทำงานของ NIST ช่วยให้เทศบาลวางแผนด้าน cybersecurity ได้อย่างเป็นระบบ ➡️ ครอบคลุม 5 ด้าน: Identify, Protect, Detect, Respond, Recover ➡️ มีเครื่องมือและคู่มือให้ใช้ฟรีจากเว็บไซต์ของ NIST ✅ การทำประกันภัยไซเบอร์ช่วยลดความเสี่ยงทางการเงินเมื่อเกิดเหตุการณ์โจมตี ➡️ คุ้มครองความเสียหายจากการละเมิดข้อมูลและการหยุดชะงักของระบบ ➡️ แต่ต้องศึกษาข้อกำหนดและค่าใช้จ่ายให้รอบคอบ ✅ การประเมินระบบอย่างสม่ำเสมอช่วยให้รู้จุดอ่อนและปรับปรุงได้ทันเวลา ➡️ ใช้เครื่องมือฟรีจาก CISA เช่น Cyber Resilience Review และ CSET ➡️ ไม่จำเป็นต้องจ้างบริษัทภายนอกที่มีค่าใช้จ่ายสูงเสมอไป https://hackread.com/local-government-cybersecurity-municipal-systems-protection/
    HACKREAD.COM
    Local Government Cybersecurity: Why Municipal Systems Need Extra Protection
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 74 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: กล้องวงจรปิด Dahua เสี่ยงถูกแฮก—Bitdefender เตือนให้อัปเดตด่วน!

    Bitdefender บริษัทด้านความปลอดภัยไซเบอร์ชื่อดัง ได้เปิดเผยช่องโหว่ร้ายแรง 2 รายการในกล้อง Dahua รุ่น Hero C1 และอีกหลายรุ่นที่ใช้โปรโตคอล ONVIF และระบบจัดการไฟล์แบบ RPC ช่องโหว่เหล่านี้เปิดทางให้ผู้ไม่ประสงค์ดีสามารถควบคุมกล้องได้จากระยะไกล โดยไม่ต้องมีสิทธิ์เข้าระบบ

    ช่องโหว่แรก (CVE-2025-31700) เป็นการล้นบัฟเฟอร์บน stack จากการจัดการ HTTP header ที่ผิดพลาดใน ONVIF protocol ส่วนช่องโหว่ที่สอง (CVE-2025-31701) เป็นการล้นหน่วยความจำ .bss จากการจัดการข้อมูลไฟล์อัปโหลดที่ไม่ปลอดภัย

    Bitdefender รายงานช่องโหว่ต่อ Dahua ตั้งแต่เดือนมีนาคม 2025 และ Dahua ได้ออกแพตช์แก้ไขเมื่อวันที่ 7 กรกฎาคม 2025 พร้อมเผยแพร่คำแนะนำสาธารณะในวันที่ 23 กรกฎาคม 2025

    พบช่องโหว่ร้ายแรง 2 รายการในกล้อง Dahua รุ่น Hero C1 และรุ่นอื่น ๆ
    CVE-2025-31700: Stack-based buffer overflow ใน ONVIF protocol
    CVE-2025-31701: .bss segment overflow ใน file upload handler

    ช่องโหว่เปิดทางให้แฮกเกอร์ควบคุมกล้องจากระยะไกลโดยไม่ต้องล็อกอิน
    สามารถรันคำสั่ง, ติดตั้งมัลแวร์, และเข้าถึง root-level ได้
    เสี่ยงต่อการถูกใช้เป็นฐานโจมตีหรือสอดแนม

    กล้องที่ได้รับผลกระทบรวมถึง IPC-1XXX, IPC-2XXX, IPC-WX, SD-series และอื่น ๆ
    เฟิร์มแวร์ที่เก่ากว่า 16 เมษายน 2025 ถือว่าเสี่ยง
    ผู้ใช้สามารถตรวจสอบเวอร์ชันได้จากหน้า Settings → System Information

    Bitdefender และ Dahua ร่วมมือกันในการเปิดเผยช่องโหว่แบบมีความรับผิดชอบ
    รายงานครั้งแรกเมื่อ 28 มีนาคม 2025
    Dahua ออกแพตช์เมื่อ 7 กรกฎาคม และเผยแพร่คำแนะนำเมื่อ 23 กรกฎาคม

    ช่องโหว่สามารถถูกโจมตีผ่านเครือข่ายภายในหรืออินเทอร์เน็ต หากเปิดพอร์ตหรือใช้ UPnP
    การเปิด web interface สู่ภายนอกเพิ่มความเสี่ยง
    UPnP และ port forwarding ควรถูกปิดทันที

    https://hackread.com/bitdefender-update-dahua-cameras-critical-flaws/
    🎙️ เรื่องเล่าจากข่าว: กล้องวงจรปิด Dahua เสี่ยงถูกแฮก—Bitdefender เตือนให้อัปเดตด่วน! Bitdefender บริษัทด้านความปลอดภัยไซเบอร์ชื่อดัง ได้เปิดเผยช่องโหว่ร้ายแรง 2 รายการในกล้อง Dahua รุ่น Hero C1 และอีกหลายรุ่นที่ใช้โปรโตคอล ONVIF และระบบจัดการไฟล์แบบ RPC ช่องโหว่เหล่านี้เปิดทางให้ผู้ไม่ประสงค์ดีสามารถควบคุมกล้องได้จากระยะไกล โดยไม่ต้องมีสิทธิ์เข้าระบบ ช่องโหว่แรก (CVE-2025-31700) เป็นการล้นบัฟเฟอร์บน stack จากการจัดการ HTTP header ที่ผิดพลาดใน ONVIF protocol ส่วนช่องโหว่ที่สอง (CVE-2025-31701) เป็นการล้นหน่วยความจำ .bss จากการจัดการข้อมูลไฟล์อัปโหลดที่ไม่ปลอดภัย Bitdefender รายงานช่องโหว่ต่อ Dahua ตั้งแต่เดือนมีนาคม 2025 และ Dahua ได้ออกแพตช์แก้ไขเมื่อวันที่ 7 กรกฎาคม 2025 พร้อมเผยแพร่คำแนะนำสาธารณะในวันที่ 23 กรกฎาคม 2025 ✅ พบช่องโหว่ร้ายแรง 2 รายการในกล้อง Dahua รุ่น Hero C1 และรุ่นอื่น ๆ ➡️ CVE-2025-31700: Stack-based buffer overflow ใน ONVIF protocol ➡️ CVE-2025-31701: .bss segment overflow ใน file upload handler ✅ ช่องโหว่เปิดทางให้แฮกเกอร์ควบคุมกล้องจากระยะไกลโดยไม่ต้องล็อกอิน ➡️ สามารถรันคำสั่ง, ติดตั้งมัลแวร์, และเข้าถึง root-level ได้ ➡️ เสี่ยงต่อการถูกใช้เป็นฐานโจมตีหรือสอดแนม ✅ กล้องที่ได้รับผลกระทบรวมถึง IPC-1XXX, IPC-2XXX, IPC-WX, SD-series และอื่น ๆ ➡️ เฟิร์มแวร์ที่เก่ากว่า 16 เมษายน 2025 ถือว่าเสี่ยง ➡️ ผู้ใช้สามารถตรวจสอบเวอร์ชันได้จากหน้า Settings → System Information ✅ Bitdefender และ Dahua ร่วมมือกันในการเปิดเผยช่องโหว่แบบมีความรับผิดชอบ ➡️ รายงานครั้งแรกเมื่อ 28 มีนาคม 2025 ➡️ Dahua ออกแพตช์เมื่อ 7 กรกฎาคม และเผยแพร่คำแนะนำเมื่อ 23 กรกฎาคม ✅ ช่องโหว่สามารถถูกโจมตีผ่านเครือข่ายภายในหรืออินเทอร์เน็ต หากเปิดพอร์ตหรือใช้ UPnP ➡️ การเปิด web interface สู่ภายนอกเพิ่มความเสี่ยง ➡️ UPnP และ port forwarding ควรถูกปิดทันที https://hackread.com/bitdefender-update-dahua-cameras-critical-flaws/
    HACKREAD.COM
    Bitdefender Warns Users to Update Dahua Cameras Over Critical Flaws
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 58 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: Apple กับภารกิจไล่ตาม AI—เปิดรับ M&A, ปรับทีม, และอาจซื้อ Perplexity เพื่อเติมช่องว่าง

    Apple เคยเป็นผู้นำด้านนวัตกรรม แต่ในสนาม AI กลับถูกมองว่า “ตามหลัง” คู่แข่งอย่าง Google, Microsoft และ OpenAI อย่างชัดเจน Tim Cook จึงประกาศในงานแถลงผลประกอบการล่าสุดว่า Apple “เปิดรับการซื้อกิจการทุกขนาด” หากช่วยเร่งแผน AI ได้

    ปีนี้ Apple ซื้อกิจการไปแล้ว 7 แห่ง แม้ส่วนใหญ่จะเป็นบริษัทขนาดเล็ก แต่มีข่าวลือว่า Apple กำลังพิจารณาซื้อ Perplexity—สตาร์ทอัพ AI ด้านการค้นหาที่มีมูลค่ากว่า $18 พันล้าน ซึ่งจะกลายเป็นดีลใหญ่ที่สุดในประวัติศาสตร์ของ Apple หากเกิดขึ้นจริง

    นอกจากการซื้อกิจการ Apple ยังปรับโครงสร้างองค์กรครั้งใหญ่ โดยย้ายพนักงานจำนวนมากไปทำงานด้าน AI และเพิ่มงบลงทุนอย่างต่อเนื่อง แม้จะยังตามหลังคู่แข่งในด้านโครงสร้างพื้นฐานและโมเดล AI ขนาดใหญ่

    Tim Cook ประกาศว่า Apple “เปิดรับ M&A ทุกขนาด” เพื่อเร่งแผน AI
    ไม่จำกัดขนาดบริษัท หากช่วยเร่ง roadmap ได้
    ปีนี้ซื้อกิจการแล้ว 7 แห่ง แม้ส่วนใหญ่ไม่เกี่ยวกับ AI

    Apple กำลังพิจารณาซื้อ Perplexity สตาร์ทอัพ AI ด้านการค้นหาที่มีมูลค่ากว่า $18 พันล้าน
    จะกลายเป็นดีลใหญ่ที่สุดของ Apple
    มีการเจรจาระหว่างผู้บริหารระดับสูงแล้ว

    Apple ปรับโครงสร้างองค์กรโดยย้ายพนักงานจำนวนมากไปทำงานด้าน AI
    เน้นพัฒนา machine learning และฟีเจอร์ใหม่ใน ecosystem
    รวมถึงการออกแบบชิปด้วย generative AI

    Apple เพิ่มงบลงทุนด้าน AI อย่างต่อเนื่อง แม้ยังตามหลังคู่แข่งในด้านโครงสร้างพื้นฐาน
    CapEx ปีนี้อยู่ที่ ~$13–14 พันล้าน
    เทียบกับ Google $85B, Meta $72B, Microsoft $80B

    Apple มองว่า AI คือ “เทคโนโลยีที่ลึกซึ้งที่สุดในยุคของเรา” และจะฝังอยู่ในทุกอุปกรณ์
    เน้นการทำให้ AI ใช้งานง่ายและเข้าถึงได้
    เป็นหัวใจของกลยุทธ์ระยะยาว

    รายได้ไตรมาสล่าสุดของ Apple อยู่ที่ $94 พันล้าน กำไรสุทธิ $23.4 พันล้าน
    iPhone ยังเป็นรายได้หลักที่ $44.6 พันล้าน
    รายได้จากบริการโตต่อเนื่องที่ $27.4 พันล้าน

    Apple ยังไม่มีผลิตภัณฑ์ AI แบบ generative ที่เด่นชัดเหมือนคู่แข่ง
    Siri รุ่นใหม่ถูกเลื่อนเปิดตัวไปปี 2026
    ยังไม่มีโมเดล LLM ที่แข่งขันกับ GPT หรือ Claude ได้

    การซื้อกิจการขนาดใหญ่เช่น Perplexity อาจขัดกับแนวทางเดิมของ Apple ที่เน้นการเติบโตภายใน
    เสี่ยงต่อการเปลี่ยนวัฒนธรรมองค์กร
    ต้องปรับตัวกับเทคโนโลยีภายนอกอย่างรวดเร็ว

    การปรับโครงสร้างองค์กรครั้งใหญ่เพื่อเน้น AI อาจกระทบต่อทีมงานเดิมและโครงการอื่น
    อาจเกิดความไม่ชัดเจนในบทบาทของทีม
    เสี่ยงต่อการสูญเสียบุคลากรที่ไม่เห็นด้วย

    งบลงทุนด้าน AI ของ Apple ยังน้อยกว่าคู่แข่งหลายเท่า อาจทำให้ตามไม่ทันในระยะกลาง
    โครงสร้างพื้นฐานยังไม่เทียบเท่า Google หรือ Microsoft
    ต้องเร่งลงทุนใน data center และโมเดลขนาดใหญ่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/apples-tim-cook-very-open-to-m-and-a-that-accelerates-our-road-map-for-ai-company-increasing-spending-on-ai-initiatives-reorganizing-teams-to-address-expansion
    🎙️ เรื่องเล่าจากข่าว: Apple กับภารกิจไล่ตาม AI—เปิดรับ M&A, ปรับทีม, และอาจซื้อ Perplexity เพื่อเติมช่องว่าง Apple เคยเป็นผู้นำด้านนวัตกรรม แต่ในสนาม AI กลับถูกมองว่า “ตามหลัง” คู่แข่งอย่าง Google, Microsoft และ OpenAI อย่างชัดเจน Tim Cook จึงประกาศในงานแถลงผลประกอบการล่าสุดว่า Apple “เปิดรับการซื้อกิจการทุกขนาด” หากช่วยเร่งแผน AI ได้ ปีนี้ Apple ซื้อกิจการไปแล้ว 7 แห่ง แม้ส่วนใหญ่จะเป็นบริษัทขนาดเล็ก แต่มีข่าวลือว่า Apple กำลังพิจารณาซื้อ Perplexity—สตาร์ทอัพ AI ด้านการค้นหาที่มีมูลค่ากว่า $18 พันล้าน ซึ่งจะกลายเป็นดีลใหญ่ที่สุดในประวัติศาสตร์ของ Apple หากเกิดขึ้นจริง นอกจากการซื้อกิจการ Apple ยังปรับโครงสร้างองค์กรครั้งใหญ่ โดยย้ายพนักงานจำนวนมากไปทำงานด้าน AI และเพิ่มงบลงทุนอย่างต่อเนื่อง แม้จะยังตามหลังคู่แข่งในด้านโครงสร้างพื้นฐานและโมเดล AI ขนาดใหญ่ ✅ Tim Cook ประกาศว่า Apple “เปิดรับ M&A ทุกขนาด” เพื่อเร่งแผน AI ➡️ ไม่จำกัดขนาดบริษัท หากช่วยเร่ง roadmap ได้ ➡️ ปีนี้ซื้อกิจการแล้ว 7 แห่ง แม้ส่วนใหญ่ไม่เกี่ยวกับ AI ✅ Apple กำลังพิจารณาซื้อ Perplexity สตาร์ทอัพ AI ด้านการค้นหาที่มีมูลค่ากว่า $18 พันล้าน ➡️ จะกลายเป็นดีลใหญ่ที่สุดของ Apple ➡️ มีการเจรจาระหว่างผู้บริหารระดับสูงแล้ว ✅ Apple ปรับโครงสร้างองค์กรโดยย้ายพนักงานจำนวนมากไปทำงานด้าน AI ➡️ เน้นพัฒนา machine learning และฟีเจอร์ใหม่ใน ecosystem ➡️ รวมถึงการออกแบบชิปด้วย generative AI ✅ Apple เพิ่มงบลงทุนด้าน AI อย่างต่อเนื่อง แม้ยังตามหลังคู่แข่งในด้านโครงสร้างพื้นฐาน ➡️ CapEx ปีนี้อยู่ที่ ~$13–14 พันล้าน ➡️ เทียบกับ Google $85B, Meta $72B, Microsoft $80B ✅ Apple มองว่า AI คือ “เทคโนโลยีที่ลึกซึ้งที่สุดในยุคของเรา” และจะฝังอยู่ในทุกอุปกรณ์ ➡️ เน้นการทำให้ AI ใช้งานง่ายและเข้าถึงได้ ➡️ เป็นหัวใจของกลยุทธ์ระยะยาว ✅ รายได้ไตรมาสล่าสุดของ Apple อยู่ที่ $94 พันล้าน กำไรสุทธิ $23.4 พันล้าน ➡️ iPhone ยังเป็นรายได้หลักที่ $44.6 พันล้าน ➡️ รายได้จากบริการโตต่อเนื่องที่ $27.4 พันล้าน ‼️ Apple ยังไม่มีผลิตภัณฑ์ AI แบบ generative ที่เด่นชัดเหมือนคู่แข่ง ⛔ Siri รุ่นใหม่ถูกเลื่อนเปิดตัวไปปี 2026 ⛔ ยังไม่มีโมเดล LLM ที่แข่งขันกับ GPT หรือ Claude ได้ ‼️ การซื้อกิจการขนาดใหญ่เช่น Perplexity อาจขัดกับแนวทางเดิมของ Apple ที่เน้นการเติบโตภายใน ⛔ เสี่ยงต่อการเปลี่ยนวัฒนธรรมองค์กร ⛔ ต้องปรับตัวกับเทคโนโลยีภายนอกอย่างรวดเร็ว ‼️ การปรับโครงสร้างองค์กรครั้งใหญ่เพื่อเน้น AI อาจกระทบต่อทีมงานเดิมและโครงการอื่น ⛔ อาจเกิดความไม่ชัดเจนในบทบาทของทีม ⛔ เสี่ยงต่อการสูญเสียบุคลากรที่ไม่เห็นด้วย ‼️ งบลงทุนด้าน AI ของ Apple ยังน้อยกว่าคู่แข่งหลายเท่า อาจทำให้ตามไม่ทันในระยะกลาง ⛔ โครงสร้างพื้นฐานยังไม่เทียบเท่า Google หรือ Microsoft ⛔ ต้องเร่งลงทุนใน data center และโมเดลขนาดใหญ่ https://www.tomshardware.com/tech-industry/artificial-intelligence/apples-tim-cook-very-open-to-m-and-a-that-accelerates-our-road-map-for-ai-company-increasing-spending-on-ai-initiatives-reorganizing-teams-to-address-expansion
    0 ความคิดเห็น 0 การแบ่งปัน 129 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: AMD เตรียมเปิดตัวชิป NPU แบบแยก เพื่อท้าชน GPU ในยุค AI PC

    ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลบนพีซี ผู้ผลิตชิปต่างเร่งพัฒนา NPU (Neural Processing Unit) เพื่อรองรับงาน AI โดยเฉพาะ ซึ่ง AMD ก็ไม่ยอมน้อยหน้า ล่าสุดมีการเปิดเผยว่า AMD กำลังพิจารณาเปิดตัว “Discrete NPU” หรือชิป NPU แบบแยกชิ้น ไม่ฝังอยู่ใน CPU หรือ GPU เหมือนที่ผ่านมา

    Rahul Tikoo หัวหน้าฝ่าย CPU ของ AMD ระบุว่า บริษัทกำลังพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาสของชิป NPU แบบแยก ซึ่งจะช่วยให้พีซีสามารถประมวลผล AI ได้อย่างมีประสิทธิภาพมากขึ้น โดยไม่ต้องพึ่ง GPU ที่กินไฟและสร้างความร้อนสูง

    แนวคิดนี้เกิดขึ้นหลังจาก Dell เปิดตัวแล็ปท็อป Pro Max Plus ที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร และมีประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์

    AMD เองก็มีพื้นฐานจากเทคโนโลยี Xilinx ที่ใช้สร้าง NPU ฝังใน Ryzen รุ่นใหม่ และมีโครงการ Gaia ที่ช่วยให้สามารถรันโมเดล LLM ขนาดใหญ่บนเครื่องพีซีได้โดยตรง

    AMD เตรียมเปิดตัวชิป NPU แบบแยกสำหรับพีซีในอนาคต
    ไม่ใช่ GPU แต่เป็นตัวเร่ง AI โดยเฉพาะ
    อยู่ระหว่างการพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาส

    ชิป NPU แบบแยกจะช่วยลดภาระของ CPU และ GPU ในการประมวลผล AI
    เหมาะสำหรับงาน inference และการรันโมเดล LLM บนเครื่อง
    ช่วยให้พีซีบางเบายังคงมีประสิทธิภาพสูงด้าน AI

    AMD มีพื้นฐานจากเทคโนโลยี Xilinx และโครงการ Gaia สำหรับการรันโมเดล AI บน Ryzen
    ใช้ NPU tile ที่สามารถสร้างได้ถึง 50 TOPS ต่อชิ้น
    สามารถรวมหลาย tile เพื่อเพิ่มประสิทธิภาพได้

    Dell เปิดตัวแล็ปท็อปที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร
    มี 16 AI cores และหน่วยความจำ 32GB ต่อการ์ด
    ประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์

    Discrete NPU จะช่วยลดความต้องการ GPU ระดับสูงในตลาด
    ทำให้ราคาการ์ดจอสำหรับเกมเมอร์ลดลง
    เป็นทางเลือกใหม่สำหรับผู้ใช้งาน AI โดยเฉพาะ

    AMD XDNA 2 NPU มีประสิทธิภาพสูงถึง 50 TOPS และออกแบบให้ประหยัดพลังงาน
    ใช้ engine tile แบบแยกที่สามารถประมวลผลได้อย่างอิสระ
    รองรับการปรับแต่งโครงสร้างการประมวลผล AI ได้ตามต้องการ

    Intel Lunar Lake NPU 4 มีประสิทธิภาพสูงถึง 48 TOPS และออกแบบให้มีพลังงานต่ำ
    ใช้สถาปัตยกรรมแบบ parallel inference pipeline
    มี SHAVE DSP ที่ช่วยเพิ่มประสิทธิภาพการประมวลผล

    Qualcomm Snapdragon X Elite มี NPU 45 TOPS และมีประสิทธิภาพสูงในพลังงานต่ำ
    เหมาะกับโน้ตบุ๊กบางเบาและใช้งาน AI แบบต่อเนื่อง
    เป็นผู้นำในด้านประสิทธิภาพต่อวัตต์

    Discrete NPU อาจกลายเป็นอุปกรณ์เสริมใหม่ในพีซี เหมือนกับการ์ดจอในอดีต
    ช่วยให้ผู้ใช้สามารถเลือกอัปเกรดเฉพาะด้าน AI ได้
    อาจกลายเป็นมาตรฐานใหม่ในยุค AI PC

    Discrete NPU อาจกลายเป็นส่วนประกอบที่กินไฟและสร้างความร้อน หากออกแบบไม่ดี
    หากไม่ประหยัดพลังงาน จะไม่ต่างจาก GPU ที่มีปัญหาเรื่องความร้อน
    อาจไม่เหมาะกับพีซีบางเบาหรือโน้ตบุ๊ก

    ยังไม่มีข้อมูลชัดเจนว่า AMD จะเปิดตัวเมื่อใด และจะมีประสิทธิภาพเท่าใด
    อยู่ภายใต้ NDA และยังไม่มีแผนเปิดเผย
    อาจใช้เวลานานกว่าจะเข้าสู่ตลาดจริง

    การพัฒนา NPU แบบแยกต้องมี ecosystem ซอฟต์แวร์ที่รองรับอย่างเต็มรูปแบบ
    หากไม่มีเครื่องมือพัฒนาและไลบรารีที่พร้อมใช้งาน จะไม่สามารถแข่งขันได้
    ต้องมีการร่วมมือกับนักพัฒนาและผู้ผลิตซอฟต์แวร์อย่างใกล้ชิด

    ผู้ใช้งานทั่วไปอาจยังไม่เห็นความจำเป็นของ NPU แบบแยกในชีวิตประจำวัน
    ฟีเจอร์ AI บน Windows ยังจำกัดและไม่ใช่จุดขายหลัก
    อาจเหมาะกับผู้ใช้ระดับมืออาชีพมากกว่าผู้ใช้ทั่วไป

    https://www.techspot.com/news/108894-amd-signals-push-discrete-npus-rival-gpus-ai.html
    🎙️ เรื่องเล่าจากข่าว: AMD เตรียมเปิดตัวชิป NPU แบบแยก เพื่อท้าชน GPU ในยุค AI PC ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลบนพีซี ผู้ผลิตชิปต่างเร่งพัฒนา NPU (Neural Processing Unit) เพื่อรองรับงาน AI โดยเฉพาะ ซึ่ง AMD ก็ไม่ยอมน้อยหน้า ล่าสุดมีการเปิดเผยว่า AMD กำลังพิจารณาเปิดตัว “Discrete NPU” หรือชิป NPU แบบแยกชิ้น ไม่ฝังอยู่ใน CPU หรือ GPU เหมือนที่ผ่านมา Rahul Tikoo หัวหน้าฝ่าย CPU ของ AMD ระบุว่า บริษัทกำลังพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาสของชิป NPU แบบแยก ซึ่งจะช่วยให้พีซีสามารถประมวลผล AI ได้อย่างมีประสิทธิภาพมากขึ้น โดยไม่ต้องพึ่ง GPU ที่กินไฟและสร้างความร้อนสูง แนวคิดนี้เกิดขึ้นหลังจาก Dell เปิดตัวแล็ปท็อป Pro Max Plus ที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร และมีประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์ AMD เองก็มีพื้นฐานจากเทคโนโลยี Xilinx ที่ใช้สร้าง NPU ฝังใน Ryzen รุ่นใหม่ และมีโครงการ Gaia ที่ช่วยให้สามารถรันโมเดล LLM ขนาดใหญ่บนเครื่องพีซีได้โดยตรง ✅ AMD เตรียมเปิดตัวชิป NPU แบบแยกสำหรับพีซีในอนาคต ➡️ ไม่ใช่ GPU แต่เป็นตัวเร่ง AI โดยเฉพาะ ➡️ อยู่ระหว่างการพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาส ✅ ชิป NPU แบบแยกจะช่วยลดภาระของ CPU และ GPU ในการประมวลผล AI ➡️ เหมาะสำหรับงาน inference และการรันโมเดล LLM บนเครื่อง ➡️ ช่วยให้พีซีบางเบายังคงมีประสิทธิภาพสูงด้าน AI ✅ AMD มีพื้นฐานจากเทคโนโลยี Xilinx และโครงการ Gaia สำหรับการรันโมเดล AI บน Ryzen ➡️ ใช้ NPU tile ที่สามารถสร้างได้ถึง 50 TOPS ต่อชิ้น ➡️ สามารถรวมหลาย tile เพื่อเพิ่มประสิทธิภาพได้ ✅ Dell เปิดตัวแล็ปท็อปที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร ➡️ มี 16 AI cores และหน่วยความจำ 32GB ต่อการ์ด ➡️ ประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์ ✅ Discrete NPU จะช่วยลดความต้องการ GPU ระดับสูงในตลาด ➡️ ทำให้ราคาการ์ดจอสำหรับเกมเมอร์ลดลง ➡️ เป็นทางเลือกใหม่สำหรับผู้ใช้งาน AI โดยเฉพาะ ✅ AMD XDNA 2 NPU มีประสิทธิภาพสูงถึง 50 TOPS และออกแบบให้ประหยัดพลังงาน ➡️ ใช้ engine tile แบบแยกที่สามารถประมวลผลได้อย่างอิสระ ➡️ รองรับการปรับแต่งโครงสร้างการประมวลผล AI ได้ตามต้องการ ✅ Intel Lunar Lake NPU 4 มีประสิทธิภาพสูงถึง 48 TOPS และออกแบบให้มีพลังงานต่ำ ➡️ ใช้สถาปัตยกรรมแบบ parallel inference pipeline ➡️ มี SHAVE DSP ที่ช่วยเพิ่มประสิทธิภาพการประมวลผล ✅ Qualcomm Snapdragon X Elite มี NPU 45 TOPS และมีประสิทธิภาพสูงในพลังงานต่ำ ➡️ เหมาะกับโน้ตบุ๊กบางเบาและใช้งาน AI แบบต่อเนื่อง ➡️ เป็นผู้นำในด้านประสิทธิภาพต่อวัตต์ ✅ Discrete NPU อาจกลายเป็นอุปกรณ์เสริมใหม่ในพีซี เหมือนกับการ์ดจอในอดีต ➡️ ช่วยให้ผู้ใช้สามารถเลือกอัปเกรดเฉพาะด้าน AI ได้ ➡️ อาจกลายเป็นมาตรฐานใหม่ในยุค AI PC ‼️ Discrete NPU อาจกลายเป็นส่วนประกอบที่กินไฟและสร้างความร้อน หากออกแบบไม่ดี ⛔ หากไม่ประหยัดพลังงาน จะไม่ต่างจาก GPU ที่มีปัญหาเรื่องความร้อน ⛔ อาจไม่เหมาะกับพีซีบางเบาหรือโน้ตบุ๊ก ‼️ ยังไม่มีข้อมูลชัดเจนว่า AMD จะเปิดตัวเมื่อใด และจะมีประสิทธิภาพเท่าใด ⛔ อยู่ภายใต้ NDA และยังไม่มีแผนเปิดเผย ⛔ อาจใช้เวลานานกว่าจะเข้าสู่ตลาดจริง ‼️ การพัฒนา NPU แบบแยกต้องมี ecosystem ซอฟต์แวร์ที่รองรับอย่างเต็มรูปแบบ ⛔ หากไม่มีเครื่องมือพัฒนาและไลบรารีที่พร้อมใช้งาน จะไม่สามารถแข่งขันได้ ⛔ ต้องมีการร่วมมือกับนักพัฒนาและผู้ผลิตซอฟต์แวร์อย่างใกล้ชิด ‼️ ผู้ใช้งานทั่วไปอาจยังไม่เห็นความจำเป็นของ NPU แบบแยกในชีวิตประจำวัน ⛔ ฟีเจอร์ AI บน Windows ยังจำกัดและไม่ใช่จุดขายหลัก ⛔ อาจเหมาะกับผู้ใช้ระดับมืออาชีพมากกว่าผู้ใช้ทั่วไป https://www.techspot.com/news/108894-amd-signals-push-discrete-npus-rival-gpus-ai.html
    WWW.TECHSPOT.COM
    AMD signals push for discrete NPUs to rival GPUs in AI-powered PCs
    AMD is exploring whether PCs could benefit from a new kind of accelerator: a discrete neural processing unit. The company has long relied on GPUs for demanding...
    0 ความคิดเห็น 0 การแบ่งปัน 116 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป

    ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง

    แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น:
    - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า
    - ความจุหน่วยความจำสูงกว่า 3.6 เท่า
    - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า

    อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา

    Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้
    ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก
    ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72

    ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16
    สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs
    เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่

    Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference
    ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB
    ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่

    ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s
    สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์
    รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU

    ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง
    ใช้ในงาน AI training และ inference ระดับองค์กร
    เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ

    Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว
    ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์
    มีข้อจำกัดด้านการส่งออกไปยังจีน

    Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ
    ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล
    เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว

    DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด”
    ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว
    ช่วยลดต้นทุนและลดการพึ่งพา Nvidia

    จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล
    มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM
    เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก

    ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า
    ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า
    อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน

    ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training
    เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง
    ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA

    ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ
    ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis
    ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว

    รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก
    อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ
    อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้

    https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    🎙️ เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น: - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า - ความจุหน่วยความจำสูงกว่า 3.6 เท่า - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา ✅ Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้ ➡️ ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก ➡️ ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72 ✅ ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16 ➡️ สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs ➡️ เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่ ✅ Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference ➡️ ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB ➡️ ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่ ✅ ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s ➡️ สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์ ➡️ รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU ✅ ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง ➡️ ใช้ในงาน AI training และ inference ระดับองค์กร ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ ✅ Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว ➡️ ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์ ➡️ มีข้อจำกัดด้านการส่งออกไปยังจีน ✅ Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ ➡️ ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล ➡️ เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว ✅ DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด” ➡️ ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว ➡️ ช่วยลดต้นทุนและลดการพึ่งพา Nvidia ✅ จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล ➡️ มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM ➡️ เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก ‼️ ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า ⛔ ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า ⛔ อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน ‼️ ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training ⛔ เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง ⛔ ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA ‼️ ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ ⛔ ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis ⛔ ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว ‼️ รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก ⛔ อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ ⛔ อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้ https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    WWW.TECHSPOT.COM
    Huawei's CloudMatrix 384 could outpace Nvidia in the AI race, study suggests
    As newly appointed US tech czar David Sacks predicted just a month ago, Trump's tariffs appear to be backfiring in spectacular fashion. Chinese tech giant Huawei is...
    0 ความคิดเห็น 0 การแบ่งปัน 141 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: “ช่องว่างแห่งความมั่นใจ” ที่อาจทำให้องค์กรพังโดยไม่รู้ตัว

    รายงานจาก Bitdefender และ Darktrace ในปี 2025 เผยให้เห็นช่องว่างความเข้าใจระหว่างผู้บริหารด้านความปลอดภัย (CISO) กับทีมปฏิบัติการด้านไซเบอร์ (security practitioners) อย่างชัดเจน

    - 45% ของ CISO เชื่อว่าระบบขององค์กรสามารถรับมือกับภัยคุกคามได้ดี
    - แต่มีเพียง 19% ของผู้จัดการระดับกลางที่เห็นด้วย
    - และเมื่อพูดถึงภัยจาก AI มีถึง 62% ของผู้บริหารที่มั่นใจว่าจะรับมือได้ แต่ทีมปฏิบัติการกลับมั่นใจแค่ 49%

    เหตุผลหลักคือ ผู้บริหารมักดูข้อมูลจาก dashboard และรายงานสรุป ในขณะที่ทีมปฏิบัติการต้องรับมือกับความจริงที่ซับซ้อน เช่น ระบบเก่า, การแจ้งเตือนล้นระบบ, และการขาดทรัพยากร

    ผลที่ตามมาคือการลงทุนผิดจุด เช่น เน้น compliance มากกว่าการพัฒนาเครื่องมือรับมือภัยจริง และการประเมินความเสี่ยงที่ไม่ตรงกับความเป็นจริง

    CISO มั่นใจในความปลอดภัยขององค์กรมากกว่าทีมปฏิบัติการอย่างมีนัยสำคัญ
    45% ของผู้บริหารมั่นใจเทียบกับ 19% ของผู้จัดการระดับกลาง
    ช่องว่างนี้ส่งผลต่อการจัดลำดับความสำคัญในการลงทุน

    ภัยคุกคามจาก AI ถูกประเมินต่ำเกินไปโดยผู้บริหาร
    62% ของผู้บริหารมั่นใจว่าจะรับมือได้
    แต่ทีมปฏิบัติการเห็นว่าระบบยังไม่พร้อม และขาดความเข้าใจใน AI

    ทีมปฏิบัติการเผชิญกับความเครียดจากการแจ้งเตือนล้นระบบและเครื่องมือที่ไม่เชื่อมโยงกัน
    ทำให้มองเห็นปัญหาที่ผู้บริหารไม่เคยสัมผัส
    เช่น legacy systems, alert fatigue, และ policy ที่ไม่สอดคล้องกัน

    การลงทุนมักเน้น compliance และ visibility มากกว่าการพัฒนา core capabilities
    เช่น detection engineering, incident response, threat containment
    ส่งผลให้ระบบไม่พร้อมรับมือภัยจริง

    Darktrace พบว่า 78% ของ CISO เห็นว่า AI มีผลกระทบต่อองค์กรอย่างมาก
    แต่มีเพียง 42% ของผู้ปฏิบัติการที่เข้าใจว่า AI ในระบบคืออะไร
    ช่องว่างความรู้ทำให้การใช้ AI เพื่อป้องกันภัยยังไม่เต็มประสิทธิภาพ

    https://www.csoonline.com/article/4031648/mind-the-overconfidence-gap-cisos-and-staff-dont-see-eye-to-eye-on-security-posture.html
    🧠 เรื่องเล่าจากข่าว: “ช่องว่างแห่งความมั่นใจ” ที่อาจทำให้องค์กรพังโดยไม่รู้ตัว รายงานจาก Bitdefender และ Darktrace ในปี 2025 เผยให้เห็นช่องว่างความเข้าใจระหว่างผู้บริหารด้านความปลอดภัย (CISO) กับทีมปฏิบัติการด้านไซเบอร์ (security practitioners) อย่างชัดเจน - 45% ของ CISO เชื่อว่าระบบขององค์กรสามารถรับมือกับภัยคุกคามได้ดี - แต่มีเพียง 19% ของผู้จัดการระดับกลางที่เห็นด้วย - และเมื่อพูดถึงภัยจาก AI มีถึง 62% ของผู้บริหารที่มั่นใจว่าจะรับมือได้ แต่ทีมปฏิบัติการกลับมั่นใจแค่ 49% เหตุผลหลักคือ ผู้บริหารมักดูข้อมูลจาก dashboard และรายงานสรุป ในขณะที่ทีมปฏิบัติการต้องรับมือกับความจริงที่ซับซ้อน เช่น ระบบเก่า, การแจ้งเตือนล้นระบบ, และการขาดทรัพยากร ผลที่ตามมาคือการลงทุนผิดจุด เช่น เน้น compliance มากกว่าการพัฒนาเครื่องมือรับมือภัยจริง และการประเมินความเสี่ยงที่ไม่ตรงกับความเป็นจริง ✅ CISO มั่นใจในความปลอดภัยขององค์กรมากกว่าทีมปฏิบัติการอย่างมีนัยสำคัญ ➡️ 45% ของผู้บริหารมั่นใจเทียบกับ 19% ของผู้จัดการระดับกลาง ➡️ ช่องว่างนี้ส่งผลต่อการจัดลำดับความสำคัญในการลงทุน ✅ ภัยคุกคามจาก AI ถูกประเมินต่ำเกินไปโดยผู้บริหาร ➡️ 62% ของผู้บริหารมั่นใจว่าจะรับมือได้ ➡️ แต่ทีมปฏิบัติการเห็นว่าระบบยังไม่พร้อม และขาดความเข้าใจใน AI ✅ ทีมปฏิบัติการเผชิญกับความเครียดจากการแจ้งเตือนล้นระบบและเครื่องมือที่ไม่เชื่อมโยงกัน ➡️ ทำให้มองเห็นปัญหาที่ผู้บริหารไม่เคยสัมผัส ➡️ เช่น legacy systems, alert fatigue, และ policy ที่ไม่สอดคล้องกัน ✅ การลงทุนมักเน้น compliance และ visibility มากกว่าการพัฒนา core capabilities ➡️ เช่น detection engineering, incident response, threat containment ➡️ ส่งผลให้ระบบไม่พร้อมรับมือภัยจริง ✅ Darktrace พบว่า 78% ของ CISO เห็นว่า AI มีผลกระทบต่อองค์กรอย่างมาก ➡️ แต่มีเพียง 42% ของผู้ปฏิบัติการที่เข้าใจว่า AI ในระบบคืออะไร ➡️ ช่องว่างความรู้ทำให้การใช้ AI เพื่อป้องกันภัยยังไม่เต็มประสิทธิภาพ https://www.csoonline.com/article/4031648/mind-the-overconfidence-gap-cisos-and-staff-dont-see-eye-to-eye-on-security-posture.html
    WWW.CSOONLINE.COM
    Mind the overconfidence gap: CISOs and staff don’t see eye to eye on security posture
    Security executives may be prone to believing cyber defenses are stronger than front-line staff see them to be, thereby distorting spending priorities and creating a false sense of security.
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: “SS7 encoding attack” เมื่อการสื่อสารกลายเป็นช่องทางลับของการสอดแนม

    SS7 หรือ Signaling System 7 คือโปรโตคอลเก่าแก่ที่ใช้เชื่อมต่อสายโทรศัพท์, ส่งข้อความ, และจัดการการโรมมิ่งระหว่างเครือข่ายมือถือทั่วโลก แม้จะเป็นหัวใจของการสื่อสารยุคใหม่ แต่ SS7 ไม่เคยถูกออกแบบมาให้ปลอดภัยในระดับที่ทันสมัย

    ล่าสุดนักวิจัยจาก Enea พบว่า บริษัทสอดแนมแห่งหนึ่งใช้เทคนิคใหม่ในการ “ปรับรูปแบบการเข้ารหัส” ของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ เช่น firewall และระบบเฝ้าระวัง ทำให้สามารถขอข้อมูลตำแหน่งของผู้ใช้มือถือจากผู้ให้บริการได้โดยไม่ถูกบล็อก

    เทคนิคนี้อาศัยการปรับโครงสร้างของข้อความ TCAP (Transaction Capabilities Application Part) ซึ่งเป็นชั้นใน SS7 ที่ใช้ส่งข้อมูลระหว่างเครือข่าย โดยใช้การเข้ารหัสแบบ ASN.1 BER ที่มีความยืดหยุ่นสูง ทำให้สามารถสร้างข้อความที่ “ถูกต้องตามหลักการ แต่ผิดจากที่ระบบคาดไว้” จนระบบไม่สามารถตรวจจับได้

    การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ถึงระดับเสาสัญญาณ ซึ่งในเมืองใหญ่หมายถึงระยะเพียงไม่กี่ร้อยเมตร

    SS7 encoding attack คือการปรับรูปแบบการเข้ารหัสของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ
    ใช้เทคนิคการเข้ารหัสแบบ ASN.1 BER ในชั้น TCAP ของ SS7
    สร้างข้อความที่ดูถูกต้องแต่ระบบไม่สามารถถอดรหัสได้

    บริษัทสอดแนมใช้เทคนิคนี้เพื่อขอข้อมูลตำแหน่งผู้ใช้มือถือจากผู้ให้บริการ
    ส่งคำสั่ง PSI (ProvideSubscriberInfo) ที่ถูกปรับแต่ง
    ระบบไม่สามารถตรวจสอบ IMSI ได้ จึงไม่บล็อกคำขอ

    การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และยังคงมีผลในปี 2025
    พบหลักฐานการใช้งานในเครือข่ายจริง
    บริษัทสอดแนมสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ระดับเสาสัญญาณ

    SS7 ยังคงถูกใช้งานอย่างแพร่หลาย แม้จะมีเทคโนโลยีใหม่อย่าง Diameter และ 5G signaling
    การเลิกใช้ SS7 ไม่ใช่ทางเลือกสำหรับผู้ให้บริการส่วนใหญ่
    ต้องใช้วิธีป้องกันเชิงพฤติกรรมและการวิเคราะห์ภัยคุกคาม

    Enea แนะนำให้ผู้ให้บริการตรวจสอบรูปแบบการเข้ารหัสที่ผิดปกติและเสริม firewall ให้แข็งแรงขึ้น
    ใช้การวิเคราะห์พฤติกรรมร่วมกับ threat intelligence
    ป้องกันการหลบเลี่ยงระบบตรวจจับในระดับโครงสร้างข้อความ

    ผู้ใช้มือถือไม่สามารถป้องกันการโจมตีนี้ได้ด้วยตัวเอง
    การโจมตีเกิดในระดับเครือข่ายมือถือ ไม่ใช่ที่อุปกรณ์ของผู้ใช้
    ต้องพึ่งผู้ให้บริการในการป้องกัน

    ระบบ SS7 firewall แบบเดิมไม่สามารถตรวจจับการเข้ารหัสที่ผิดปกติได้
    ข้อความที่ใช้ encoding แบบใหม่จะผ่าน firewall โดยไม่ถูกบล็อก
    IMSI ที่ถูกซ่อนไว้จะไม่ถูกตรวจสอบว่าเป็นเครือข่ายภายในหรือภายนอก

    บริษัทสอดแนมสามารถใช้ช่องโหว่นี้เพื่อสอดแนมผู้ใช้โดยไม่ต้องได้รับอนุญาตจากรัฐ
    แม้จะอ้างว่าใช้เพื่อจับอาชญากร แต่มีการใช้กับนักข่าวและนักเคลื่อนไหว
    เป็นการละเมิดสิทธิส่วนบุคคลอย่างร้ายแรง

    ระบบ SS7 มีความซับซ้อนและไม่ถูกออกแบบมาให้รองรับการป้องกันภัยสมัยใหม่
    ASN.1 BER มีความยืดหยุ่นสูงจนกลายเป็นช่องโหว่
    การปรับโครงสร้างข้อความสามารถหลบเลี่ยงระบบตรวจจับได้ง่าย

    https://hackread.com/researchers-ss7-encoding-attack-surveillance-vendor/
    🧠 เรื่องเล่าจากข่าว: “SS7 encoding attack” เมื่อการสื่อสารกลายเป็นช่องทางลับของการสอดแนม SS7 หรือ Signaling System 7 คือโปรโตคอลเก่าแก่ที่ใช้เชื่อมต่อสายโทรศัพท์, ส่งข้อความ, และจัดการการโรมมิ่งระหว่างเครือข่ายมือถือทั่วโลก แม้จะเป็นหัวใจของการสื่อสารยุคใหม่ แต่ SS7 ไม่เคยถูกออกแบบมาให้ปลอดภัยในระดับที่ทันสมัย ล่าสุดนักวิจัยจาก Enea พบว่า บริษัทสอดแนมแห่งหนึ่งใช้เทคนิคใหม่ในการ “ปรับรูปแบบการเข้ารหัส” ของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ เช่น firewall และระบบเฝ้าระวัง ทำให้สามารถขอข้อมูลตำแหน่งของผู้ใช้มือถือจากผู้ให้บริการได้โดยไม่ถูกบล็อก เทคนิคนี้อาศัยการปรับโครงสร้างของข้อความ TCAP (Transaction Capabilities Application Part) ซึ่งเป็นชั้นใน SS7 ที่ใช้ส่งข้อมูลระหว่างเครือข่าย โดยใช้การเข้ารหัสแบบ ASN.1 BER ที่มีความยืดหยุ่นสูง ทำให้สามารถสร้างข้อความที่ “ถูกต้องตามหลักการ แต่ผิดจากที่ระบบคาดไว้” จนระบบไม่สามารถตรวจจับได้ การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ถึงระดับเสาสัญญาณ ซึ่งในเมืองใหญ่หมายถึงระยะเพียงไม่กี่ร้อยเมตร ✅ SS7 encoding attack คือการปรับรูปแบบการเข้ารหัสของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ ➡️ ใช้เทคนิคการเข้ารหัสแบบ ASN.1 BER ในชั้น TCAP ของ SS7 ➡️ สร้างข้อความที่ดูถูกต้องแต่ระบบไม่สามารถถอดรหัสได้ ✅ บริษัทสอดแนมใช้เทคนิคนี้เพื่อขอข้อมูลตำแหน่งผู้ใช้มือถือจากผู้ให้บริการ ➡️ ส่งคำสั่ง PSI (ProvideSubscriberInfo) ที่ถูกปรับแต่ง ➡️ ระบบไม่สามารถตรวจสอบ IMSI ได้ จึงไม่บล็อกคำขอ ✅ การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และยังคงมีผลในปี 2025 ➡️ พบหลักฐานการใช้งานในเครือข่ายจริง ➡️ บริษัทสอดแนมสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ระดับเสาสัญญาณ ✅ SS7 ยังคงถูกใช้งานอย่างแพร่หลาย แม้จะมีเทคโนโลยีใหม่อย่าง Diameter และ 5G signaling ➡️ การเลิกใช้ SS7 ไม่ใช่ทางเลือกสำหรับผู้ให้บริการส่วนใหญ่ ➡️ ต้องใช้วิธีป้องกันเชิงพฤติกรรมและการวิเคราะห์ภัยคุกคาม ✅ Enea แนะนำให้ผู้ให้บริการตรวจสอบรูปแบบการเข้ารหัสที่ผิดปกติและเสริม firewall ให้แข็งแรงขึ้น ➡️ ใช้การวิเคราะห์พฤติกรรมร่วมกับ threat intelligence ➡️ ป้องกันการหลบเลี่ยงระบบตรวจจับในระดับโครงสร้างข้อความ ‼️ ผู้ใช้มือถือไม่สามารถป้องกันการโจมตีนี้ได้ด้วยตัวเอง ⛔ การโจมตีเกิดในระดับเครือข่ายมือถือ ไม่ใช่ที่อุปกรณ์ของผู้ใช้ ⛔ ต้องพึ่งผู้ให้บริการในการป้องกัน ‼️ ระบบ SS7 firewall แบบเดิมไม่สามารถตรวจจับการเข้ารหัสที่ผิดปกติได้ ⛔ ข้อความที่ใช้ encoding แบบใหม่จะผ่าน firewall โดยไม่ถูกบล็อก ⛔ IMSI ที่ถูกซ่อนไว้จะไม่ถูกตรวจสอบว่าเป็นเครือข่ายภายในหรือภายนอก ‼️ บริษัทสอดแนมสามารถใช้ช่องโหว่นี้เพื่อสอดแนมผู้ใช้โดยไม่ต้องได้รับอนุญาตจากรัฐ ⛔ แม้จะอ้างว่าใช้เพื่อจับอาชญากร แต่มีการใช้กับนักข่าวและนักเคลื่อนไหว ⛔ เป็นการละเมิดสิทธิส่วนบุคคลอย่างร้ายแรง ‼️ ระบบ SS7 มีความซับซ้อนและไม่ถูกออกแบบมาให้รองรับการป้องกันภัยสมัยใหม่ ⛔ ASN.1 BER มีความยืดหยุ่นสูงจนกลายเป็นช่องโหว่ ⛔ การปรับโครงสร้างข้อความสามารถหลบเลี่ยงระบบตรวจจับได้ง่าย https://hackread.com/researchers-ss7-encoding-attack-surveillance-vendor/
    HACKREAD.COM
    Researchers Link New SS7 Encoding Attack to Surveillance Vendor Activity
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องแล็บจีน: Zhaoxin กับภารกิจไล่ตาม AMD ด้วย KH-50000 และ KX-7000N

    Zhaoxin เปิดตัวสองโปรเซสเซอร์ใหม่ในงาน WAIC 2025 ได้แก่:
    - Kaisheng KH-50000 สำหรับเซิร์ฟเวอร์ระดับสูง
    - KaiXian KX-7000N สำหรับ AI PC ที่มี NPU ในตัว

    KH-50000 เป็นรุ่นต่อยอดจาก KH-40000 โดยเพิ่มจำนวนคอร์จาก 32 เป็น 96 คอร์ พร้อม L3 cache ขนาด 384MB เทียบเท่ากับ AMD EPYC Genoa และรองรับ 128 PCIe 5.0 lanes กับหน่วยความจำ DDR5 แบบ 12-channel ECC

    แม้ Zhaoxin ยังไม่เปิดเผยสถาปัตยกรรมใหม่ที่ใช้ แต่จากการเปลี่ยนแปลงครั้งใหญ่ในสเปกและฟีเจอร์ คาดว่า KH-50000 ใช้สถาปัตยกรรมใหม่แทน Yongfeng เดิม และรองรับการเชื่อมต่อหลายซ็อกเก็ตผ่าน ZPI 5.0 ทำให้สามารถสร้างระบบที่มีสูงสุด 384 คอร์ได้

    ในฝั่งผู้บริโภค KX-7000N ถือเป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI โดยอัปเกรดจาก PCIe 4.0 เป็น 5.0 และเพิ่มจำนวนคอร์จากรุ่นเดิม แม้ยังไม่เปิดเผยตัวเลขแน่ชัด

    Zhaoxin เปิดตัว KH-50000 สำหรับเซิร์ฟเวอร์ และ KX-7000N สำหรับ AI PC
    เปิดตัวในงาน WAIC 2025
    เป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีตะวันตก

    KH-50000 มี 96 คอร์, L3 cache 384MB, รองรับ 128 PCIe 5.0 lanes และ DDR5 แบบ 12-channel
    เทียบเท่า AMD EPYC Genoa ในหลายด้าน
    รองรับ Compute Express Link (CXL) และ ZPI 5.0 สำหรับ multi-socket

    KH-50000 ใช้สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผย
    ไม่ใช่ Yongfeng แบบรุ่นก่อน
    คาดว่าออกแบบใหม่เพื่อรองรับงาน HPC และ AI

    KX-7000N เป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI
    อัปเกรดจาก PCIe 4.0 เป็น 5.0
    เพิ่มจำนวนคอร์จากรุ่น KX-7000 เดิม

    Zhaoxin ตั้งเป้าแข่งขันกับ AMD, Intel และ Nvidia ในอนาคต
    ยังไม่เทียบเท่าในด้านประสิทธิภาพ แต่พัฒนาอย่างต่อเนื่อง
    มุ่งสู่ความเป็นอิสระทางเทคโนโลยีของจีน

    KH-50000 ยังไม่ยืนยันว่ารองรับ simultaneous multithreading (SMT)
    อาจมีข้อจำกัดด้านประสิทธิภาพต่อคอร์
    ยังไม่ชัดเจนว่ารองรับ workload แบบ multi-thread ได้ดีแค่ไหน

    ยังไม่มีข้อมูลด้านประสิทธิภาพจริงหรือ benchmark จาก Zhaoxin
    ไม่สามารถเปรียบเทียบกับ AMD หรือ Intel ได้อย่างแม่นยำ
    ต้องรอผลการทดสอบจากผู้ใช้งานจริง

    การพัฒนา NPU ใน KX-7000N ยังไม่มีข้อมูลด้านซอฟต์แวร์หรือ ecosystem รองรับ
    อาจมีข้อจำกัดในการใช้งาน AI บนเดสก์ท็อป
    ต้องพึ่งพาการพัฒนา framework และ driver เพิ่มเติม

    การผลิตและวางจำหน่ายยังไม่มีกำหนดแน่ชัด
    อาจล่าช้าหรือไม่สามารถผลิตได้ตามเป้า
    ส่งผลต่อการนำไปใช้งานในระดับองค์กรหรือผู้บริโภค

    https://www.tomshardware.com/pc-components/cpus/chinese-cpus-are-closing-the-gap-on-amd-next-gen-zhaoxin-chips-feature-96-cores-12-channel-ddr5-memory-and-128-pcie-5-0-lanes
    🧠 เรื่องเล่าจากห้องแล็บจีน: Zhaoxin กับภารกิจไล่ตาม AMD ด้วย KH-50000 และ KX-7000N Zhaoxin เปิดตัวสองโปรเซสเซอร์ใหม่ในงาน WAIC 2025 ได้แก่: - Kaisheng KH-50000 สำหรับเซิร์ฟเวอร์ระดับสูง - KaiXian KX-7000N สำหรับ AI PC ที่มี NPU ในตัว KH-50000 เป็นรุ่นต่อยอดจาก KH-40000 โดยเพิ่มจำนวนคอร์จาก 32 เป็น 96 คอร์ พร้อม L3 cache ขนาด 384MB เทียบเท่ากับ AMD EPYC Genoa และรองรับ 128 PCIe 5.0 lanes กับหน่วยความจำ DDR5 แบบ 12-channel ECC แม้ Zhaoxin ยังไม่เปิดเผยสถาปัตยกรรมใหม่ที่ใช้ แต่จากการเปลี่ยนแปลงครั้งใหญ่ในสเปกและฟีเจอร์ คาดว่า KH-50000 ใช้สถาปัตยกรรมใหม่แทน Yongfeng เดิม และรองรับการเชื่อมต่อหลายซ็อกเก็ตผ่าน ZPI 5.0 ทำให้สามารถสร้างระบบที่มีสูงสุด 384 คอร์ได้ ในฝั่งผู้บริโภค KX-7000N ถือเป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI โดยอัปเกรดจาก PCIe 4.0 เป็น 5.0 และเพิ่มจำนวนคอร์จากรุ่นเดิม แม้ยังไม่เปิดเผยตัวเลขแน่ชัด ✅ Zhaoxin เปิดตัว KH-50000 สำหรับเซิร์ฟเวอร์ และ KX-7000N สำหรับ AI PC ➡️ เปิดตัวในงาน WAIC 2025 ➡️ เป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีตะวันตก ✅ KH-50000 มี 96 คอร์, L3 cache 384MB, รองรับ 128 PCIe 5.0 lanes และ DDR5 แบบ 12-channel ➡️ เทียบเท่า AMD EPYC Genoa ในหลายด้าน ➡️ รองรับ Compute Express Link (CXL) และ ZPI 5.0 สำหรับ multi-socket ✅ KH-50000 ใช้สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผย ➡️ ไม่ใช่ Yongfeng แบบรุ่นก่อน ➡️ คาดว่าออกแบบใหม่เพื่อรองรับงาน HPC และ AI ✅ KX-7000N เป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI ➡️ อัปเกรดจาก PCIe 4.0 เป็น 5.0 ➡️ เพิ่มจำนวนคอร์จากรุ่น KX-7000 เดิม ✅ Zhaoxin ตั้งเป้าแข่งขันกับ AMD, Intel และ Nvidia ในอนาคต ➡️ ยังไม่เทียบเท่าในด้านประสิทธิภาพ แต่พัฒนาอย่างต่อเนื่อง ➡️ มุ่งสู่ความเป็นอิสระทางเทคโนโลยีของจีน ‼️ KH-50000 ยังไม่ยืนยันว่ารองรับ simultaneous multithreading (SMT) ⛔ อาจมีข้อจำกัดด้านประสิทธิภาพต่อคอร์ ⛔ ยังไม่ชัดเจนว่ารองรับ workload แบบ multi-thread ได้ดีแค่ไหน ‼️ ยังไม่มีข้อมูลด้านประสิทธิภาพจริงหรือ benchmark จาก Zhaoxin ⛔ ไม่สามารถเปรียบเทียบกับ AMD หรือ Intel ได้อย่างแม่นยำ ⛔ ต้องรอผลการทดสอบจากผู้ใช้งานจริง ‼️ การพัฒนา NPU ใน KX-7000N ยังไม่มีข้อมูลด้านซอฟต์แวร์หรือ ecosystem รองรับ ⛔ อาจมีข้อจำกัดในการใช้งาน AI บนเดสก์ท็อป ⛔ ต้องพึ่งพาการพัฒนา framework และ driver เพิ่มเติม ‼️ การผลิตและวางจำหน่ายยังไม่มีกำหนดแน่ชัด ⛔ อาจล่าช้าหรือไม่สามารถผลิตได้ตามเป้า ⛔ ส่งผลต่อการนำไปใช้งานในระดับองค์กรหรือผู้บริโภค https://www.tomshardware.com/pc-components/cpus/chinese-cpus-are-closing-the-gap-on-amd-next-gen-zhaoxin-chips-feature-96-cores-12-channel-ddr5-memory-and-128-pcie-5-0-lanes
    0 ความคิดเห็น 0 การแบ่งปัน 124 มุมมอง 0 รีวิว
  • เรื่องเล่าจากซิลิคอนแวลลีย์: เมื่อ “ความรู้” กลายเป็นภัยความมั่นคง

    Cadence Design Systems บริษัทออกแบบซอฟต์แวร์สำหรับการสร้างชิป (EDA tools) จากสหรัฐฯ ได้ยอมรับผิดและถูกปรับกว่า 140 ล้านดอลลาร์ หลังจากส่งออกเทคโนโลยีไปยังมหาวิทยาลัยแห่งชาติเพื่อการป้องกันประเทศของจีน (NUDT) ซึ่งมีความเกี่ยวข้องกับการจำลองการระเบิดนิวเคลียร์และการพัฒนาอาวุธ

    แม้ NUDT จะถูกขึ้นบัญชีดำโดยกระทรวงพาณิชย์สหรัฐฯ ตั้งแต่ปี 2015 แต่ Cadence และบริษัทลูกในจีนยังคงส่งออกซอฟต์แวร์ผ่านนามแฝงอย่าง CSCC และ Phytium โดยไม่ขอใบอนุญาตอย่างถูกต้อง

    การกระทำนี้เกิดขึ้นกว่า 56 ครั้งในช่วงปี 2015–2020 และมีหลักฐานว่าพนักงานของ Cadence China ติดตั้งฮาร์ดแวร์บนแคมปัสของ NUDT และอำนวยความสะดวกในการดาวน์โหลดซอฟต์แวร์จากพอร์ทัลของบริษัท

    Cadence ยอมรับผิดและถูกปรับรวมกว่า 140 ล้านดอลลาร์
    รวมค่าปรับทางอาญาและทางแพ่งจากกระทรวงยุติธรรมและกระทรวงพาณิชย์สหรัฐฯ
    อยู่ภายใต้การคุมประพฤติ 3 ปี พร้อมเงื่อนไขการปรับปรุงระบบควบคุมการส่งออก

    ส่งออกซอฟต์แวร์ EDA ไปยัง NUDT โดยใช้ชื่อแฝง CSCC และ Phytium
    มีการส่งออกอย่างน้อย 56 ครั้งระหว่างปี 2015–2020
    พนักงานรู้ว่า CSCC เป็นนามแฝงของ NUDT แต่ยังดำเนินการต่อ

    NUDT ถูกขึ้นบัญชีดำตั้งแต่ปี 2015 เนื่องจากใช้เทคโนโลยีสหรัฐฯ ในการจำลองการระเบิดนิวเคลียร์
    เป็นมหาวิทยาลัยภายใต้การควบคุมของคณะกรรมาธิการทหารกลางของจีน
    มีบทบาทสำคัญในการพัฒนาอาวุธและซูเปอร์คอมพิวเตอร์ของจีน

    Cadence China ถูกกล่าวหาว่าปกปิดข้อมูลจากฝ่ายควบคุมภายในของบริษัทแม่
    ใช้ชื่อ NUDT เฉพาะในภาษาจีนเพื่อหลีกเลี่ยงการตรวจสอบ
    มีการส่งอีเมลภายในเตือนว่า “เรื่องนี้อ่อนไหวเกินไป”

    แม้จะถูกปรับ แต่ Cadence ได้รับประโยชน์จากการลดภาษีตามนโยบายของรัฐบาลทรัมป์
    ลดภาระภาษีเงินสดได้ประมาณเท่ากับค่าปรับ
    ส่งผลให้ผลประกอบการไตรมาสล่าสุดเติบโตถึง 20%

    https://www.tomshardware.com/tech-industry/u-s-semiconductor-design-company-fined-usd140-million-over-china-dealings-sold-software-to-a-military-institution-thought-to-be-conducting-nuclear-explosion-simulations
    🎙️ เรื่องเล่าจากซิลิคอนแวลลีย์: เมื่อ “ความรู้” กลายเป็นภัยความมั่นคง Cadence Design Systems บริษัทออกแบบซอฟต์แวร์สำหรับการสร้างชิป (EDA tools) จากสหรัฐฯ ได้ยอมรับผิดและถูกปรับกว่า 140 ล้านดอลลาร์ หลังจากส่งออกเทคโนโลยีไปยังมหาวิทยาลัยแห่งชาติเพื่อการป้องกันประเทศของจีน (NUDT) ซึ่งมีความเกี่ยวข้องกับการจำลองการระเบิดนิวเคลียร์และการพัฒนาอาวุธ แม้ NUDT จะถูกขึ้นบัญชีดำโดยกระทรวงพาณิชย์สหรัฐฯ ตั้งแต่ปี 2015 แต่ Cadence และบริษัทลูกในจีนยังคงส่งออกซอฟต์แวร์ผ่านนามแฝงอย่าง CSCC และ Phytium โดยไม่ขอใบอนุญาตอย่างถูกต้อง การกระทำนี้เกิดขึ้นกว่า 56 ครั้งในช่วงปี 2015–2020 และมีหลักฐานว่าพนักงานของ Cadence China ติดตั้งฮาร์ดแวร์บนแคมปัสของ NUDT และอำนวยความสะดวกในการดาวน์โหลดซอฟต์แวร์จากพอร์ทัลของบริษัท ✅ Cadence ยอมรับผิดและถูกปรับรวมกว่า 140 ล้านดอลลาร์ ➡️ รวมค่าปรับทางอาญาและทางแพ่งจากกระทรวงยุติธรรมและกระทรวงพาณิชย์สหรัฐฯ ➡️ อยู่ภายใต้การคุมประพฤติ 3 ปี พร้อมเงื่อนไขการปรับปรุงระบบควบคุมการส่งออก ✅ ส่งออกซอฟต์แวร์ EDA ไปยัง NUDT โดยใช้ชื่อแฝง CSCC และ Phytium ➡️ มีการส่งออกอย่างน้อย 56 ครั้งระหว่างปี 2015–2020 ➡️ พนักงานรู้ว่า CSCC เป็นนามแฝงของ NUDT แต่ยังดำเนินการต่อ ✅ NUDT ถูกขึ้นบัญชีดำตั้งแต่ปี 2015 เนื่องจากใช้เทคโนโลยีสหรัฐฯ ในการจำลองการระเบิดนิวเคลียร์ ➡️ เป็นมหาวิทยาลัยภายใต้การควบคุมของคณะกรรมาธิการทหารกลางของจีน ➡️ มีบทบาทสำคัญในการพัฒนาอาวุธและซูเปอร์คอมพิวเตอร์ของจีน ✅ Cadence China ถูกกล่าวหาว่าปกปิดข้อมูลจากฝ่ายควบคุมภายในของบริษัทแม่ ➡️ ใช้ชื่อ NUDT เฉพาะในภาษาจีนเพื่อหลีกเลี่ยงการตรวจสอบ ➡️ มีการส่งอีเมลภายในเตือนว่า “เรื่องนี้อ่อนไหวเกินไป” ✅ แม้จะถูกปรับ แต่ Cadence ได้รับประโยชน์จากการลดภาษีตามนโยบายของรัฐบาลทรัมป์ ➡️ ลดภาระภาษีเงินสดได้ประมาณเท่ากับค่าปรับ ➡️ ส่งผลให้ผลประกอบการไตรมาสล่าสุดเติบโตถึง 20% https://www.tomshardware.com/tech-industry/u-s-semiconductor-design-company-fined-usd140-million-over-china-dealings-sold-software-to-a-military-institution-thought-to-be-conducting-nuclear-explosion-simulations
    WWW.TOMSHARDWARE.COM
    U.S. semiconductor design company fined $140 million over China dealings — sold software to a military institution thought to be conducting nuclear explosion simulations
    Cadence admits guilt in exporting chip design tools to China’s National University of Defense Technology, which is believed to be working on the Chinese nuclear program.
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเซี่ยงไฮ้: เมื่อจีนรวมพลังสร้างระบบ AI แบบครบวงจรในประเทศ

    ในงาน World Artificial Intelligence Conference (WAIC) ที่เซี่ยงไฮ้ จีนได้เปิดตัวสองพันธมิตรอุตสาหกรรมใหม่ ได้แก่:

    1️⃣ Model-Chip Ecosystem Innovation Alliance นำโดย StepFun ร่วมกับผู้ผลิตชิปชั้นนำของจีน เช่น Huawei, Biren, Enflame และ Moore Threads เพื่อสร้างระบบนิเวศที่เชื่อมโยงตั้งแต่ฮาร์ดแวร์ โมเดล AI ไปจนถึงโครงสร้างพื้นฐาน โดยมีเป้าหมายเพื่อพัฒนาเทคโนโลยีแบบ end-to-end ภายในประเทศ

    2️⃣ Shanghai General Chamber of Commerce AI Committee มุ่งเน้นการผลักดันการนำ AI ไปใช้ในภาคอุตสาหกรรม โดยมีสมาชิกเช่น SenseTime, MiniMax, MetaX และ Iluvatar CoreX ซึ่งหลายรายเคยถูกสหรัฐฯ คว่ำบาตรจากการใช้เทคโนโลยีเพื่อการเฝ้าระวัง

    ทั้งสองพันธมิตรมีเป้าหมายร่วมกันคือการสร้างมาตรฐานเทคโนโลยีภายในประเทศ ลดการพึ่งพา GPU จาก NVIDIA และซอฟต์แวร์จากสหรัฐฯ โดยเน้นการพัฒนา API, รูปแบบโมเดล และสแต็กซอฟต์แวร์กลางที่สามารถใช้งานร่วมกันได้ในระบบจีนทั้งหมด

    จีนเปิดตัวสองพันธมิตร AI เพื่อสร้างระบบนิเวศภายในประเทศ
    Model-Chip Ecosystem Innovation Alliance เชื่อมโยงผู้ผลิตชิปและนักพัฒนาโมเดล
    Shanghai AI Committee ผลักดันการใช้ AI ในภาคอุตสาหกรรม

    พันธมิตรแรกประกอบด้วย Huawei, Biren, Enflame, Moore Threads และ StepFun
    มุ่งสร้างระบบเทคโนโลยีครบวงจรตั้งแต่ฮาร์ดแวร์ถึงซอฟต์แวร์
    ลดการพึ่งพา GPU จาก NVIDIA ที่ถูกจำกัดการส่งออก

    พันธมิตรที่สองรวมบริษัทที่เคยถูกคว่ำบาตร เช่น SenseTime และ MiniMax
    เปลี่ยนจากเทคโนโลยีเฝ้าระวังมาเป็น LLM และ AI เชิงอุตสาหกรรม
    เชื่อมโยงนักพัฒนา AI กับผู้ใช้งานในภาคธุรกิจ

    เป้าหมายคือการสร้างมาตรฐานกลาง เช่น API และรูปแบบโมเดลที่ใช้ร่วมกันได้
    ลดความซับซ้อนจากสถาปัตยกรรมที่หลากหลาย เช่น Arm, PowerVR
    ส่งเสริมการพัฒนาโมเดลที่สามารถรันบน accelerator ของจีนทุกค่าย

    Huawei เปิดตัว CloudMatrix 384 ที่ใช้ชิป 910C จำนวน 384 ตัว
    ใช้เทคนิค clustering เพื่อชดเชยประสิทธิภาพชิปเดี่ยว
    มีประสิทธิภาพบางด้านเหนือกว่า NVIDIA GB200 NVL72

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-forms-ai-alliances-to-cut-u-s-tech-reliance-huawei-among-companies-seeking-to-create-unified-tech-stack-with-domestic-powered-standardization
    🧠 เรื่องเล่าจากเซี่ยงไฮ้: เมื่อจีนรวมพลังสร้างระบบ AI แบบครบวงจรในประเทศ ในงาน World Artificial Intelligence Conference (WAIC) ที่เซี่ยงไฮ้ จีนได้เปิดตัวสองพันธมิตรอุตสาหกรรมใหม่ ได้แก่: 1️⃣ Model-Chip Ecosystem Innovation Alliance นำโดย StepFun ร่วมกับผู้ผลิตชิปชั้นนำของจีน เช่น Huawei, Biren, Enflame และ Moore Threads เพื่อสร้างระบบนิเวศที่เชื่อมโยงตั้งแต่ฮาร์ดแวร์ โมเดล AI ไปจนถึงโครงสร้างพื้นฐาน โดยมีเป้าหมายเพื่อพัฒนาเทคโนโลยีแบบ end-to-end ภายในประเทศ 2️⃣ Shanghai General Chamber of Commerce AI Committee มุ่งเน้นการผลักดันการนำ AI ไปใช้ในภาคอุตสาหกรรม โดยมีสมาชิกเช่น SenseTime, MiniMax, MetaX และ Iluvatar CoreX ซึ่งหลายรายเคยถูกสหรัฐฯ คว่ำบาตรจากการใช้เทคโนโลยีเพื่อการเฝ้าระวัง ทั้งสองพันธมิตรมีเป้าหมายร่วมกันคือการสร้างมาตรฐานเทคโนโลยีภายในประเทศ ลดการพึ่งพา GPU จาก NVIDIA และซอฟต์แวร์จากสหรัฐฯ โดยเน้นการพัฒนา API, รูปแบบโมเดล และสแต็กซอฟต์แวร์กลางที่สามารถใช้งานร่วมกันได้ในระบบจีนทั้งหมด ✅ จีนเปิดตัวสองพันธมิตร AI เพื่อสร้างระบบนิเวศภายในประเทศ ➡️ Model-Chip Ecosystem Innovation Alliance เชื่อมโยงผู้ผลิตชิปและนักพัฒนาโมเดล ➡️ Shanghai AI Committee ผลักดันการใช้ AI ในภาคอุตสาหกรรม ✅ พันธมิตรแรกประกอบด้วย Huawei, Biren, Enflame, Moore Threads และ StepFun ➡️ มุ่งสร้างระบบเทคโนโลยีครบวงจรตั้งแต่ฮาร์ดแวร์ถึงซอฟต์แวร์ ➡️ ลดการพึ่งพา GPU จาก NVIDIA ที่ถูกจำกัดการส่งออก ✅ พันธมิตรที่สองรวมบริษัทที่เคยถูกคว่ำบาตร เช่น SenseTime และ MiniMax ➡️ เปลี่ยนจากเทคโนโลยีเฝ้าระวังมาเป็น LLM และ AI เชิงอุตสาหกรรม ➡️ เชื่อมโยงนักพัฒนา AI กับผู้ใช้งานในภาคธุรกิจ ✅ เป้าหมายคือการสร้างมาตรฐานกลาง เช่น API และรูปแบบโมเดลที่ใช้ร่วมกันได้ ➡️ ลดความซับซ้อนจากสถาปัตยกรรมที่หลากหลาย เช่น Arm, PowerVR ➡️ ส่งเสริมการพัฒนาโมเดลที่สามารถรันบน accelerator ของจีนทุกค่าย ✅ Huawei เปิดตัว CloudMatrix 384 ที่ใช้ชิป 910C จำนวน 384 ตัว ➡️ ใช้เทคนิค clustering เพื่อชดเชยประสิทธิภาพชิปเดี่ยว ➡️ มีประสิทธิภาพบางด้านเหนือกว่า NVIDIA GB200 NVL72 https://www.tomshardware.com/tech-industry/artificial-intelligence/china-forms-ai-alliances-to-cut-u-s-tech-reliance-huawei-among-companies-seeking-to-create-unified-tech-stack-with-domestic-powered-standardization
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเงามืด: เมื่อ Scattered Spider ใช้โทรศัพท์แทนมัลแวร์เพื่อยึดระบบเสมือน

    Scattered Spider เป็นกลุ่มแฮกเกอร์ที่มีชื่อเสียงจากการโจมตีองค์กรใหญ่ เช่น MGM Resorts และ Harrods โดยใช้เทคนิคที่ไม่ต้องพึ่งช่องโหว่ซอฟต์แวร์ แต่ใช้ “social engineering” ผ่านการโทรศัพท์ไปยัง Help Desk เพื่อขอรีเซ็ตรหัสผ่านของบัญชี Active Directory

    เมื่อได้สิทธิ์เข้าระบบแล้ว พวกเขาจะค้นหาข้อมูลภายใน เช่น รายชื่อผู้ดูแลระบบ vSphere และกลุ่มสิทธิ์ระดับสูง แล้วโทรอีกครั้งเพื่อขอรีเซ็ตรหัสของผู้ดูแลระบบ จากนั้นใช้สิทธิ์ที่ได้เข้าไปยึด VMware vCenter Server Appliance (VCSA) และเปิดช่องทาง SSH บน ESXi hypervisor เพื่อควบคุมระบบทั้งหมด

    พวกเขายังใช้เครื่องมือถูกกฎหมายอย่าง Teleport เพื่อสร้างช่องทางสื่อสารแบบเข้ารหัสที่หลบเลี่ยงไฟร์วอลล์ และทำการโจมตีแบบ “disk-swap” โดยปิด VM ของ Domain Controller แล้วถอดดิสก์ไปติดตั้งบน VM ที่ควบคุมเอง เพื่อขโมยฐานข้อมูล NTDS.dit ของ Active Directory

    ก่อนจะปล่อยแรนซัมแวร์ พวกเขายังลบงานสำรองข้อมูลและ snapshot ทั้งหมด เพื่อให้เหยื่อไม่มีทางกู้คืนได้ และสุดท้ายก็เข้ารหัสไฟล์ VM ทั้งหมดจากระดับ hypervisor โดยใช้สิทธิ์ root ผ่าน SSH

    Scattered Spider (UNC3944) ใช้ social engineering เพื่อยึดระบบ VMware vSphere
    เริ่มจากโทรหา Help Desk เพื่อขอรีเซ็ตรหัสผ่านของบัญชี AD
    ใช้ข้อมูลจากการเจาะระบบภายในเพื่อยกระดับสิทธิ์

    กลุ่มนี้ใช้เครื่องมือถูกกฎหมาย เช่น Teleport เพื่อสร้างช่องทางควบคุมแบบเข้ารหัส
    ติดตั้งบน VCSA เพื่อหลบเลี่ยงการตรวจจับจาก firewall และ EDR
    สร้างช่องทางควบคุมระยะไกลแบบถาวร

    เทคนิค “disk-swap” ใช้ในการขโมยฐานข้อมูล Active Directory โดยไม่ถูกตรวจจับ
    ปิด VM ของ Domain Controller แล้วถอดดิสก์ไปติดตั้งบน VM ที่ควบคุม
    ขโมยไฟล์ NTDS.dit โดยไม่ผ่านระบบปฏิบัติการของ VM

    ก่อนปล่อยแรนซัมแวร์ กลุ่มนี้จะลบงานสำรองข้อมูลทั้งหมด
    ลบ backup jobs และ repositories เพื่อป้องกันการกู้คืน
    ใช้ SSH บน ESXi hosts เพื่อเข้ารหัสไฟล์ VM โดยตรง

    Google แนะนำให้เปลี่ยนแนวทางป้องกันจาก EDR เป็น “infrastructure-centric defense”
    เน้นการตรวจสอบระดับ hypervisor และการควบคุมสิทธิ์
    ใช้ MFA ที่ต้าน phishing, แยกโครงสร้างสำรองข้อมูล, และตรวจสอบ log อย่างต่อเนื่อง

    การโจมตีแบบนี้สามารถเกิดขึ้นได้ภายในเวลาไม่กี่ชั่วโมง
    จากการโทรครั้งแรกถึงการเข้ารหัสข้อมูลใช้เวลาเพียงไม่กี่ชั่วโมง
    ทำให้ระบบตรวจจับแบบเดิมไม่ทันต่อเหตุการณ์

    ระบบ VMware ESXi และ VCSA มีช่องว่างด้านการตรวจสอบที่ EDR มองไม่เห็น
    ไม่มี agent รันใน hypervisor ทำให้การโจมตีไม่ถูกตรวจจับ
    ต้องใช้การตรวจสอบ log จากระดับระบบเสมือนโดยตรง

    การใช้ Active Directory ร่วมกับ vSphere เป็นจุดอ่อนสำคัญ
    เมื่อ AD ถูกยึด สิทธิ์ใน vSphere ก็ถูกยึดตามไปด้วย
    ควรแยกโครงสร้างสิทธิ์และใช้ MFA ที่ไม่พึ่ง AD

    Help Desk กลายเป็นจุดเริ่มต้นของการโจมตี
    การรีเซ็ตรหัสผ่านผ่านโทรศัพท์เป็นช่องทางที่ถูกใช้บ่อย
    ควรมีขั้นตอนตรวจสอบตัวตนที่เข้มงวดและห้ามรีเซ็ตบัญชีระดับสูงผ่านโทรศัพท์

    https://hackread.com/scattered-spider-ransomware-hijack-vmware-systems-google/
    🕷️ เรื่องเล่าจากเงามืด: เมื่อ Scattered Spider ใช้โทรศัพท์แทนมัลแวร์เพื่อยึดระบบเสมือน Scattered Spider เป็นกลุ่มแฮกเกอร์ที่มีชื่อเสียงจากการโจมตีองค์กรใหญ่ เช่น MGM Resorts และ Harrods โดยใช้เทคนิคที่ไม่ต้องพึ่งช่องโหว่ซอฟต์แวร์ แต่ใช้ “social engineering” ผ่านการโทรศัพท์ไปยัง Help Desk เพื่อขอรีเซ็ตรหัสผ่านของบัญชี Active Directory เมื่อได้สิทธิ์เข้าระบบแล้ว พวกเขาจะค้นหาข้อมูลภายใน เช่น รายชื่อผู้ดูแลระบบ vSphere และกลุ่มสิทธิ์ระดับสูง แล้วโทรอีกครั้งเพื่อขอรีเซ็ตรหัสของผู้ดูแลระบบ จากนั้นใช้สิทธิ์ที่ได้เข้าไปยึด VMware vCenter Server Appliance (VCSA) และเปิดช่องทาง SSH บน ESXi hypervisor เพื่อควบคุมระบบทั้งหมด พวกเขายังใช้เครื่องมือถูกกฎหมายอย่าง Teleport เพื่อสร้างช่องทางสื่อสารแบบเข้ารหัสที่หลบเลี่ยงไฟร์วอลล์ และทำการโจมตีแบบ “disk-swap” โดยปิด VM ของ Domain Controller แล้วถอดดิสก์ไปติดตั้งบน VM ที่ควบคุมเอง เพื่อขโมยฐานข้อมูล NTDS.dit ของ Active Directory ก่อนจะปล่อยแรนซัมแวร์ พวกเขายังลบงานสำรองข้อมูลและ snapshot ทั้งหมด เพื่อให้เหยื่อไม่มีทางกู้คืนได้ และสุดท้ายก็เข้ารหัสไฟล์ VM ทั้งหมดจากระดับ hypervisor โดยใช้สิทธิ์ root ผ่าน SSH ✅ Scattered Spider (UNC3944) ใช้ social engineering เพื่อยึดระบบ VMware vSphere ➡️ เริ่มจากโทรหา Help Desk เพื่อขอรีเซ็ตรหัสผ่านของบัญชี AD ➡️ ใช้ข้อมูลจากการเจาะระบบภายในเพื่อยกระดับสิทธิ์ ✅ กลุ่มนี้ใช้เครื่องมือถูกกฎหมาย เช่น Teleport เพื่อสร้างช่องทางควบคุมแบบเข้ารหัส ➡️ ติดตั้งบน VCSA เพื่อหลบเลี่ยงการตรวจจับจาก firewall และ EDR ➡️ สร้างช่องทางควบคุมระยะไกลแบบถาวร ✅ เทคนิค “disk-swap” ใช้ในการขโมยฐานข้อมูล Active Directory โดยไม่ถูกตรวจจับ ➡️ ปิด VM ของ Domain Controller แล้วถอดดิสก์ไปติดตั้งบน VM ที่ควบคุม ➡️ ขโมยไฟล์ NTDS.dit โดยไม่ผ่านระบบปฏิบัติการของ VM ✅ ก่อนปล่อยแรนซัมแวร์ กลุ่มนี้จะลบงานสำรองข้อมูลทั้งหมด ➡️ ลบ backup jobs และ repositories เพื่อป้องกันการกู้คืน ➡️ ใช้ SSH บน ESXi hosts เพื่อเข้ารหัสไฟล์ VM โดยตรง ✅ Google แนะนำให้เปลี่ยนแนวทางป้องกันจาก EDR เป็น “infrastructure-centric defense” ➡️ เน้นการตรวจสอบระดับ hypervisor และการควบคุมสิทธิ์ ➡️ ใช้ MFA ที่ต้าน phishing, แยกโครงสร้างสำรองข้อมูล, และตรวจสอบ log อย่างต่อเนื่อง ‼️ การโจมตีแบบนี้สามารถเกิดขึ้นได้ภายในเวลาไม่กี่ชั่วโมง ⛔ จากการโทรครั้งแรกถึงการเข้ารหัสข้อมูลใช้เวลาเพียงไม่กี่ชั่วโมง ⛔ ทำให้ระบบตรวจจับแบบเดิมไม่ทันต่อเหตุการณ์ ‼️ ระบบ VMware ESXi และ VCSA มีช่องว่างด้านการตรวจสอบที่ EDR มองไม่เห็น ⛔ ไม่มี agent รันใน hypervisor ทำให้การโจมตีไม่ถูกตรวจจับ ⛔ ต้องใช้การตรวจสอบ log จากระดับระบบเสมือนโดยตรง ‼️ การใช้ Active Directory ร่วมกับ vSphere เป็นจุดอ่อนสำคัญ ⛔ เมื่อ AD ถูกยึด สิทธิ์ใน vSphere ก็ถูกยึดตามไปด้วย ⛔ ควรแยกโครงสร้างสิทธิ์และใช้ MFA ที่ไม่พึ่ง AD ‼️ Help Desk กลายเป็นจุดเริ่มต้นของการโจมตี ⛔ การรีเซ็ตรหัสผ่านผ่านโทรศัพท์เป็นช่องทางที่ถูกใช้บ่อย ⛔ ควรมีขั้นตอนตรวจสอบตัวตนที่เข้มงวดและห้ามรีเซ็ตบัญชีระดับสูงผ่านโทรศัพท์ https://hackread.com/scattered-spider-ransomware-hijack-vmware-systems-google/
    HACKREAD.COM
    Scattered Spider Launching Ransomware on Hijacked VMware Systems, Google
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการชิป: เมื่อ “แฟลช” จะมาแทน “แรม” ในงาน AI

    ลองจินตนาการว่า GPU สำหรับงาน AI ไม่ต้องพึ่ง DRAM แบบ HBM ที่แพงและจำกัดความจุอีกต่อไป แต่ใช้แฟลชความเร็วสูงที่มีความจุระดับ SSD—นั่นคือเป้าหมายของ Sandisk กับเทคโนโลยี HBF (High Bandwidth Flash)

    Sandisk ได้ตั้งคณะกรรมการที่ปรึกษาด้านเทคนิค โดยดึงสองตำนานแห่งวงการคอมพิวเตอร์มาเป็นผู้นำ ได้แก่ Prof. David Patterson ผู้ร่วมพัฒนา RISC และ RAID และ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ AMD และ Intel เพื่อผลักดัน HBF ให้กลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI

    HBF ใช้ NAND Flash แบบ BiCS ร่วมกับเทคนิค CBA wafer bonding และการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ทำให้สามารถให้แบนด์วิดธ์ระดับ HBM ได้ แต่มีความจุสูงถึง 4TB ต่อ GPU และต้นทุนต่ำกว่าอย่างมหาศาล

    Sandisk เปิดตัวเทคโนโลยี HBF (High Bandwidth Flash) เพื่อใช้แทน HBM ในงาน AI
    ใช้ NAND Flash แบบ BiCS ร่วมกับ CBA wafer bonding
    รองรับการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ

    HBF ให้แบนด์วิดธ์ระดับเดียวกับ HBM แต่มีความจุสูงกว่า 8 เท่าในต้นทุนใกล้เคียงกัน
    GPU ที่ใช้ HBF สามารถมี VRAM ได้ถึง 4TB
    หากใช้ร่วมกับ HBM จะได้รวมสูงสุดถึง 3TB

    Sandisk ตั้งคณะกรรมการที่ปรึกษาโดยมี David Patterson และ Raja Koduri เป็นผู้นำ
    Patterson คือผู้ร่วมพัฒนา RISC และ RAID
    Koduri เคยเป็นหัวหน้าฝ่ายกราฟิกของ AMD และ Intel

    HBF ถูกออกแบบมาเพื่อรองรับงาน AI ทั้งในดาต้าเซ็นเตอร์และ edge computing
    Patterson ระบุว่า HBF จะช่วยลดต้นทุนของงาน AI ที่ปัจจุบันยังแพงเกินไป
    Koduri ระบุว่า HBF จะพลิกโฉม edge AI โดยให้แบนด์วิดธ์และความจุสูงในอุปกรณ์ขนาดเล็ก

    HBF ใช้ electrical interface เดียวกับ HBM และต้องปรับ protocol เพียงเล็กน้อย
    ทำให้สามารถนำไปใช้กับ GPU ได้ง่ายขึ้น
    ไม่จำเป็นต้องออกแบบระบบใหม่ทั้งหมด

    เปิดตัวครั้งแรกในงาน Future FWD 2025 พร้อมแผนพัฒนา HBF รุ่นต่อไป
    มี roadmap เพิ่มความจุและแบนด์วิดธ์ในอนาคต
    อาจมี trade-off ด้านการใช้พลังงาน

    HBF ยังไม่ใช่ตัวแทนโดยตรงของ HBM และมีข้อจำกัดด้าน latency
    NAND Flash มี latency สูงกว่า DRAM
    เหมาะกับงาน inference และ training มากกว่างานที่ต้องตอบสนองเร็ว

    การใช้งาน HBF ต้องอาศัยการสนับสนุนจากผู้ผลิต GPU โดยตรง
    ต้องใช้ interposer ที่เชื่อมต่อกับ GPU โดยเฉพาะ
    หาก NVIDIA ไม่รับรอง HBF อาจจำกัดการใช้งานในตลาด

    ยังไม่มีการประกาศวันเปิดตัวหรือผลิตภัณฑ์ที่ใช้ HBF อย่างเป็นทางการ
    อยู่ในขั้นตอนการพัฒนาและทดสอบ
    ต้องรอการยอมรับจากอุตสาหกรรมก่อนใช้งานจริง

    การแข่งขันกับผู้ผลิต HBM อย่าง Samsung และ SK Hynix ยังเข้มข้น
    HBM มี ecosystem ที่แข็งแกร่งและได้รับการสนับสนุนจาก NVIDIA
    Sandisk ต้องผลักดัน HBF ให้เป็นมาตรฐานเปิดเพื่อหลีกเลี่ยงการผูกขาด

    https://www.techradar.com/pro/sandisk-recruits-risc-cofounder-amd-graphics-legend-to-spearhead-cheaper-rival-to-hbm-high-bandwidth-flash-could-bring-ssd-capacities-to-ai-gpus-without-the-cost
    ⚡ เรื่องเล่าจากวงการชิป: เมื่อ “แฟลช” จะมาแทน “แรม” ในงาน AI ลองจินตนาการว่า GPU สำหรับงาน AI ไม่ต้องพึ่ง DRAM แบบ HBM ที่แพงและจำกัดความจุอีกต่อไป แต่ใช้แฟลชความเร็วสูงที่มีความจุระดับ SSD—นั่นคือเป้าหมายของ Sandisk กับเทคโนโลยี HBF (High Bandwidth Flash) Sandisk ได้ตั้งคณะกรรมการที่ปรึกษาด้านเทคนิค โดยดึงสองตำนานแห่งวงการคอมพิวเตอร์มาเป็นผู้นำ ได้แก่ Prof. David Patterson ผู้ร่วมพัฒนา RISC และ RAID และ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ AMD และ Intel เพื่อผลักดัน HBF ให้กลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI HBF ใช้ NAND Flash แบบ BiCS ร่วมกับเทคนิค CBA wafer bonding และการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ทำให้สามารถให้แบนด์วิดธ์ระดับ HBM ได้ แต่มีความจุสูงถึง 4TB ต่อ GPU และต้นทุนต่ำกว่าอย่างมหาศาล ✅ Sandisk เปิดตัวเทคโนโลยี HBF (High Bandwidth Flash) เพื่อใช้แทน HBM ในงาน AI ➡️ ใช้ NAND Flash แบบ BiCS ร่วมกับ CBA wafer bonding ➡️ รองรับการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ✅ HBF ให้แบนด์วิดธ์ระดับเดียวกับ HBM แต่มีความจุสูงกว่า 8 เท่าในต้นทุนใกล้เคียงกัน ➡️ GPU ที่ใช้ HBF สามารถมี VRAM ได้ถึง 4TB ➡️ หากใช้ร่วมกับ HBM จะได้รวมสูงสุดถึง 3TB ✅ Sandisk ตั้งคณะกรรมการที่ปรึกษาโดยมี David Patterson และ Raja Koduri เป็นผู้นำ ➡️ Patterson คือผู้ร่วมพัฒนา RISC และ RAID ➡️ Koduri เคยเป็นหัวหน้าฝ่ายกราฟิกของ AMD และ Intel ✅ HBF ถูกออกแบบมาเพื่อรองรับงาน AI ทั้งในดาต้าเซ็นเตอร์และ edge computing ➡️ Patterson ระบุว่า HBF จะช่วยลดต้นทุนของงาน AI ที่ปัจจุบันยังแพงเกินไป ➡️ Koduri ระบุว่า HBF จะพลิกโฉม edge AI โดยให้แบนด์วิดธ์และความจุสูงในอุปกรณ์ขนาดเล็ก ✅ HBF ใช้ electrical interface เดียวกับ HBM และต้องปรับ protocol เพียงเล็กน้อย ➡️ ทำให้สามารถนำไปใช้กับ GPU ได้ง่ายขึ้น ➡️ ไม่จำเป็นต้องออกแบบระบบใหม่ทั้งหมด ✅ เปิดตัวครั้งแรกในงาน Future FWD 2025 พร้อมแผนพัฒนา HBF รุ่นต่อไป ➡️ มี roadmap เพิ่มความจุและแบนด์วิดธ์ในอนาคต ➡️ อาจมี trade-off ด้านการใช้พลังงาน ‼️ HBF ยังไม่ใช่ตัวแทนโดยตรงของ HBM และมีข้อจำกัดด้าน latency ⛔ NAND Flash มี latency สูงกว่า DRAM ⛔ เหมาะกับงาน inference และ training มากกว่างานที่ต้องตอบสนองเร็ว ‼️ การใช้งาน HBF ต้องอาศัยการสนับสนุนจากผู้ผลิต GPU โดยตรง ⛔ ต้องใช้ interposer ที่เชื่อมต่อกับ GPU โดยเฉพาะ ⛔ หาก NVIDIA ไม่รับรอง HBF อาจจำกัดการใช้งานในตลาด ‼️ ยังไม่มีการประกาศวันเปิดตัวหรือผลิตภัณฑ์ที่ใช้ HBF อย่างเป็นทางการ ⛔ อยู่ในขั้นตอนการพัฒนาและทดสอบ ⛔ ต้องรอการยอมรับจากอุตสาหกรรมก่อนใช้งานจริง ‼️ การแข่งขันกับผู้ผลิต HBM อย่าง Samsung และ SK Hynix ยังเข้มข้น ⛔ HBM มี ecosystem ที่แข็งแกร่งและได้รับการสนับสนุนจาก NVIDIA ⛔ Sandisk ต้องผลักดัน HBF ให้เป็นมาตรฐานเปิดเพื่อหลีกเลี่ยงการผูกขาด https://www.techradar.com/pro/sandisk-recruits-risc-cofounder-amd-graphics-legend-to-spearhead-cheaper-rival-to-hbm-high-bandwidth-flash-could-bring-ssd-capacities-to-ai-gpus-without-the-cost
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD

    ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC”

    N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว!

    แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง

    N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek
    ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU
    มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725

    GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070
    ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB
    รองรับงาน AI, เกม และการประมวลผลทั่วไป

    ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361
    สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M
    แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น

    เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W
    เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป
    เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป

    คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026
    อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ
    Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่

    ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก
    เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026
    ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข

    ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ
    ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory
    ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่

    การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์
    โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า
    ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา

    การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น
    Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน
    NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง

    https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    🧠 เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC” N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว! แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง ✅ N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek ➡️ ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU ➡️ มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725 ✅ GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070 ➡️ ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB ➡️ รองรับงาน AI, เกม และการประมวลผลทั่วไป ✅ ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361 ➡️ สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M ➡️ แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น ✅ เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W ➡️ เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป ➡️ เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป ✅ คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026 ➡️ อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่ ‼️ ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก ⛔ เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026 ⛔ ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข ‼️ ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ ⛔ ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory ⛔ ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่ ‼️ การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์ ⛔ โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า ⛔ ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา ‼️ การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น ⛔ Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน ⛔ NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    0 ความคิดเห็น 0 การแบ่งปัน 126 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Linux: เมื่อ “Greenboot” เปลี่ยนภาษาเพื่อความปลอดภัยที่เหนือกว่า

    ลองจินตนาการว่าคุณอัปเดตระบบปฏิบัติการแล้วเครื่องบูตไม่ขึ้น—Greenboot คือเครื่องมือที่ช่วยตรวจสอบสุขภาพระบบทุกครั้งที่บูต เพื่อป้องกันเหตุการณ์แบบนั้น โดยเดิมทีเขียนด้วย Bash แต่ตอนนี้ Red Hat กำลังรีไรต์ใหม่ด้วยภาษา Rust ซึ่งปลอดภัยกว่าและมีประสิทธิภาพสูงกว่า

    Greenboot ทำงานร่วมกับ systemd โดยรันสคริปต์ตรวจสอบในโฟลเดอร์ต่างๆ เช่น required.d, red.d, และ green.d หากสคริปต์สำคัญล้มเหลว ระบบจะรีบูตและอาจย้อนกลับไปยังเวอร์ชันก่อนหน้าเพื่อความเสถียร

    การรีไรต์ครั้งนี้ไม่ใช่แค่เปลี่ยนภาษา แต่เป็นการขยายการรองรับจาก rpm-ostree ไปยัง bootc ซึ่งเป็นระบบใหม่ที่เน้นความปลอดภัยและการอัปเดตแบบ atomic ใน Fedora IoT

    Greenboot ถูกรีไรต์จาก Bash เป็น Rust โดยทีมงาน Red Hat2
    โครงการเริ่มต้นในปี 2018 จาก Google Summer of Code
    เวอร์ชันใหม่ชื่อ “Greenboot-RS” จะรวมอยู่ใน Fedora 43

    Greenboot ทำหน้าที่ตรวจสอบสุขภาพระบบทุกครั้งที่บูต
    รันสคริปต์ใน /etc/greenboot/check/required.d/ หากล้มเหลวจะรีบูต
    หากล้มเหลวหลายครั้งจะรันสคริปต์ใน red.d และย้อนกลับไปยัง deployment ก่อนหน้า

    เมื่อระบบผ่านการตรวจสอบ จะรันสคริปต์ใน green.d และตั้ง GRUB ว่า boot สำเร็จ
    ใช้ GRUB environment variable เพื่อบันทึกสถานะการบูต
    แสดงข้อความ “Boot Status is GREEN – Health Check SUCCESS” ใน MOTD

    การเปลี่ยนมาใช้ Rust ช่วยเพิ่มความปลอดภัยและลดช่องโหว่ด้านหน่วยความจำ
    Rust เป็นภาษา memory-safe ที่ช่วยลดบั๊กประเภท buffer overflow และ use-after-free
    เป็นแนวโน้มเดียวกับโครงการอื่น เช่น sudo-rs และ systemd-rs

    Greenboot-RS รองรับทั้ง rpm-ostree และ bootc systems
    bootc เป็นระบบใหม่ที่เน้นการอัปเดตแบบปลอดภัยและย้อนกลับได้
    ช่วยให้ Fedora IoT มีความเสถียรและปลอดภัยมากขึ้น

    การอัปเกรดจาก Greenboot เดิมเป็น Greenboot-RS จะเป็นไปอย่างราบรื่น
    ผู้ใช้สามารถใช้คำสั่ง rpm-ostree upgrade หรือ bootc upgrade ได้ทันที
    ไม่มีผลกระทบต่อผู้ใช้เดิม

    การเปลี่ยนภาษาอาจทำให้เกิดบั๊กใหม่หรือปัญหาความเข้ากันได้
    แม้จะพยายามรักษาฟังก์ชันเดิม แต่การเขียนใหม่อาจมีพฤติกรรมต่างออกไป
    ต้องมีการทดสอบอย่างละเอียดก่อนใช้งานในระบบจริง

    ผู้ดูแลระบบต้องเข้าใจการทำงานของ Greenboot-RS เพื่อแก้ไขปัญหาได้ทันที
    หากสคริปต์ใน required.d ล้มเหลว ระบบจะรีบูตซ้ำ อาจทำให้เข้าใช้งานไม่ได้
    ต้องรู้วิธีตรวจสอบ MOTD และ GRUB variable เพื่อวิเคราะห์ปัญหา

    การใช้ bootc ยังเป็นเทคโนโลยีใหม่ที่ต้องเรียนรู้เพิ่มเติม
    ผู้ใช้ที่คุ้นเคยกับ rpm-ostree อาจต้องปรับตัวกับแนวคิดของ bootc
    การจัดการ deployment และ rollback อาจซับซ้อนขึ้น

    https://www.neowin.net/news/another-linux-utility-is-being-rewritten-in-rust/
    🛠️ เรื่องเล่าจากโลก Linux: เมื่อ “Greenboot” เปลี่ยนภาษาเพื่อความปลอดภัยที่เหนือกว่า ลองจินตนาการว่าคุณอัปเดตระบบปฏิบัติการแล้วเครื่องบูตไม่ขึ้น—Greenboot คือเครื่องมือที่ช่วยตรวจสอบสุขภาพระบบทุกครั้งที่บูต เพื่อป้องกันเหตุการณ์แบบนั้น โดยเดิมทีเขียนด้วย Bash แต่ตอนนี้ Red Hat กำลังรีไรต์ใหม่ด้วยภาษา Rust ซึ่งปลอดภัยกว่าและมีประสิทธิภาพสูงกว่า Greenboot ทำงานร่วมกับ systemd โดยรันสคริปต์ตรวจสอบในโฟลเดอร์ต่างๆ เช่น required.d, red.d, และ green.d หากสคริปต์สำคัญล้มเหลว ระบบจะรีบูตและอาจย้อนกลับไปยังเวอร์ชันก่อนหน้าเพื่อความเสถียร การรีไรต์ครั้งนี้ไม่ใช่แค่เปลี่ยนภาษา แต่เป็นการขยายการรองรับจาก rpm-ostree ไปยัง bootc ซึ่งเป็นระบบใหม่ที่เน้นความปลอดภัยและการอัปเดตแบบ atomic ใน Fedora IoT ✅ Greenboot ถูกรีไรต์จาก Bash เป็น Rust โดยทีมงาน Red Hat2 ➡️ โครงการเริ่มต้นในปี 2018 จาก Google Summer of Code ➡️ เวอร์ชันใหม่ชื่อ “Greenboot-RS” จะรวมอยู่ใน Fedora 43 ✅ Greenboot ทำหน้าที่ตรวจสอบสุขภาพระบบทุกครั้งที่บูต ➡️ รันสคริปต์ใน /etc/greenboot/check/required.d/ หากล้มเหลวจะรีบูต ➡️ หากล้มเหลวหลายครั้งจะรันสคริปต์ใน red.d และย้อนกลับไปยัง deployment ก่อนหน้า ✅ เมื่อระบบผ่านการตรวจสอบ จะรันสคริปต์ใน green.d และตั้ง GRUB ว่า boot สำเร็จ ➡️ ใช้ GRUB environment variable เพื่อบันทึกสถานะการบูต ➡️ แสดงข้อความ “Boot Status is GREEN – Health Check SUCCESS” ใน MOTD ✅ การเปลี่ยนมาใช้ Rust ช่วยเพิ่มความปลอดภัยและลดช่องโหว่ด้านหน่วยความจำ ➡️ Rust เป็นภาษา memory-safe ที่ช่วยลดบั๊กประเภท buffer overflow และ use-after-free ➡️ เป็นแนวโน้มเดียวกับโครงการอื่น เช่น sudo-rs และ systemd-rs ✅ Greenboot-RS รองรับทั้ง rpm-ostree และ bootc systems ➡️ bootc เป็นระบบใหม่ที่เน้นการอัปเดตแบบปลอดภัยและย้อนกลับได้ ➡️ ช่วยให้ Fedora IoT มีความเสถียรและปลอดภัยมากขึ้น ✅ การอัปเกรดจาก Greenboot เดิมเป็น Greenboot-RS จะเป็นไปอย่างราบรื่น ➡️ ผู้ใช้สามารถใช้คำสั่ง rpm-ostree upgrade หรือ bootc upgrade ได้ทันที ➡️ ไม่มีผลกระทบต่อผู้ใช้เดิม ‼️ การเปลี่ยนภาษาอาจทำให้เกิดบั๊กใหม่หรือปัญหาความเข้ากันได้ ⛔ แม้จะพยายามรักษาฟังก์ชันเดิม แต่การเขียนใหม่อาจมีพฤติกรรมต่างออกไป ⛔ ต้องมีการทดสอบอย่างละเอียดก่อนใช้งานในระบบจริง ‼️ ผู้ดูแลระบบต้องเข้าใจการทำงานของ Greenboot-RS เพื่อแก้ไขปัญหาได้ทันที ⛔ หากสคริปต์ใน required.d ล้มเหลว ระบบจะรีบูตซ้ำ อาจทำให้เข้าใช้งานไม่ได้ ⛔ ต้องรู้วิธีตรวจสอบ MOTD และ GRUB variable เพื่อวิเคราะห์ปัญหา ‼️ การใช้ bootc ยังเป็นเทคโนโลยีใหม่ที่ต้องเรียนรู้เพิ่มเติม ⛔ ผู้ใช้ที่คุ้นเคยกับ rpm-ostree อาจต้องปรับตัวกับแนวคิดของ bootc ⛔ การจัดการ deployment และ rollback อาจซับซ้อนขึ้น https://www.neowin.net/news/another-linux-utility-is-being-rewritten-in-rust/
    WWW.NEOWIN.NET
    Another Linux utility is being rewritten in Rust
    Rust continues to shine in the Linux world, with yet another core utility now being rewritten in the language.
    0 ความคิดเห็น 0 การแบ่งปัน 141 มุมมอง 0 รีวิว
  • ** Apna Khata Bhulekh A Step Towards Digital Land Records **

    In the ultramodern digital age, governance systems across India have been witnessing rapid-fire metamorphosis. One significant action in this direction is ** “ Apna Khata Bhulekh ” **, a government- driven platform aimed at digitizing land records and furnishing easy access to citizens. Particularly active in countries like Rajasthan, Bihar, and Uttar Pradesh, this system enables coproprietors and growers to pierce important land- related documents online, reducing the need for physical visits to government services.

    What's Apna Khata Bhulekh?

    “ Apna Khata Bhulekh ” is a digital portal launched by colorful state governments to allow druggies to view and download land records online. The term" Bhulekh" translates to ** land records ** or ** land description **, and “ Apna Khata ” means ** your account **, pertaining to a person's land power account. The system provides translucency in land dealings and reduces the chances of land fraud and manipulation.

    These online platforms are state-specific but operate under the common thing of ** profit department digitization **. Citizens can pierce Jamabandi Nakal( Record of Rights), Khasra figures, Khata figures, and charts of their lands from anywhere with an internet connection.

    ---

    crucial Features of Apna Khata Bhulekh

    1. ** Ease of Access **
    druggies can log in to the separate state gate using introductory details like quarter, tehsil, vill name, and Khata or Khasra number to pierce their land details.

    2. ** translucency **
    With all land records available online, the compass of corruption, illegal land occupation, and fraudulent deals is significantly reduced.

    3. ** Time- Saving **
    before, carrying land records meant long ranges at profit services. With Apna Khata Bhulekh, it can now be done within twinkles.

    4. ** Legal mileage **
    These digital land documents are fairly valid and can be used for colorful purposes similar as loan operations, land deals, and court cases.

    5. ** Map Access **
    druggies can view or download ** Bhu- Naksha **( land chart) and get visual representations of plots.

    ---

    How to Access Apna Khata Bhulekh Online

    Although the exact interface varies slightly from state to state, the general process remains the same

    1. Visit the sanctioned Bhulekh or Apna Khata website of your separate state.
    2. Choose your ** quarter **, ** tehsil **, and ** vill **.
    3. Enter details like ** Khata number **, ** Khasra number **, or ** squatter name **.
    4. Click on “ Submit ” or “ View Report ” to get the land record.

    For illustration, in ** Rajasthan **, druggies can go to( apnakhata.raj.nic.in)( http// apnakhata.raj.nic.in) to pierce the gate. also, in ** Uttar Pradesh **, the point is( upbhulekh.gov.in)( http// upbhulekh.gov.in), while ** Bihar ** residers can use( biharbhumi.bihar.gov.in)( http// biharbhumi.bihar.gov.in).

    ---

    Benefits to Farmers and Coproprietors

    * ** Loan blessing ** growers frequently need land records to get crop loans from banks. Digital Bhulekh ensures timely access to vindicated documents.
    * ** disagreement Resolution ** Land controversies can now be resolved briskly with sanctioned digital substantiation available at the click of a button.
    * ** Land Deals and Purchases ** Buyers can corroborate land power and history before making purchases, leading to safer deals.

    ---

    Challenges and the Way Forward

    While the action is estimable, certain challenges remain. In pastoral areas, numerous people are still ignorant of how to use these doors. Internet connectivity and digital knowledge also pose walls. also, some old land records are yet to be digitized, leading to gaps in data vacuity.

    To overcome these issues, state governments need to conduct mindfulness juggernauts, offer backing at ** Common Service Centers( CSCs) **, and insure that all old records are digitized and vindicated.

    ---

    Conclusion

    “ Apna Khata Bhulekh ” is a transformative step in making governance further citizen-friendly. It empowers coproprietors by giving them direct access to pivotal information and promotes translucency in land dealings. As further people embrace digital platforms, Apna Khata Bhulekh will play an indeed more critical part in icing land security and effective land operation across India. https://apnakhataonline.com

    ** Apna Khata Bhulekh A Step Towards Digital Land Records ** In the ultramodern digital age, governance systems across India have been witnessing rapid-fire metamorphosis. One significant action in this direction is ** “ Apna Khata Bhulekh ” **, a government- driven platform aimed at digitizing land records and furnishing easy access to citizens. Particularly active in countries like Rajasthan, Bihar, and Uttar Pradesh, this system enables coproprietors and growers to pierce important land- related documents online, reducing the need for physical visits to government services. What's Apna Khata Bhulekh? “ Apna Khata Bhulekh ” is a digital portal launched by colorful state governments to allow druggies to view and download land records online. The term" Bhulekh" translates to ** land records ** or ** land description **, and “ Apna Khata ” means ** your account **, pertaining to a person's land power account. The system provides translucency in land dealings and reduces the chances of land fraud and manipulation. These online platforms are state-specific but operate under the common thing of ** profit department digitization **. Citizens can pierce Jamabandi Nakal( Record of Rights), Khasra figures, Khata figures, and charts of their lands from anywhere with an internet connection. --- crucial Features of Apna Khata Bhulekh 1. ** Ease of Access ** druggies can log in to the separate state gate using introductory details like quarter, tehsil, vill name, and Khata or Khasra number to pierce their land details. 2. ** translucency ** With all land records available online, the compass of corruption, illegal land occupation, and fraudulent deals is significantly reduced. 3. ** Time- Saving ** before, carrying land records meant long ranges at profit services. With Apna Khata Bhulekh, it can now be done within twinkles. 4. ** Legal mileage ** These digital land documents are fairly valid and can be used for colorful purposes similar as loan operations, land deals, and court cases. 5. ** Map Access ** druggies can view or download ** Bhu- Naksha **( land chart) and get visual representations of plots. --- How to Access Apna Khata Bhulekh Online Although the exact interface varies slightly from state to state, the general process remains the same 1. Visit the sanctioned Bhulekh or Apna Khata website of your separate state. 2. Choose your ** quarter **, ** tehsil **, and ** vill **. 3. Enter details like ** Khata number **, ** Khasra number **, or ** squatter name **. 4. Click on “ Submit ” or “ View Report ” to get the land record. For illustration, in ** Rajasthan **, druggies can go to( apnakhata.raj.nic.in)( http// apnakhata.raj.nic.in) to pierce the gate. also, in ** Uttar Pradesh **, the point is( upbhulekh.gov.in)( http// upbhulekh.gov.in), while ** Bihar ** residers can use( biharbhumi.bihar.gov.in)( http// biharbhumi.bihar.gov.in). --- Benefits to Farmers and Coproprietors * ** Loan blessing ** growers frequently need land records to get crop loans from banks. Digital Bhulekh ensures timely access to vindicated documents. * ** disagreement Resolution ** Land controversies can now be resolved briskly with sanctioned digital substantiation available at the click of a button. * ** Land Deals and Purchases ** Buyers can corroborate land power and history before making purchases, leading to safer deals. --- Challenges and the Way Forward While the action is estimable, certain challenges remain. In pastoral areas, numerous people are still ignorant of how to use these doors. Internet connectivity and digital knowledge also pose walls. also, some old land records are yet to be digitized, leading to gaps in data vacuity. To overcome these issues, state governments need to conduct mindfulness juggernauts, offer backing at ** Common Service Centers( CSCs) **, and insure that all old records are digitized and vindicated. --- Conclusion “ Apna Khata Bhulekh ” is a transformative step in making governance further citizen-friendly. It empowers coproprietors by giving them direct access to pivotal information and promotes translucency in land dealings. As further people embrace digital platforms, Apna Khata Bhulekh will play an indeed more critical part in icing land security and effective land operation across India. https://apnakhataonline.com
    0 ความคิดเห็น 0 การแบ่งปัน 203 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไซเบอร์: หนังสือที่เปลี่ยนผู้นำให้กลายเป็นนักคิดเชิงกลยุทธ์

    ลองนึกภาพว่าคุณเป็น CISO (Chief Information Security Officer) ที่ต้องรับมือกับภัยคุกคามไซเบอร์ตลอดเวลา ทั้งการโจมตีแบบใหม่ ความเสี่ยงจากพฤติกรรมมนุษย์ และแรงกดดันจากผู้บริหารระดับสูง คุณจะพึ่งพาอะไรเพื่อพัฒนาทักษะการตัดสินใจและความเป็นผู้นำ?

    คำตอบของผู้นำหลายคนคือ “หนังสือ” — ไม่ใช่แค่คู่มือเทคนิค แต่เป็นแหล่งความรู้ที่ช่วยให้พวกเขาเข้าใจความเสี่ยง มนุษย์ และตัวเองได้ลึกซึ้งขึ้น

    จากการสำรวจของ CSO Online พบว่า CISO ชั้นนำแนะนำหนังสือหลากหลายแนว ตั้งแต่จิตวิทยาการตัดสินใจอย่าง Thinking, Fast and Slow ไปจนถึงการวัดความเสี่ยงแบบใหม่ใน How to Measure Anything in Cybersecurity Risk และแม้แต่หนังสืออย่าง The Art of Deception ที่เผยกลยุทธ์ของแฮกเกอร์ในการหลอกล่อมนุษย์

    สิ่งที่น่าสนใจคือ หลายคนยังแนะนำหนังสือที่ไม่เกี่ยวกับไซเบอร์โดยตรง เช่น The Alchemist หรือ Our Town เพื่อเตือนตัวเองให้กลับมาโฟกัสกับชีวิตและความหมายที่แท้จริง

    หนังสือที่ช่วยพัฒนาทักษะการวัดและจัดการความเสี่ยง

    How to Measure Anything in Cybersecurity Risk โดย Douglas Hubbard & Richard Seiersen
    เสนอวิธีวัดความเสี่ยงแบบกึ่งปริมาณที่แม่นยำกว่าการใช้ risk matrix
    ได้รับการแนะนำจากหลาย CISO เช่น Daniel Schatz และ James Blake

    Superforecasting โดย Philip Tetlock & Dan Gardner
    เจาะลึกศาสตร์แห่งการพยากรณ์อนาคตอย่างมีหลักการ
    มีตัวอย่างจริงและแนวทางสร้างการคาดการณ์ที่แม่นยำ

    หนังสือที่ช่วยลด “เสียงรบกวน” ในการตัดสินใจ

    Thinking, Fast and Slow โดย Daniel Kahneman
    อธิบายระบบคิดแบบเร็ว (System 1) และช้า (System 2)
    ช่วยให้เข้าใจอคติและข้อผิดพลาดในการตัดสินใจ

    Noise โดย Kahneman และทีม
    วิเคราะห์ว่าทำไมมนุษย์ถึงตัดสินใจผิดเพราะ “เสียงรบกวน”
    เสนอวิธีลดความผิดพลาดในการประเมินสถานการณ์

    Yeah, But โดย Marc Wolfe
    ช่วยให้ผู้นำจัดการกับเสียงในหัวที่ขัดขวางการเปลี่ยนแปลง
    ส่งเสริมความชัดเจนในการคิดและการนำทีม

    Digital Minimalism โดย Cal Newport
    ส่งเสริมการใช้เทคโนโลยีอย่างมีสติ
    ช่วยปกป้องเวลาและความสนใจของผู้นำ

    Better Than Before โดย Gretchen Rubin
    เสนอกรอบการสร้างนิสัยที่ดีเพื่อสนับสนุนเป้าหมายชีวิตและงาน

    หนังสือที่เน้นความเสี่ยงจากพฤติกรรมมนุษย์

    The Art of Deception โดย Kevin Mitnick
    เผยกลยุทธ์ social engineering ที่แฮกเกอร์ใช้หลอกมนุษย์
    ยังคงเป็นหนังสือพื้นฐานที่มีคุณค่าแม้จะตีพิมพ์มานาน

    Secrets and Lies โดย Bruce Schneier
    อธิบายความซับซ้อนของความปลอดภัยดิจิทัล
    เน้นว่าการจัดการพฤติกรรมมนุษย์สำคัญไม่แพ้เทคโนโลยี

    Human Hacked โดย Len Noe
    เจาะลึกผลกระทบของ AI ต่อการตัดสินใจของมนุษย์
    เตือนถึงผลลัพธ์ที่ไม่คาดคิดจากการผสานมนุษย์กับเทคโนโลยี

    ความเสี่ยงจากการละเลยพฤติกรรมมนุษย์ในระบบความปลอดภัย
    องค์กรที่เน้นเทคโนโลยีอย่างเดียวอาจพลาดช่องโหว่จากมนุษย์
    การไม่เข้าใจ social engineering ทำให้ระบบถูกเจาะง่ายขึ้น

    หนังสือที่ช่วยพัฒนาภาวะผู้นำ

    Dare to Lead โดย Brené Brown
    เน้นความกล้าหาญทางอารมณ์และความยืดหยุ่น
    ส่งเสริมวัฒนธรรมองค์กรที่เปิดกว้างและรับผิดชอบ

    Radical Candor โดย Kim Scott
    เสนอกรอบการให้ feedback ที่ตรงไปตรงมาแต่มีความเห็นอกเห็นใจ
    ช่วยสร้างวัฒนธรรมการสื่อสารที่มีประสิทธิภาพ

    ความเสี่ยงจากการเป็นผู้นำที่ขาดความเห็นอกเห็นใจ
    ผู้นำที่เน้นเทคนิคแต่ละเลยมนุษย์อาจสร้างทีมที่ไม่ยั่งยืน
    การขาด feedback ที่มีคุณภาพทำให้ทีมขาดการพัฒนา

    หนังสือที่เตือนให้กลับมาโฟกัสกับชีวิต

    Our Town โดย Thornton Wilder
    เตือนให้เห็นคุณค่าของชีวิตประจำวันและความสัมพันธ์
    ช่วยให้ผู้นำกลับมาโฟกัสกับสิ่งสำคัญนอกเหนือจากงาน

    The Alchemist โดย Paulo Coelho
    เรื่องราวการเดินทางตามความฝันที่เต็มไปด้วยบทเรียนชีวิต
    สะท้อนความกล้าหาญในการเลือกเส้นทางที่ไม่เป็นไปตามกรอบเดิม

    Get Out of I.T. While You Can โดย Craig Schiefelbein
    ท้าทายให้ผู้นำไอทีทบทวนบทบาทและคุณค่าของตน
    กระตุ้นให้สร้างผลกระทบเชิงกลยุทธ์มากกว่าการทำงานเชิงเทคนิค

    https://www.csoonline.com/article/4027000/the-books-shaping-todays-cybersecurity-leaders.html
    📚 เรื่องเล่าจากโลกไซเบอร์: หนังสือที่เปลี่ยนผู้นำให้กลายเป็นนักคิดเชิงกลยุทธ์ ลองนึกภาพว่าคุณเป็น CISO (Chief Information Security Officer) ที่ต้องรับมือกับภัยคุกคามไซเบอร์ตลอดเวลา ทั้งการโจมตีแบบใหม่ ความเสี่ยงจากพฤติกรรมมนุษย์ และแรงกดดันจากผู้บริหารระดับสูง คุณจะพึ่งพาอะไรเพื่อพัฒนาทักษะการตัดสินใจและความเป็นผู้นำ? คำตอบของผู้นำหลายคนคือ “หนังสือ” — ไม่ใช่แค่คู่มือเทคนิค แต่เป็นแหล่งความรู้ที่ช่วยให้พวกเขาเข้าใจความเสี่ยง มนุษย์ และตัวเองได้ลึกซึ้งขึ้น จากการสำรวจของ CSO Online พบว่า CISO ชั้นนำแนะนำหนังสือหลากหลายแนว ตั้งแต่จิตวิทยาการตัดสินใจอย่าง Thinking, Fast and Slow ไปจนถึงการวัดความเสี่ยงแบบใหม่ใน How to Measure Anything in Cybersecurity Risk และแม้แต่หนังสืออย่าง The Art of Deception ที่เผยกลยุทธ์ของแฮกเกอร์ในการหลอกล่อมนุษย์ สิ่งที่น่าสนใจคือ หลายคนยังแนะนำหนังสือที่ไม่เกี่ยวกับไซเบอร์โดยตรง เช่น The Alchemist หรือ Our Town เพื่อเตือนตัวเองให้กลับมาโฟกัสกับชีวิตและความหมายที่แท้จริง 📙📖 หนังสือที่ช่วยพัฒนาทักษะการวัดและจัดการความเสี่ยง ⭕ ✅ How to Measure Anything in Cybersecurity Risk โดย Douglas Hubbard & Richard Seiersen ➡️ เสนอวิธีวัดความเสี่ยงแบบกึ่งปริมาณที่แม่นยำกว่าการใช้ risk matrix ➡️ ได้รับการแนะนำจากหลาย CISO เช่น Daniel Schatz และ James Blake ✅ Superforecasting โดย Philip Tetlock & Dan Gardner ➡️ เจาะลึกศาสตร์แห่งการพยากรณ์อนาคตอย่างมีหลักการ ➡️ มีตัวอย่างจริงและแนวทางสร้างการคาดการณ์ที่แม่นยำ ⭐📖 หนังสือที่ช่วยลด “เสียงรบกวน” ในการตัดสินใจ ⭕ ✅ Thinking, Fast and Slow โดย Daniel Kahneman ➡️ อธิบายระบบคิดแบบเร็ว (System 1) และช้า (System 2) ➡️ ช่วยให้เข้าใจอคติและข้อผิดพลาดในการตัดสินใจ ✅ Noise โดย Kahneman และทีม ➡️ วิเคราะห์ว่าทำไมมนุษย์ถึงตัดสินใจผิดเพราะ “เสียงรบกวน” ➡️ เสนอวิธีลดความผิดพลาดในการประเมินสถานการณ์ ✅ Yeah, But โดย Marc Wolfe ➡️ ช่วยให้ผู้นำจัดการกับเสียงในหัวที่ขัดขวางการเปลี่ยนแปลง ➡️ ส่งเสริมความชัดเจนในการคิดและการนำทีม ✅ Digital Minimalism โดย Cal Newport ➡️ ส่งเสริมการใช้เทคโนโลยีอย่างมีสติ ➡️ ช่วยปกป้องเวลาและความสนใจของผู้นำ ✅ Better Than Before โดย Gretchen Rubin ➡️ เสนอกรอบการสร้างนิสัยที่ดีเพื่อสนับสนุนเป้าหมายชีวิตและงาน 🙎‍♂️📖 หนังสือที่เน้นความเสี่ยงจากพฤติกรรมมนุษย์ ⭕ ✅ The Art of Deception โดย Kevin Mitnick ➡️ เผยกลยุทธ์ social engineering ที่แฮกเกอร์ใช้หลอกมนุษย์ ➡️ ยังคงเป็นหนังสือพื้นฐานที่มีคุณค่าแม้จะตีพิมพ์มานาน ✅ Secrets and Lies โดย Bruce Schneier ➡️ อธิบายความซับซ้อนของความปลอดภัยดิจิทัล ➡️ เน้นว่าการจัดการพฤติกรรมมนุษย์สำคัญไม่แพ้เทคโนโลยี ✅ Human Hacked โดย Len Noe ➡️ เจาะลึกผลกระทบของ AI ต่อการตัดสินใจของมนุษย์ ➡️ เตือนถึงผลลัพธ์ที่ไม่คาดคิดจากการผสานมนุษย์กับเทคโนโลยี ‼️ ความเสี่ยงจากการละเลยพฤติกรรมมนุษย์ในระบบความปลอดภัย ⛔ องค์กรที่เน้นเทคโนโลยีอย่างเดียวอาจพลาดช่องโหว่จากมนุษย์ ⛔ การไม่เข้าใจ social engineering ทำให้ระบบถูกเจาะง่ายขึ้น 🔝📖 หนังสือที่ช่วยพัฒนาภาวะผู้นำ ⭕ ✅ Dare to Lead โดย Brené Brown ➡️ เน้นความกล้าหาญทางอารมณ์และความยืดหยุ่น ➡️ ส่งเสริมวัฒนธรรมองค์กรที่เปิดกว้างและรับผิดชอบ ✅ Radical Candor โดย Kim Scott ➡️ เสนอกรอบการให้ feedback ที่ตรงไปตรงมาแต่มีความเห็นอกเห็นใจ ➡️ ช่วยสร้างวัฒนธรรมการสื่อสารที่มีประสิทธิภาพ ‼️ ความเสี่ยงจากการเป็นผู้นำที่ขาดความเห็นอกเห็นใจ ⛔ ผู้นำที่เน้นเทคนิคแต่ละเลยมนุษย์อาจสร้างทีมที่ไม่ยั่งยืน ⛔ การขาด feedback ที่มีคุณภาพทำให้ทีมขาดการพัฒนา 🔎📖 หนังสือที่เตือนให้กลับมาโฟกัสกับชีวิต ⭕ ✅ Our Town โดย Thornton Wilder ➡️ เตือนให้เห็นคุณค่าของชีวิตประจำวันและความสัมพันธ์ ➡️ ช่วยให้ผู้นำกลับมาโฟกัสกับสิ่งสำคัญนอกเหนือจากงาน ✅ The Alchemist โดย Paulo Coelho ➡️ เรื่องราวการเดินทางตามความฝันที่เต็มไปด้วยบทเรียนชีวิต ➡️ สะท้อนความกล้าหาญในการเลือกเส้นทางที่ไม่เป็นไปตามกรอบเดิม ✅ Get Out of I.T. While You Can โดย Craig Schiefelbein ➡️ ท้าทายให้ผู้นำไอทีทบทวนบทบาทและคุณค่าของตน ➡️ กระตุ้นให้สร้างผลกระทบเชิงกลยุทธ์มากกว่าการทำงานเชิงเทคนิค https://www.csoonline.com/article/4027000/the-books-shaping-todays-cybersecurity-leaders.html
    WWW.CSOONLINE.COM
    The books shaping today’s cybersecurity leaders
    Cybersecurity leaders reveal the books that have influenced how they lead, think, and manage security in the enterprise — and their own lives.
    0 ความคิดเห็น 0 การแบ่งปัน 221 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: เรือที่ “คิดเองได้” กำลังจะเปลี่ยนโลกการขนส่ง

    ลองจินตนาการว่าเรือขนส่งขนาดมหึมา 750 ฟุต ที่บรรทุกรถยนต์กว่า 7,000 คัน กำลังแล่นข้ามมหาสมุทรโดยไม่ต้องมีคนควบคุม — นี่ไม่ใช่นิยายไซไฟ แต่คือแผนจริงของ Hyundai Glovis ที่ร่วมมือกับ Avikus บริษัทเทคโนโลยีในเครือ HD Hyundai เพื่อเปลี่ยนเรือขนส่งให้กลายเป็น “เรืออัตโนมัติที่ขับเคลื่อนด้วย AI”

    ระบบที่ใช้ชื่อว่า HiNAS (Hyundai Intelligent Navigation Assistant System) จะถูกติดตั้งในเรือ 7 ลำภายในปี 2026 โดยเป็นระบบระดับ MASS Level-2 ที่สามารถควบคุมระยะไกลและปรับเส้นทางแบบเรียลไทม์ผ่าน AI แม้จะยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่ก็ถือเป็นก้าวใหญ่ของอุตสาหกรรมเดินเรือ

    เป้าหมายของโครงการนี้คือการลดการใช้เชื้อเพลิง เพิ่มประสิทธิภาพการเดินทาง และลดความผิดพลาดจากมนุษย์ ซึ่งเป็นสาเหตุหลักของอุบัติเหตุทางทะเล

    Hyundai Glovis ร่วมมือกับ Avikus พัฒนาเรือขนส่งอัตโนมัติ
    ใช้ระบบ HiNAS ที่พัฒนาโดย Avikus ในเครือ HD Hyundai
    ติดตั้งในเรือขนส่งรถยนต์ 7 ลำภายในกลางปี 2026

    ระบบ HiNAS เป็น MASS Level-2
    รองรับการควบคุมระยะไกลและปรับเส้นทางด้วย AI
    ยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่สามารถตัดสินใจได้เองบางส่วน

    เรือ Sunrise จะเป็นเรือขนส่ง AI ที่ใหญ่ที่สุดในโลก
    ยาว 229.9 เมตร บรรทุกได้ 7,000 คัน
    เป็นเรือแรกที่ติดตั้งระบบ AI แบบเต็มรูปแบบ

    เป้าหมายคือเพิ่มประสิทธิภาพและลดต้นทุน
    ลดการใช้เชื้อเพลิงได้ถึง 3.9% จากการทดลอง
    ลดความเสี่ยงจากอุบัติเหตุที่เกิดจากมนุษย์

    เป็นส่วนหนึ่งของแผนลงทุน $6.5 พันล้านของ Glovis
    เพื่อเปลี่ยนองค์กรสู่ “Smart Logistics Company” ภายในปี 2030
    รวมถึงเป้าหมาย Net Zero ภายในปี 2045

    Avikus เคยสร้างประวัติศาสตร์ด้วยการนำเรือ LNG ข้ามมหาสมุทรแบบอัตโนมัติ
    ในปี 2022 เรือ LNG ขนาด 300 เมตรเดินทางข้ามมหาสมุทรแอตแลนติกด้วยระบบ AI
    ลดการปล่อยคาร์บอน 5% และเพิ่มประสิทธิภาพเชื้อเพลิง 7%

    https://www.techradar.com/pro/shipping-giant-set-to-roll-out-worlds-first-ai-controlled-autonomous-car-carrying-ships-at-750-ft-long-and-weighing-almost-100-000-tons-its-probably-the-largest-ai-driven-vessel-ever
    🧠 เรื่องเล่าจากข่าว: เรือที่ “คิดเองได้” กำลังจะเปลี่ยนโลกการขนส่ง ลองจินตนาการว่าเรือขนส่งขนาดมหึมา 750 ฟุต ที่บรรทุกรถยนต์กว่า 7,000 คัน กำลังแล่นข้ามมหาสมุทรโดยไม่ต้องมีคนควบคุม — นี่ไม่ใช่นิยายไซไฟ แต่คือแผนจริงของ Hyundai Glovis ที่ร่วมมือกับ Avikus บริษัทเทคโนโลยีในเครือ HD Hyundai เพื่อเปลี่ยนเรือขนส่งให้กลายเป็น “เรืออัตโนมัติที่ขับเคลื่อนด้วย AI” ระบบที่ใช้ชื่อว่า HiNAS (Hyundai Intelligent Navigation Assistant System) จะถูกติดตั้งในเรือ 7 ลำภายในปี 2026 โดยเป็นระบบระดับ MASS Level-2 ที่สามารถควบคุมระยะไกลและปรับเส้นทางแบบเรียลไทม์ผ่าน AI แม้จะยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่ก็ถือเป็นก้าวใหญ่ของอุตสาหกรรมเดินเรือ เป้าหมายของโครงการนี้คือการลดการใช้เชื้อเพลิง เพิ่มประสิทธิภาพการเดินทาง และลดความผิดพลาดจากมนุษย์ ซึ่งเป็นสาเหตุหลักของอุบัติเหตุทางทะเล ✅ Hyundai Glovis ร่วมมือกับ Avikus พัฒนาเรือขนส่งอัตโนมัติ ➡️ ใช้ระบบ HiNAS ที่พัฒนาโดย Avikus ในเครือ HD Hyundai ➡️ ติดตั้งในเรือขนส่งรถยนต์ 7 ลำภายในกลางปี 2026 ✅ ระบบ HiNAS เป็น MASS Level-2 ➡️ รองรับการควบคุมระยะไกลและปรับเส้นทางด้วย AI ➡️ ยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่สามารถตัดสินใจได้เองบางส่วน ✅ เรือ Sunrise จะเป็นเรือขนส่ง AI ที่ใหญ่ที่สุดในโลก ➡️ ยาว 229.9 เมตร บรรทุกได้ 7,000 คัน ➡️ เป็นเรือแรกที่ติดตั้งระบบ AI แบบเต็มรูปแบบ ✅ เป้าหมายคือเพิ่มประสิทธิภาพและลดต้นทุน ➡️ ลดการใช้เชื้อเพลิงได้ถึง 3.9% จากการทดลอง ➡️ ลดความเสี่ยงจากอุบัติเหตุที่เกิดจากมนุษย์ ✅ เป็นส่วนหนึ่งของแผนลงทุน $6.5 พันล้านของ Glovis ➡️ เพื่อเปลี่ยนองค์กรสู่ “Smart Logistics Company” ภายในปี 2030 ➡️ รวมถึงเป้าหมาย Net Zero ภายในปี 2045 ✅ Avikus เคยสร้างประวัติศาสตร์ด้วยการนำเรือ LNG ข้ามมหาสมุทรแบบอัตโนมัติ ➡️ ในปี 2022 เรือ LNG ขนาด 300 เมตรเดินทางข้ามมหาสมุทรแอตแลนติกด้วยระบบ AI ➡️ ลดการปล่อยคาร์บอน 5% และเพิ่มประสิทธิภาพเชื้อเพลิง 7% https://www.techradar.com/pro/shipping-giant-set-to-roll-out-worlds-first-ai-controlled-autonomous-car-carrying-ships-at-750-ft-long-and-weighing-almost-100-000-tons-its-probably-the-largest-ai-driven-vessel-ever
    0 ความคิดเห็น 0 การแบ่งปัน 180 มุมมอง 0 รีวิว
  • กัมพูชา มี KS-1C ของจีน ซึ่งเป็นระบบป้องกันภัยทางอากาศระยะกลางถึงระยะไกล ไว้ต่อกรกับ F-16 โดยได้เข้าประจำการเมื่อปี 2023 สำหรับการรบครั้งนี้ยังไม่เห็นกัมพูชานำออกมาใช้ตอบโต้ปฏิบัติการทางอากาศ F-16 ของไทย

    สำหรับ KS-1C หรือชื่อเต็มว่า Kaishan-1C เป็นระบบป้องกันภัยทางอากาศระยะกลางถึงระยะไกลที่พัฒนาโดย China Aerospace Science and Industry Corporation (CASIC) ของจีน เป็นรุ่นที่ได้รับการปรับปรุงจากระบบ Hongqi-12 (HQ-12) และถูกออกแบบมาเพื่อใช้ในการป้องกันภัยทางอากาศ โดยสามารถจัดการกับเป้าหมาย เช่น เครื่องบิน, โดรน (UAVs), เฮลิคอปเตอร์ รวมถึงขีปนาวุธร่อนและขีปนาวุธพิสัยไกลที่มีความเร็วเกิน Mach 3

    คุณสมบัติหลักของ KS-1C:
    1. เรดาร์: ใช้เรดาร์แบบ H-200 phased-array ซึ่งมีระยะตรวจจับสูงสุดถึง 120 กิโลเมตร และสามารถติดตามเป้าหมายได้หลายเป้าพร้อมกัน

    2. ขีปนาวุธ: ใช้ระบบยิงแบบ canister-launched missiles (แทนรางยิงในรุ่นก่อนหน้า) มีพิสัยการยิงสูงสุด 70 กิโลเมตร และความสูงในการสกัดกั้นสูงสุด 27 กิโลเมตร

    3. โครงสร้างกองร้อย: ประกอบด้วยเรดาร์ phased-array, รถยิง 4 คัน (คันละ 2 ขีปนาวุธ), ขีปนาวุธสำรอง 16 ลูก, หน่วยควบคุมและสั่งการ และหน่วยจ่ายพลังงาน

    4. เปรียบเทียบ: มีสมรรถนะใกล้เคียงกับระบบ MIM-23 Hawk ของสหรัฐฯ ซึ่งเป็นรุ่นก่อนหน้า Patriot missile system

    5. การใช้งาน: ออกแบบมาเพื่อป้องกันภัยทางอากาศและสามารถใช้เป็นระบบป้องกันขีปนาวุธได้ในบางสถานการณ์

    การใช้งานในกองทัพ:
    • กองทัพกัมพูชา: ได้รับมอบระบบ KS-1C จากจีนเมื่อวันที่ 15 กันยายน 2023 เพื่อเสริมสร้างขีดความสามารถในการป้องกันภัยทางอากาศ

    • กองทัพอากาศไทย: ประเทศไทยได้จัดหาและนำ KS-1C เข้าประจำการในกองพันทหารอากาศโยธินที่กองบิน 4 ตาคลี และกองบิน 7 สุราษฎร์ธานี ตั้งแต่ปี 2016 โดยมีการแสดงต่อสาธารณะครั้งแรกในงานวันเด็กแห่งชาติปี 2560

    • การส่งออก: นอกจากกัมพูชาและไทย ระบบนี้ยังถูกส่งออกไปยังประเทศอื่นๆ เช่น เมียนมาร์และเติร์กเมนิสถาน
    กัมพูชา มี KS-1C ของจีน ซึ่งเป็นระบบป้องกันภัยทางอากาศระยะกลางถึงระยะไกล ไว้ต่อกรกับ F-16 โดยได้เข้าประจำการเมื่อปี 2023 สำหรับการรบครั้งนี้ยังไม่เห็นกัมพูชานำออกมาใช้ตอบโต้ปฏิบัติการทางอากาศ F-16 ของไทย สำหรับ KS-1C หรือชื่อเต็มว่า Kaishan-1C เป็นระบบป้องกันภัยทางอากาศระยะกลางถึงระยะไกลที่พัฒนาโดย China Aerospace Science and Industry Corporation (CASIC) ของจีน เป็นรุ่นที่ได้รับการปรับปรุงจากระบบ Hongqi-12 (HQ-12) และถูกออกแบบมาเพื่อใช้ในการป้องกันภัยทางอากาศ โดยสามารถจัดการกับเป้าหมาย เช่น เครื่องบิน, โดรน (UAVs), เฮลิคอปเตอร์ รวมถึงขีปนาวุธร่อนและขีปนาวุธพิสัยไกลที่มีความเร็วเกิน Mach 3 👉คุณสมบัติหลักของ KS-1C: 1. เรดาร์: ใช้เรดาร์แบบ H-200 phased-array ซึ่งมีระยะตรวจจับสูงสุดถึง 120 กิโลเมตร และสามารถติดตามเป้าหมายได้หลายเป้าพร้อมกัน 2. ขีปนาวุธ: ใช้ระบบยิงแบบ canister-launched missiles (แทนรางยิงในรุ่นก่อนหน้า) มีพิสัยการยิงสูงสุด 70 กิโลเมตร และความสูงในการสกัดกั้นสูงสุด 27 กิโลเมตร 3. โครงสร้างกองร้อย: ประกอบด้วยเรดาร์ phased-array, รถยิง 4 คัน (คันละ 2 ขีปนาวุธ), ขีปนาวุธสำรอง 16 ลูก, หน่วยควบคุมและสั่งการ และหน่วยจ่ายพลังงาน 4. เปรียบเทียบ: มีสมรรถนะใกล้เคียงกับระบบ MIM-23 Hawk ของสหรัฐฯ ซึ่งเป็นรุ่นก่อนหน้า Patriot missile system 5. การใช้งาน: ออกแบบมาเพื่อป้องกันภัยทางอากาศและสามารถใช้เป็นระบบป้องกันขีปนาวุธได้ในบางสถานการณ์ 👉การใช้งานในกองทัพ: • กองทัพกัมพูชา: ได้รับมอบระบบ KS-1C จากจีนเมื่อวันที่ 15 กันยายน 2023 เพื่อเสริมสร้างขีดความสามารถในการป้องกันภัยทางอากาศ • กองทัพอากาศไทย: ประเทศไทยได้จัดหาและนำ KS-1C เข้าประจำการในกองพันทหารอากาศโยธินที่กองบิน 4 ตาคลี และกองบิน 7 สุราษฎร์ธานี ตั้งแต่ปี 2016 โดยมีการแสดงต่อสาธารณะครั้งแรกในงานวันเด็กแห่งชาติปี 2560 • การส่งออก: นอกจากกัมพูชาและไทย ระบบนี้ยังถูกส่งออกไปยังประเทศอื่นๆ เช่น เมียนมาร์และเติร์กเมนิสถาน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 370 มุมมอง 0 รีวิว
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์

    IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา:
    - พีชคณิต (Algebra)
    - ทฤษฎีจำนวน (Number Theory)
    - เรขาคณิต (Geometry)
    - คอมบิเนอริกส์ (Combinatorics)

    ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์

    สิ่งที่น่าทึ่งคือ:
    - ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน)
    - ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน
    - ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา
    - ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้

    เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น:
    - Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ
    - Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน
    - Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO

    Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง
    แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง

    เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ
    ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ

    ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน
    ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end

    Gemini Deep Think ทำงานแบบ natural language ทั้งหมด
    ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที

    ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน
    เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด

    ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน
    ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์

    จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra
    เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง

    การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง
    หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด

    การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์
    เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน

    การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO
    ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง

    การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน
    ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ

    https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
    🎙️ เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์ IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา: - พีชคณิต (Algebra) - ทฤษฎีจำนวน (Number Theory) - เรขาคณิต (Geometry) - คอมบิเนอริกส์ (Combinatorics) ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์ สิ่งที่น่าทึ่งคือ: - ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน) - ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน - ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา - ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้ เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น: - Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ - Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน - Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO ✅ Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง ➡️ แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง ✅ เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ ➡️ ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ ✅ ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน ➡️ ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end ✅ Gemini Deep Think ทำงานแบบ natural language ทั้งหมด ➡️ ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที ✅ ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน ➡️ เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด ✅ ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน ➡️ ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์ ✅ จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra ➡️ เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง ‼️ การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง ⛔ หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด ‼️ การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์ ⛔ เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน ‼️ การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO ⛔ ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง ‼️ การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน ⛔ ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
    DEEPMIND.GOOGLE
    Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad
    Our advanced model officially achieved a gold-medal level performance on problems from the International Mathematical Olympiad (IMO), the world’s most prestigious competition for young...
    0 ความคิดเห็น 0 การแบ่งปัน 222 มุมมอง 0 รีวิว
  • เรื่องเล่าจากช่องโหว่เดียว: โจมตีเซิร์ฟเวอร์ระดับโลกได้ด้วย 1 บรรทัด

    ช่องโหว่นี้มีชื่อว่า CVE-2025-47812 และเปิดเผยแบบ public บน GitHub เมื่อ 30 มิถุนายน 2025 — แต่เพียงหนึ่งวันหลังจากนั้น ก็มีการโจมตีจริงเกิดขึ้นทันที โดยนักวิจัยจาก Huntress พบว่า:
    - ช่องโหว่นี้อยู่ใน Wing FTP เวอร์ชันก่อน 7.4.4 (แพตช์ออก 14 พ.ค. 2025)
    - อาศัยการ ฉีด null byte เข้าในฟิลด์ชื่อผู้ใช้
    - ทำให้ bypass authentication แล้วแนบโค้ด Lua ลงในไฟล์ session
    - เมื่อเซิร์ฟเวอร์ deserialize ไฟล์ session เหล่านั้น จะรันโค้ดในระดับ root/SYSTEM

    แม้การโจมตีบางครั้งถูกสกัดโดย Defender ของ Microsoft แต่พบพฤติกรรมหลายอย่าง เช่น:
    - การพยายามใช้ certutil และ cmd.exe เพื่อดาวน์โหลด payload
    - การสร้างผู้ใช้งานใหม่ในระบบ
    - การสแกน directory เพื่อหาช่องทางเข้าถึงอื่น

    มีเคสหนึ่งที่แฮกเกอร์ ต้องค้นหาวิธีใช้ curl แบบสด ๆ ระหว่างโจมตี แสดงให้เห็นว่าส่วนหนึ่งของผู้โจมตียังไม่ได้มีความเชี่ยวชาญเต็มที่ — แต่ช่องโหว่นั้นร้ายแรงมากจน “ต่อให้โจมตีไม่เก่งก็ยังสำเร็จได้”

    ช่องโหว่ CVE-2025-47812 ทำให้เกิดการรันโค้ดจากระยะไกลแบบไม่ต้องล็อกอิน
    ใช้การฉีด null byte ในฟิลด์ username แล้วแนบโค้ด Lua ลงในไฟล์ session

    โค้ด Lua ที่ถูกแทรกจะถูกรันเมื่อเซิร์ฟเวอร์ deserialize session file
    ทำงานในระดับ root บน Linux หรือ SYSTEM บน Windows

    นักวิจัยพบว่าแฮกเกอร์ใช้คำสั่งผ่าน cmd.exe และ certutil เพื่อดึง payload
    พฤติกรรมคล้ายการเจาะระบบเพื่อฝัง backdoor และสร้างผู้ใช้ใหม่

    Wing FTP Server ถูกใช้ในองค์กรระดับโลก เช่น Airbus และ USAF
    ช่องโหว่นี้อาจกระทบระบบ sensitive และเครือข่ายภายใน

    แพตช์แก้ไขอยู่ในเวอร์ชัน 7.4.4 ซึ่งปล่อยตั้งแต่ 14 พฤษภาคม 2025
    แต่หลายองค์กรยังใช้เวอร์ชันก่อนหน้านั้น แม้ช่องโหว่ถูกเปิดเผยแล้ว

    นักวิจัยแนะนำให้ปิดการเข้าถึงผ่าน HTTP/S, ปิด anonymous login และตรวจ log session
    เป็นมาตรการเบื้องต้นหากยังไม่สามารถอัปเดตเวอร์ชันได้ทันที

    ยังมีช่องโหว่อื่นอีก 3 ตัวที่พบ เช่นการดูด password ผ่าน JavaScript และการอ่านระบบ path
    แต่ CVE-2025-47812 ถูกจัดว่า “รุนแรงที่สุด” เพราะสามารถเจาะระบบได้ครบทุกระดับ

    https://www.techradar.com/pro/security/hackers-are-exploiting-a-critical-rce-flaw-in-a-popular-ftp-server-heres-what-you-need-to-know
    🎙️ เรื่องเล่าจากช่องโหว่เดียว: โจมตีเซิร์ฟเวอร์ระดับโลกได้ด้วย 1 บรรทัด ช่องโหว่นี้มีชื่อว่า CVE-2025-47812 และเปิดเผยแบบ public บน GitHub เมื่อ 30 มิถุนายน 2025 — แต่เพียงหนึ่งวันหลังจากนั้น ก็มีการโจมตีจริงเกิดขึ้นทันที โดยนักวิจัยจาก Huntress พบว่า: - ช่องโหว่นี้อยู่ใน Wing FTP เวอร์ชันก่อน 7.4.4 (แพตช์ออก 14 พ.ค. 2025) - อาศัยการ ฉีด null byte เข้าในฟิลด์ชื่อผู้ใช้ - ทำให้ bypass authentication แล้วแนบโค้ด Lua ลงในไฟล์ session - เมื่อเซิร์ฟเวอร์ deserialize ไฟล์ session เหล่านั้น จะรันโค้ดในระดับ root/SYSTEM แม้การโจมตีบางครั้งถูกสกัดโดย Defender ของ Microsoft แต่พบพฤติกรรมหลายอย่าง เช่น: - การพยายามใช้ certutil และ cmd.exe เพื่อดาวน์โหลด payload - การสร้างผู้ใช้งานใหม่ในระบบ - การสแกน directory เพื่อหาช่องทางเข้าถึงอื่น มีเคสหนึ่งที่แฮกเกอร์ ต้องค้นหาวิธีใช้ curl แบบสด ๆ ระหว่างโจมตี แสดงให้เห็นว่าส่วนหนึ่งของผู้โจมตียังไม่ได้มีความเชี่ยวชาญเต็มที่ — แต่ช่องโหว่นั้นร้ายแรงมากจน “ต่อให้โจมตีไม่เก่งก็ยังสำเร็จได้” ✅ ช่องโหว่ CVE-2025-47812 ทำให้เกิดการรันโค้ดจากระยะไกลแบบไม่ต้องล็อกอิน ➡️ ใช้การฉีด null byte ในฟิลด์ username แล้วแนบโค้ด Lua ลงในไฟล์ session ✅ โค้ด Lua ที่ถูกแทรกจะถูกรันเมื่อเซิร์ฟเวอร์ deserialize session file ➡️ ทำงานในระดับ root บน Linux หรือ SYSTEM บน Windows ✅ นักวิจัยพบว่าแฮกเกอร์ใช้คำสั่งผ่าน cmd.exe และ certutil เพื่อดึง payload ➡️ พฤติกรรมคล้ายการเจาะระบบเพื่อฝัง backdoor และสร้างผู้ใช้ใหม่ ✅ Wing FTP Server ถูกใช้ในองค์กรระดับโลก เช่น Airbus และ USAF ➡️ ช่องโหว่นี้อาจกระทบระบบ sensitive และเครือข่ายภายใน ✅ แพตช์แก้ไขอยู่ในเวอร์ชัน 7.4.4 ซึ่งปล่อยตั้งแต่ 14 พฤษภาคม 2025 ➡️ แต่หลายองค์กรยังใช้เวอร์ชันก่อนหน้านั้น แม้ช่องโหว่ถูกเปิดเผยแล้ว ✅ นักวิจัยแนะนำให้ปิดการเข้าถึงผ่าน HTTP/S, ปิด anonymous login และตรวจ log session ➡️ เป็นมาตรการเบื้องต้นหากยังไม่สามารถอัปเดตเวอร์ชันได้ทันที ✅ ยังมีช่องโหว่อื่นอีก 3 ตัวที่พบ เช่นการดูด password ผ่าน JavaScript และการอ่านระบบ path ➡️ แต่ CVE-2025-47812 ถูกจัดว่า “รุนแรงที่สุด” เพราะสามารถเจาะระบบได้ครบทุกระดับ https://www.techradar.com/pro/security/hackers-are-exploiting-a-critical-rce-flaw-in-a-popular-ftp-server-heres-what-you-need-to-know
    0 ความคิดเห็น 0 การแบ่งปัน 236 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเบื้องหลังระบบรัฐ: เมื่อ “นักพัฒนาจากต่างแดน” เข้าใกล้ระบบความมั่นคงเกินไป

    ข่าวต้นทางเริ่มจากการสืบสวนของ ProPublica ที่พบว่า Microsoft อนุญาตให้ “วิศวกรจากจีน” ทำงานร่วมกับระบบสำหรับลูกค้ารัฐบาลสหรัฐฯ โดยเฉพาะ DoD cloud — แม้จะมีการใช้ระบบ digital escorts ที่เป็นพลเมืองสหรัฐฯ คอยดูแล แต่รายงานพบว่า:

    ผู้คุมบางคนไม่มีความรู้เชิงเทคนิคเพียงพอที่จะรู้ว่าสิ่งที่ถูกพัฒนาคือโค้ดปกติหรือ backdoor

    นี่คือช่องโหว่ร้ายแรง และไม่มีหน่วยงานของรัฐทราบว่าการจัดการลักษณะนี้เคยเกิดขึ้นมาก่อน

    แม้ยังไม่มีหลักฐานว่ามีการ “แฝงมัลแวร์หรือระบบสอดแนม” จากวิศวกรกลุ่มนี้ แต่ความเสี่ยงด้านการข่าวกรองระดับชาติถือว่าสูงมาก — ส่งผลให้:
    - รัฐมนตรีกลาโหมโพสต์ว่า “วิศวกรจากต่างประเทศต้องไม่เข้าถึงระบบของ DoD ไม่ว่าจะมาจากชาติไหน”
    - Microsoft ต้องปรับนโยบายทันที โดยยืนยันว่าทีมงานจากประเทศจีนจะไม่สามารถเข้าไปยุ่งเกี่ยวกับลูกค้ารัฐบาลสหรัฐฯ ได้อีก

    Microsoft เคยให้วิศวกรจากจีนร่วมงานกับระบบของกระทรวงกลาโหมสหรัฐฯ
    ผ่านระบบ “digital escort” คือพนักงานสหรัฐคอยดูแลขณะทำงานร่วม

    ระบบ digital escort ถูกวิจารณ์ว่าไม่มีประสิทธิภาพจริง
    เพราะผู้ดูแลบางคนไม่มีความรู้ technical เพียงพอที่จะตรวจโค้ด

    Microsoft ยืนยันว่าได้แจ้งรัฐบาลเกี่ยวกับระบบนี้แล้ว
    แต่ทั้งเจ้าหน้าที่เก่าและปัจจุบันบอกว่า “ไม่เคยรู้มาก่อน”

    รัฐมนตรีกลาโหมสหรัฐฯ โพสต์แสดงจุดยืนว่าไม่ควรให้วิศวกรต่างชาติเข้าถึง DoD เลย
    ชี้ว่าระบบความมั่นคงต้องมีมาตรฐานการคัดกรองสูงกว่านี้

    Microsoft ออกแถลงการณ์ว่า ได้ยุติการให้ทีมจากประเทศจีนทำงานในโปรเจกรัฐบาลสหรัฐฯ แล้ว
    และจะปรับระบบความปลอดภัยร่วมกับหน่วยงานความมั่นคงเพื่อป้องกันช่องโหว่เพิ่มเติม

    https://www.tomshardware.com/tech-industry/cyber-security/microsoft-to-stop-using-engineers-in-china-to-work-on-u-s-defense-computer-systems-in-wake-of-investigative-report-fears-of-exploitation-by-foreign-intelligence-services-spurs-immediate-change
    🎙️ เรื่องเล่าจากเบื้องหลังระบบรัฐ: เมื่อ “นักพัฒนาจากต่างแดน” เข้าใกล้ระบบความมั่นคงเกินไป ข่าวต้นทางเริ่มจากการสืบสวนของ ProPublica ที่พบว่า Microsoft อนุญาตให้ “วิศวกรจากจีน” ทำงานร่วมกับระบบสำหรับลูกค้ารัฐบาลสหรัฐฯ โดยเฉพาะ DoD cloud — แม้จะมีการใช้ระบบ digital escorts ที่เป็นพลเมืองสหรัฐฯ คอยดูแล แต่รายงานพบว่า: 🔖 ผู้คุมบางคนไม่มีความรู้เชิงเทคนิคเพียงพอที่จะรู้ว่าสิ่งที่ถูกพัฒนาคือโค้ดปกติหรือ backdoor นี่คือช่องโหว่ร้ายแรง และไม่มีหน่วยงานของรัฐทราบว่าการจัดการลักษณะนี้เคยเกิดขึ้นมาก่อน แม้ยังไม่มีหลักฐานว่ามีการ “แฝงมัลแวร์หรือระบบสอดแนม” จากวิศวกรกลุ่มนี้ แต่ความเสี่ยงด้านการข่าวกรองระดับชาติถือว่าสูงมาก — ส่งผลให้: - รัฐมนตรีกลาโหมโพสต์ว่า “วิศวกรจากต่างประเทศต้องไม่เข้าถึงระบบของ DoD ไม่ว่าจะมาจากชาติไหน” - Microsoft ต้องปรับนโยบายทันที โดยยืนยันว่าทีมงานจากประเทศจีนจะไม่สามารถเข้าไปยุ่งเกี่ยวกับลูกค้ารัฐบาลสหรัฐฯ ได้อีก ✅ Microsoft เคยให้วิศวกรจากจีนร่วมงานกับระบบของกระทรวงกลาโหมสหรัฐฯ ➡️ ผ่านระบบ “digital escort” คือพนักงานสหรัฐคอยดูแลขณะทำงานร่วม ✅ ระบบ digital escort ถูกวิจารณ์ว่าไม่มีประสิทธิภาพจริง ➡️ เพราะผู้ดูแลบางคนไม่มีความรู้ technical เพียงพอที่จะตรวจโค้ด ✅ Microsoft ยืนยันว่าได้แจ้งรัฐบาลเกี่ยวกับระบบนี้แล้ว ➡️ แต่ทั้งเจ้าหน้าที่เก่าและปัจจุบันบอกว่า “ไม่เคยรู้มาก่อน” ✅ รัฐมนตรีกลาโหมสหรัฐฯ โพสต์แสดงจุดยืนว่าไม่ควรให้วิศวกรต่างชาติเข้าถึง DoD เลย ➡️ ชี้ว่าระบบความมั่นคงต้องมีมาตรฐานการคัดกรองสูงกว่านี้ ✅ Microsoft ออกแถลงการณ์ว่า ได้ยุติการให้ทีมจากประเทศจีนทำงานในโปรเจกรัฐบาลสหรัฐฯ แล้ว ➡️ และจะปรับระบบความปลอดภัยร่วมกับหน่วยงานความมั่นคงเพื่อป้องกันช่องโหว่เพิ่มเติม https://www.tomshardware.com/tech-industry/cyber-security/microsoft-to-stop-using-engineers-in-china-to-work-on-u-s-defense-computer-systems-in-wake-of-investigative-report-fears-of-exploitation-by-foreign-intelligence-services-spurs-immediate-change
    0 ความคิดเห็น 0 การแบ่งปัน 248 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเปิด: เมื่อ RISC-V ได้กลายเป็นสมองในโลก CUDA

    ก่อนหน้านี้ CUDA ใช้ได้เฉพาะกับแพลตฟอร์ม host CPU ที่เป็น x86 หรือ Arm — แต่ตอนนี้ Nvidia ได้เปิดทางให้ CPU แบบ RISC-V สามารถ “ควบคุม GPU” ผ่าน CUDA ได้เช่นกัน โดยการแปลงโครงสร้างและไลบรารีพื้นฐานให้เรียกใช้ได้ในระบบ RISC-V

    ภาพรวมของระบบใหม่จะประกอบด้วย:

    GPU ของ Nvidia ทำงานแบบ parallel สำหรับ AI และ HPC workload

    CPU RISC-V ทำหน้าที่จัดการ driver, logic ของแอปพลิเคชัน, และระบบปฏิบัติการ

    DPU (Data Processing Unit) คอยจัดการ networking และ data movement

    แนวคิดนี้จะทำให้ระบบแบบ “heterogeneous compute” เกิดขึ้น — โดยมี RISC-V เป็น “ศูนย์กลางควบคุม” และ GPU/Network/DPU เป็นกลไกทำงานเฉพาะด้าน แสดงถึงความตั้งใจของ Nvidia ที่จะขยาย CUDA ไปยังระบบเปิดและระบบฝัง (embedded compute) ได้จริง

    ยิ่งไปกว่านั้น การที่ Nvidia ทำแบบนี้ในจีน ทั้งที่ไม่สามารถขาย GPU GB200 และ GB300 ให้จีนได้ (เนื่องจากข้อจำกัดการส่งออก) ก็เป็นนัยว่า Nvidia กำลัง “หาเส้นทางใหม่เพื่อรักษา ecosystem” ผ่าน RISC-V ซึ่งเติบโตอย่างรวดเร็วในฝั่งจีน

    https://www.tomshardware.com/pc-components/gpus/nvidias-cuda-platform-now-supports-risc-v-support-brings-open-source-instruction-set-to-ai-platforms-joining-x86-and-arm
    🎙️ เรื่องเล่าจากชิปเปิด: เมื่อ RISC-V ได้กลายเป็นสมองในโลก CUDA ก่อนหน้านี้ CUDA ใช้ได้เฉพาะกับแพลตฟอร์ม host CPU ที่เป็น x86 หรือ Arm — แต่ตอนนี้ Nvidia ได้เปิดทางให้ CPU แบบ RISC-V สามารถ “ควบคุม GPU” ผ่าน CUDA ได้เช่นกัน โดยการแปลงโครงสร้างและไลบรารีพื้นฐานให้เรียกใช้ได้ในระบบ RISC-V ภาพรวมของระบบใหม่จะประกอบด้วย: ✅ GPU ของ Nvidia ทำงานแบบ parallel สำหรับ AI และ HPC workload ✅ CPU RISC-V ทำหน้าที่จัดการ driver, logic ของแอปพลิเคชัน, และระบบปฏิบัติการ ✅ DPU (Data Processing Unit) คอยจัดการ networking และ data movement แนวคิดนี้จะทำให้ระบบแบบ “heterogeneous compute” เกิดขึ้น — โดยมี RISC-V เป็น “ศูนย์กลางควบคุม” และ GPU/Network/DPU เป็นกลไกทำงานเฉพาะด้าน แสดงถึงความตั้งใจของ Nvidia ที่จะขยาย CUDA ไปยังระบบเปิดและระบบฝัง (embedded compute) ได้จริง ยิ่งไปกว่านั้น การที่ Nvidia ทำแบบนี้ในจีน ทั้งที่ไม่สามารถขาย GPU GB200 และ GB300 ให้จีนได้ (เนื่องจากข้อจำกัดการส่งออก) ก็เป็นนัยว่า Nvidia กำลัง “หาเส้นทางใหม่เพื่อรักษา ecosystem” ผ่าน RISC-V ซึ่งเติบโตอย่างรวดเร็วในฝั่งจีน https://www.tomshardware.com/pc-components/gpus/nvidias-cuda-platform-now-supports-risc-v-support-brings-open-source-instruction-set-to-ai-platforms-joining-x86-and-arm
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Open Source: เมื่อ Linux เวอร์ชันแรงสุดจาก Intel ถูกปลดจากสายพาน

    Clear Linux เป็นระบบปฏิบัติการที่ Intel ออกแบบมาโดยเฉพาะเพื่อเร่ง performance แบบ out-of-the-box โดยมีฟีเจอร์ระดับสูงที่ระบบอื่นไม่กล้าใช้ เช่น:
    - ใช้ compiler flags แบบ aggressive (ทั้ง GCC และ Clang)
    - ทำ PGO (Profile-Guided Optimization) และ LTO (Link-Time Optimization) ทั่วทั้งระบบ
    - kernel ถูกปรับแต่งเพื่อใช้ CPU แบบ multi-threading เต็มที่
    - ปรับใช้งาน AVX2, AVX-512 และเทคโนโลยีอย่าง Optane ตั้งแต่วันแรก
    - มี clr-boot-manager สำหรับอัปเดต kernel แบบเร็ว

    ผลลัพธ์คือ Clear Linux มักจะชนะ benchmark ด้านประสิทธิภาพทั้งในงาน build, render และ scientific computing — แม้ใช้บน AMD ก็ตาม!

    แต่ด้วยนโยบายลดต้นทุนของ Intel บริษัทเริ่มตัดคนและทีม software ออกจำนวนมาก — ส่งผลให้ Clear Linux ถูก “พักถาวร” โดยไม่มีแพตช์ความปลอดภัยหรืออัปเดตใหม่อีก

    นักพัฒนา Linux หลายคนแสดงความเสียดาย เพราะฟีเจอร์และแนวคิดของ Clear Linux เริ่มถูกนำไปใช้ใน distro อื่น ๆ แล้ว เช่น CachyOS และบางส่วนใน Arch-based รุ่นใหม่

    Intel ประกาศหยุดพัฒนา Clear Linux อย่างเป็นทางการ
    ไม่มีแพตช์ ไม่มีอัปเดตความปลอดภัย และ archive repo บน GitHub เป็นแบบ read-only

    Clear Linux มีจุดเด่นคือเร่ง performance ตั้งแต่แกนระบบ
    ใช้ toolchain ใหม่สุด, flags รุนแรง, และ optimization เชิงลึก เช่น PGO/LTO

    ทำงานดีทั้งบน Intel และ AMD แม้จะออกแบบมาเพื่อ Intel โดยตรง
    เป็น distro เดียวที่ “แรงสุด” ในหลาย benchmark แบบไม่ต้องปรับแต่งเอง

    ฟีเจอร์เด่นคือ clr-boot-manager และระบบจัดการ kernel ที่เร็วมาก
    เหมาะกับ developer และงาน HPC ที่ต้องใช้ kernel ใหม่อยู่ตลอด

    ระบบใช้ได้ดีใน workload ที่เน้น CPU, I/O, memory และ multithreading
    เป็นที่นิยมในกลุ่มนักพัฒนาเทคโนโลยีใหม่ เช่น AI และการ render แบบหนัก ๆ

    Intel จะยังคงสนับสนุน Linux ผ่าน upstream และ distro หลักอื่น ๆ
    เช่น Fedora, Ubuntu หรือโครงการ kernel โดยตรง

    CachyOS และ distro อื่น ๆ เริ่มนำ optimization ของ Clear Linux ไปใช้งาน
    แสดงว่าเทคโนโลยียังมีชีวิตอยู่ใน ecosystem แม้ต้นฉบับจะเลิกทำแล้ว

    ผู้ใช้ Clear Linux ควรวางแผนย้ายออกทันที
    หากไม่ย้ายจะมีความเสี่ยงเรื่องความปลอดภัย เพราะไม่มีแพตช์ใหม่

    ระบบที่ยัง deploy ด้วย Clear Linux อาจเจอปัญหาความเข้ากันในอนาคต
    library หรือ driver ใหม่อาจไม่รองรับ โดยไม่มีทีมดูแลให้

    ฟีเจอร์ที่ใช้เทคโนโลยี Intel โดยตรง เช่น AVX-512 อาจใช้งานยากขึ้นใน distro อื่น
    ต้องปรับแต่งเองหรือเขียน config เพื่อให้ทำงานแบบที่ Clear Linux เคยทำ

    การหยุดพัฒนาอาจเป็นสัญญาณว่า Intel ลดบทบาทในด้าน software ecosystem
    ส่งผลต่อความเร็วของ innovation ด้าน HPC และ AI บน Linux

    https://www.tomshardware.com/software/linux/intel-axes-clear-linux-the-fastest-distribution-on-the-market-company-ends-support-effective-immediately
    🎙️ เรื่องเล่าจากโลก Open Source: เมื่อ Linux เวอร์ชันแรงสุดจาก Intel ถูกปลดจากสายพาน Clear Linux เป็นระบบปฏิบัติการที่ Intel ออกแบบมาโดยเฉพาะเพื่อเร่ง performance แบบ out-of-the-box โดยมีฟีเจอร์ระดับสูงที่ระบบอื่นไม่กล้าใช้ เช่น: - ใช้ compiler flags แบบ aggressive (ทั้ง GCC และ Clang) - ทำ PGO (Profile-Guided Optimization) และ LTO (Link-Time Optimization) ทั่วทั้งระบบ - kernel ถูกปรับแต่งเพื่อใช้ CPU แบบ multi-threading เต็มที่ - ปรับใช้งาน AVX2, AVX-512 และเทคโนโลยีอย่าง Optane ตั้งแต่วันแรก - มี clr-boot-manager สำหรับอัปเดต kernel แบบเร็ว ผลลัพธ์คือ Clear Linux มักจะชนะ benchmark ด้านประสิทธิภาพทั้งในงาน build, render และ scientific computing — แม้ใช้บน AMD ก็ตาม! แต่ด้วยนโยบายลดต้นทุนของ Intel บริษัทเริ่มตัดคนและทีม software ออกจำนวนมาก — ส่งผลให้ Clear Linux ถูก “พักถาวร” โดยไม่มีแพตช์ความปลอดภัยหรืออัปเดตใหม่อีก นักพัฒนา Linux หลายคนแสดงความเสียดาย เพราะฟีเจอร์และแนวคิดของ Clear Linux เริ่มถูกนำไปใช้ใน distro อื่น ๆ แล้ว เช่น CachyOS และบางส่วนใน Arch-based รุ่นใหม่ ✅ Intel ประกาศหยุดพัฒนา Clear Linux อย่างเป็นทางการ ➡️ ไม่มีแพตช์ ไม่มีอัปเดตความปลอดภัย และ archive repo บน GitHub เป็นแบบ read-only ✅ Clear Linux มีจุดเด่นคือเร่ง performance ตั้งแต่แกนระบบ ➡️ ใช้ toolchain ใหม่สุด, flags รุนแรง, และ optimization เชิงลึก เช่น PGO/LTO ✅ ทำงานดีทั้งบน Intel และ AMD แม้จะออกแบบมาเพื่อ Intel โดยตรง ➡️ เป็น distro เดียวที่ “แรงสุด” ในหลาย benchmark แบบไม่ต้องปรับแต่งเอง ✅ ฟีเจอร์เด่นคือ clr-boot-manager และระบบจัดการ kernel ที่เร็วมาก ➡️ เหมาะกับ developer และงาน HPC ที่ต้องใช้ kernel ใหม่อยู่ตลอด ✅ ระบบใช้ได้ดีใน workload ที่เน้น CPU, I/O, memory และ multithreading ➡️ เป็นที่นิยมในกลุ่มนักพัฒนาเทคโนโลยีใหม่ เช่น AI และการ render แบบหนัก ๆ ✅ Intel จะยังคงสนับสนุน Linux ผ่าน upstream และ distro หลักอื่น ๆ ➡️ เช่น Fedora, Ubuntu หรือโครงการ kernel โดยตรง ✅ CachyOS และ distro อื่น ๆ เริ่มนำ optimization ของ Clear Linux ไปใช้งาน ➡️ แสดงว่าเทคโนโลยียังมีชีวิตอยู่ใน ecosystem แม้ต้นฉบับจะเลิกทำแล้ว ‼️ ผู้ใช้ Clear Linux ควรวางแผนย้ายออกทันที ⛔ หากไม่ย้ายจะมีความเสี่ยงเรื่องความปลอดภัย เพราะไม่มีแพตช์ใหม่ ‼️ ระบบที่ยัง deploy ด้วย Clear Linux อาจเจอปัญหาความเข้ากันในอนาคต ⛔ library หรือ driver ใหม่อาจไม่รองรับ โดยไม่มีทีมดูแลให้ ‼️ ฟีเจอร์ที่ใช้เทคโนโลยี Intel โดยตรง เช่น AVX-512 อาจใช้งานยากขึ้นใน distro อื่น ⛔ ต้องปรับแต่งเองหรือเขียน config เพื่อให้ทำงานแบบที่ Clear Linux เคยทำ ‼️ การหยุดพัฒนาอาจเป็นสัญญาณว่า Intel ลดบทบาทในด้าน software ecosystem ⛔ ส่งผลต่อความเร็วของ innovation ด้าน HPC และ AI บน Linux https://www.tomshardware.com/software/linux/intel-axes-clear-linux-the-fastest-distribution-on-the-market-company-ends-support-effective-immediately
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
Pages Boosts