• ทุกวันนี้ศูนย์ข้อมูลระดับโลกมีปัญหาใหญ่มากคือ “ความร้อน” — เพราะเซิร์ฟเวอร์ และโดยเฉพาะชิป AI สมัยใหม่ ร้อนขึ้นทุกปีจนระบบทำความเย็นต้องวิ่งตามแบบหืดขึ้นคอ และตอนนี้การทำความเย็นคิดเป็นเกือบ 40% ของพลังงานทั้งหมดในศูนย์ข้อมูล แล้วด้วยนะ

    ทีม UC San Diego เลยคิด “เราจะลอกระบบระบายความร้อนจากธรรมชาติดีไหม?” พวกเขาเลยสร้างแผ่นไฟเบอร์ที่ใช้กลไกแบบเดียวกับ “เหงื่อของมนุษย์” — คือน้ำถูกดูดขึ้นมาบนพื้นผิวด้วยแรง capillary จากรูเล็ก ๆ แล้วระเหยออกเพื่อพาความร้อนไป ซึ่งไม่ต้องใช้พลังงานอะไรเพิ่มเลย

    ทีมนักวิจัยสามารถทดสอบแผ่นนี้ภายใต้ความร้อนสูงกว่า 800 วัตต์/ตารางเซนติเมตร (ระดับเดียวกับการระบายความร้อนของ GPU/CPU ที่หนักมาก) และพบว่าแผ่นไม่เพียงแต่ทนได้ — แต่ยังระบายความร้อนได้ต่อเนื่องหลายชั่วโมงโดยไม่อุดตันหรือรั่วซึมเหมือนวัสดุแบบเดิม ๆ

    พวกเขากำลังจะพัฒนาต่อไปเป็น cold plate สำหรับชิปโดยตรง และวางแผนจะต่อยอดเชิงพาณิชย์ด้วยบริษัทสตาร์ทอัปเร็ว ๆ นี้

    ✅ ทีม UC San Diego พัฒนาแผ่นไฟเบอร์ระบายความร้อนด้วยการระเหยแบบ passive  
    • เลียนแบบกลไกการระเหยของเหงื่อในสิ่งมีชีวิต  
    • ใช้รูพรุนละเอียดช่วยดูดน้ำขึ้นมาระบายความร้อนโดยไม่ต้องใช้พลังงานเพิ่ม

    ✅ แผ่นสามารถรองรับความร้อนสูงได้ถึง 800 วัตต์/ตารางเซนติเมตร  
    • สูงกว่าการระบายความร้อนทั่วไปหลายเท่า และไม่เกิดการเดือดหรืออุดตัน

    ✅ พัฒนาโดยทีมนักวิจัยนำโดยศาสตราจารย์ Renkun Chen ร่วมกับนักศึกษาปริญญาเอกและนักวิจัยหลังปริญญา  
    • ตีพิมพ์ในวารสาร Joule

    ✅ โครงสร้างของแผ่นมาจากวัสดุที่เคยใช้ในระบบกรองน้ำ  
    • มีรูเชื่อมต่อกัน (interconnected pores) และขนาดรูเหมาะสมเพื่อให้เกิดแรง capillary พอดี

    ✅ เตรียมขยายผลสู่งานจริงโดยต่อยอดเป็น cold plate ติดกับชิป และเริ่มดำเนินการเชิงพาณิชย์

    ✅ อาจนำไปใช้กับอุปกรณ์ในระดับ edge computing หรือมือถือได้ในอนาคต  
    • เพราะใช้พลังงานน้อยและมีประสิทธิภาพดีแม้ในพื้นที่จำกัด

    https://www.techradar.com/pro/cooling-data-centers-is-a-multi-billion-dollar-problem-researchers-want-to-use-a-common-cooling-mechanism-found-in-animals-to-solve-that-issue
    ทุกวันนี้ศูนย์ข้อมูลระดับโลกมีปัญหาใหญ่มากคือ “ความร้อน” — เพราะเซิร์ฟเวอร์ และโดยเฉพาะชิป AI สมัยใหม่ ร้อนขึ้นทุกปีจนระบบทำความเย็นต้องวิ่งตามแบบหืดขึ้นคอ และตอนนี้การทำความเย็นคิดเป็นเกือบ 40% ของพลังงานทั้งหมดในศูนย์ข้อมูล แล้วด้วยนะ ทีม UC San Diego เลยคิด “เราจะลอกระบบระบายความร้อนจากธรรมชาติดีไหม?” พวกเขาเลยสร้างแผ่นไฟเบอร์ที่ใช้กลไกแบบเดียวกับ “เหงื่อของมนุษย์” — คือน้ำถูกดูดขึ้นมาบนพื้นผิวด้วยแรง capillary จากรูเล็ก ๆ แล้วระเหยออกเพื่อพาความร้อนไป ซึ่งไม่ต้องใช้พลังงานอะไรเพิ่มเลย ทีมนักวิจัยสามารถทดสอบแผ่นนี้ภายใต้ความร้อนสูงกว่า 800 วัตต์/ตารางเซนติเมตร (ระดับเดียวกับการระบายความร้อนของ GPU/CPU ที่หนักมาก) และพบว่าแผ่นไม่เพียงแต่ทนได้ — แต่ยังระบายความร้อนได้ต่อเนื่องหลายชั่วโมงโดยไม่อุดตันหรือรั่วซึมเหมือนวัสดุแบบเดิม ๆ พวกเขากำลังจะพัฒนาต่อไปเป็น cold plate สำหรับชิปโดยตรง และวางแผนจะต่อยอดเชิงพาณิชย์ด้วยบริษัทสตาร์ทอัปเร็ว ๆ นี้ ✅ ทีม UC San Diego พัฒนาแผ่นไฟเบอร์ระบายความร้อนด้วยการระเหยแบบ passive   • เลียนแบบกลไกการระเหยของเหงื่อในสิ่งมีชีวิต   • ใช้รูพรุนละเอียดช่วยดูดน้ำขึ้นมาระบายความร้อนโดยไม่ต้องใช้พลังงานเพิ่ม ✅ แผ่นสามารถรองรับความร้อนสูงได้ถึง 800 วัตต์/ตารางเซนติเมตร   • สูงกว่าการระบายความร้อนทั่วไปหลายเท่า และไม่เกิดการเดือดหรืออุดตัน ✅ พัฒนาโดยทีมนักวิจัยนำโดยศาสตราจารย์ Renkun Chen ร่วมกับนักศึกษาปริญญาเอกและนักวิจัยหลังปริญญา   • ตีพิมพ์ในวารสาร Joule ✅ โครงสร้างของแผ่นมาจากวัสดุที่เคยใช้ในระบบกรองน้ำ   • มีรูเชื่อมต่อกัน (interconnected pores) และขนาดรูเหมาะสมเพื่อให้เกิดแรง capillary พอดี ✅ เตรียมขยายผลสู่งานจริงโดยต่อยอดเป็น cold plate ติดกับชิป และเริ่มดำเนินการเชิงพาณิชย์ ✅ อาจนำไปใช้กับอุปกรณ์ในระดับ edge computing หรือมือถือได้ในอนาคต   • เพราะใช้พลังงานน้อยและมีประสิทธิภาพดีแม้ในพื้นที่จำกัด https://www.techradar.com/pro/cooling-data-centers-is-a-multi-billion-dollar-problem-researchers-want-to-use-a-common-cooling-mechanism-found-in-animals-to-solve-that-issue
    0 Comments 0 Shares 10 Views 0 Reviews
  • ลองนึกภาพดูว่าในศูนย์ข้อมูลหนึ่ง มีงานมากมายที่ IT ต้องจัดการทุกวัน เช่น แก้ไข network, config storage, เช็ก log, ปรับโหลด cloud — ทั้งหมดนี้ใช้เวลาและต้องการผู้เชี่ยวชาญหลายคน

    แต่ HPE กำลังจะเปลี่ยนสิ่งเหล่านั้นให้กลายเป็น “การสนทนากับ agent” — คุณแค่ถามในสไตล์แชต แล้ว AI จะประมวลผลข้อมูล, หา insight, เสนอทางแก้ หรือ บางทียังทำแทนให้เองเลยด้วยซ้ำ (แต่ยังให้คุณกดยืนยันก่อนเสมอ)

    หัวใจอยู่ที่ GreenLake Intelligence ซึ่งมี multi-agent system ที่ทำหน้าที่เฉพาะ เช่น จัดการ storage, monitor network, สร้าง dashboard, หรือคุยกับระบบ cloud อื่นได้ — และมี “GreenLake Copilot” เป็นอินเทอร์เฟซแบบแชต ช่วยให้คนไอทีใช้งานง่ายแบบไม่ต้องพิมพ์โค้ด

    นอกจากนี้ HPE ยังพัฒนา hardware และ software เสริมชุดใหญ่ เช่น AI Factory รุ่นใหม่ที่ใช้ Nvidia Blackwell GPU, ระบบ CloudOps, และหน่วยเก็บข้อมูล Alletra X10000 ที่รองรับการวิเคราะห์ context ระดับระบบ (ผ่านโปรโตคอล MCP)

    ✅ HPE เปิดตัว GreenLake Intelligence พร้อมแนวคิด AgenticOps  
    • ใช้ AI agents ทำงานซ้ำซ้อนในระบบ IT แทนคนได้ (แต่มี human-in-the-loop)  
    • ครอบคลุมงาน config, observability, storage, network และ more

    ✅ GreenLake Copilot คืออินเทอร์เฟซแบบแชตที่ให้คุยกับ AI ได้ทันที  
    • ใช้ภาษาธรรมดาถามเรื่อง log, ปัญหา network, ความเสถียรระบบ ฯลฯ  
    • ทำงานร่วมกับ LLM และ ML ที่เทรนจากข้อมูลองค์กร

    ✅ ตัวอย่างการใช้งานที่น่าสนใจ:  
    • Aruba Central ใช้ GreenLake Copilot ในการจัดการเครือข่ายแบบ real-time  
    • สร้าง visual dashboard จาก log อัตโนมัติ  
    • เสนอวิธีแก้ปัญหาแบบทีละขั้น หรือลงมือทำแทนได้

    ✅ HPE เสริมด้วย CloudOps (รวม OpsRamp, Morpheus, Zerto)  
    • ใช้ GenAI ช่วยจัดการ observability, virtualization, และความปลอดภัยของ data

    ✅ เปิดตัว AI Factory Gen 2 ที่ใช้ Nvidia Blackwell RTX Pro 6000  
    • รองรับการประมวลผล AI model สำหรับองค์กรโดยเฉพาะ  
    • ใช้งานร่วมกับระบบของคู่แข่งได้ (เช่น OpsRamp ใช้กับ AI Factory ทุกแบรนด์)

    ✅ ระบบเก็บข้อมูล Alletra X10000 รองรับ MCP (Media Context Protocol)  
    • เชื่อมโยงกับ AI/LLM ได้โดยตรง  
    • ส่งข้อมูลระหว่าง server, storage, observability tools ได้รวดเร็ว

    ลุงจะตกงานแล้วววววว !!! 😭😭

    https://www.techspot.com/news/108437-hpe-greenlake-intelligence-brings-agentic-ai-operations.html
    ลองนึกภาพดูว่าในศูนย์ข้อมูลหนึ่ง มีงานมากมายที่ IT ต้องจัดการทุกวัน เช่น แก้ไข network, config storage, เช็ก log, ปรับโหลด cloud — ทั้งหมดนี้ใช้เวลาและต้องการผู้เชี่ยวชาญหลายคน แต่ HPE กำลังจะเปลี่ยนสิ่งเหล่านั้นให้กลายเป็น “การสนทนากับ agent” — คุณแค่ถามในสไตล์แชต แล้ว AI จะประมวลผลข้อมูล, หา insight, เสนอทางแก้ หรือ บางทียังทำแทนให้เองเลยด้วยซ้ำ (แต่ยังให้คุณกดยืนยันก่อนเสมอ) หัวใจอยู่ที่ GreenLake Intelligence ซึ่งมี multi-agent system ที่ทำหน้าที่เฉพาะ เช่น จัดการ storage, monitor network, สร้าง dashboard, หรือคุยกับระบบ cloud อื่นได้ — และมี “GreenLake Copilot” เป็นอินเทอร์เฟซแบบแชต ช่วยให้คนไอทีใช้งานง่ายแบบไม่ต้องพิมพ์โค้ด นอกจากนี้ HPE ยังพัฒนา hardware และ software เสริมชุดใหญ่ เช่น AI Factory รุ่นใหม่ที่ใช้ Nvidia Blackwell GPU, ระบบ CloudOps, และหน่วยเก็บข้อมูล Alletra X10000 ที่รองรับการวิเคราะห์ context ระดับระบบ (ผ่านโปรโตคอล MCP) ✅ HPE เปิดตัว GreenLake Intelligence พร้อมแนวคิด AgenticOps   • ใช้ AI agents ทำงานซ้ำซ้อนในระบบ IT แทนคนได้ (แต่มี human-in-the-loop)   • ครอบคลุมงาน config, observability, storage, network และ more ✅ GreenLake Copilot คืออินเทอร์เฟซแบบแชตที่ให้คุยกับ AI ได้ทันที   • ใช้ภาษาธรรมดาถามเรื่อง log, ปัญหา network, ความเสถียรระบบ ฯลฯ   • ทำงานร่วมกับ LLM และ ML ที่เทรนจากข้อมูลองค์กร ✅ ตัวอย่างการใช้งานที่น่าสนใจ:   • Aruba Central ใช้ GreenLake Copilot ในการจัดการเครือข่ายแบบ real-time   • สร้าง visual dashboard จาก log อัตโนมัติ   • เสนอวิธีแก้ปัญหาแบบทีละขั้น หรือลงมือทำแทนได้ ✅ HPE เสริมด้วย CloudOps (รวม OpsRamp, Morpheus, Zerto)   • ใช้ GenAI ช่วยจัดการ observability, virtualization, และความปลอดภัยของ data ✅ เปิดตัว AI Factory Gen 2 ที่ใช้ Nvidia Blackwell RTX Pro 6000   • รองรับการประมวลผล AI model สำหรับองค์กรโดยเฉพาะ   • ใช้งานร่วมกับระบบของคู่แข่งได้ (เช่น OpsRamp ใช้กับ AI Factory ทุกแบรนด์) ✅ ระบบเก็บข้อมูล Alletra X10000 รองรับ MCP (Media Context Protocol)   • เชื่อมโยงกับ AI/LLM ได้โดยตรง   • ส่งข้อมูลระหว่าง server, storage, observability tools ได้รวดเร็ว ลุงจะตกงานแล้วววววว !!! 😭😭 https://www.techspot.com/news/108437-hpe-greenlake-intelligence-brings-agentic-ai-operations.html
    WWW.TECHSPOT.COM
    HPE's GreenLake intelligence brings agentic AI to IT operations
    In case you haven't heard, GenAI is old news. Now, it's all about agentic AI. At least, that certainly seems to be the theme based on the...
    0 Comments 0 Shares 18 Views 0 Reviews
  • หลังจากงาน RSA Conference 2025 หลายคนเริ่มรู้สึกว่า “ข่าว AI น่ากลัวไปหมด” — ทั้ง deepfakes, hallucination, model leak, และ supply chain attack แบบใหม่ ๆ ที่อิง LLM

    แต่ Tony Martin-Vegue วิศวกรด้านความเสี่ยงของ Netflix บอกว่า สิ่งที่ CISO ต้องทำไม่ใช่ตื่นตระหนก แต่คือ กลับมาใช้วิธีคิดเดิม ๆ ที่เคยได้ผล — รู้ว่า AI ถูกใช้ที่ไหน โดยใคร และกับข้อมูลชนิดไหน แล้วค่อยวาง control

    Rob T. Lee จาก SANS ก็แนะนำว่า CISO ต้อง “ใช้ AI เองทุกวัน” จนเข้าใจพฤติกรรมของมัน ก่อนจะไปออกนโยบาย ส่วน Chris Hetner จาก NACD ก็เตือนว่าปัญหาไม่ใช่ AI แต่คือความวุ่นวายใน echo chamber ของวงการไซเบอร์เอง

    สุดท้าย Diana Kelley แห่ง Protect AI บอกว่า “อย่ารอจนโดน MSA (Model Serialization Attack)” ควรเริ่มวางแผนความปลอดภัยเฉพาะทางสำหรับ LLM แล้ว — ทั้งการสแกน model, ตรวจ typosquatting และจัดการ data flow จากต้นทาง

    ✅ ไม่ต้องตื่นตระหนกกับความเสี่ยงจาก LLM — แต่ให้กลับมาโฟกัสที่ security fundamentals ที่ใช้ได้เสมอ  
    • เช่น เข้าใจว่า AI ถูกใช้อย่างไร, ที่ไหน, โดยใคร, เพื่ออะไร

    ✅ ควรใช้แนวทางเดียวกับการบริหารความเสี่ยงของเทคโนโลยีใหม่ในอดีต  
    • เช่น BYOD, คลาวด์, SaaS

    ✅ Rob T. Lee (SANS) แนะนำให้ผู้บริหาร Cyber ลองใช้งาน AI จริงในชีวิตประจำวัน  
    • จะช่วยให้รู้ว่าควรตั้ง control อย่างไรในบริบทองค์กรจริง

    ✅ Chris Hetner (NACD) เตือนว่า FUD (ความกลัว, ความไม่แน่ใจ, ความสงสัย) มาจาก echo chamber และ vendor  
    • CISO ควรพากลับมาโฟกัสที่ profile ความเสี่ยง, asset, และผลกระทบ

    ✅ การปกป้อง AI = ต้องรู้ว่าใช้ข้อมูลชนิดใด feed เข้า model  
    • เช่น ข้อมูล HR, ลูกค้า, ผลิตภัณฑ์

    ✅ องค์กรต้องรู้ว่า “ใครใช้ AI บ้าง และใช้กับข้อมูลไหน” → เพื่อวาง data governance  
    • เช่น ใช้ scanning, encryption, redaction, การอนุญาต data input

    ✅ ควรปกป้อง “ตัว model” ด้วยการ:  
    • สแกน model file แบบเฉพาะทาง  
    • ป้องกัน typosquatting, neural backdoor, MSA (Model Serialization Attack)  
    • ตรวจสอบ supply chain model โดยเฉพาะ open-source

    ✅ ตัวอย่างองค์กรที่เปลี่ยนโครงสร้างแล้ว:  
    • Moderna รวม HR + IT เป็นตำแหน่งเดียว เพื่อดูแลทั้ง “คน + agent AI” พร้อมกัน

    https://www.csoonline.com/article/4006436/llms-hype-versus-reality-what-cisos-should-focus-on.html
    หลังจากงาน RSA Conference 2025 หลายคนเริ่มรู้สึกว่า “ข่าว AI น่ากลัวไปหมด” — ทั้ง deepfakes, hallucination, model leak, และ supply chain attack แบบใหม่ ๆ ที่อิง LLM แต่ Tony Martin-Vegue วิศวกรด้านความเสี่ยงของ Netflix บอกว่า สิ่งที่ CISO ต้องทำไม่ใช่ตื่นตระหนก แต่คือ กลับมาใช้วิธีคิดเดิม ๆ ที่เคยได้ผล — รู้ว่า AI ถูกใช้ที่ไหน โดยใคร และกับข้อมูลชนิดไหน แล้วค่อยวาง control Rob T. Lee จาก SANS ก็แนะนำว่า CISO ต้อง “ใช้ AI เองทุกวัน” จนเข้าใจพฤติกรรมของมัน ก่อนจะไปออกนโยบาย ส่วน Chris Hetner จาก NACD ก็เตือนว่าปัญหาไม่ใช่ AI แต่คือความวุ่นวายใน echo chamber ของวงการไซเบอร์เอง สุดท้าย Diana Kelley แห่ง Protect AI บอกว่า “อย่ารอจนโดน MSA (Model Serialization Attack)” ควรเริ่มวางแผนความปลอดภัยเฉพาะทางสำหรับ LLM แล้ว — ทั้งการสแกน model, ตรวจ typosquatting และจัดการ data flow จากต้นทาง ✅ ไม่ต้องตื่นตระหนกกับความเสี่ยงจาก LLM — แต่ให้กลับมาโฟกัสที่ security fundamentals ที่ใช้ได้เสมอ   • เช่น เข้าใจว่า AI ถูกใช้อย่างไร, ที่ไหน, โดยใคร, เพื่ออะไร ✅ ควรใช้แนวทางเดียวกับการบริหารความเสี่ยงของเทคโนโลยีใหม่ในอดีต   • เช่น BYOD, คลาวด์, SaaS ✅ Rob T. Lee (SANS) แนะนำให้ผู้บริหาร Cyber ลองใช้งาน AI จริงในชีวิตประจำวัน   • จะช่วยให้รู้ว่าควรตั้ง control อย่างไรในบริบทองค์กรจริง ✅ Chris Hetner (NACD) เตือนว่า FUD (ความกลัว, ความไม่แน่ใจ, ความสงสัย) มาจาก echo chamber และ vendor   • CISO ควรพากลับมาโฟกัสที่ profile ความเสี่ยง, asset, และผลกระทบ ✅ การปกป้อง AI = ต้องรู้ว่าใช้ข้อมูลชนิดใด feed เข้า model   • เช่น ข้อมูล HR, ลูกค้า, ผลิตภัณฑ์ ✅ องค์กรต้องรู้ว่า “ใครใช้ AI บ้าง และใช้กับข้อมูลไหน” → เพื่อวาง data governance   • เช่น ใช้ scanning, encryption, redaction, การอนุญาต data input ✅ ควรปกป้อง “ตัว model” ด้วยการ:   • สแกน model file แบบเฉพาะทาง   • ป้องกัน typosquatting, neural backdoor, MSA (Model Serialization Attack)   • ตรวจสอบ supply chain model โดยเฉพาะ open-source ✅ ตัวอย่างองค์กรที่เปลี่ยนโครงสร้างแล้ว:   • Moderna รวม HR + IT เป็นตำแหน่งเดียว เพื่อดูแลทั้ง “คน + agent AI” พร้อมกัน https://www.csoonline.com/article/4006436/llms-hype-versus-reality-what-cisos-should-focus-on.html
    WWW.CSOONLINE.COM
    LLMs hype versus reality: What CISOs should focus on
    In an overly reactive market to the risks posed by large language models (LLMs), CISO’s need not panic. Here are four common-sense security fundamentals to support AI-enabled business operations across the enterprise.
    0 Comments 0 Shares 18 Views 0 Reviews
  • ใครที่เคยทำงานกับระบบเซิร์ฟเวอร์หรือ Data Center จะรู้ว่าหนึ่งในปัญหาคอขวดใหญ่สุดคือ “หน่วยความจำไม่พอ” หรือไม่สามารถขยายได้ตามปริมาณข้อมูลที่โตแบบเอ็กซ์โปเนนเชียล — โดยเฉพาะในยุคที่งาน AI ต้องใช้โมเดลใหญ่ขึ้นเรื่อย ๆ และต้องการแรมมากกว่าก่อนหลายเท่า

    Primemas เลยสร้าง “Hublet” — หน่วยย่อยที่ทำหน้าที่เหมือนด่านแปลงสัญญาณและจัดการ DRAM ที่เชื่อมต่อด้วยมาตรฐาน CXL 3.0 ซึ่งทำให้สามารถนำไปประกอบเป็นระบบความจำแบบยืดหยุ่นได้หลายขนาด เช่น:

    - 1x1 Hublet: รองรับ DRAM ได้ถึง 512 GB ในฟอร์มแฟกเตอร์เล็ก E3.S
    - 2x2 Hublet: รองรับ Add-in card แบบ PCIe ที่ใส่ได้ถึง 2 TB
    - 4x4 Hublet: ประกอบเป็น rack memory appliance ขนาด 1U ได้ถึง 8 TB

    ที่น่าสนใจคือ Primemas ทำงานร่วมกับ Micron ในโปรแกรม CXL ASIC Validation Lab (AVL) เพื่อทดสอบความเข้ากันได้กับแรมแบบ 128 GB RDIMM รุ่นล่าสุด ซึ่งจะช่วยเร่งให้เทคโนโลยีนี้นำไปใช้ได้จริงเร็วขึ้น

    https://www.techpowerup.com/338302/primemas-announces-availability-of-customer-samples-of-its-cxl-3-0-soc-memory-controller
    ใครที่เคยทำงานกับระบบเซิร์ฟเวอร์หรือ Data Center จะรู้ว่าหนึ่งในปัญหาคอขวดใหญ่สุดคือ “หน่วยความจำไม่พอ” หรือไม่สามารถขยายได้ตามปริมาณข้อมูลที่โตแบบเอ็กซ์โปเนนเชียล — โดยเฉพาะในยุคที่งาน AI ต้องใช้โมเดลใหญ่ขึ้นเรื่อย ๆ และต้องการแรมมากกว่าก่อนหลายเท่า Primemas เลยสร้าง “Hublet” — หน่วยย่อยที่ทำหน้าที่เหมือนด่านแปลงสัญญาณและจัดการ DRAM ที่เชื่อมต่อด้วยมาตรฐาน CXL 3.0 ซึ่งทำให้สามารถนำไปประกอบเป็นระบบความจำแบบยืดหยุ่นได้หลายขนาด เช่น: - 1x1 Hublet: รองรับ DRAM ได้ถึง 512 GB ในฟอร์มแฟกเตอร์เล็ก E3.S - 2x2 Hublet: รองรับ Add-in card แบบ PCIe ที่ใส่ได้ถึง 2 TB - 4x4 Hublet: ประกอบเป็น rack memory appliance ขนาด 1U ได้ถึง 8 TB ที่น่าสนใจคือ Primemas ทำงานร่วมกับ Micron ในโปรแกรม CXL ASIC Validation Lab (AVL) เพื่อทดสอบความเข้ากันได้กับแรมแบบ 128 GB RDIMM รุ่นล่าสุด ซึ่งจะช่วยเร่งให้เทคโนโลยีนี้นำไปใช้ได้จริงเร็วขึ้น https://www.techpowerup.com/338302/primemas-announces-availability-of-customer-samples-of-its-cxl-3-0-soc-memory-controller
    WWW.TECHPOWERUP.COM
    Primemas Announces Availability of Customer Samples of Its CXL 3.0 SoC Memory Controller
    Primemas Inc., a fabless semiconductor company specializing in chiplet-based SoC solutions through its Hublet architecture, today announced the availability of customer samples of the world's first Compute Express Link (CXL) memory 3.0 controller. Primemas has been delivering engineering samples and...
    0 Comments 0 Shares 36 Views 0 Reviews
  • ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง

    ระบบนี้ประกอบด้วย:
    - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง
    - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที

    ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า"

    เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง)

    https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง ระบบนี้ประกอบด้วย: - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า" เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง) https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    WWW.TECHSPOT.COM
    X Display unveils ultra-fast, cable-free display that turns data into light
    X Display is focused on developing and licensing new intellectual property related to MicroLED and other display technologies. The North Carolina-based developer recently unveiled a novel application...
    0 Comments 0 Shares 33 Views 0 Reviews
  • ตอนแรกหลายองค์กรคิดว่า “ระบบรักษาความปลอดภัยที่มีอยู่แล้ว” น่าจะพอเอาอยู่กับ AI — เพราะก็มี patch, มี asset inventory, มี firewall อยู่แล้ว แต่วันนี้กลายเป็นว่า... AI คือสัตว์คนละสายพันธุ์เลยครับ

    เพราะ AI ขยายพื้นที่โจมตีออกไปถึง API, third-party, supply chain และยังมีความเสี่ยงใหม่แบบเฉพาะตัว เช่น model poisoning, prompt injection, data inference ซึ่งไม่เคยต้องรับมือในโลก legacy มาก่อน

    และแม้ว่าองค์กรจะลงทุนกับ AI อย่างหนัก แต่เกือบครึ่ง (46%) ของโครงการ AI ถูกหยุดกลางคันหรือไม่เคยได้ไปถึง production ด้วยซ้ำ — ส่วนใหญ่เกิดจากความล้มเหลวในด้าน governance, ความเสี่ยง, ข้อมูลไม่สะอาด และขาดทีมที่เข้าใจ AI จริง ๆ

    ข่าวนี้จึงเสนอบทบาทใหม่ 5 แบบที่ CISO ต้องกลายร่างเป็น: “นักกฎหมาย, นักวิเคราะห์, ครู, นักวิจัย และนักสร้างพันธมิตร”

    ✅ 5 ขั้นตอนสำคัญที่ CISO ต้องทำเพื่อรักษาความปลอดภัยของ AI:
    ✅ 1. เริ่มทุกอย่างด้วยโมเดล AI Governance ที่แข็งแรงและครอบคลุม  
    • ต้องมี alignment ระหว่างทีมธุรกิจ–เทคโนโลยีว่า AI จะใช้ทำอะไร และใช้อย่างไร  
    • สร้าง framework ที่รวม ethics, compliance, transparency และ success metrics  
    • ใช้แนวทางจาก NIST AI RMF, ISO/IEC 42001:2023, UNESCO AI Ethics, RISE และ CARE

    ✅ 2. พัฒนา “มุมมองความเสี่ยงของ AI” ที่ต่อเนื่องและลึกกว่าระบบปกติ  
    • สร้าง AI asset inventory, risk register, และ software bill of materials  
    • ติดตามภัยคุกคามเฉพาะ AI เช่น data leakage, model drift, prompt injection  
    • ใช้ MITRE ATLAS และตรวจสอบ vendor + third-party supply chain อย่างใกล้ชิด

    ✅ 3. ขยายนิยาม “data integrity” ให้ครอบคลุมถึงโมเดล AI ด้วย  
    • ไม่ใช่แค่ข้อมูลไม่โดนแก้ไข แต่รวมถึง bias, fairness และ veracity  
    • เช่นเคยมีกรณี Amazon และ UK ใช้ AI ที่กลายเป็นอคติทางเพศและสีผิว

    ✅ 4. ยกระดับ “AI literacy” ให้ทั้งองค์กรเข้าใจและใช้งานอย่างปลอดภัย  
    • เริ่มจากทีม Security → Dev → ฝ่ายธุรกิจ  
    • สอน OWASP Top 10 for LLMs, Google’s SAIF, CSA Secure AI  
    • End user ต้องรู้เรื่อง misuse, data leak และ deepfake ด้วย

    ✅ 5. มอง AI Security แบบ “ผู้ช่วย” ไม่ใช่ “อัตโนมัติเต็มขั้น”  
    • ใช้ AI ช่วย triage alert, คัด log, วิเคราะห์ risk score แต่ยังต้องมีคนคุม  
    • พิจารณาผู้ให้บริการ AI Security อย่างรอบคอบ เพราะหลายเจ้าแค่ “แปะป้าย AI” แต่ยังไม่ mature

    https://www.csoonline.com/article/4011384/the-cisos-5-step-guide-to-securing-ai-operations.html
    ตอนแรกหลายองค์กรคิดว่า “ระบบรักษาความปลอดภัยที่มีอยู่แล้ว” น่าจะพอเอาอยู่กับ AI — เพราะก็มี patch, มี asset inventory, มี firewall อยู่แล้ว แต่วันนี้กลายเป็นว่า... AI คือสัตว์คนละสายพันธุ์เลยครับ เพราะ AI ขยายพื้นที่โจมตีออกไปถึง API, third-party, supply chain และยังมีความเสี่ยงใหม่แบบเฉพาะตัว เช่น model poisoning, prompt injection, data inference ซึ่งไม่เคยต้องรับมือในโลก legacy มาก่อน และแม้ว่าองค์กรจะลงทุนกับ AI อย่างหนัก แต่เกือบครึ่ง (46%) ของโครงการ AI ถูกหยุดกลางคันหรือไม่เคยได้ไปถึง production ด้วยซ้ำ — ส่วนใหญ่เกิดจากความล้มเหลวในด้าน governance, ความเสี่ยง, ข้อมูลไม่สะอาด และขาดทีมที่เข้าใจ AI จริง ๆ ข่าวนี้จึงเสนอบทบาทใหม่ 5 แบบที่ CISO ต้องกลายร่างเป็น: “นักกฎหมาย, นักวิเคราะห์, ครู, นักวิจัย และนักสร้างพันธมิตร” ✅ 5 ขั้นตอนสำคัญที่ CISO ต้องทำเพื่อรักษาความปลอดภัยของ AI: ✅ 1. เริ่มทุกอย่างด้วยโมเดล AI Governance ที่แข็งแรงและครอบคลุม   • ต้องมี alignment ระหว่างทีมธุรกิจ–เทคโนโลยีว่า AI จะใช้ทำอะไร และใช้อย่างไร   • สร้าง framework ที่รวม ethics, compliance, transparency และ success metrics   • ใช้แนวทางจาก NIST AI RMF, ISO/IEC 42001:2023, UNESCO AI Ethics, RISE และ CARE ✅ 2. พัฒนา “มุมมองความเสี่ยงของ AI” ที่ต่อเนื่องและลึกกว่าระบบปกติ   • สร้าง AI asset inventory, risk register, และ software bill of materials   • ติดตามภัยคุกคามเฉพาะ AI เช่น data leakage, model drift, prompt injection   • ใช้ MITRE ATLAS และตรวจสอบ vendor + third-party supply chain อย่างใกล้ชิด ✅ 3. ขยายนิยาม “data integrity” ให้ครอบคลุมถึงโมเดล AI ด้วย   • ไม่ใช่แค่ข้อมูลไม่โดนแก้ไข แต่รวมถึง bias, fairness และ veracity   • เช่นเคยมีกรณี Amazon และ UK ใช้ AI ที่กลายเป็นอคติทางเพศและสีผิว ✅ 4. ยกระดับ “AI literacy” ให้ทั้งองค์กรเข้าใจและใช้งานอย่างปลอดภัย   • เริ่มจากทีม Security → Dev → ฝ่ายธุรกิจ   • สอน OWASP Top 10 for LLMs, Google’s SAIF, CSA Secure AI   • End user ต้องรู้เรื่อง misuse, data leak และ deepfake ด้วย ✅ 5. มอง AI Security แบบ “ผู้ช่วย” ไม่ใช่ “อัตโนมัติเต็มขั้น”   • ใช้ AI ช่วย triage alert, คัด log, วิเคราะห์ risk score แต่ยังต้องมีคนคุม   • พิจารณาผู้ให้บริการ AI Security อย่างรอบคอบ เพราะหลายเจ้าแค่ “แปะป้าย AI” แต่ยังไม่ mature https://www.csoonline.com/article/4011384/the-cisos-5-step-guide-to-securing-ai-operations.html
    WWW.CSOONLINE.COM
    The CISO’s 5-step guide to securing AI operations
    Security leaders must become AI cheerleaders, risk experts, data stewards, teachers, and researchers. Here’s how to lead your organization toward more secure and effective AI use.
    0 Comments 0 Shares 49 Views 0 Reviews
  • หลายองค์กรยังมอง CISO เป็น “ฝ่าย IT” ที่คอยกันภัยอยู่ท้ายขบวน แต่วันนี้ CISO ต้องเปลี่ยนบทบาทเป็น พาร์ตเนอร์ธุรกิจ ที่ตอบคำถาม CEO ได้ว่า “เราปลอดภัยพอจะเดินหน้าต่อหรือยัง?”

    ไม่ใช่แค่เรื่องเทคนิคอีกต่อไป — คำถามสำคัญกลายเป็นเรื่องแบบนี้:
    - ทีมเราทำให้ธุรกิจคล่องตัวขึ้น หรือแค่เป็นตัวถ่วง?
    - ดาต้าอยู่ตรงไหนจริง ๆ กันแน่ (รวม shadow IT ด้วยไหม)?
    - สิ่งที่เราทำ ถูกมองว่า "ช่วย" หรือ "ขวาง" คนอื่น?
    - เราเล่าเรื่องความเสี่ยงให้ผู้บริหารเข้าใจได้ หรือยังพูดแบบเทคนิคจ๋าจนไม่มีใครฟัง?

    และที่น่าสนใจคือ… AI เองก็เปลี่ยนบทบาททีม Cyber แล้ว — จากคนทำ log analysis → กลายเป็นผู้ช่วยหาช่องโหว่แบบอัตโนมัติ ดังนั้นคำถามที่เพิ่มขึ้นคือ “เราจะใช้ AI เสริมทีม หรือโดนแทนที่?”

    คำถามสำคัญ:

    ✅ CISO ควรถามตัวเองว่าเป็น “ผู้ขับเคลื่อนธุรกิจ” หรือ “ตัวถ่วง”  
    • ถ้าทีมอื่นไม่อยากชวนเราเข้าประชุมช่วงวางแผน อาจมีปัญหาเรื่อง perception  
    • ควรเปลี่ยนบทบาทจาก “ตำรวจ” เป็น “ที่ปรึกษา”

    ✅ กลยุทธ์รักษาความปลอดภัยต้องสมดุลกับระดับความเสี่ยงที่ธุรกิจยอมรับได้  
    • ปิดทุกอย่างไม่ได้ = ธุรกิจหยุด  
    • เปิดหมด = เสี่ยงเกินไป  
    • ต้อง “รู้จังหวะว่าเสี่ยงแค่ไหนถึงพอเหมาะ”

    ✅ ข้อมูลประเภทไหนอยู่ที่ไหน = หัวใจของแผน Cyber  
    • หลายองค์กรมี “ข้อมูลลับ” ที่หลุดอยู่นอกระบบหลัก เช่น shared drive, shadow IT  
    • รวมถึงดาต้าจากบริษัทที่ควบรวมมา

    ✅ วัดผลแบบไหนถึงจะสื่อสารกับบอร์ดได้ดี?  
    • อย่าวัดแค่ patch กี่เครื่อง หรือ alert เยอะแค่ไหน  
    • ควรวัดว่า “สิ่งที่ทำ” ส่งผลยังไงกับ KPI ธุรกิจ เช่น revenue loss prevented

    ✅ พูดแบบ technical จ๋าเกินไป = ผู้บริหารไม่เข้าใจความเสี่ยงจริง  
    • ต้องฝึกเล่าเรื่อง “ความเสี่ยงทางธุรกิจ” ไม่ใช่แค่ “config ผิด”

    ✅ วัฒนธรรมทีมก็สำคัญ: ทีมเรากล้าท้าทายความเห็น CISO ไหม?  
    • ถ้าไม่มี dissent = ผู้นำอาจมองไม่เห็น blind spot ตัวเอง

    ✅ ลูกค้าต้องการให้เราทำอะไรด้านความปลอดภัยบ้าง?  
    • วิเคราะห์จาก security questionnaire ที่ลูกค้าส่ง  
    • ใช้เป็น data สร้าง business case ได้ว่า “ถ้าไม่ทำ = เสียรายได้กลุ่มนี้”

    ✅ AI จะเปลี่ยนวิธีจัดทีม Cyber อย่างไร?  
    • ลดความต้องการคน entry-level (SOC Tier 1)  
    • ต้องเน้นฝึก analyst ที่เก่งขึ้น (Tier 2+) ที่รู้จัก “ทำงานร่วมกับ AI”

    ✅ ความเสี่ยงใหม่ไม่ได้มาจาก Zero-day เสมอไป — แต่มาจาก “สิ่งที่เราไม่รู้ว่ามีอยู่”  
    • เช่น ระบบเก่า, S3 bucket ที่ลืมปิด, API ใหม่ที่ไม่มีคนดู

    ✅ CISO ควรถามว่า: “ศัตรูเราเป็นใคร และเขาจะมาโจมตีช่องไหน?”  
    • วางแผนจาก threat model และจัด stack ให้พร้อมต่ออนาคต เช่น Quantum-resistant crypto

    https://www.csoonline.com/article/4009212/10-tough-cybersecurity-questions-every-ciso-must-answer.html
    หลายองค์กรยังมอง CISO เป็น “ฝ่าย IT” ที่คอยกันภัยอยู่ท้ายขบวน แต่วันนี้ CISO ต้องเปลี่ยนบทบาทเป็น พาร์ตเนอร์ธุรกิจ ที่ตอบคำถาม CEO ได้ว่า “เราปลอดภัยพอจะเดินหน้าต่อหรือยัง?” ไม่ใช่แค่เรื่องเทคนิคอีกต่อไป — คำถามสำคัญกลายเป็นเรื่องแบบนี้: - ทีมเราทำให้ธุรกิจคล่องตัวขึ้น หรือแค่เป็นตัวถ่วง? - ดาต้าอยู่ตรงไหนจริง ๆ กันแน่ (รวม shadow IT ด้วยไหม)? - สิ่งที่เราทำ ถูกมองว่า "ช่วย" หรือ "ขวาง" คนอื่น? - เราเล่าเรื่องความเสี่ยงให้ผู้บริหารเข้าใจได้ หรือยังพูดแบบเทคนิคจ๋าจนไม่มีใครฟัง? และที่น่าสนใจคือ… AI เองก็เปลี่ยนบทบาททีม Cyber แล้ว — จากคนทำ log analysis → กลายเป็นผู้ช่วยหาช่องโหว่แบบอัตโนมัติ ดังนั้นคำถามที่เพิ่มขึ้นคือ “เราจะใช้ AI เสริมทีม หรือโดนแทนที่?” คำถามสำคัญ: ✅ CISO ควรถามตัวเองว่าเป็น “ผู้ขับเคลื่อนธุรกิจ” หรือ “ตัวถ่วง”   • ถ้าทีมอื่นไม่อยากชวนเราเข้าประชุมช่วงวางแผน อาจมีปัญหาเรื่อง perception   • ควรเปลี่ยนบทบาทจาก “ตำรวจ” เป็น “ที่ปรึกษา” ✅ กลยุทธ์รักษาความปลอดภัยต้องสมดุลกับระดับความเสี่ยงที่ธุรกิจยอมรับได้   • ปิดทุกอย่างไม่ได้ = ธุรกิจหยุด   • เปิดหมด = เสี่ยงเกินไป   • ต้อง “รู้จังหวะว่าเสี่ยงแค่ไหนถึงพอเหมาะ” ✅ ข้อมูลประเภทไหนอยู่ที่ไหน = หัวใจของแผน Cyber   • หลายองค์กรมี “ข้อมูลลับ” ที่หลุดอยู่นอกระบบหลัก เช่น shared drive, shadow IT   • รวมถึงดาต้าจากบริษัทที่ควบรวมมา ✅ วัดผลแบบไหนถึงจะสื่อสารกับบอร์ดได้ดี?   • อย่าวัดแค่ patch กี่เครื่อง หรือ alert เยอะแค่ไหน   • ควรวัดว่า “สิ่งที่ทำ” ส่งผลยังไงกับ KPI ธุรกิจ เช่น revenue loss prevented ✅ พูดแบบ technical จ๋าเกินไป = ผู้บริหารไม่เข้าใจความเสี่ยงจริง   • ต้องฝึกเล่าเรื่อง “ความเสี่ยงทางธุรกิจ” ไม่ใช่แค่ “config ผิด” ✅ วัฒนธรรมทีมก็สำคัญ: ทีมเรากล้าท้าทายความเห็น CISO ไหม?   • ถ้าไม่มี dissent = ผู้นำอาจมองไม่เห็น blind spot ตัวเอง ✅ ลูกค้าต้องการให้เราทำอะไรด้านความปลอดภัยบ้าง?   • วิเคราะห์จาก security questionnaire ที่ลูกค้าส่ง   • ใช้เป็น data สร้าง business case ได้ว่า “ถ้าไม่ทำ = เสียรายได้กลุ่มนี้” ✅ AI จะเปลี่ยนวิธีจัดทีม Cyber อย่างไร?   • ลดความต้องการคน entry-level (SOC Tier 1)   • ต้องเน้นฝึก analyst ที่เก่งขึ้น (Tier 2+) ที่รู้จัก “ทำงานร่วมกับ AI” ✅ ความเสี่ยงใหม่ไม่ได้มาจาก Zero-day เสมอไป — แต่มาจาก “สิ่งที่เราไม่รู้ว่ามีอยู่”   • เช่น ระบบเก่า, S3 bucket ที่ลืมปิด, API ใหม่ที่ไม่มีคนดู ✅ CISO ควรถามว่า: “ศัตรูเราเป็นใคร และเขาจะมาโจมตีช่องไหน?”   • วางแผนจาก threat model และจัด stack ให้พร้อมต่ออนาคต เช่น Quantum-resistant crypto https://www.csoonline.com/article/4009212/10-tough-cybersecurity-questions-every-ciso-must-answer.html
    WWW.CSOONLINE.COM
    10 tough cybersecurity questions every CISO must answer
    From anticipating new threats to balancing risk management and business enablement, CISOs face a range of complex challenges that require continual reflection and strategic execution.
    0 Comments 0 Shares 68 Views 0 Reviews
  • ปกติเวลาพูดถึงเทคโนโลยี เรามักจะนึกถึง “พลังงาน” ที่มันใช้มากขึ้นเรื่อย ๆ โดยเฉพาะโทรศัพท์มือถือ, สัญญาณ 5G หรือแม้แต่เน็ตบนรถไฟฟ้า แต่งานวิจัยล่าสุดจาก GSMA บอกว่า แม้ผู้ใช้งานมือถือทั่วโลกจะเพิ่มขึ้นถึง 9% และมีการใช้ดาต้ามากกว่า 4 เท่า — แต่มือถือกลับปล่อยคาร์บอนน้อยลง

    สิ่งที่ช่วยให้เป็นแบบนั้นก็มีหลายปัจจัย เช่น:
    - การยกเลิกเครือข่ายเก่า (เช่น 2G/3G) ที่กินไฟมาก
    - เปลี่ยนจากเครื่องปั่นไฟดีเซล มาใช้พลังงานทดแทน (แสงอาทิตย์/แบตเตอรี่)
    - ใช้เทคโนโลยีสื่อสารใหม่ที่ประหยัดพลังงานมากขึ้น

    โดยเฉพาะ “จีน” ที่เป็นตลาดมือถือใหญ่ที่สุดในโลก (มีผู้ใช้ 5G กว่า 1 พันล้านราย) กลับลดคาร์บอนลง 4% ในปี 2024 ได้สำเร็จ

    แต่ทาง GSMA ก็ยังบอกว่า ยังเร็วเกินจะดีใจ เพราะเป้าหมาย Net Zero ต้องลดลงเฉลี่ย 7.5% ต่อปี — ตอนนี้ทำได้แค่ 4.5% เท่านั้นในปีล่าสุด

    เรื่องที่น่าเป็นห่วงอีกด้านคือ “รอยเท้าคาร์บอนที่แฝงอยู่” (Scope 3) เช่น:
    - การผลิตมือถือและสายส่ง
    - การจัดส่งและรีไซเคิล
    - ระบบซัพพลายเชนทั้งหมด

    จุดนี้คิดเป็น 2 ใน 3 ของคาร์บอนทั้งหมดในอุตสาหกรรมมือถือ ซึ่งยังไม่มีการควบคุมอย่างจริงจังเท่า Scope 1–2

    ข่าวดีคือ ผู้บริโภคเริ่มสนใจความยั่งยืนแล้วจริง ๆ:
    - 90% อยากให้มือถือซ่อมง่ายและใช้นาน
    - 50% พร้อมซื้อเครื่อง Refurbished ซึ่งปล่อยคาร์บอนน้อยกว่ามือถือใหม่ถึง 80–90%
    - ตลาดมือถือมือสองตอนนี้โตไวมาก คาดว่าจะมูลค่าถึง $150B ภายในปี 2027 เลยทีเดียว

    https://www.techradar.com/pro/mobile-industry-slashes-global-carbon-emissions-despite-4x-increase-in-worldwide-data-traffic-heres-why-it-matters
    ปกติเวลาพูดถึงเทคโนโลยี เรามักจะนึกถึง “พลังงาน” ที่มันใช้มากขึ้นเรื่อย ๆ โดยเฉพาะโทรศัพท์มือถือ, สัญญาณ 5G หรือแม้แต่เน็ตบนรถไฟฟ้า แต่งานวิจัยล่าสุดจาก GSMA บอกว่า แม้ผู้ใช้งานมือถือทั่วโลกจะเพิ่มขึ้นถึง 9% และมีการใช้ดาต้ามากกว่า 4 เท่า — แต่มือถือกลับปล่อยคาร์บอนน้อยลง สิ่งที่ช่วยให้เป็นแบบนั้นก็มีหลายปัจจัย เช่น: - การยกเลิกเครือข่ายเก่า (เช่น 2G/3G) ที่กินไฟมาก - เปลี่ยนจากเครื่องปั่นไฟดีเซล มาใช้พลังงานทดแทน (แสงอาทิตย์/แบตเตอรี่) - ใช้เทคโนโลยีสื่อสารใหม่ที่ประหยัดพลังงานมากขึ้น โดยเฉพาะ “จีน” ที่เป็นตลาดมือถือใหญ่ที่สุดในโลก (มีผู้ใช้ 5G กว่า 1 พันล้านราย) กลับลดคาร์บอนลง 4% ในปี 2024 ได้สำเร็จ แต่ทาง GSMA ก็ยังบอกว่า ยังเร็วเกินจะดีใจ เพราะเป้าหมาย Net Zero ต้องลดลงเฉลี่ย 7.5% ต่อปี — ตอนนี้ทำได้แค่ 4.5% เท่านั้นในปีล่าสุด เรื่องที่น่าเป็นห่วงอีกด้านคือ “รอยเท้าคาร์บอนที่แฝงอยู่” (Scope 3) เช่น: - การผลิตมือถือและสายส่ง - การจัดส่งและรีไซเคิล - ระบบซัพพลายเชนทั้งหมด จุดนี้คิดเป็น 2 ใน 3 ของคาร์บอนทั้งหมดในอุตสาหกรรมมือถือ ซึ่งยังไม่มีการควบคุมอย่างจริงจังเท่า Scope 1–2 ข่าวดีคือ ผู้บริโภคเริ่มสนใจความยั่งยืนแล้วจริง ๆ: - 90% อยากให้มือถือซ่อมง่ายและใช้นาน - 50% พร้อมซื้อเครื่อง Refurbished ซึ่งปล่อยคาร์บอนน้อยกว่ามือถือใหม่ถึง 80–90% - ตลาดมือถือมือสองตอนนี้โตไวมาก คาดว่าจะมูลค่าถึง $150B ภายในปี 2027 เลยทีเดียว https://www.techradar.com/pro/mobile-industry-slashes-global-carbon-emissions-despite-4x-increase-in-worldwide-data-traffic-heres-why-it-matters
    0 Comments 0 Shares 73 Views 0 Reviews
  • แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die)

    ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง

    ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง

    แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม

    ✅ AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows  
    • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว)

    ✅ การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี  
    • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด  
    • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ

    ✅ C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม  
    • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling

    ✅ การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น  
    • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ

    ✅ Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้  
    • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม

    ‼️ การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption  
    • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง

    ‼️ ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ  
    • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป

    ‼️ ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน  
    • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ

    ‼️ การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง  
    • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง

    https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die) ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม ✅ AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows   • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว) ✅ การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี   • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด   • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ ✅ C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม   • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling ✅ การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น   • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ ✅ Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้   • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม ‼️ การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption   • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง ‼️ ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ   • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป ‼️ ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน   • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ ‼️ การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง   • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    WWW.NEOWIN.NET
    Some AMD Ryzen users can get free Windows performance boost with this simple system tweak
    AMD Ryzen processor owners, especially X3D ones, may be in for a pleasant surprise as a simple tweak to one of their system settings can help boost performance.
    0 Comments 0 Shares 79 Views 0 Reviews
  • คนส่วนใหญ่มักจะคิดว่า GPU = เล่นเกม แต่ ASRock กำลังจะเปลี่ยนภาพนั้น ด้วยการเปิดตัว Radeon RX AI Pro R9700 Creator ที่ไม่ได้เกิดมาเพื่อแค่เฟรมเรตสูง...แต่เน้น “ประสิทธิภาพเสถียรและหน่วยความจำเยอะ” สำหรับทำงาน AI inference, video rendering, CAD, หรือ data science โดยเฉพาะ

    ตัวการ์ดใช้ดีไซน์ blower แบบ 2 สล็อตระบายความร้อนได้ดีในเคสแคบ ๆ เหมาะมากสำหรับติดตั้งหลายใบในเครื่องเดียว โดยใช้ แรม GDDR6 ขนาด 32GB ความเร็ว 20 Gbps และ อินเทอร์เฟซความกว้าง 256 บิต ทำให้ได้แบนด์วิธสูงถึง 644.6 GB/s ซึ่งเพียงพอสำหรับโหลดโมเดลขนาดใหญ่

    ด้านกำลังไฟ การ์ดใช้หัวต่อ 12V-2x6 (แบบเดียวกับ RTX 40 ซีรีส์) ซึ่งรับไฟได้ถึง 300W และแนะนำให้ใช้ PSU อย่างน้อย 800W — ฟังดูแรง แต่ถือเป็นมาตรฐานของการ์ดระดับมืออาชีพในยุคนี้

    พอร์ตจอดูอาจจะเก่า (DisplayPort 1.2a) แต่ก็ยังแสดงผลระดับ 8K ได้ถึง 4 จอพร้อมกัน เรียกว่าเน้นงานมากกว่าความใหม่หรูของเกม

    ✅ ASRock เปิดตัว Radeon RX AI Pro R9700 Creator สำหรับงาน AI / เวิร์กสเตชัน  
    • ใช้ชิป Navi 48 พร้อม 4,096 SPs  
    • Clock สูงสุดที่ 2,920 MHz (boost), 2,350 MHz (base)

    ✅ แรม 32GB GDDR6 @ 20 Gbps พร้อม bus 256-bit  
    • แบนด์วิธรวม 644.6 GB/s

    ✅ ออกแบบแบบ blower 2 สล็อต เหมาะสำหรับ multi-GPU workstation  
    • มี vapor chamber + thermal pad ระดับสูง (Honeywell PTM7950)

    ✅ พอร์ตจอแบบ DisplayPort 1.2a รองรับ 8K ได้สูงสุด 4 จอ

    ✅ ใช้พลังงาน 300W ผ่านหัว 12V-2x6  
    • แนะนำ PSU อย่างน้อย 800W จากแบรนด์น่าเชื่อถือ

    ✅ มีกำหนดวางจำหน่ายในเดือนกรกฎาคม 2025  
    • ยังไม่ประกาศราคาอย่างเป็นทางการ

    https://www.tomshardware.com/pc-components/gpus/asrock-preps-radeon-rx-ai-pro-r9700-creator-for-ai-and-workstation-users-blower-card-adopts-16-pin-connector-features-300w-tbp-rating
    คนส่วนใหญ่มักจะคิดว่า GPU = เล่นเกม แต่ ASRock กำลังจะเปลี่ยนภาพนั้น ด้วยการเปิดตัว Radeon RX AI Pro R9700 Creator ที่ไม่ได้เกิดมาเพื่อแค่เฟรมเรตสูง...แต่เน้น “ประสิทธิภาพเสถียรและหน่วยความจำเยอะ” สำหรับทำงาน AI inference, video rendering, CAD, หรือ data science โดยเฉพาะ ตัวการ์ดใช้ดีไซน์ blower แบบ 2 สล็อตระบายความร้อนได้ดีในเคสแคบ ๆ เหมาะมากสำหรับติดตั้งหลายใบในเครื่องเดียว โดยใช้ แรม GDDR6 ขนาด 32GB ความเร็ว 20 Gbps และ อินเทอร์เฟซความกว้าง 256 บิต ทำให้ได้แบนด์วิธสูงถึง 644.6 GB/s ซึ่งเพียงพอสำหรับโหลดโมเดลขนาดใหญ่ ด้านกำลังไฟ การ์ดใช้หัวต่อ 12V-2x6 (แบบเดียวกับ RTX 40 ซีรีส์) ซึ่งรับไฟได้ถึง 300W และแนะนำให้ใช้ PSU อย่างน้อย 800W — ฟังดูแรง แต่ถือเป็นมาตรฐานของการ์ดระดับมืออาชีพในยุคนี้ พอร์ตจอดูอาจจะเก่า (DisplayPort 1.2a) แต่ก็ยังแสดงผลระดับ 8K ได้ถึง 4 จอพร้อมกัน เรียกว่าเน้นงานมากกว่าความใหม่หรูของเกม ✅ ASRock เปิดตัว Radeon RX AI Pro R9700 Creator สำหรับงาน AI / เวิร์กสเตชัน   • ใช้ชิป Navi 48 พร้อม 4,096 SPs   • Clock สูงสุดที่ 2,920 MHz (boost), 2,350 MHz (base) ✅ แรม 32GB GDDR6 @ 20 Gbps พร้อม bus 256-bit   • แบนด์วิธรวม 644.6 GB/s ✅ ออกแบบแบบ blower 2 สล็อต เหมาะสำหรับ multi-GPU workstation   • มี vapor chamber + thermal pad ระดับสูง (Honeywell PTM7950) ✅ พอร์ตจอแบบ DisplayPort 1.2a รองรับ 8K ได้สูงสุด 4 จอ ✅ ใช้พลังงาน 300W ผ่านหัว 12V-2x6   • แนะนำ PSU อย่างน้อย 800W จากแบรนด์น่าเชื่อถือ ✅ มีกำหนดวางจำหน่ายในเดือนกรกฎาคม 2025   • ยังไม่ประกาศราคาอย่างเป็นทางการ https://www.tomshardware.com/pc-components/gpus/asrock-preps-radeon-rx-ai-pro-r9700-creator-for-ai-and-workstation-users-blower-card-adopts-16-pin-connector-features-300w-tbp-rating
    0 Comments 0 Shares 96 Views 0 Reviews
  • ในปี 2026 AMD กำลังจะเปิดตัวการ์ดจอรุ่นใหม่ที่ใช้โค้ดเนมสถาปัตยกรรมว่า UDNA (GFX13) ซึ่งจะเปลี่ยนหน้าประวัติศาสตร์ของ GPU ฝั่ง AMD เพราะจะเป็นครั้งแรกที่รวมสถาปัตยกรรมเกมและ data center เข้าด้วยกัน (เคยแยกเป็น RDNA กับ CDNA)

    สิ่งที่เป็นประเด็นคือ UDNA จะรองรับ HDMI 2.2 ที่แบนด์วิดธ์ 64 Gbps และ 80 Gbps ซึ่งถือว่าสูงมากพอสำหรับ 4K@240Hz หรือ 8K@120Hz แบบไม่มีการบีบอัด (4:4:4) แต่ ยังไม่ถึงระดับสูงสุดของ HDMI 2.2 ที่รองรับได้ถึง 96 Gbps (หรือ “Ultra96”) เพราะ AMD ยังไม่ใช้เทคโนโลยี Fixed Rate Link (FRL) แบบเต็มตัว

    การที่ AMD ไม่ใช้ Ultra96 เต็ม ๆ อาจเพราะเรื่องต้นทุน หรือมองว่า 80Gbps ก็เพียงพอแล้วสำหรับกลุ่มเป้าหมายช่วงเปิดตัว ซึ่งรวมถึง PlayStation 6 ที่ลือกันว่าก็จะใช้ UDNA นี้เช่นกัน

    ✅ AMD เตรียมเปิดตัว GPU สถาปัตยกรรมใหม่ “UDNA” ในปี 2026  
    • มาแทน RDNA/CDNA โดยรวมเกมกับ data center GPU เข้าด้วยกัน  
    • โค้ดเนม GFX13

    ✅ รองรับ HDMI 2.2 ที่ความเร็ว 64 และ 80 Gbps  
    • สูงพอสำหรับ 4K@240Hz และ 8K@120Hz แบบ uncompressed  
    • แต่ยังไม่รองรับ Ultra96 (96 Gbps เต็มที่)

    ✅ HDMI 2.2 เปิดตัวอย่างเป็นทางการช่วง CES 2025  
    • เข้ากันได้กับพอร์ต HDMI เดิม (backward compatible)  
    • แต่ต้องใช้สาย Ultra96 certified จึงจะใช้ความสามารถเต็มที่ได้

    ✅ ประโยชน์ของ Ultra96 คือรองรับวิดีโอ 10K/12K ที่ 120Hz หรือ 4K ที่ 480Hz  
    • เหมาะกับงานสายมืออาชีพระดับเฉพาะทางมากกว่า

    ✅ PlayStation 6 ถูกลือว่าจะใช้ GPU UDNA เหมือนกัน  
    • แต่ยังไม่ชัวร์ว่าจะใช้ CPU สาย Zen 4 หรือ Zen 5

    https://www.techspot.com/news/108393-amd-next-gen-udna-graphics-cards-support-up.html
    ในปี 2026 AMD กำลังจะเปิดตัวการ์ดจอรุ่นใหม่ที่ใช้โค้ดเนมสถาปัตยกรรมว่า UDNA (GFX13) ซึ่งจะเปลี่ยนหน้าประวัติศาสตร์ของ GPU ฝั่ง AMD เพราะจะเป็นครั้งแรกที่รวมสถาปัตยกรรมเกมและ data center เข้าด้วยกัน (เคยแยกเป็น RDNA กับ CDNA) สิ่งที่เป็นประเด็นคือ UDNA จะรองรับ HDMI 2.2 ที่แบนด์วิดธ์ 64 Gbps และ 80 Gbps ซึ่งถือว่าสูงมากพอสำหรับ 4K@240Hz หรือ 8K@120Hz แบบไม่มีการบีบอัด (4:4:4) แต่ ยังไม่ถึงระดับสูงสุดของ HDMI 2.2 ที่รองรับได้ถึง 96 Gbps (หรือ “Ultra96”) เพราะ AMD ยังไม่ใช้เทคโนโลยี Fixed Rate Link (FRL) แบบเต็มตัว การที่ AMD ไม่ใช้ Ultra96 เต็ม ๆ อาจเพราะเรื่องต้นทุน หรือมองว่า 80Gbps ก็เพียงพอแล้วสำหรับกลุ่มเป้าหมายช่วงเปิดตัว ซึ่งรวมถึง PlayStation 6 ที่ลือกันว่าก็จะใช้ UDNA นี้เช่นกัน ✅ AMD เตรียมเปิดตัว GPU สถาปัตยกรรมใหม่ “UDNA” ในปี 2026   • มาแทน RDNA/CDNA โดยรวมเกมกับ data center GPU เข้าด้วยกัน   • โค้ดเนม GFX13 ✅ รองรับ HDMI 2.2 ที่ความเร็ว 64 และ 80 Gbps   • สูงพอสำหรับ 4K@240Hz และ 8K@120Hz แบบ uncompressed   • แต่ยังไม่รองรับ Ultra96 (96 Gbps เต็มที่) ✅ HDMI 2.2 เปิดตัวอย่างเป็นทางการช่วง CES 2025   • เข้ากันได้กับพอร์ต HDMI เดิม (backward compatible)   • แต่ต้องใช้สาย Ultra96 certified จึงจะใช้ความสามารถเต็มที่ได้ ✅ ประโยชน์ของ Ultra96 คือรองรับวิดีโอ 10K/12K ที่ 120Hz หรือ 4K ที่ 480Hz   • เหมาะกับงานสายมืออาชีพระดับเฉพาะทางมากกว่า ✅ PlayStation 6 ถูกลือว่าจะใช้ GPU UDNA เหมือนกัน   • แต่ยังไม่ชัวร์ว่าจะใช้ CPU สาย Zen 4 หรือ Zen 5 https://www.techspot.com/news/108393-amd-next-gen-udna-graphics-cards-support-up.html
    WWW.TECHSPOT.COM
    AMD's next-gen UDNA graphics cards will support up to 80 Gbps HDMI 2.2 connectivity
    According to Kepler_L2, UDNA GPUs – codenamed GFX13 – will support 64 Gbps and 80 Gbps bandwidths over HDMI 2.2 connections. If the report is accurate, it...
    0 Comments 0 Shares 77 Views 0 Reviews
  • หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป

    ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor)

    โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา

    แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง

    NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน

    เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว

    https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor) โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    0 Comments 0 Shares 102 Views 0 Reviews
  • การสร้าง AI อย่าง ChatGPT หรือแผนที่ Google ต้องใช้ศูนย์ข้อมูลขนาดมหึมา ซึ่งกินไฟเท่ากับทั้งประเทศเบลเยียมหรือโปแลนด์รวมกัน! และในปี 2030 ตัวเลขนี้อาจ "เบิ้ล" ขึ้นไปอีก โดย 40% ของไฟที่ดาต้าเซ็นเตอร์ใช้...หมดไปกับ "แอร์"

    Daniel Pope ผู้ก่อตั้งบริษัท Submer จึงเสนอวิธีสุดล้ำคือ “เอาเซิร์ฟเวอร์ทั้งก้อนจุ่มลงในของเหลวพิเศษ” ที่ไม่ติดไฟ ไม่นำไฟฟ้า และดูเหมือนเบบี้ออยล์ วิธีนี้ช่วยระบายความร้อนโดยตรงกับชิปได้ดีและใช้ไฟน้อยกว่าแอร์เย็นทั่วไป — ผลการศึกษาในเนเธอร์แลนด์พบว่า ลดพลังงานได้ถึง 50%

    ระบบนี้เรียกว่า Immersion Cooling มีคนใช้แล้วใน 17 ประเทศ รายใหญ่ เช่น Intel, Dell และแม้แต่ Microsoft ก็เริ่มสนใจ ใช้กับชิป Maia 100 และพัฒนา “ห้องน้ำเซิร์ฟเวอร์” แบบจุ่มทั้งเครื่องอยู่ด้วย

    แน่นอนว่าไม่ได้ง่าย เพราะของเหลวแบบนี้แพงกว่าระบบแอร์ประมาณ 25% ติดตั้งยาก ต้องดัดแปลงอาคารเดิม และยังไม่มีมาตรฐานอุตสาหกรรมชัดเจน แถมเวลาจะซ่อมเซิร์ฟเวอร์ก็ต้อง “ล้วงในน้ำ” แบบเปียก ๆ ด้วย

    ✅ ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาล — มากกว่าประเทศเบลเยียมทั้งประเทศ  
    • และกำลังจะเพิ่มขึ้น 2 เท่าภายในปี 2030  
    • 40% ของพลังงานในดาต้าเซ็นเตอร์ใช้กับระบบทำความเย็น

    ✅ Immersion Cooling คือการจุ่มทั้ง rack ลงในของเหลวพิเศษที่ไม่ติดไฟและไม่เป็นสื่อไฟฟ้า  
    • ของเหลวจาก Submer ทำจากปิโตรเลียมหรือปาล์ม และสามารถย่อยสลายได้  
    • ลดการใช้ไฟได้ >10% และสูงสุดถึง 50% จากบางงานวิจัย

    ✅ ประสิทธิภาพดีกว่าระบบแอร์: ระบายความร้อนตรงชิ้นส่วนโดยไม่ต้องเย็นทั้งห้อง  
    • รองรับเซิร์ฟเวอร์ยุคใหม่ที่ใช้ชิปแรง ๆ อย่าง NVIDIA B200 ที่กินไฟหนัก

    ✅ ลดการใช้น้ำ — ดาต้าเซ็นเตอร์ทั่วไปใช้น้ำมากถึง 2 ล้านลิตร/วันในสหรัฐฯ  
    • Immersion cooling ไม่ต้องพึ่งน้ำหมุนเวียนจำนวนมาก

    ✅ ใช้พื้นที่น้อยลง — ช่วยลด footprint ของดาต้าเซ็นเตอร์  
    • เหมาะกับเมืองที่มีข้อจำกัดด้านพลังงานหรือที่ดิน

    ✅ Submer มีรายได้ทะลุ €150 ล้านในปี 2023 (โตจากแค่ €600K ในปี 2018)  
    • ลูกค้าใน 17 ประเทศ และคู่ค้าระดับโลกเช่น Intel, Dell

    ‼️ ต้นทุนสูง — ติดตั้งระบบ immersion cooling อาจแพงกว่าระบบแอร์ถึง 25%  
    • คุ้มเฉพาะในดาต้าเซ็นเตอร์ขนาดใหญ่ที่มีภาระความร้อนสูง

    ‼️ ต้องดัดแปลงอาคารเดิม — พื้นรองรับน้ำหนักของเหลว อาจไม่พร้อม  
    • ต้องลงทุนโครงสร้างพื้นฐานเพิ่มเติม

    ‼️ ยังไม่มีมาตรฐานกลางในอุตสาหกรรม  
    • ทำให้ต้องระวังเรื่องความเข้ากันกับเซิร์ฟเวอร์รุ่นใหม่ในอนาคต

    ‼️ การซ่อมบำรุงลำบาก — ต้อง “ล้วงของ” ใต้น้ำ เปลี่ยนชิ้นส่วนได้ยุ่งยากกว่าเดิม  
    • เสี่ยงความผิดพลาดและต้องใช้บุคลากรที่มีความชำนาญเฉพาะทาง

    https://www.thestar.com.my/tech/tech-news/2025/06/19/submerging-servers-in-liquid-helps-data-centres-cut-energy-use
    การสร้าง AI อย่าง ChatGPT หรือแผนที่ Google ต้องใช้ศูนย์ข้อมูลขนาดมหึมา ซึ่งกินไฟเท่ากับทั้งประเทศเบลเยียมหรือโปแลนด์รวมกัน! และในปี 2030 ตัวเลขนี้อาจ "เบิ้ล" ขึ้นไปอีก โดย 40% ของไฟที่ดาต้าเซ็นเตอร์ใช้...หมดไปกับ "แอร์" Daniel Pope ผู้ก่อตั้งบริษัท Submer จึงเสนอวิธีสุดล้ำคือ “เอาเซิร์ฟเวอร์ทั้งก้อนจุ่มลงในของเหลวพิเศษ” ที่ไม่ติดไฟ ไม่นำไฟฟ้า และดูเหมือนเบบี้ออยล์ วิธีนี้ช่วยระบายความร้อนโดยตรงกับชิปได้ดีและใช้ไฟน้อยกว่าแอร์เย็นทั่วไป — ผลการศึกษาในเนเธอร์แลนด์พบว่า ลดพลังงานได้ถึง 50% ระบบนี้เรียกว่า Immersion Cooling มีคนใช้แล้วใน 17 ประเทศ รายใหญ่ เช่น Intel, Dell และแม้แต่ Microsoft ก็เริ่มสนใจ ใช้กับชิป Maia 100 และพัฒนา “ห้องน้ำเซิร์ฟเวอร์” แบบจุ่มทั้งเครื่องอยู่ด้วย แน่นอนว่าไม่ได้ง่าย เพราะของเหลวแบบนี้แพงกว่าระบบแอร์ประมาณ 25% ติดตั้งยาก ต้องดัดแปลงอาคารเดิม และยังไม่มีมาตรฐานอุตสาหกรรมชัดเจน แถมเวลาจะซ่อมเซิร์ฟเวอร์ก็ต้อง “ล้วงในน้ำ” แบบเปียก ๆ ด้วย ✅ ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาล — มากกว่าประเทศเบลเยียมทั้งประเทศ   • และกำลังจะเพิ่มขึ้น 2 เท่าภายในปี 2030   • 40% ของพลังงานในดาต้าเซ็นเตอร์ใช้กับระบบทำความเย็น ✅ Immersion Cooling คือการจุ่มทั้ง rack ลงในของเหลวพิเศษที่ไม่ติดไฟและไม่เป็นสื่อไฟฟ้า   • ของเหลวจาก Submer ทำจากปิโตรเลียมหรือปาล์ม และสามารถย่อยสลายได้   • ลดการใช้ไฟได้ >10% และสูงสุดถึง 50% จากบางงานวิจัย ✅ ประสิทธิภาพดีกว่าระบบแอร์: ระบายความร้อนตรงชิ้นส่วนโดยไม่ต้องเย็นทั้งห้อง   • รองรับเซิร์ฟเวอร์ยุคใหม่ที่ใช้ชิปแรง ๆ อย่าง NVIDIA B200 ที่กินไฟหนัก ✅ ลดการใช้น้ำ — ดาต้าเซ็นเตอร์ทั่วไปใช้น้ำมากถึง 2 ล้านลิตร/วันในสหรัฐฯ   • Immersion cooling ไม่ต้องพึ่งน้ำหมุนเวียนจำนวนมาก ✅ ใช้พื้นที่น้อยลง — ช่วยลด footprint ของดาต้าเซ็นเตอร์   • เหมาะกับเมืองที่มีข้อจำกัดด้านพลังงานหรือที่ดิน ✅ Submer มีรายได้ทะลุ €150 ล้านในปี 2023 (โตจากแค่ €600K ในปี 2018)   • ลูกค้าใน 17 ประเทศ และคู่ค้าระดับโลกเช่น Intel, Dell ‼️ ต้นทุนสูง — ติดตั้งระบบ immersion cooling อาจแพงกว่าระบบแอร์ถึง 25%   • คุ้มเฉพาะในดาต้าเซ็นเตอร์ขนาดใหญ่ที่มีภาระความร้อนสูง ‼️ ต้องดัดแปลงอาคารเดิม — พื้นรองรับน้ำหนักของเหลว อาจไม่พร้อม   • ต้องลงทุนโครงสร้างพื้นฐานเพิ่มเติม ‼️ ยังไม่มีมาตรฐานกลางในอุตสาหกรรม   • ทำให้ต้องระวังเรื่องความเข้ากันกับเซิร์ฟเวอร์รุ่นใหม่ในอนาคต ‼️ การซ่อมบำรุงลำบาก — ต้อง “ล้วงของ” ใต้น้ำ เปลี่ยนชิ้นส่วนได้ยุ่งยากกว่าเดิม   • เสี่ยงความผิดพลาดและต้องใช้บุคลากรที่มีความชำนาญเฉพาะทาง https://www.thestar.com.my/tech/tech-news/2025/06/19/submerging-servers-in-liquid-helps-data-centres-cut-energy-use
    WWW.THESTAR.COM.MY
    Submerging servers in liquid helps data centres cut energy use
    When Daniel Pope first floated the idea of submerging servers in liquid as an energy-efficient way to cool them a few years ago, his proposal was met with overwhelming scepticism from data centre equipment makers.
    0 Comments 0 Shares 112 Views 0 Reviews
  • หลายคนรู้ว่าโลกของ SSD แรงขึ้นเรื่อย ๆ แต่ถ้าจะใช้ SSD Gen5 แบบเต็มสปีดหลายตัวพร้อมกัน คุณอาจต้องใช้ RAID Card ตัวใหญ่ ยาวเต็มเคส แถมต้องต่อสายไฟเฉพาะ... ซึ่งมันไม่เหมาะกับ Workstation ขนาดเล็กเลย

    นี่แหละคือจุดเด่นของ HighPoint Rocket 7604A ตัวนี้ มัน เล็กกว่ารุ่นเดิมครึ่งหนึ่ง (เมื่อเทียบกับ Rocket 1608A), ติดตั้งใน ช่อง PCIe แบบครึ่งการ์ด (half-length) และที่สำคัญ... ไม่ต้องใช้สายไฟเพิ่มเลย! รับพลังงานจาก PCIe Slot ได้พอสำหรับ SSD Gen5 ถึง 4 ตัว

    TweakTown ทดสอบแล้วพบว่า ด้วย SSD Samsung 9100 Pro 4 ตัว มันทำความเร็วได้ 59.8 GB/s (CrystalDiskMark) และ 54 GB/s บน ATTO! เป็นการ์ดแบบ 4 ช่อง Gen5 x4 ใช้ RAID Controller จาก Broadcom รุ่น PEX89048A

    การ์ดรองรับ RAID 0, RAID 1 ผ่าน Windows และ RAID 10 ผ่านซอฟต์แวร์ของ HighPoint เอง

    ✅ HighPoint Rocket 7604A เป็นการ์ด RAID PCIe Gen5 แบบครึ่งการ์ด (half-length)  
    • ใช้ได้ใน Workstation เล็ก  
    • ไม่ต้องต่อสายไฟเพิ่ม (powered by PCIe slot เท่านั้น)

    ✅ ความเร็วทะลุ 59.8 GB/s เมื่อใช้ SSD Gen5 4 ตัว (Samsung 9100 Pro)  
    • ทดสอบผ่าน CrystalDiskMark / ATTO / Anvil  
    • เร็วกว่า Rocket 1608A ที่ใช้ SSD 8 ตัวเสียอีก

    ✅ รองรับทั้งแพลตฟอร์ม Intel และ AMD  
    • Intel ทำคะแนนดีกว่าใน Anvil / Blackmagic  
    • AMD ดีกว่าในงาน file transfer บางประเภท

    ✅ ใช้งานได้กับทั้ง SSD Gen5 และ Gen4 (แต่อัตราเร่งจะลดลงถ้าใช้ Gen4)  
    • มีช่อง M.2 แบบ x4 ทั้งหมด 4 ช่อง

    ✅ ราคา $999 (ลดจาก $1,999 เดิม)  
    • ถูกกว่า 1608A แต่ประสิทธิภาพพอ ๆ กัน

    ✅ รองรับ RAID 0 / 1 (ผ่าน Windows) และ RAID 10 ผ่าน HighPoint Utility  
    • เหมาะกับผู้ใช้งานมืออาชีพด้าน video, 3D, AI inferencing

    ‼️ รองรับเฉพาะ SSD แบบ “Bare” เท่านั้น (ไม่มีฮีตซิงค์)  
    • ต้องระวังเรื่องความร้อน หรือหาวิธีเสริม cooling แบบเฉพาะทาง

    ‼️ แม้ไม่ต้องใช้สายไฟ แต่ไฟจาก PCIe slot อาจไม่พอถ้า SSD ใช้ไฟสูงผิดปกติ  
    • ต้องเลือก SSD ที่กินไฟตามสเปกมาตรฐาน

    ‼️ RAID นี้เป็น software RAID — ไม่ได้ทำ hardware RAID ในตัว  
    • ส่งผลให้มีภาระโหลด CPU บางส่วน

    ‼️ ไม่รองรับ ECC หรือฟีเจอร์ระดับ enterprise  
    • ยังไม่เหมาะกับ mission-critical แบบ data center ที่ต้องการ RAS

    https://www.techradar.com/pro/a-masterpiece-of-engineering-highpoint-storage-aic-is-expensive-but-at-60gbps-sequential-throughput-it-will-quench-almost-anyones-thirst-for-speed
    หลายคนรู้ว่าโลกของ SSD แรงขึ้นเรื่อย ๆ แต่ถ้าจะใช้ SSD Gen5 แบบเต็มสปีดหลายตัวพร้อมกัน คุณอาจต้องใช้ RAID Card ตัวใหญ่ ยาวเต็มเคส แถมต้องต่อสายไฟเฉพาะ... ซึ่งมันไม่เหมาะกับ Workstation ขนาดเล็กเลย นี่แหละคือจุดเด่นของ HighPoint Rocket 7604A ตัวนี้ มัน เล็กกว่ารุ่นเดิมครึ่งหนึ่ง (เมื่อเทียบกับ Rocket 1608A), ติดตั้งใน ช่อง PCIe แบบครึ่งการ์ด (half-length) และที่สำคัญ... ไม่ต้องใช้สายไฟเพิ่มเลย! รับพลังงานจาก PCIe Slot ได้พอสำหรับ SSD Gen5 ถึง 4 ตัว TweakTown ทดสอบแล้วพบว่า ด้วย SSD Samsung 9100 Pro 4 ตัว มันทำความเร็วได้ 59.8 GB/s (CrystalDiskMark) และ 54 GB/s บน ATTO! เป็นการ์ดแบบ 4 ช่อง Gen5 x4 ใช้ RAID Controller จาก Broadcom รุ่น PEX89048A การ์ดรองรับ RAID 0, RAID 1 ผ่าน Windows และ RAID 10 ผ่านซอฟต์แวร์ของ HighPoint เอง ✅ HighPoint Rocket 7604A เป็นการ์ด RAID PCIe Gen5 แบบครึ่งการ์ด (half-length)   • ใช้ได้ใน Workstation เล็ก   • ไม่ต้องต่อสายไฟเพิ่ม (powered by PCIe slot เท่านั้น) ✅ ความเร็วทะลุ 59.8 GB/s เมื่อใช้ SSD Gen5 4 ตัว (Samsung 9100 Pro)   • ทดสอบผ่าน CrystalDiskMark / ATTO / Anvil   • เร็วกว่า Rocket 1608A ที่ใช้ SSD 8 ตัวเสียอีก ✅ รองรับทั้งแพลตฟอร์ม Intel และ AMD   • Intel ทำคะแนนดีกว่าใน Anvil / Blackmagic   • AMD ดีกว่าในงาน file transfer บางประเภท ✅ ใช้งานได้กับทั้ง SSD Gen5 และ Gen4 (แต่อัตราเร่งจะลดลงถ้าใช้ Gen4)   • มีช่อง M.2 แบบ x4 ทั้งหมด 4 ช่อง ✅ ราคา $999 (ลดจาก $1,999 เดิม)   • ถูกกว่า 1608A แต่ประสิทธิภาพพอ ๆ กัน ✅ รองรับ RAID 0 / 1 (ผ่าน Windows) และ RAID 10 ผ่าน HighPoint Utility   • เหมาะกับผู้ใช้งานมืออาชีพด้าน video, 3D, AI inferencing ‼️ รองรับเฉพาะ SSD แบบ “Bare” เท่านั้น (ไม่มีฮีตซิงค์)   • ต้องระวังเรื่องความร้อน หรือหาวิธีเสริม cooling แบบเฉพาะทาง ‼️ แม้ไม่ต้องใช้สายไฟ แต่ไฟจาก PCIe slot อาจไม่พอถ้า SSD ใช้ไฟสูงผิดปกติ   • ต้องเลือก SSD ที่กินไฟตามสเปกมาตรฐาน ‼️ RAID นี้เป็น software RAID — ไม่ได้ทำ hardware RAID ในตัว   • ส่งผลให้มีภาระโหลด CPU บางส่วน ‼️ ไม่รองรับ ECC หรือฟีเจอร์ระดับ enterprise   • ยังไม่เหมาะกับ mission-critical แบบ data center ที่ต้องการ RAS https://www.techradar.com/pro/a-masterpiece-of-engineering-highpoint-storage-aic-is-expensive-but-at-60gbps-sequential-throughput-it-will-quench-almost-anyones-thirst-for-speed
    0 Comments 0 Shares 100 Views 0 Reviews
  • จำ MI300A ได้ไหมครับ? มันคือ APU (CPU+GPU รวมกัน) สำหรับ AI และ HPC ที่ AMD เคยเปิดตัวแรง ๆ ไปเมื่อปีก่อน แต่ปีนี้ AMD กลับมาบอกว่า “พอแล้ว!” เพราะการรวมทุกอย่างไว้ชิปเดียวอาจจะดูสะดวก แต่มัน ไม่เหมาะกับการขยายขนาดระบบขนาดใหญ่แบบศูนย์ข้อมูล

    เลยกลายเป็นว่า MI355X ซึ่งเป็น GPU ตัวท็อปรุ่นใหม่ของ AMD จะใช้แนวคิดแบบ “แยกส่วน (modular)” เต็มตัว คือไม่มี CPU มาปะปน ทำให้การจัดวางใน rack data center, การระบายความร้อน และการเชื่อมต่อแบบ rack-scale มีความยืดหยุ่นสูงกว่ามาก

    และ MI355X ก็ไม่ได้มาเล่น ๆ เพราะใช้สถาปัตยกรรม CDNA 4 ใหม่, ผลิตด้วยชิป TSMC N3P (3nm class), มี 8 die ย่อย เชื่อมกันผ่านระบบ interconnect ใหม่, มีแรม HBM3E ถึง 288GB, แบนด์วิธรวม 8TB/s (เหนือกว่ Nvidia B200 และ GB200), รองรับ FP4/FP6 สำหรับ inference และใช้ไฟสูงสุด 1,400W แบบ liquid-cooled!

    เป้าหมายคือให้ลูกค้าสามารถวาง GPU ได้สูงสุด 128 ตัวต่อ rack เพื่อรันงาน AI training/inference ขนาดยักษ์ได้แบบคุ้มต้นทุนต่อวัตต์ โดย AMD เคลมว่า inference performance ดีกว่า Nvidia GB200 ประมาณ 20–30% เลยทีเดียว

    https://www.techradar.com/pro/amd-unveils-puzzling-new-mi355x-ai-gpu-as-it-acknowledges-there-wont-be-any-ai-apu-for-now
    จำ MI300A ได้ไหมครับ? มันคือ APU (CPU+GPU รวมกัน) สำหรับ AI และ HPC ที่ AMD เคยเปิดตัวแรง ๆ ไปเมื่อปีก่อน แต่ปีนี้ AMD กลับมาบอกว่า “พอแล้ว!” เพราะการรวมทุกอย่างไว้ชิปเดียวอาจจะดูสะดวก แต่มัน ไม่เหมาะกับการขยายขนาดระบบขนาดใหญ่แบบศูนย์ข้อมูล เลยกลายเป็นว่า MI355X ซึ่งเป็น GPU ตัวท็อปรุ่นใหม่ของ AMD จะใช้แนวคิดแบบ “แยกส่วน (modular)” เต็มตัว คือไม่มี CPU มาปะปน ทำให้การจัดวางใน rack data center, การระบายความร้อน และการเชื่อมต่อแบบ rack-scale มีความยืดหยุ่นสูงกว่ามาก และ MI355X ก็ไม่ได้มาเล่น ๆ เพราะใช้สถาปัตยกรรม CDNA 4 ใหม่, ผลิตด้วยชิป TSMC N3P (3nm class), มี 8 die ย่อย เชื่อมกันผ่านระบบ interconnect ใหม่, มีแรม HBM3E ถึง 288GB, แบนด์วิธรวม 8TB/s (เหนือกว่ Nvidia B200 และ GB200), รองรับ FP4/FP6 สำหรับ inference และใช้ไฟสูงสุด 1,400W แบบ liquid-cooled! เป้าหมายคือให้ลูกค้าสามารถวาง GPU ได้สูงสุด 128 ตัวต่อ rack เพื่อรันงาน AI training/inference ขนาดยักษ์ได้แบบคุ้มต้นทุนต่อวัตต์ โดย AMD เคลมว่า inference performance ดีกว่า Nvidia GB200 ประมาณ 20–30% เลยทีเดียว https://www.techradar.com/pro/amd-unveils-puzzling-new-mi355x-ai-gpu-as-it-acknowledges-there-wont-be-any-ai-apu-for-now
    WWW.TECHRADAR.COM
    AMD drops APU design in favor of GPU-only MI355X for advanced AI infrastructure
    AMD claims 1.2X-1.3X inference lead over Nvidia's B200 and GB200 offerings
    0 Comments 0 Shares 111 Views 0 Reviews
  • หลายองค์กรและระบบฝังตัว (embedded system) มักเจอกับปัญหา "ไฟดับที = ข้อมูลพัง" โดยเฉพาะในเครื่องจักรอุตสาหกรรม, ระบบควบคุม, หรือสถานีขอบเครือข่าย (edge server) ที่ต้องทำงานตลอดเวลา Transcend ก็เลยออก SSD475P มาแก้ปัญหานี้โดยตรง

    หัวใจของ SSD รุ่นนี้คือฟีเจอร์ Power Loss Protection (PLP) ที่ใช้ตัวเก็บประจุภายใน (capacitors) คอยจ่ายไฟสำรองให้ SSD เมื่อเกิดไฟตกหรือไฟดับ ทำให้ข้อมูลที่ยังไม่ถูกเขียน (in-flight data) จะถูกบันทึกจนจบอย่างปลอดภัย

    SSD ตัวนี้ใช้เทคโนโลยี 112-layer 3D NAND มี DRAM cache ในตัว และใช้เฟิร์มแวร์แบบ “Direct Write” ที่ช่วยให้การเขียนข้อมูลเสถียรแม้โหลดสูง เหมาะกับงานที่ต้องการความทนทาน เช่น การบันทึกเซนเซอร์, ระบบ surveillance หรือการบิน–กลาโหม

    แม้จะยังใช้ อินเทอร์เฟซ SATA III 6 Gb/s (ไม่เร็วเท่า PCIe) แต่ก็ตอบโจทย์ในแง่ความเสถียร และการรองรับอุณหภูมิ -40°C ถึง 85°C พร้อมการเข้ารหัส AES และฟีเจอร์ป้องกันความร้อน, การตรวจสอบสุขภาพ (S.M.A.R.T.) และ ECC ในระดับ LDPC

    ✅ Transcend เปิดตัว SSD475P: SSD 2.5” สำหรับงานอุตสาหกรรมและระบบฝังตัว  
    • ใช้อินเทอร์เฟซ SATA III ความเร็วสูงสุด 560/530 MB/s  
    • ใช้ NAND แบบ 112-layer 3D พร้อม DRAM cache

    ✅ มีระบบ Power Loss Protection (PLP)  
    • ใช้ตัวเก็บประจุเก็บไฟเพื่อเขียนข้อมูลที่ค้างระหว่างไฟดับให้เสร็จ  
    • ลดโอกาส corruption และสูญหายของข้อมูลอย่างมาก

    ✅ รองรับการใช้งานต่อเนื่องในอุณหภูมิ -40°C ถึง 85°C  
    • ผ่านการทดสอบตามมาตรฐานอุตสาหกรรม 100% ของ Transcend

    ✅ มาพร้อมฟีเจอร์ความปลอดภัยและความเสถียรครบถ้วน  
    • ECC แบบ LDPC, Dynamic Thermal Throttling, S.M.A.R.T.  
    • รองรับ AES encryption และ TCG Opal

    ✅ เหมาะกับงาน: automation, embedded, military, surveillance, edge computing  
    • จุดขายคือ “เสถียร–ปลอดภัย” มากกว่า “เร็วสุดขั้ว”

    ✅ ผลิตในไต้หวัน พร้อมรับประกัน 3 ปีแบบจำกัด  
    • ตอกย้ำคุณภาพตามมาตรฐานอุตสาหกรรม

    ‼️ ใช้ SATA III ซึ่งมีข้อจำกัดด้านความเร็วเมื่อเทียบกับ SSD PCIe NVMe  
    • ไม่เหมาะกับงานที่ต้องการ throughput ระดับสูงมาก เช่น video editing 8K

    ‼️ ราคาน่าจะสูงกว่าปกติ เนื่องจากใช้ PLP และ NAND คุณภาพสูง  
    • ยังไม่มีการเปิดเผยราคา ณ ตอนเผยแพร่ข่าว

    ‼️ ไม่ใช่ SSD สำหรับใช้งานทั่วไปหรือเล่นเกม  
    • จุดเด่นอยู่ที่ “ความเสถียรและความทน” มากกว่าประสิทธิภาพด้านกราฟิก

    ‼️ ต้องการอุปกรณ์รองรับ SATA 2.5” เท่านั้น  
    • ไม่สามารถใช้บนโน้ตบุ๊กบางรุ่นหรืออุปกรณ์ที่ไม่มีช่อง SATA

    https://www.techpowerup.com/338131/transcend-introduces-8-tb-industrial-ssd-with-power-loss-protection
    หลายองค์กรและระบบฝังตัว (embedded system) มักเจอกับปัญหา "ไฟดับที = ข้อมูลพัง" โดยเฉพาะในเครื่องจักรอุตสาหกรรม, ระบบควบคุม, หรือสถานีขอบเครือข่าย (edge server) ที่ต้องทำงานตลอดเวลา Transcend ก็เลยออก SSD475P มาแก้ปัญหานี้โดยตรง หัวใจของ SSD รุ่นนี้คือฟีเจอร์ Power Loss Protection (PLP) ที่ใช้ตัวเก็บประจุภายใน (capacitors) คอยจ่ายไฟสำรองให้ SSD เมื่อเกิดไฟตกหรือไฟดับ ทำให้ข้อมูลที่ยังไม่ถูกเขียน (in-flight data) จะถูกบันทึกจนจบอย่างปลอดภัย SSD ตัวนี้ใช้เทคโนโลยี 112-layer 3D NAND มี DRAM cache ในตัว และใช้เฟิร์มแวร์แบบ “Direct Write” ที่ช่วยให้การเขียนข้อมูลเสถียรแม้โหลดสูง เหมาะกับงานที่ต้องการความทนทาน เช่น การบันทึกเซนเซอร์, ระบบ surveillance หรือการบิน–กลาโหม แม้จะยังใช้ อินเทอร์เฟซ SATA III 6 Gb/s (ไม่เร็วเท่า PCIe) แต่ก็ตอบโจทย์ในแง่ความเสถียร และการรองรับอุณหภูมิ -40°C ถึง 85°C พร้อมการเข้ารหัส AES และฟีเจอร์ป้องกันความร้อน, การตรวจสอบสุขภาพ (S.M.A.R.T.) และ ECC ในระดับ LDPC ✅ Transcend เปิดตัว SSD475P: SSD 2.5” สำหรับงานอุตสาหกรรมและระบบฝังตัว   • ใช้อินเทอร์เฟซ SATA III ความเร็วสูงสุด 560/530 MB/s   • ใช้ NAND แบบ 112-layer 3D พร้อม DRAM cache ✅ มีระบบ Power Loss Protection (PLP)   • ใช้ตัวเก็บประจุเก็บไฟเพื่อเขียนข้อมูลที่ค้างระหว่างไฟดับให้เสร็จ   • ลดโอกาส corruption และสูญหายของข้อมูลอย่างมาก ✅ รองรับการใช้งานต่อเนื่องในอุณหภูมิ -40°C ถึง 85°C   • ผ่านการทดสอบตามมาตรฐานอุตสาหกรรม 100% ของ Transcend ✅ มาพร้อมฟีเจอร์ความปลอดภัยและความเสถียรครบถ้วน   • ECC แบบ LDPC, Dynamic Thermal Throttling, S.M.A.R.T.   • รองรับ AES encryption และ TCG Opal ✅ เหมาะกับงาน: automation, embedded, military, surveillance, edge computing   • จุดขายคือ “เสถียร–ปลอดภัย” มากกว่า “เร็วสุดขั้ว” ✅ ผลิตในไต้หวัน พร้อมรับประกัน 3 ปีแบบจำกัด   • ตอกย้ำคุณภาพตามมาตรฐานอุตสาหกรรม ‼️ ใช้ SATA III ซึ่งมีข้อจำกัดด้านความเร็วเมื่อเทียบกับ SSD PCIe NVMe   • ไม่เหมาะกับงานที่ต้องการ throughput ระดับสูงมาก เช่น video editing 8K ‼️ ราคาน่าจะสูงกว่าปกติ เนื่องจากใช้ PLP และ NAND คุณภาพสูง   • ยังไม่มีการเปิดเผยราคา ณ ตอนเผยแพร่ข่าว ‼️ ไม่ใช่ SSD สำหรับใช้งานทั่วไปหรือเล่นเกม   • จุดเด่นอยู่ที่ “ความเสถียรและความทน” มากกว่าประสิทธิภาพด้านกราฟิก ‼️ ต้องการอุปกรณ์รองรับ SATA 2.5” เท่านั้น   • ไม่สามารถใช้บนโน้ตบุ๊กบางรุ่นหรืออุปกรณ์ที่ไม่มีช่อง SATA https://www.techpowerup.com/338131/transcend-introduces-8-tb-industrial-ssd-with-power-loss-protection
    WWW.TECHPOWERUP.COM
    Transcend Introduces 8 TB Industrial SSD with Power Loss Protection
    Transcend Information, Inc. (Transcend), a global leader in storage and multimedia solutions, proudly announces the launch of its new SSD475P 2.5" solid-state drive, purpose-built for industrial applications and high-performance environments. Featuring Power Loss Protection (PLP) technology, the SSD...
    0 Comments 0 Shares 135 Views 0 Reviews
  • หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ

    ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว

    แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง

    ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่

    ✅ กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย  
    • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง  
    • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้

    ✅ มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย  
    • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว  
    • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน

    ✅ มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ  
    • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย  
    • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ

    ✅ หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง  
    • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%”

    ✅ บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง  
    • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง

    ‼️ ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง  
    • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต

    ‼️ มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”  
    • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI

    ‼️ ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน  
    • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ

    ‼️ กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี  
    • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม”

    https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่ ✅ กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย   • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง   • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้ ✅ มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย   • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว   • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน ✅ มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ   • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย   • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ ✅ หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง   • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%” ✅ บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง   • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง ‼️ ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง   • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต ‼️ มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”   • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI ‼️ ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน   • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ ‼️ กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี   • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม” https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    0 Comments 0 Shares 146 Views 0 Reviews
  • Data centre คือหัวใจของยุค AI เพราะใช้เก็บและประมวลผลข้อมูลจากทั้งแอปฯ แชต, รูป, โมเดลปัญญาประดิษฐ์ยักษ์ ๆ อย่าง GPT, Gemini และ Llama — และมันกินไฟมหาศาล!

    ทุกวันนี้ศูนย์ข้อมูลใหญ่ ๆ ของยุโรปกระจุกอยู่ใน 5 เมืองหลัก: แฟรงก์เฟิร์ต, ลอนดอน, อัมสเตอร์ดัม, ปารีส และดับลิน แต่ปัญหาคือ... จะเชื่อมศูนย์ข้อมูลใหม่เข้ากับระบบไฟฟ้าในเมืองเหล่านี้ ต้องใช้เวลา 7–13 ปี! ทำให้ผู้พัฒนาจำนวนมากหันไปหาประเทศที่วางแผนโครงสร้างพื้นฐานได้เร็วกว่า เช่น อิตาลี เชื่อมไฟได้ภายใน 3 ปีเท่านั้น

    รายงานเตือนว่า ถ้าแนวโน้มนี้ยังดำเนินต่อไป ภายในปี 2035 มีโอกาสสูงที่ศูนย์ข้อมูล ครึ่งหนึ่ง ของยุโรปจะย้ายไปอยู่นอกฮับหลักเดิมเลย — นี่หมายถึงการสูญเสียการลงทุนระดับพันล้านยูโรต่อประเทศ และตำแหน่งงานจำนวนมาก เช่นในเยอรมนี ปี 2024 ศูนย์ข้อมูลสร้าง GDP ได้กว่า €10.4B และคาดว่าจะมากกว่าสองเท่าในปี 2029 หากไม่มีอุปสรรค

    เฉพาะฝรั่งเศสเท่านั้นที่ยังรักษาเสถียรภาพได้ เพราะระบบสายส่งไฟยังไม่ติดคอขวดมากเท่าประเทศอื่น

    ✅ Ember ชี้การวางแผนระบบไฟฟ้าช้า กระทบการกระจายศูนย์ข้อมูลในยุโรป  
    • การเชื่อม Data Centre เข้ากับโครงข่ายไฟฟ้าใช้เวลานาน 7–13 ปีในฮับหลัก  
    • ทำให้นักลงทุนเบนเข็มไปยังประเทศที่เชื่อมได้เร็ว เช่น อิตาลี ใช้แค่ 3 ปี

    ✅ คาดว่าภายในปี 2035 ครึ่งหนึ่งของศูนย์ข้อมูลยุโรปจะอยู่นอกฮับหลักเดิม  
    • อาจกระทบเศรษฐกิจในประเทศอย่างเยอรมนี, เนเธอร์แลนด์, อังกฤษ

    ✅ ฝรั่งเศสอาจเป็นประเทศเดียวที่รักษาการลงทุนไว้ได้อย่างต่อเนื่อง  
    • เพราะระบบไฟฟ้าไม่ติดปัญหาขัดข้องเหมือนชาติอื่นในกลุ่ม

    ✅ ความต้องการไฟฟ้าเพิ่มขึ้นแบบก้าวกระโดดในยุโรปเหนือและตะวันออก  
    • เช่น สวีเดน, นอร์เวย์, เดนมาร์ก: คาดว่า demand จะ เพิ่ม 3 เท่าภายในปี 2030  
    • ออสเตรีย, กรีซ, ฟินแลนด์, ฮังการี, อิตาลี, โปรตุเกส, สโลวาเกีย: คาดว่า ไฟที่ใช้กับ data centre จะเพิ่ม 3–5 เท่าในปี 2035

    ✅ Ember ระบุว่า “โครงข่ายไฟ” คือเครื่องมือดึงดูดการลงทุนระดับชาติในยุค AI  
    • ไม่ใช่แค่ data centre — อุตสาหกรรมทุกชนิดที่ต้องการใช้พลังงานสูงจะได้รับผล

    ‼️ หากประเทศไม่เร่งลงทุนในโครงข่ายไฟและระบบอนุมัติ จะสูญเสียโอกาสหลายพันล้านยูโร  
    • ประเทศที่การเชื่อมไฟฟ้าช้า อาจถูกมองข้ามโดยผู้พัฒนา AI/data centre

    ‼️ การกระจุกตัวของ data centre ในไม่กี่เมืองกำลังถึงทางตัน  
    • เกิดปัญหาคอขวด การใช้ไฟฟ้าเกินพิกัด และต้นทุนที่สูงขึ้น

    ‼️ หากปล่อยให้ผู้พัฒนาเลือกที่ตั้งตามความสะดวกเรื่องไฟ โดยไม่มีแผนระดับภูมิภาค อาจเกิดการกระจายตัวแบบไม่สมดุล  
    • กระทบภาระด้านพลังงาน–สิ่งแวดล้อม และแผนเมืองในระยะยาว

    ‼️ ศูนย์ข้อมูลต้องใช้ไฟฟ้าอย่างมั่นคง หากไม่มีแผนสำรองอาจกลายเป็นความเสี่ยงด้านความมั่นคงไซเบอร์  
    • โดยเฉพาะเมื่อระบบ cloud และ AI เข้าไปอยู่ในทุกธุรกิจภาครัฐและการเงิน

    https://www.thestar.com.my/tech/tech-news/2025/06/19/poor-grid-planning-could-shift-europe039s-data-centre-geography-report-says
    Data centre คือหัวใจของยุค AI เพราะใช้เก็บและประมวลผลข้อมูลจากทั้งแอปฯ แชต, รูป, โมเดลปัญญาประดิษฐ์ยักษ์ ๆ อย่าง GPT, Gemini และ Llama — และมันกินไฟมหาศาล! ทุกวันนี้ศูนย์ข้อมูลใหญ่ ๆ ของยุโรปกระจุกอยู่ใน 5 เมืองหลัก: แฟรงก์เฟิร์ต, ลอนดอน, อัมสเตอร์ดัม, ปารีส และดับลิน แต่ปัญหาคือ... จะเชื่อมศูนย์ข้อมูลใหม่เข้ากับระบบไฟฟ้าในเมืองเหล่านี้ ต้องใช้เวลา 7–13 ปี! ทำให้ผู้พัฒนาจำนวนมากหันไปหาประเทศที่วางแผนโครงสร้างพื้นฐานได้เร็วกว่า เช่น อิตาลี เชื่อมไฟได้ภายใน 3 ปีเท่านั้น รายงานเตือนว่า ถ้าแนวโน้มนี้ยังดำเนินต่อไป ภายในปี 2035 มีโอกาสสูงที่ศูนย์ข้อมูล ครึ่งหนึ่ง ของยุโรปจะย้ายไปอยู่นอกฮับหลักเดิมเลย — นี่หมายถึงการสูญเสียการลงทุนระดับพันล้านยูโรต่อประเทศ และตำแหน่งงานจำนวนมาก เช่นในเยอรมนี ปี 2024 ศูนย์ข้อมูลสร้าง GDP ได้กว่า €10.4B และคาดว่าจะมากกว่าสองเท่าในปี 2029 หากไม่มีอุปสรรค เฉพาะฝรั่งเศสเท่านั้นที่ยังรักษาเสถียรภาพได้ เพราะระบบสายส่งไฟยังไม่ติดคอขวดมากเท่าประเทศอื่น ✅ Ember ชี้การวางแผนระบบไฟฟ้าช้า กระทบการกระจายศูนย์ข้อมูลในยุโรป   • การเชื่อม Data Centre เข้ากับโครงข่ายไฟฟ้าใช้เวลานาน 7–13 ปีในฮับหลัก   • ทำให้นักลงทุนเบนเข็มไปยังประเทศที่เชื่อมได้เร็ว เช่น อิตาลี ใช้แค่ 3 ปี ✅ คาดว่าภายในปี 2035 ครึ่งหนึ่งของศูนย์ข้อมูลยุโรปจะอยู่นอกฮับหลักเดิม   • อาจกระทบเศรษฐกิจในประเทศอย่างเยอรมนี, เนเธอร์แลนด์, อังกฤษ ✅ ฝรั่งเศสอาจเป็นประเทศเดียวที่รักษาการลงทุนไว้ได้อย่างต่อเนื่อง   • เพราะระบบไฟฟ้าไม่ติดปัญหาขัดข้องเหมือนชาติอื่นในกลุ่ม ✅ ความต้องการไฟฟ้าเพิ่มขึ้นแบบก้าวกระโดดในยุโรปเหนือและตะวันออก   • เช่น สวีเดน, นอร์เวย์, เดนมาร์ก: คาดว่า demand จะ เพิ่ม 3 เท่าภายในปี 2030   • ออสเตรีย, กรีซ, ฟินแลนด์, ฮังการี, อิตาลี, โปรตุเกส, สโลวาเกีย: คาดว่า ไฟที่ใช้กับ data centre จะเพิ่ม 3–5 เท่าในปี 2035 ✅ Ember ระบุว่า “โครงข่ายไฟ” คือเครื่องมือดึงดูดการลงทุนระดับชาติในยุค AI   • ไม่ใช่แค่ data centre — อุตสาหกรรมทุกชนิดที่ต้องการใช้พลังงานสูงจะได้รับผล ‼️ หากประเทศไม่เร่งลงทุนในโครงข่ายไฟและระบบอนุมัติ จะสูญเสียโอกาสหลายพันล้านยูโร   • ประเทศที่การเชื่อมไฟฟ้าช้า อาจถูกมองข้ามโดยผู้พัฒนา AI/data centre ‼️ การกระจุกตัวของ data centre ในไม่กี่เมืองกำลังถึงทางตัน   • เกิดปัญหาคอขวด การใช้ไฟฟ้าเกินพิกัด และต้นทุนที่สูงขึ้น ‼️ หากปล่อยให้ผู้พัฒนาเลือกที่ตั้งตามความสะดวกเรื่องไฟ โดยไม่มีแผนระดับภูมิภาค อาจเกิดการกระจายตัวแบบไม่สมดุล   • กระทบภาระด้านพลังงาน–สิ่งแวดล้อม และแผนเมืองในระยะยาว ‼️ ศูนย์ข้อมูลต้องใช้ไฟฟ้าอย่างมั่นคง หากไม่มีแผนสำรองอาจกลายเป็นความเสี่ยงด้านความมั่นคงไซเบอร์   • โดยเฉพาะเมื่อระบบ cloud และ AI เข้าไปอยู่ในทุกธุรกิจภาครัฐและการเงิน https://www.thestar.com.my/tech/tech-news/2025/06/19/poor-grid-planning-could-shift-europe039s-data-centre-geography-report-says
    WWW.THESTAR.COM.MY
    Poor grid planning could shift Europe's data centre geography, report says
    PARIS (Reuters) -Europe's leading data centre hubs face a major shift as developers will go wherever connection times are shortest, unless there is more proactive electricity grid planning, a report on Thursday by energy think-tank Ember showed.
    0 Comments 0 Shares 150 Views 0 Reviews
  • ใครที่เคยใช้ Copilot ใน Excel มาก่อน น่าจะเคยรู้สึกว่า—แม้จะพิมพ์ถามว่า “ข้อมูลนี้บอกอะไร” แต่ Copilot จะทำงานแค่ตามเซลล์ที่คุณคลิกไว้ ถ้าเผลอคลิกผิดก็คือไปคนละทิศเลย

    ล่าสุด Microsoft ปรับให้ “Copilot ฉลาดระดับเข้าใจคุณมากขึ้น” ด้วยสิ่งที่เรียกว่า Smart Context Awareness คือไม่ต้องคลิกเซลล์หรือไฮไลต์ตารางก่อนถาม เช่น คุณสามารถพิมพ์ว่า “Sort the table in the top-right” หรือ “Show insights about the data I was just analyzing” — แล้ว Copilot จะเข้าใจโดยอิงจากทั้งตำแหน่งข้อมูล + ประวัติแชตที่เพิ่งคุยกัน

    แถม Copilot ยังไฮไลต์ให้ดูเลยว่า “ฉันใช้ข้อมูลส่วนไหนในการวิเคราะห์อยู่” เพื่อความโปร่งใสและช่วยให้ผู้ใช้ตรวจสอบได้ว่าคำตอบนั้นมาจากตรงไหน

    ทั้งหมดนี้พร้อมใช้งานแล้วทั้งบน Excel Web และ Excel เวอร์ชันเดสก์ท็อป (Windows / Mac) ที่อัปเดตล่าสุด

    ✅ Copilot in Excel เพิ่ม Smart Context Awareness เข้าใจคำถามแบบรู้บริบท  
    • ไม่จำเป็นต้องเลือกเซลล์ก่อนถามคำถาม  
    • ใช้ทั้งสัญญาณตำแหน่งเซลล์ + ประวัติการสนทนา เพื่อเดาความต้องการของผู้ใช้

    ✅ รองรับคำถามแบบภาษาธรรมชาติ เช่น “จัดเรียงตารางด้านขวาบน” หรือ “แสดงข้อมูลที่วิเคราะห์เมื่อกี้”  
    • ทำให้ไม่ต้องใช้สูตรหรือคำสั่งซับซ้อน  
    • ผู้ใช้ทั่วไปก็สามารถใช้งานได้โดยไม่ต้องมีพื้นฐาน Excel ขั้นสูง

    ✅ Copilot แสดง Highlight ข้อมูลที่ใช้ในการตอบกลับ  
    • ช่วยให้ผู้ใช้ตรวจสอบข้อมูลต้นทางที่ Copilot ใช้  
    • เพิ่มความเชื่อมั่นและสามารถปรับข้อมูลให้ตรงเป้าหมายได้

    ✅ ฟีเจอร์ Smart Context ใช้งานได้แล้วบน Excel Web และเวอร์ชันเดสก์ท็อป  
    • Windows: Version 2505 (Build 18623.20058)  
    • Mac: Version 16.95 (Build 2506.3090)

    ✅ Visual Highlighting ใช้งานได้ใน Build ล่าสุดเพิ่มเติม  
    • Windows: Version 2505 (Build 18705.20000)  
    • Mac: Version 16.96 (Build 2506.4070)

    ‼️ Smart Context ยังพึ่งพาการเดาความตั้งใจของผู้ใช้ อาจมีพลาดได้ถ้าข้อมูลคลุมเครือ  
    • เช่น ถ้ามีตารางหลายชุดบนหน้าเดียวกัน คำสั่ง “จัดเรียงตารางขวาบน” อาจเดาผิดได้  
    • ควรตรวจสอบ Highlight ให้แน่ใจก่อนใช้คำสั่งที่มีผลกระทบต่อข้อมูล

    ‼️ Copilot ยังไม่รองรับการเข้าใจภาพรวมหลายชีตหรือหลาย workbook ได้เต็มที่  
    • Smart Context ใช้ข้อมูลในชีตเดียวเป็นหลัก  
    • หากมีการเชื่อมโยงหลายแหล่ง คำตอบอาจไม่แม่นยำเท่าการระบุชัด ๆ

    ‼️ ฟีเจอร์นี้ใช้ได้เฉพาะ Excel ที่อัปเดตเป็นเวอร์ชันใหม่ล่าสุดเท่านั้น  
    • ผู้ใช้ที่ยังใช้ Excel เวอร์ชันเก่าอาจไม่เห็นความสามารถนี้  
    • อาจต้องอัปเดต Microsoft 365 ทั้งระบบเพื่อเข้าถึง

    ‼️ ความสามารถของ Copilot ยังคงขึ้นกับความซับซ้อนของข้อมูลและโครงสร้างเอกสาร  
    • ข้อมูลที่ไม่มี header, มีรูปแบบผสม หรือมีสูตรซ้อนซับ อาจทำให้ Copilot สับสน

    https://www.neowin.net/news/copilot-in-excel-just-got-a-major-upgrade/
    ใครที่เคยใช้ Copilot ใน Excel มาก่อน น่าจะเคยรู้สึกว่า—แม้จะพิมพ์ถามว่า “ข้อมูลนี้บอกอะไร” แต่ Copilot จะทำงานแค่ตามเซลล์ที่คุณคลิกไว้ ถ้าเผลอคลิกผิดก็คือไปคนละทิศเลย ล่าสุด Microsoft ปรับให้ “Copilot ฉลาดระดับเข้าใจคุณมากขึ้น” ด้วยสิ่งที่เรียกว่า Smart Context Awareness คือไม่ต้องคลิกเซลล์หรือไฮไลต์ตารางก่อนถาม เช่น คุณสามารถพิมพ์ว่า “Sort the table in the top-right” หรือ “Show insights about the data I was just analyzing” — แล้ว Copilot จะเข้าใจโดยอิงจากทั้งตำแหน่งข้อมูล + ประวัติแชตที่เพิ่งคุยกัน แถม Copilot ยังไฮไลต์ให้ดูเลยว่า “ฉันใช้ข้อมูลส่วนไหนในการวิเคราะห์อยู่” เพื่อความโปร่งใสและช่วยให้ผู้ใช้ตรวจสอบได้ว่าคำตอบนั้นมาจากตรงไหน ทั้งหมดนี้พร้อมใช้งานแล้วทั้งบน Excel Web และ Excel เวอร์ชันเดสก์ท็อป (Windows / Mac) ที่อัปเดตล่าสุด ✅ Copilot in Excel เพิ่ม Smart Context Awareness เข้าใจคำถามแบบรู้บริบท   • ไม่จำเป็นต้องเลือกเซลล์ก่อนถามคำถาม   • ใช้ทั้งสัญญาณตำแหน่งเซลล์ + ประวัติการสนทนา เพื่อเดาความต้องการของผู้ใช้ ✅ รองรับคำถามแบบภาษาธรรมชาติ เช่น “จัดเรียงตารางด้านขวาบน” หรือ “แสดงข้อมูลที่วิเคราะห์เมื่อกี้”   • ทำให้ไม่ต้องใช้สูตรหรือคำสั่งซับซ้อน   • ผู้ใช้ทั่วไปก็สามารถใช้งานได้โดยไม่ต้องมีพื้นฐาน Excel ขั้นสูง ✅ Copilot แสดง Highlight ข้อมูลที่ใช้ในการตอบกลับ   • ช่วยให้ผู้ใช้ตรวจสอบข้อมูลต้นทางที่ Copilot ใช้   • เพิ่มความเชื่อมั่นและสามารถปรับข้อมูลให้ตรงเป้าหมายได้ ✅ ฟีเจอร์ Smart Context ใช้งานได้แล้วบน Excel Web และเวอร์ชันเดสก์ท็อป   • Windows: Version 2505 (Build 18623.20058)   • Mac: Version 16.95 (Build 2506.3090) ✅ Visual Highlighting ใช้งานได้ใน Build ล่าสุดเพิ่มเติม   • Windows: Version 2505 (Build 18705.20000)   • Mac: Version 16.96 (Build 2506.4070) ‼️ Smart Context ยังพึ่งพาการเดาความตั้งใจของผู้ใช้ อาจมีพลาดได้ถ้าข้อมูลคลุมเครือ   • เช่น ถ้ามีตารางหลายชุดบนหน้าเดียวกัน คำสั่ง “จัดเรียงตารางขวาบน” อาจเดาผิดได้   • ควรตรวจสอบ Highlight ให้แน่ใจก่อนใช้คำสั่งที่มีผลกระทบต่อข้อมูล ‼️ Copilot ยังไม่รองรับการเข้าใจภาพรวมหลายชีตหรือหลาย workbook ได้เต็มที่   • Smart Context ใช้ข้อมูลในชีตเดียวเป็นหลัก   • หากมีการเชื่อมโยงหลายแหล่ง คำตอบอาจไม่แม่นยำเท่าการระบุชัด ๆ ‼️ ฟีเจอร์นี้ใช้ได้เฉพาะ Excel ที่อัปเดตเป็นเวอร์ชันใหม่ล่าสุดเท่านั้น   • ผู้ใช้ที่ยังใช้ Excel เวอร์ชันเก่าอาจไม่เห็นความสามารถนี้   • อาจต้องอัปเดต Microsoft 365 ทั้งระบบเพื่อเข้าถึง ‼️ ความสามารถของ Copilot ยังคงขึ้นกับความซับซ้อนของข้อมูลและโครงสร้างเอกสาร   • ข้อมูลที่ไม่มี header, มีรูปแบบผสม หรือมีสูตรซ้อนซับ อาจทำให้ Copilot สับสน https://www.neowin.net/news/copilot-in-excel-just-got-a-major-upgrade/
    WWW.NEOWIN.NET
    Copilot in Excel just got a major upgrade
    Microsoft has made Copilot in Excel a whole lot better by giving it smarter context awareness and a visual highlight that makes it easier to trust the AI's responses.
    0 Comments 0 Shares 74 Views 0 Reviews
  • ทำไม Android Tablet รุ่นใหม่ถึงไม่นิยมใส่ SIM Card อีกต่อไป 🗒️

    ในยุคที่เทคโนโลยีพัฒนาอย่างรวดเร็ว อุปกรณ์อย่างแท็บเล็ต (Tablet) ได้กลายเป็นเครื่องมือสำคัญสำหรับการทำงาน ความบันเทิง และการเรียนรู้ โดยเฉพาะ Android Tablet ที่ได้รับความนิยมจากความหลากหลายและราคาที่เข้าถึงได้ อย่างไรก็ตาม หากสังเกตดี ๆ จะพบว่าแท็บเล็ตรุ่นใหม่ ๆ ในปัจจุบันมักไม่ค่อยมีช่องใส่ SIM Card เพื่อเชื่อมต่อเครือข่ายมือถือเหมือนในอดีต ซึ่งเคยเป็นฟีเจอร์ยอดนิยมสำหรับผู้ที่ต้องการเชื่อมต่ออินเทอร์เน็ตได้ทุกที่ทุกเวลาโดยไม่ต้องพึ่ง Wi-Fi แล้วอะไรคือสาเหตุที่ทำให้ผู้ผลิตเลือกตัดฟีเจอร์นี้ออก? บทความนี้จะพาคุณไปสำรวจเหตุผลหลัก ๆ ที่อยู่เบื้องหลังการเปลี่ยนแปลงนี้ เพื่อให้เข้าใจภาพรวมของเทรนด์และพฤติกรรมการใช้งานในยุคปัจจุบัน

    1️⃣. การเปลี่ยนแปลงของพฤติกรรมผู้ใช้

    ในอดีต แท็บเล็ตที่รองรับ SIM Card เป็นที่นิยมอย่างมาก เพราะช่วยให้ผู้ใช้สามารถเชื่อมต่ออินเทอร์เน็ตได้ทุกที่ โดยเฉพาะในสถานที่ที่ไม่มี Wi-Fi อย่างไรก็ตาม ในปัจจุบัน สมาร์ทโฟนได้พัฒนาไปไกลจนสามารถทดแทนการใช้งานของแท็บเล็ตได้ในหลายด้าน ด้วยหน้าจอที่ใหญ่ขึ้นและประสิทธิภาพที่สูงขึ้น ผู้ใช้จำนวนมากจึงมองว่าสมาร์ทโฟนเพียงเครื่องเดียวก็เพียงพอต่อความต้องการ โดยเฉพาะเมื่อสมาร์ทโฟนสามารถแชร์อินเทอร์เน็ตผ่านฟีเจอร์ Hotspot ได้อย่างง่ายดายและรวดเร็ว การมี SIM Card บนแท็บเล็ตจึงกลายเป็นสิ่งที่ไม่จำเป็นสำหรับผู้ใช้ส่วนใหญ่

    2️⃣. การเข้าถึง Wi-Fi ที่แพร่หลายมากขึ้น

    ในยุคที่ Wi-Fi มีอยู่เกือบทุกหนแห่ง ไม่ว่าจะเป็นที่บ้าน สถานที่ทำงาน ร้านกาแฟ ห้างสรรพสินค้า หรือแม้แต่ในที่สาธารณะอย่างรถไฟฟ้าและสนามบิน การเชื่อมต่ออินเทอร์เน็ตผ่าน Wi-Fi กลายเป็นเรื่องสะดวกและประหยัดกว่าการใช้เครือข่ายมือถือ ผู้ใช้แท็บเล็ตส่วนใหญ่จึงเลือกเชื่อมต่อผ่าน Wi-Fi แทนการสมัครแพ็กเกจอินเทอร์เน็ตเพิ่มเติมสำหรับแท็บเล็ต ซึ่งช่วยลดค่าใช้จ่ายและทำให้การใช้งานมีความยืดหยุ่นมากขึ้น โดยเฉพาะในกลุ่มนักเรียน นักศึกษา และวัยทำงานที่มักอยู่ในสภาพแวดล้อมที่มี Wi-Fi ให้บริการอยู่แล้ว

    3️⃣. การลดต้นทุนการผลิตเพื่อราคาที่เข้าถึงได้

    การผลิตแท็บเล็ตที่รองรับ SIM Card ต้องใช้ชิ้นส่วนเพิ่มเติม เช่น ชิปโมเด็มสำหรับเชื่อมต่อ LTE หรือ 5G และช่องใส่ SIM Card ซึ่งทั้งหมดนี้เพิ่มต้นทุนการผลิตให้สูงขึ้น ในเมื่อความต้องการฟีเจอร์นี้ในตลาดลดลง ผู้ผลิตจึงเลือกตัดส่วนนี้ออกเพื่อลดต้นทุนและสามารถวางจำหน่ายแท็บเล็ตในราคาที่แข่งขันได้ ส่งผลให้ผู้บริโภคได้รับอุปกรณ์ที่มีประสิทธิภาพสูงในราคาที่เข้าถึงได้ง่ายขึ้น โดยเฉพาะในกลุ่มผู้ใช้ที่มองหาแท็บเล็ตเพื่อการใช้งานทั่วไป เช่น ดูวิดีโอ อ่านหนังสือ หรือทำงานเบื้องต้น

    4️⃣. การออกแบบที่บางและเบาเพื่อความคล่องตัว

    ดีไซน์ของแท็บเล็ตในปัจจุบันเน้นความบางและเบาเพื่อให้พกพาสะดวกและตอบโจทย์ไลฟ์สไตล์ที่ต้องการความคล่องตัว การเพิ่มช่องใส่ SIM Card และชิปโมเด็มอาจทำให้ต้องเสียพื้นที่ภายในตัวเครื่อง ซึ่งส่งผลต่อความบางและน้ำหนักของอุปกรณ์ ผู้ผลิตจึงเลือกตัดฟีเจอร์นี้ออกเพื่อให้แท็บเล็ตมีดีไซน์ที่สวยงามและพกพาง่ายยิ่งขึ้น ซึ่งเป็นสิ่งที่ผู้บริโภคในยุคนี้ให้ความสำคัญมากขึ้น โดยเฉพาะกลุ่มวัยรุ่นและนักเรียนที่ต้องการอุปกรณ์ที่ทั้งทันสมัยและสะดวกต่อการใช้งานในชีวิตประจำวัน

    5️⃣. บริการอินเทอร์เน็ตยุคใหม่ที่ตอบโจทย์มากขึ้น

    เทคโนโลยีเครือข่ายในปัจจุบันได้พัฒนาไปอย่างก้าวกระโดด แพ็กเกจอินเทอร์เน็ตบนสมาร์ทโฟนในยุคนี้มีความเร็วสูงและมีความยืดหยุ่นมากขึ้น ไม่ว่าจะเป็นการรองรับ eSIM, เครือข่าย 5G หรือแพ็กเกจแบบ Unlimited Data Plan ที่อนุญาตให้แชร์ข้อมูลไปยังอุปกรณ์อื่นได้โดยไม่มีข้อจำกัดมากนัก การแชร์อินเทอร์เน็ตจากสมาร์ทโฟนไปยังแท็บเล็ตจึงเป็นทางเลือกที่สะดวกและประหยัดกว่าการใช้ SIM Card แยกสำหรับแท็บเล็ต ทำให้ความจำเป็นในการมีช่องใส่ SIM Card บนแท็บเล็ตลดลงอย่างมาก

    🔮 อนาคตของแท็บเล็ตในยุคดิจิทัล

    ถึงแม้ว่าแท็บเล็ตที่รองรับ SIM Card จะยังคงมีอยู่ในตลาด แต่จำนวนรุ่นที่ออกใหม่นั้นลดลงอย่างเห็นได้ชัดเมื่อเทียบกับสมัยก่อน ผู้ผลิตมุ่งเน้นไปที่การพัฒนาแท็บเล็ตที่มีประสิทธิภาพสูง ตอบโจทย์การใช้งานที่หลากหลาย เช่น การเรียนออนไลน์ การทำงานจากระยะไกล หรือความบันเทิงในรูปแบบต่าง ๆ มากกว่าการเพิ่มฟีเจอร์ที่อาจไม่จำเป็นสำหรับผู้ใช้ส่วนใหญ่ การเลือกซื้อแท็บเล็ตในปัจจุบันจึงควรพิจารณาจากความต้องการใช้งานเป็นหลัก เช่น ขนาดหน้าจอ ความจุแบตเตอรี่ หรือซอฟต์แวร์ที่เหมาะสม มากกว่าการมองหาฟีเจอร์อย่างการรองรับ SIM Card

    ℹ️ℹ️ สรุป ℹ️ℹ️

    การที่ Android Tablet รุ่นใหม่ ๆ ไม่นิยมใส่ช่อง SIM Card อีกต่อไปเป็นผลมาจากการเปลี่ยนแปลงทั้งในด้านพฤติกรรมผู้ใช้ เทคโนโลยีที่พัฒนาขึ้น และกลยุทธ์ของผู้ผลิตที่ต้องการตอบโจทย์ความต้องการของตลาดอย่างมีประสิทธิภาพ การแชร์อินเทอร์เน็ตจากสมาร์ทโฟนที่ง่ายและสะดวก รวมถึงการเข้าถึง Wi-Fi ที่แพร่หลาย ทำให้แท็บเล็ตที่เน้นการเชื่อมต่อผ่าน Wi-Fi กลายเป็นตัวเลือกที่ได้รับความนิยมมากขึ้น สำหรับนักเรียนและผู้ที่สนใจเลือกซื้อแท็บเล็ต การทำความเข้าใจถึงการเปลี่ยนแปลงนี้จะช่วยให้เลือกอุปกรณ์ที่เหมาะสมกับการใช้งานและงบประมาณได้ดียิ่งขึ้น

    #ลุงเขียนหลานอ่าน
    ทำไม Android Tablet รุ่นใหม่ถึงไม่นิยมใส่ SIM Card อีกต่อไป 🗒️ ในยุคที่เทคโนโลยีพัฒนาอย่างรวดเร็ว อุปกรณ์อย่างแท็บเล็ต (Tablet) ได้กลายเป็นเครื่องมือสำคัญสำหรับการทำงาน ความบันเทิง และการเรียนรู้ โดยเฉพาะ Android Tablet ที่ได้รับความนิยมจากความหลากหลายและราคาที่เข้าถึงได้ อย่างไรก็ตาม หากสังเกตดี ๆ จะพบว่าแท็บเล็ตรุ่นใหม่ ๆ ในปัจจุบันมักไม่ค่อยมีช่องใส่ SIM Card เพื่อเชื่อมต่อเครือข่ายมือถือเหมือนในอดีต ซึ่งเคยเป็นฟีเจอร์ยอดนิยมสำหรับผู้ที่ต้องการเชื่อมต่ออินเทอร์เน็ตได้ทุกที่ทุกเวลาโดยไม่ต้องพึ่ง Wi-Fi แล้วอะไรคือสาเหตุที่ทำให้ผู้ผลิตเลือกตัดฟีเจอร์นี้ออก? บทความนี้จะพาคุณไปสำรวจเหตุผลหลัก ๆ ที่อยู่เบื้องหลังการเปลี่ยนแปลงนี้ เพื่อให้เข้าใจภาพรวมของเทรนด์และพฤติกรรมการใช้งานในยุคปัจจุบัน 1️⃣. การเปลี่ยนแปลงของพฤติกรรมผู้ใช้ ในอดีต แท็บเล็ตที่รองรับ SIM Card เป็นที่นิยมอย่างมาก เพราะช่วยให้ผู้ใช้สามารถเชื่อมต่ออินเทอร์เน็ตได้ทุกที่ โดยเฉพาะในสถานที่ที่ไม่มี Wi-Fi อย่างไรก็ตาม ในปัจจุบัน สมาร์ทโฟนได้พัฒนาไปไกลจนสามารถทดแทนการใช้งานของแท็บเล็ตได้ในหลายด้าน ด้วยหน้าจอที่ใหญ่ขึ้นและประสิทธิภาพที่สูงขึ้น ผู้ใช้จำนวนมากจึงมองว่าสมาร์ทโฟนเพียงเครื่องเดียวก็เพียงพอต่อความต้องการ โดยเฉพาะเมื่อสมาร์ทโฟนสามารถแชร์อินเทอร์เน็ตผ่านฟีเจอร์ Hotspot ได้อย่างง่ายดายและรวดเร็ว การมี SIM Card บนแท็บเล็ตจึงกลายเป็นสิ่งที่ไม่จำเป็นสำหรับผู้ใช้ส่วนใหญ่ 2️⃣. การเข้าถึง Wi-Fi ที่แพร่หลายมากขึ้น ในยุคที่ Wi-Fi มีอยู่เกือบทุกหนแห่ง ไม่ว่าจะเป็นที่บ้าน สถานที่ทำงาน ร้านกาแฟ ห้างสรรพสินค้า หรือแม้แต่ในที่สาธารณะอย่างรถไฟฟ้าและสนามบิน การเชื่อมต่ออินเทอร์เน็ตผ่าน Wi-Fi กลายเป็นเรื่องสะดวกและประหยัดกว่าการใช้เครือข่ายมือถือ ผู้ใช้แท็บเล็ตส่วนใหญ่จึงเลือกเชื่อมต่อผ่าน Wi-Fi แทนการสมัครแพ็กเกจอินเทอร์เน็ตเพิ่มเติมสำหรับแท็บเล็ต ซึ่งช่วยลดค่าใช้จ่ายและทำให้การใช้งานมีความยืดหยุ่นมากขึ้น โดยเฉพาะในกลุ่มนักเรียน นักศึกษา และวัยทำงานที่มักอยู่ในสภาพแวดล้อมที่มี Wi-Fi ให้บริการอยู่แล้ว 3️⃣. การลดต้นทุนการผลิตเพื่อราคาที่เข้าถึงได้ การผลิตแท็บเล็ตที่รองรับ SIM Card ต้องใช้ชิ้นส่วนเพิ่มเติม เช่น ชิปโมเด็มสำหรับเชื่อมต่อ LTE หรือ 5G และช่องใส่ SIM Card ซึ่งทั้งหมดนี้เพิ่มต้นทุนการผลิตให้สูงขึ้น ในเมื่อความต้องการฟีเจอร์นี้ในตลาดลดลง ผู้ผลิตจึงเลือกตัดส่วนนี้ออกเพื่อลดต้นทุนและสามารถวางจำหน่ายแท็บเล็ตในราคาที่แข่งขันได้ ส่งผลให้ผู้บริโภคได้รับอุปกรณ์ที่มีประสิทธิภาพสูงในราคาที่เข้าถึงได้ง่ายขึ้น โดยเฉพาะในกลุ่มผู้ใช้ที่มองหาแท็บเล็ตเพื่อการใช้งานทั่วไป เช่น ดูวิดีโอ อ่านหนังสือ หรือทำงานเบื้องต้น 4️⃣. การออกแบบที่บางและเบาเพื่อความคล่องตัว ดีไซน์ของแท็บเล็ตในปัจจุบันเน้นความบางและเบาเพื่อให้พกพาสะดวกและตอบโจทย์ไลฟ์สไตล์ที่ต้องการความคล่องตัว การเพิ่มช่องใส่ SIM Card และชิปโมเด็มอาจทำให้ต้องเสียพื้นที่ภายในตัวเครื่อง ซึ่งส่งผลต่อความบางและน้ำหนักของอุปกรณ์ ผู้ผลิตจึงเลือกตัดฟีเจอร์นี้ออกเพื่อให้แท็บเล็ตมีดีไซน์ที่สวยงามและพกพาง่ายยิ่งขึ้น ซึ่งเป็นสิ่งที่ผู้บริโภคในยุคนี้ให้ความสำคัญมากขึ้น โดยเฉพาะกลุ่มวัยรุ่นและนักเรียนที่ต้องการอุปกรณ์ที่ทั้งทันสมัยและสะดวกต่อการใช้งานในชีวิตประจำวัน 5️⃣. บริการอินเทอร์เน็ตยุคใหม่ที่ตอบโจทย์มากขึ้น เทคโนโลยีเครือข่ายในปัจจุบันได้พัฒนาไปอย่างก้าวกระโดด แพ็กเกจอินเทอร์เน็ตบนสมาร์ทโฟนในยุคนี้มีความเร็วสูงและมีความยืดหยุ่นมากขึ้น ไม่ว่าจะเป็นการรองรับ eSIM, เครือข่าย 5G หรือแพ็กเกจแบบ Unlimited Data Plan ที่อนุญาตให้แชร์ข้อมูลไปยังอุปกรณ์อื่นได้โดยไม่มีข้อจำกัดมากนัก การแชร์อินเทอร์เน็ตจากสมาร์ทโฟนไปยังแท็บเล็ตจึงเป็นทางเลือกที่สะดวกและประหยัดกว่าการใช้ SIM Card แยกสำหรับแท็บเล็ต ทำให้ความจำเป็นในการมีช่องใส่ SIM Card บนแท็บเล็ตลดลงอย่างมาก 🔮 อนาคตของแท็บเล็ตในยุคดิจิทัล ถึงแม้ว่าแท็บเล็ตที่รองรับ SIM Card จะยังคงมีอยู่ในตลาด แต่จำนวนรุ่นที่ออกใหม่นั้นลดลงอย่างเห็นได้ชัดเมื่อเทียบกับสมัยก่อน ผู้ผลิตมุ่งเน้นไปที่การพัฒนาแท็บเล็ตที่มีประสิทธิภาพสูง ตอบโจทย์การใช้งานที่หลากหลาย เช่น การเรียนออนไลน์ การทำงานจากระยะไกล หรือความบันเทิงในรูปแบบต่าง ๆ มากกว่าการเพิ่มฟีเจอร์ที่อาจไม่จำเป็นสำหรับผู้ใช้ส่วนใหญ่ การเลือกซื้อแท็บเล็ตในปัจจุบันจึงควรพิจารณาจากความต้องการใช้งานเป็นหลัก เช่น ขนาดหน้าจอ ความจุแบตเตอรี่ หรือซอฟต์แวร์ที่เหมาะสม มากกว่าการมองหาฟีเจอร์อย่างการรองรับ SIM Card ℹ️ℹ️ สรุป ℹ️ℹ️ การที่ Android Tablet รุ่นใหม่ ๆ ไม่นิยมใส่ช่อง SIM Card อีกต่อไปเป็นผลมาจากการเปลี่ยนแปลงทั้งในด้านพฤติกรรมผู้ใช้ เทคโนโลยีที่พัฒนาขึ้น และกลยุทธ์ของผู้ผลิตที่ต้องการตอบโจทย์ความต้องการของตลาดอย่างมีประสิทธิภาพ การแชร์อินเทอร์เน็ตจากสมาร์ทโฟนที่ง่ายและสะดวก รวมถึงการเข้าถึง Wi-Fi ที่แพร่หลาย ทำให้แท็บเล็ตที่เน้นการเชื่อมต่อผ่าน Wi-Fi กลายเป็นตัวเลือกที่ได้รับความนิยมมากขึ้น สำหรับนักเรียนและผู้ที่สนใจเลือกซื้อแท็บเล็ต การทำความเข้าใจถึงการเปลี่ยนแปลงนี้จะช่วยให้เลือกอุปกรณ์ที่เหมาะสมกับการใช้งานและงบประมาณได้ดียิ่งขึ้น #ลุงเขียนหลานอ่าน
    0 Comments 0 Shares 184 Views 0 Reviews
  • ถ้าตอนนี้เราเริ่มบ่นว่า “เซิร์ฟเวอร์มันร้อน” อีกไม่กี่ปีข้างหน้า—อาจต้องเรียกวิศวกรนิวเคลียร์มาช่วยออกแบบห้องเซิร์ฟเวอร์กันเลยทีเดียว 🤯

    เพราะรายงานจาก KAIST (สถาบันวิจัยของเกาหลีใต้) ชี้ว่า TDP (Thermal Design Power) ของชิป AI ในอนาคตอาจพุ่งไปถึง 15,360W ภายในปี 2032 ซึ่งสูงกว่าชิป H100 ของ NVIDIA ปัจจุบัน (700–800W) ถึง 20 เท่า

    ตอนนี้ NVIDIA Blackwell ใช้พลังงาน 1,400W แล้ว Rubin Ultra ที่จะมาในปี 2027 จะพุ่งไป 3,600W และ Feynman ในปี 2029 จะทะลุ 6,000W ได้เลย โดยทั้งหมดนี้ยัง “ใช้แค่น้ำหล่อเย็น (liquid cooling)” ได้อยู่

    แต่หลังจากปี 2030 เป็นต้นไป จะเริ่มใช้เทคโนโลยี Immersion Cooling (จุ่มชิปในของเหลวพิเศษ) และเมื่อถึงปี 2032… ต้องฝังระบบทำความเย็นลงไปในชิปเลย (Embedded Cooling)

    และไม่ใช่แค่ตัวประมวลผลที่กินไฟครับ—โมดูลหน่วยความจำ HBM ก็จะใช้ไฟกว่า 2,000W ด้วย นั่นแปลว่าชิป AI 1 ตัวอาจใช้ไฟมากกว่บ้าน 2 หลังรวมกัน!

    ✅ TDP ของชิป AI เพิ่มจากร้อย → พัน → หมื่นวัตต์ในทศวรรษเดียว  
    • Blackwell Ultra (2025): 1,400W  
    • Rubin Ultra (2027): 3,600W  
    • Feynman Ultra (2029): 6,000W  
    • Post-Feynman Ultra (2032): 15,360W

    ✅ แนวโน้มเทคโนโลยีหล่อเย็น AI ตามระดับความร้อน  
    • เริ่มจาก liquid cooling → immersion cooling → embedded cooling  
    • KAIST เสนอแนวคิดฝัง "ท่อน้ำหล่อเย็น" และ “ฟลูอิด TSV” ลงในชิป

    ✅ การเพิ่มจำนวน chiplet และ HBM stack เป็นสาเหตุหลักของพลังงานมหาศาล  
    • HBM6 stack หนึ่งใช้ไฟถึง 120W และอาจมีมากถึง 16 stack ต่อชิป  
    • ระบบต้องติดเซ็นเซอร์ความร้อนแบบเรียลไทม์

    ✅ แนวคิดอนาคต: GPU ซ้อนชั้นสองด้าน + ท่อนำความร้อนฝังใน interposer  
    • เพิ่มพลังโดยไม่เพิ่มพื้นที่ชิป  
    • เน้นดึงความร้อนออกจาก “core” ก่อน แล้วค่อยระบายออกนอกตัวระบบ

    ‼️ พลังงานระดับนี้อาจต้องใช้ระบบจ่ายไฟระดับ “โรงไฟฟ้าขนาดย่อม”  
    • หนึ่ง GPU rack อาจกินไฟ 50kW+ → ส่งผลต่อโครงสร้างพื้นฐานของ data center ทั่วโลก

    ‼️ ความท้าทายเรื่อง “คาร์บอนฟุตพรินต์” และสิ่งแวดล้อมจะหนักขึ้น  
    • แม้จะมีความพยายามใช้ cooling แบบปิดระบบ แต่การผลิตและใช้ชิปเหล่านี้ยังสิ้นเปลืองพลังงานมหาศาล

    ‼️ Immersion cooling ยังเป็นเทคโนโลยีเฉพาะทาง – ไม่แพร่หลายเท่าที่ควร  
    • ต้องใช้ของเหลวเฉพาะ แพง และต้องมีระบบควบคุมพิเศษ  
    • อาจไม่เหมาะกับองค์กรทั่วไป

    ‼️ ยังไม่มีมาตรฐานอุตสาหกรรมด้าน embedded cooling ที่ชัดเจน  
    • หากใช้ต่างแนวทางกัน อาจเกิดปัญหาความเข้ากันได้ของฮาร์ดแวร์ในอนาคต

    https://www.tomshardware.com/pc-components/cooling/future-ai-processors-said-to-consume-up-to-15-360w-massive-power-draw-will-demand-exotic-immersion-and-embedded-cooling-tech
    ถ้าตอนนี้เราเริ่มบ่นว่า “เซิร์ฟเวอร์มันร้อน” อีกไม่กี่ปีข้างหน้า—อาจต้องเรียกวิศวกรนิวเคลียร์มาช่วยออกแบบห้องเซิร์ฟเวอร์กันเลยทีเดียว 🤯 เพราะรายงานจาก KAIST (สถาบันวิจัยของเกาหลีใต้) ชี้ว่า TDP (Thermal Design Power) ของชิป AI ในอนาคตอาจพุ่งไปถึง 15,360W ภายในปี 2032 ซึ่งสูงกว่าชิป H100 ของ NVIDIA ปัจจุบัน (700–800W) ถึง 20 เท่า ตอนนี้ NVIDIA Blackwell ใช้พลังงาน 1,400W แล้ว Rubin Ultra ที่จะมาในปี 2027 จะพุ่งไป 3,600W และ Feynman ในปี 2029 จะทะลุ 6,000W ได้เลย โดยทั้งหมดนี้ยัง “ใช้แค่น้ำหล่อเย็น (liquid cooling)” ได้อยู่ แต่หลังจากปี 2030 เป็นต้นไป จะเริ่มใช้เทคโนโลยี Immersion Cooling (จุ่มชิปในของเหลวพิเศษ) และเมื่อถึงปี 2032… ต้องฝังระบบทำความเย็นลงไปในชิปเลย (Embedded Cooling) และไม่ใช่แค่ตัวประมวลผลที่กินไฟครับ—โมดูลหน่วยความจำ HBM ก็จะใช้ไฟกว่า 2,000W ด้วย นั่นแปลว่าชิป AI 1 ตัวอาจใช้ไฟมากกว่บ้าน 2 หลังรวมกัน! ✅ TDP ของชิป AI เพิ่มจากร้อย → พัน → หมื่นวัตต์ในทศวรรษเดียว   • Blackwell Ultra (2025): 1,400W   • Rubin Ultra (2027): 3,600W   • Feynman Ultra (2029): 6,000W   • Post-Feynman Ultra (2032): 15,360W ✅ แนวโน้มเทคโนโลยีหล่อเย็น AI ตามระดับความร้อน   • เริ่มจาก liquid cooling → immersion cooling → embedded cooling   • KAIST เสนอแนวคิดฝัง "ท่อน้ำหล่อเย็น" และ “ฟลูอิด TSV” ลงในชิป ✅ การเพิ่มจำนวน chiplet และ HBM stack เป็นสาเหตุหลักของพลังงานมหาศาล   • HBM6 stack หนึ่งใช้ไฟถึง 120W และอาจมีมากถึง 16 stack ต่อชิป   • ระบบต้องติดเซ็นเซอร์ความร้อนแบบเรียลไทม์ ✅ แนวคิดอนาคต: GPU ซ้อนชั้นสองด้าน + ท่อนำความร้อนฝังใน interposer   • เพิ่มพลังโดยไม่เพิ่มพื้นที่ชิป   • เน้นดึงความร้อนออกจาก “core” ก่อน แล้วค่อยระบายออกนอกตัวระบบ ‼️ พลังงานระดับนี้อาจต้องใช้ระบบจ่ายไฟระดับ “โรงไฟฟ้าขนาดย่อม”   • หนึ่ง GPU rack อาจกินไฟ 50kW+ → ส่งผลต่อโครงสร้างพื้นฐานของ data center ทั่วโลก ‼️ ความท้าทายเรื่อง “คาร์บอนฟุตพรินต์” และสิ่งแวดล้อมจะหนักขึ้น   • แม้จะมีความพยายามใช้ cooling แบบปิดระบบ แต่การผลิตและใช้ชิปเหล่านี้ยังสิ้นเปลืองพลังงานมหาศาล ‼️ Immersion cooling ยังเป็นเทคโนโลยีเฉพาะทาง – ไม่แพร่หลายเท่าที่ควร   • ต้องใช้ของเหลวเฉพาะ แพง และต้องมีระบบควบคุมพิเศษ   • อาจไม่เหมาะกับองค์กรทั่วไป ‼️ ยังไม่มีมาตรฐานอุตสาหกรรมด้าน embedded cooling ที่ชัดเจน   • หากใช้ต่างแนวทางกัน อาจเกิดปัญหาความเข้ากันได้ของฮาร์ดแวร์ในอนาคต https://www.tomshardware.com/pc-components/cooling/future-ai-processors-said-to-consume-up-to-15-360w-massive-power-draw-will-demand-exotic-immersion-and-embedded-cooling-tech
    0 Comments 0 Shares 173 Views 0 Reviews
  • ยุคนี้องค์กรไม่ค่อย “ผูกขาดใจ” กับ Cloud เจ้าเดียวแล้ว ส่วนใหญ่ใช้แบบ Multicloud เพื่อดึงจุดเด่นแต่ละแพลตฟอร์มมาใช้งาน เช่น ใช้ GCP ทำ Data Analytics, Azure ทำ Identity, AWS ทำ Compute แต่รู้ไหมว่าความปลอดภัยแบบ “ข้ามค่าย” นี่เองที่สร้างฝันร้ายให้นัก Security

    เพราะเครื่องมือของแต่ละเจ้าต่างกัน ภาษาและพฤติกรรมไม่เหมือนกัน ทำให้เกิด “จุดบอด” ที่แฮกเกอร์ชอบที่สุด ข่าวนี้เลยรวบรวม 8 เทคนิค ที่องค์กรควรใช้เพื่อควบคุมความปลอดภัย Multicloud อย่างมืออาชีพ

    เช่น การตั้งศูนย์กลางความปลอดภัยที่ไม่ขึ้นกับ Cloud ใด Cloud หนึ่ง, การใช้ระบบตรวจจับภัยแบบรวมศูนย์, หรือแม้แต่การตั้งขอบเขตความไว้ใจให้ทุกระบบ — ไม่ว่าจะเป็น AWS, Azure หรือเครื่องเก่าที่นั่งนิ่ง ๆ ในดาต้าเซ็นเตอร์ก็ตาม

    สิ่งสำคัญที่หลายคนมองข้ามคือเรื่อง “shared responsibility” — ความปลอดภัยไม่ใช่งานของทีม Security คนเดียว แต่ต้องกระจายบทบาทไปถึง DevOps, Cloud Architect และแม้แต่ทีม Compliance ด้วย

    ✅ ตั้งทีมกลางดูแลความปลอดภัย Multicloud  
    • สร้างศูนย์กลางหรือบุคคลที่คุมกลยุทธ์ ความสอดคล้อง และการบังคับใช้นโยบาย Cloud ทั้งหมด

    ✅ ใช้ระบบ Identity และ Governance แบบรวมศูนย์  
    • ลดช่องว่างระหว่าง Cloud ด้วยการจัดการสิทธิ์ผ่านระบบกลาง เช่น Microsoft Entra ID หรือ Okta

    ✅ ไม่ยึดติดกับ Security Tools ของแต่ละ Cloud โดยลำพัง  
    • สร้างมาตรฐานเดียวทั่วทุก Cloud เพื่อไม่ให้เกิดความซ้ำซ้อนและจุดอ่อน

    ✅ ใช้แนวคิด “Unified Trust Boundary”  
    • ยึดผู้ใช้ ข้อมูล และพฤติกรรมเป็นศูนย์กลาง แทนที่จะวางระบบความปลอดภัยแยกตามแพลตฟอร์ม

    ✅ กระจายความรับผิดชอบความปลอดภัยในองค์กร  
    • CISO เป็นเจ้าภาพ แต่ต้องมีทีม DevOps, Platform, Compliance มาร่วมรับผิดชอบด้วย

    ✅ เน้น Collaboration ระหว่างทีม ไม่ทำงานแบบไซโล  
    • ช่วยให้ระบบความปลอดภัยสอดคล้องกับภาพรวมธุรกิจ

    ✅ ตั้งระบบตรวจจับภัยแบบข้าม Cloud อย่างเป็นระบบ  
    • ลด Alert Fatigue และมองเห็นภาพรวมของภัยคุกคามได้ชัดเจนขึ้น

    ✅ ควบคุมการเข้าถึงด้วยแนวคิด “Session-based Access”  
    • ลดความเสี่ยงจากมัลแวร์หรือผู้บุกรุก ด้วยการจำกัดสิทธิ์และระยะเวลาการใช้งาน Cloud

    ‼️ Cloud แต่ละเจ้ามีเครื่องมือ-คำศัพท์ไม่เหมือนกัน ทำให้เกิดความสับสน  
    • การพึ่ง native tools แยกเจ้า โดยไม่มีแผนรวม อาจเกิดช่องโหว่ที่ไม่รู้ตัว

    ‼️ Multicloud อาจเพิ่ม “complexity” มากกว่าที่คิด  
    • ถ้าไม่ควบคุมให้ดี Cloud หลายเจ้าจะกลายเป็น “ป่าดง Security Tools” ที่ดูแลไม่ทั่วถึง

    ‼️ ความปลอดภัยไม่ควรฝากไว้แค่ทีม Security  
    • ถ้าไม่ดึงคนอื่นมารับผิดชอบร่วมกัน ก็เหมือนมีรปภ.แค่เฝ้าประตูหน้า แต่หน้าต่างเปิดโล่งหมด

    ‼️ หากไม่มีการวาง Detection & Response ที่เป็นระบบ จะมองไม่เห็นภัยที่แทรกข้าม Cloud  
    • โดยเฉพาะพฤติกรรมแฝงที่มักกระโดดข้ามแพลตฟอร์ม

    ‼️ การควบคุมสิทธิ์แบบ Static Access ทำให้ Cloud ตกเป็นเป้าได้ง่าย  
    • ต้องใช้แนวคิด “just-in-time access” แทนสิทธิถาวร

    https://www.csoonline.com/article/4003915/8-tips-for-mastering-multicloud-security.html
    ยุคนี้องค์กรไม่ค่อย “ผูกขาดใจ” กับ Cloud เจ้าเดียวแล้ว ส่วนใหญ่ใช้แบบ Multicloud เพื่อดึงจุดเด่นแต่ละแพลตฟอร์มมาใช้งาน เช่น ใช้ GCP ทำ Data Analytics, Azure ทำ Identity, AWS ทำ Compute แต่รู้ไหมว่าความปลอดภัยแบบ “ข้ามค่าย” นี่เองที่สร้างฝันร้ายให้นัก Security เพราะเครื่องมือของแต่ละเจ้าต่างกัน ภาษาและพฤติกรรมไม่เหมือนกัน ทำให้เกิด “จุดบอด” ที่แฮกเกอร์ชอบที่สุด ข่าวนี้เลยรวบรวม 8 เทคนิค ที่องค์กรควรใช้เพื่อควบคุมความปลอดภัย Multicloud อย่างมืออาชีพ เช่น การตั้งศูนย์กลางความปลอดภัยที่ไม่ขึ้นกับ Cloud ใด Cloud หนึ่ง, การใช้ระบบตรวจจับภัยแบบรวมศูนย์, หรือแม้แต่การตั้งขอบเขตความไว้ใจให้ทุกระบบ — ไม่ว่าจะเป็น AWS, Azure หรือเครื่องเก่าที่นั่งนิ่ง ๆ ในดาต้าเซ็นเตอร์ก็ตาม สิ่งสำคัญที่หลายคนมองข้ามคือเรื่อง “shared responsibility” — ความปลอดภัยไม่ใช่งานของทีม Security คนเดียว แต่ต้องกระจายบทบาทไปถึง DevOps, Cloud Architect และแม้แต่ทีม Compliance ด้วย ✅ ตั้งทีมกลางดูแลความปลอดภัย Multicloud   • สร้างศูนย์กลางหรือบุคคลที่คุมกลยุทธ์ ความสอดคล้อง และการบังคับใช้นโยบาย Cloud ทั้งหมด ✅ ใช้ระบบ Identity และ Governance แบบรวมศูนย์   • ลดช่องว่างระหว่าง Cloud ด้วยการจัดการสิทธิ์ผ่านระบบกลาง เช่น Microsoft Entra ID หรือ Okta ✅ ไม่ยึดติดกับ Security Tools ของแต่ละ Cloud โดยลำพัง   • สร้างมาตรฐานเดียวทั่วทุก Cloud เพื่อไม่ให้เกิดความซ้ำซ้อนและจุดอ่อน ✅ ใช้แนวคิด “Unified Trust Boundary”   • ยึดผู้ใช้ ข้อมูล และพฤติกรรมเป็นศูนย์กลาง แทนที่จะวางระบบความปลอดภัยแยกตามแพลตฟอร์ม ✅ กระจายความรับผิดชอบความปลอดภัยในองค์กร   • CISO เป็นเจ้าภาพ แต่ต้องมีทีม DevOps, Platform, Compliance มาร่วมรับผิดชอบด้วย ✅ เน้น Collaboration ระหว่างทีม ไม่ทำงานแบบไซโล   • ช่วยให้ระบบความปลอดภัยสอดคล้องกับภาพรวมธุรกิจ ✅ ตั้งระบบตรวจจับภัยแบบข้าม Cloud อย่างเป็นระบบ   • ลด Alert Fatigue และมองเห็นภาพรวมของภัยคุกคามได้ชัดเจนขึ้น ✅ ควบคุมการเข้าถึงด้วยแนวคิด “Session-based Access”   • ลดความเสี่ยงจากมัลแวร์หรือผู้บุกรุก ด้วยการจำกัดสิทธิ์และระยะเวลาการใช้งาน Cloud ‼️ Cloud แต่ละเจ้ามีเครื่องมือ-คำศัพท์ไม่เหมือนกัน ทำให้เกิดความสับสน   • การพึ่ง native tools แยกเจ้า โดยไม่มีแผนรวม อาจเกิดช่องโหว่ที่ไม่รู้ตัว ‼️ Multicloud อาจเพิ่ม “complexity” มากกว่าที่คิด   • ถ้าไม่ควบคุมให้ดี Cloud หลายเจ้าจะกลายเป็น “ป่าดง Security Tools” ที่ดูแลไม่ทั่วถึง ‼️ ความปลอดภัยไม่ควรฝากไว้แค่ทีม Security   • ถ้าไม่ดึงคนอื่นมารับผิดชอบร่วมกัน ก็เหมือนมีรปภ.แค่เฝ้าประตูหน้า แต่หน้าต่างเปิดโล่งหมด ‼️ หากไม่มีการวาง Detection & Response ที่เป็นระบบ จะมองไม่เห็นภัยที่แทรกข้าม Cloud   • โดยเฉพาะพฤติกรรมแฝงที่มักกระโดดข้ามแพลตฟอร์ม ‼️ การควบคุมสิทธิ์แบบ Static Access ทำให้ Cloud ตกเป็นเป้าได้ง่าย   • ต้องใช้แนวคิด “just-in-time access” แทนสิทธิถาวร https://www.csoonline.com/article/4003915/8-tips-for-mastering-multicloud-security.html
    WWW.CSOONLINE.COM
    8 tips for mastering multicloud security
    Multicloud environments offer many benefits. Strong inherent security isn’t one of them.
    0 Comments 0 Shares 154 Views 0 Reviews
  • ลองจินตนาการดูว่าเราย้ายไฟล์สำคัญ—ทั้งรูปถ่าย 30 ปี เอกสารงานหายาก—ไปไว้บน OneDrive เตรียมเปลี่ยนเครื่อง แล้ววันหนึ่ง Microsoft “ล็อกบัญชี” โดยไม่มีคำอธิบายชัดเจน แถมติดต่อเจ้าหน้าที่ก็ไม่ได้ มีแค่บอทตอบกลับซ้ำไปมา จนรู้สึกเหมือนโดนทิ้งไว้ในทะเลเมฆ (Cloud) โดยไร้ห่วงชูชีพ...

    เหตุการณ์นี้เกิดขึ้นกับผู้ใช้รายหนึ่งใน Reddit โดยเขาเล่าว่าได้ย้ายข้อมูลสำคัญทั้งหมดขึ้น OneDrive ชั่วคราว ก่อนจะเปลี่ยนฮาร์ดแวร์และทิ้งไดรฟ์เก่า แต่แล้วบัญชี Microsoft ถูกล็อกโดยไม่มีคำอธิบาย และเขาส่งฟอร์มยืนยันตัวตนกว่า 18 ครั้ง แต่ไม่มีใครตอบกลับ มีแค่ระบบอัตโนมัติเท่านั้นที่ตอบ

    กรณีนี้ชี้ให้เห็นความเปราะบางของระบบบัญชี Microsoft และการเข้ารหัส BitLocker ที่เปิดใช้งานแบบอัตโนมัติใน Windows 11 เวอร์ชันล่าสุด (24H2) ซึ่งเก็บกุญแจถอดรหัสไว้กับ Microsoft Account ของผู้ใช้ ถ้าบัญชีนี้ถูกล็อกหรือปิดถาวร ผู้ใช้ก็อาจ “สูญเสียข้อมูลทั้งหมด” โดยไม่มีทางเอาคืนได้!

    ✅ Microsoft Account ถูกล็อก ทำให้ผู้ใช้สูญเสียข้อมูลสำคัญ  
    • ผู้ใช้ Reddit รายหนึ่งบอกว่าบัญชีถูกล็อกทันทีหลังย้ายข้อมูลทั้งหมดขึ้น OneDrive  
    • ส่งแบบฟอร์มร้องเรียนถึง 18 ครั้ง แต่ไม่มีใครตอบกลับ

    ✅ BitLocker เปิดใช้งานอัตโนมัติใน Windows 11 เวอร์ชัน 24H2  
    • ผู้ใช้จำนวนมากอาจไม่รู้ตัวว่าไฟล์ของตนถูกเข้ารหัส  
    • กุญแจถอดรหัส (recovery key) เก็บไว้ในบัญชี Microsoft เท่านั้น

    ✅ เมื่อบัญชีถูกปิด—ข้อมูลของผู้ใช้อาจถูกลบตาม  
    • ตามข้อกำหนดการใช้งาน (Terms of Use) ของ Microsoft  
    • ข้อมูลจะถูกลบถาวร หรือไม่สามารถเข้าถึงได้อีก  
    • ผู้ใช้จะเสียสิทธิ์ในการใช้บริการที่เชื่อมโยงทั้งหมดทันที เช่น Windows, Office, OneDrive

    ✅ แนวทางที่ควรทำเพิ่มเติมเพื่อป้องกันปัญหา  
    • สำรองข้อมูลภายในเครื่องเป็นประจำ ไม่ควรพึ่งพาแค่ Cloud  
    • ควรเก็บ BitLocker recovery key แบบออฟไลน์ เช่น บน Flash drive หรือพิมพ์เก็บไว้

    ‼️ การถูกล็อกบัญชี Microsoft = ความเสี่ยงข้อมูลหายถาวร  
    • การสูญเสียการเข้าถึงบัญชีจะหมายถึงการเข้าถึงไฟล์ที่เก็บไว้บน OneDrive และไฟล์ที่ถูก BitLocker เข้ารหัส ก็จะหายไปด้วย

    ‼️ ไม่มีช่องทางติดต่อมนุษย์ในบางกรณีฉุกเฉิน  
    • ผู้ใช้บางรายระบุว่าไม่สามารถติดต่อฝ่ายสนับสนุนแบบคนจริงได้เลย  
    • ระบบตอบกลับอัตโนมัติทำให้ไม่สามารถแก้ปัญหาได้ทันท่วงที

    ‼️ ความเสี่ยงจากการพึ่งพา Cloud โดยไม่สำรองข้อมูลในเครื่อง  
    • หาก OneDrive หรือบัญชี Microsoft มีปัญหา จะไม่มีทางกู้คืนข้อมูล  
    • ความเข้าใจผิดว่า Cloud ปลอดภัยเสมอ อาจนำไปสู่การสูญเสียที่แก้ไม่ได้

    ‼️ การเปิดใช้งาน BitLocker โดยอัตโนมัติโดยไม่แจ้งผู้ใช้อย่างชัดเจน  
    • ทำให้หลายคนไม่รู้ว่าข้อมูลของตนถูกเข้ารหัส  
    • ทำให้ไม่รู้ว่าต้องเก็บ recovery key ไว้แยกต่างหาก

    https://www.neowin.net/news/microsoft-locks-windows-11-user-out-shows-how-easy-losing-data-from-forced-encryption-is/
    ลองจินตนาการดูว่าเราย้ายไฟล์สำคัญ—ทั้งรูปถ่าย 30 ปี เอกสารงานหายาก—ไปไว้บน OneDrive เตรียมเปลี่ยนเครื่อง แล้ววันหนึ่ง Microsoft “ล็อกบัญชี” โดยไม่มีคำอธิบายชัดเจน แถมติดต่อเจ้าหน้าที่ก็ไม่ได้ มีแค่บอทตอบกลับซ้ำไปมา จนรู้สึกเหมือนโดนทิ้งไว้ในทะเลเมฆ (Cloud) โดยไร้ห่วงชูชีพ... เหตุการณ์นี้เกิดขึ้นกับผู้ใช้รายหนึ่งใน Reddit โดยเขาเล่าว่าได้ย้ายข้อมูลสำคัญทั้งหมดขึ้น OneDrive ชั่วคราว ก่อนจะเปลี่ยนฮาร์ดแวร์และทิ้งไดรฟ์เก่า แต่แล้วบัญชี Microsoft ถูกล็อกโดยไม่มีคำอธิบาย และเขาส่งฟอร์มยืนยันตัวตนกว่า 18 ครั้ง แต่ไม่มีใครตอบกลับ มีแค่ระบบอัตโนมัติเท่านั้นที่ตอบ กรณีนี้ชี้ให้เห็นความเปราะบางของระบบบัญชี Microsoft และการเข้ารหัส BitLocker ที่เปิดใช้งานแบบอัตโนมัติใน Windows 11 เวอร์ชันล่าสุด (24H2) ซึ่งเก็บกุญแจถอดรหัสไว้กับ Microsoft Account ของผู้ใช้ ถ้าบัญชีนี้ถูกล็อกหรือปิดถาวร ผู้ใช้ก็อาจ “สูญเสียข้อมูลทั้งหมด” โดยไม่มีทางเอาคืนได้! ✅ Microsoft Account ถูกล็อก ทำให้ผู้ใช้สูญเสียข้อมูลสำคัญ   • ผู้ใช้ Reddit รายหนึ่งบอกว่าบัญชีถูกล็อกทันทีหลังย้ายข้อมูลทั้งหมดขึ้น OneDrive   • ส่งแบบฟอร์มร้องเรียนถึง 18 ครั้ง แต่ไม่มีใครตอบกลับ ✅ BitLocker เปิดใช้งานอัตโนมัติใน Windows 11 เวอร์ชัน 24H2   • ผู้ใช้จำนวนมากอาจไม่รู้ตัวว่าไฟล์ของตนถูกเข้ารหัส   • กุญแจถอดรหัส (recovery key) เก็บไว้ในบัญชี Microsoft เท่านั้น ✅ เมื่อบัญชีถูกปิด—ข้อมูลของผู้ใช้อาจถูกลบตาม   • ตามข้อกำหนดการใช้งาน (Terms of Use) ของ Microsoft   • ข้อมูลจะถูกลบถาวร หรือไม่สามารถเข้าถึงได้อีก   • ผู้ใช้จะเสียสิทธิ์ในการใช้บริการที่เชื่อมโยงทั้งหมดทันที เช่น Windows, Office, OneDrive ✅ แนวทางที่ควรทำเพิ่มเติมเพื่อป้องกันปัญหา   • สำรองข้อมูลภายในเครื่องเป็นประจำ ไม่ควรพึ่งพาแค่ Cloud   • ควรเก็บ BitLocker recovery key แบบออฟไลน์ เช่น บน Flash drive หรือพิมพ์เก็บไว้ ‼️ การถูกล็อกบัญชี Microsoft = ความเสี่ยงข้อมูลหายถาวร   • การสูญเสียการเข้าถึงบัญชีจะหมายถึงการเข้าถึงไฟล์ที่เก็บไว้บน OneDrive และไฟล์ที่ถูก BitLocker เข้ารหัส ก็จะหายไปด้วย ‼️ ไม่มีช่องทางติดต่อมนุษย์ในบางกรณีฉุกเฉิน   • ผู้ใช้บางรายระบุว่าไม่สามารถติดต่อฝ่ายสนับสนุนแบบคนจริงได้เลย   • ระบบตอบกลับอัตโนมัติทำให้ไม่สามารถแก้ปัญหาได้ทันท่วงที ‼️ ความเสี่ยงจากการพึ่งพา Cloud โดยไม่สำรองข้อมูลในเครื่อง   • หาก OneDrive หรือบัญชี Microsoft มีปัญหา จะไม่มีทางกู้คืนข้อมูล   • ความเข้าใจผิดว่า Cloud ปลอดภัยเสมอ อาจนำไปสู่การสูญเสียที่แก้ไม่ได้ ‼️ การเปิดใช้งาน BitLocker โดยอัตโนมัติโดยไม่แจ้งผู้ใช้อย่างชัดเจน   • ทำให้หลายคนไม่รู้ว่าข้อมูลของตนถูกเข้ารหัส   • ทำให้ไม่รู้ว่าต้องเก็บ recovery key ไว้แยกต่างหาก https://www.neowin.net/news/microsoft-locks-windows-11-user-out-shows-how-easy-losing-data-from-forced-encryption-is/
    WWW.NEOWIN.NET
    Microsoft locks Windows 11 user out, shows how easy losing data from forced encryption is
    The forced Microsoft Account requirement and BitLocker auto encryption can lead to catastrophic issues on Windows if you aren't careful, and especially in the case of a lockout.
    0 Comments 0 Shares 101 Views 0 Reviews
  • ถ้าใครยังใช้ Outlook เวอร์ชันเก่าอยู่ช่วงนี้ อาจรู้สึกเหมือนกำลังเดินอยู่บนลวดหนาม เพราะมีบั๊กใหม่ที่หนักหนามากเกิดขึ้น—เปิดอีเมลปุ๊บ โปรแกรมแครชปั๊บ!

    Microsoft ยืนยันเองว่า Outlook แบบคลาสสิกเกิดอาการแครชทันทีเมื่อผู้ใช้พยายามเปิดหรือเริ่มเขียนอีเมลใหม่ สาเหตุมาจากระบบไม่สามารถเปิด Forms Library ได้ และกระทบกับ Outlook ทุกช่องทางของ Microsoft 365 โดยเฉพาะในสภาพแวดล้อมแบบ VDI (Virtual Desktop Infrastructure) ซึ่งใช้กันเยอะในองค์กร

    ไฟล์ที่เป็นปัญหาชื่อว่า OLMAPI32.DLL ซึ่งเกี่ยวข้องกับ Messaging API ของ Microsoft โดย Microsoft แนะนำทางแก้ชั่วคราวด้วยการสร้างโฟลเดอร์ชื่อ FORMS2 ด้วยตัวเองในไดเรกทอรีของผู้ใช้ เพื่อหลีกเลี่ยงข้อผิดพลาดนี้

    ปัญหานี้สะท้อนถึงทิศทางที่ Microsoft มุ่งไปยัง Outlook เวอร์ชันใหม่เป็นหลัก ทำให้เวอร์ชันเก่าอาจถูกลดความสำคัญลง จนเกิดบั๊กแบบพื้นฐานหลุดรอดออกมาแบบนี้ โดยเฉพาะเมื่อ "เปิดอีเมล" ยังเป็นฟังก์ชันระดับพื้นฐานที่ควรใช้งานได้อย่างไม่มีปัญหา

    ✅ บั๊กใหม่ใน Outlook เวอร์ชันคลาสสิก  
    • เปิดหรือเริ่มอีเมลใหม่ใน Outlook แล้วโปรแกรมแครชทันที  
    • สาเหตุคือไม่สามารถเปิด Forms Library ได้  
    • ปัญหานี้เกิดในทุกช่องทางของ Microsoft 365 และเด่นชัดในระบบ VDI

    ✅ ไฟล์ที่เป็นสาเหตุ  
    • OLMAPI32.DLL คือไฟล์ที่ระบบระบุว่าเกิดข้อผิดพลาด  
    • เกี่ยวข้องกับ Microsoft Messaging API ซึ่งสำคัญต่อการเปิดอีเมล

    ✅ แนวทางแก้ปัญหาชั่วคราวโดย Microsoft  
    • แนะนำให้สร้างโฟลเดอร์ FORMS2 ด้วยตัวเองใน path นี้ -> C:\Users\<username>\AppData\Local\Microsoft\FORMS2
    • Microsoft กำลังตรวจสอบและหาทางแก้อย่างเป็นทางการอยู่

    ✅ ท่าทีของ Microsoft ต่อ Outlook เวอร์ชันใหม่  
    • Microsoft พยายามผลักดันให้ผู้ใช้ย้ายไปใช้ "New Outlook" มากขึ้น  
    • เพิ่มฟีเจอร์ใหม่ เช่น การใช้งานแบบออฟไลน์ และเพิ่มระบบความปลอดภัย

    ‼️ ผลกระทบจากการใช้งาน Outlook แบบคลาสสิก  
    • บั๊กที่เกี่ยวข้องกับฟังก์ชันพื้นฐาน เช่น เปิดอีเมล ยังเกิดขึ้นบ่อย  
    • บ่งบอกว่า Microsoft อาจลดความสำคัญในการดูแลเวอร์ชันเก่า

    ‼️ ความเสี่ยงขององค์กรที่ใช้ VDI  
    • องค์กรที่ยังพึ่งพา Outlook บน VDI อาจเผชิญกับผลกระทบในวงกว้าง  
    • จำเป็นต้องพิจารณาความพร้อมในการเปลี่ยนไปใช้ Outlook เวอร์ชันใหม่

    ‼️ การแก้ปัญหาชั่วคราวมีข้อจำกัด  
    • แม้จะมีแนวทางสร้างโฟลเดอร์ FORMS2 แต่ไม่ใช่ทางแก้แบบยั่งยืน  
    • ควรติดตามการอัปเดตจาก Microsoft อย่างใกล้ชิดในช่วงนี้

    https://www.neowin.net/news/microsoft-cant-help-break-windows-outlook-as-even-opening-an-email-now-sends-it-crashing/
    ถ้าใครยังใช้ Outlook เวอร์ชันเก่าอยู่ช่วงนี้ อาจรู้สึกเหมือนกำลังเดินอยู่บนลวดหนาม เพราะมีบั๊กใหม่ที่หนักหนามากเกิดขึ้น—เปิดอีเมลปุ๊บ โปรแกรมแครชปั๊บ! Microsoft ยืนยันเองว่า Outlook แบบคลาสสิกเกิดอาการแครชทันทีเมื่อผู้ใช้พยายามเปิดหรือเริ่มเขียนอีเมลใหม่ สาเหตุมาจากระบบไม่สามารถเปิด Forms Library ได้ และกระทบกับ Outlook ทุกช่องทางของ Microsoft 365 โดยเฉพาะในสภาพแวดล้อมแบบ VDI (Virtual Desktop Infrastructure) ซึ่งใช้กันเยอะในองค์กร ไฟล์ที่เป็นปัญหาชื่อว่า OLMAPI32.DLL ซึ่งเกี่ยวข้องกับ Messaging API ของ Microsoft โดย Microsoft แนะนำทางแก้ชั่วคราวด้วยการสร้างโฟลเดอร์ชื่อ FORMS2 ด้วยตัวเองในไดเรกทอรีของผู้ใช้ เพื่อหลีกเลี่ยงข้อผิดพลาดนี้ ปัญหานี้สะท้อนถึงทิศทางที่ Microsoft มุ่งไปยัง Outlook เวอร์ชันใหม่เป็นหลัก ทำให้เวอร์ชันเก่าอาจถูกลดความสำคัญลง จนเกิดบั๊กแบบพื้นฐานหลุดรอดออกมาแบบนี้ โดยเฉพาะเมื่อ "เปิดอีเมล" ยังเป็นฟังก์ชันระดับพื้นฐานที่ควรใช้งานได้อย่างไม่มีปัญหา ✅ บั๊กใหม่ใน Outlook เวอร์ชันคลาสสิก   • เปิดหรือเริ่มอีเมลใหม่ใน Outlook แล้วโปรแกรมแครชทันที   • สาเหตุคือไม่สามารถเปิด Forms Library ได้   • ปัญหานี้เกิดในทุกช่องทางของ Microsoft 365 และเด่นชัดในระบบ VDI ✅ ไฟล์ที่เป็นสาเหตุ   • OLMAPI32.DLL คือไฟล์ที่ระบบระบุว่าเกิดข้อผิดพลาด   • เกี่ยวข้องกับ Microsoft Messaging API ซึ่งสำคัญต่อการเปิดอีเมล ✅ แนวทางแก้ปัญหาชั่วคราวโดย Microsoft   • แนะนำให้สร้างโฟลเดอร์ FORMS2 ด้วยตัวเองใน path นี้ -> C:\Users\<username>\AppData\Local\Microsoft\FORMS2 • Microsoft กำลังตรวจสอบและหาทางแก้อย่างเป็นทางการอยู่ ✅ ท่าทีของ Microsoft ต่อ Outlook เวอร์ชันใหม่   • Microsoft พยายามผลักดันให้ผู้ใช้ย้ายไปใช้ "New Outlook" มากขึ้น   • เพิ่มฟีเจอร์ใหม่ เช่น การใช้งานแบบออฟไลน์ และเพิ่มระบบความปลอดภัย ‼️ ผลกระทบจากการใช้งาน Outlook แบบคลาสสิก   • บั๊กที่เกี่ยวข้องกับฟังก์ชันพื้นฐาน เช่น เปิดอีเมล ยังเกิดขึ้นบ่อย   • บ่งบอกว่า Microsoft อาจลดความสำคัญในการดูแลเวอร์ชันเก่า ‼️ ความเสี่ยงขององค์กรที่ใช้ VDI   • องค์กรที่ยังพึ่งพา Outlook บน VDI อาจเผชิญกับผลกระทบในวงกว้าง   • จำเป็นต้องพิจารณาความพร้อมในการเปลี่ยนไปใช้ Outlook เวอร์ชันใหม่ ‼️ การแก้ปัญหาชั่วคราวมีข้อจำกัด   • แม้จะมีแนวทางสร้างโฟลเดอร์ FORMS2 แต่ไม่ใช่ทางแก้แบบยั่งยืน   • ควรติดตามการอัปเดตจาก Microsoft อย่างใกล้ชิดในช่วงนี้ https://www.neowin.net/news/microsoft-cant-help-break-windows-outlook-as-even-opening-an-email-now-sends-it-crashing/
    WWW.NEOWIN.NET
    Microsoft can't help break Windows Outlook as even opening an email now sends it crashing
    Microsoft has confirmed that it has broken Windows Outlook again as the app crashes when a user tries to open an email or write one.
    0 Comments 0 Shares 141 Views 0 Reviews
  • จีนใช้ฮาร์ดไดรฟ์ขนส่งข้อมูล AI เพื่อหลีกเลี่ยงข้อจำกัดด้านชิป
    บริษัท AI ในจีนกำลังใช้ ฮาร์ดไดรฟ์ความจุสูง เพื่อขนส่งข้อมูลฝึกสอนโมเดล AI ข้ามพรมแดน หลังจากที่สหรัฐฯ จำกัดการส่งออกชิป AI เช่น Nvidia H100 ซึ่งเป็นชิปที่สำคัญสำหรับการประมวลผล AI.

    รายละเอียดกลยุทธ์ใหม่
    ✅ บริษัทจีนใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลผ่านอินเทอร์เน็ต เพื่อหลีกเลี่ยงการตรวจสอบจากหน่วยงานสหรัฐฯ.
    ✅ นักวิจัยจีนเดินทางไปมาเลเซียพร้อมฮาร์ดไดรฟ์ 15 ลูก ซึ่งมีข้อมูลรวมกว่า 4.8 เพตะไบต์ สำหรับฝึกโมเดล AI.
    ✅ ศูนย์ข้อมูลในมาเลเซียกลายเป็นศูนย์กลางการประมวลผล AI ของจีน เนื่องจากมีเซิร์ฟเวอร์ที่มี GPU ประสิทธิภาพสูง.
    ✅ บริษัทจีนใช้บริษัทลูกในสิงคโปร์เพื่อเซ็นสัญญาเช่าศูนย์ข้อมูล แต่ต้องลงทะเบียนในมาเลเซียเพื่อหลีกเลี่ยงแรงกดดันทางกฎหมาย.

    ผลกระทบและข้อควรระวัง
    ‼️ การขนส่งข้อมูลด้วยฮาร์ดไดรฟ์อาจมีความเสี่ยงด้านความปลอดภัย เช่น การสูญหายหรือถูกขโมยระหว่างการเดินทาง.
    ‼️ การใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลออนไลน์อาจทำให้กระบวนการฝึกโมเดลล่าช้า เนื่องจากต้องรอการขนส่ง.
    ‼️ สหรัฐฯ อาจเพิ่มมาตรการตรวจสอบการขนส่งฮาร์ดไดรฟ์ เพื่อป้องกันการหลีกเลี่ยงข้อจำกัดด้านชิป.

    แนวทางการรับมือและการพัฒนา
    ✅ บริษัทจีนอาจต้องพัฒนาโครงสร้างพื้นฐาน AI ภายในประเทศ เพื่อลดการพึ่งพาเซิร์ฟเวอร์ในต่างประเทศ.
    ✅ การใช้เทคโนโลยีบีบอัดข้อมูลอาจช่วยลดขนาดไฟล์ ทำให้สามารถส่งข้อมูลผ่านอินเทอร์เน็ตได้เร็วขึ้น.
    ✅ การพัฒนา AI ที่ใช้พลังงานต่ำและไม่ต้องพึ่งพา GPU ระดับสูง อาจเป็นทางออกในระยะยาว.

    ข้อมูลเพิ่มเติมเกี่ยวกับข้อจำกัดด้านชิปและ AI
    ✅ Nvidia กำลังพัฒนา GPU รุ่นพิเศษสำหรับตลาดจีน เพื่อให้สอดคล้องกับข้อจำกัดของสหรัฐฯ.
    ✅ Huawei เปิดตัวชิป AI ที่เร็วที่สุดของบริษัท หนึ่งวันหลังจากสหรัฐฯ แบน Nvidia H20 ในจีน.
    ‼️ ตลาดศูนย์ข้อมูล AI ในจีนกำลังเผชิญกับปัญหาความต้องการที่ลดลง เนื่องจากข้อจำกัดด้านชิปและการลงทุนที่ชะลอตัว.

    https://www.techradar.com/pro/no-ai-gpu-no-problem-ai-firms-from-china-skirt-around-us-chip-restrictions-by-moving-petabytes-of-data-on-good-ol-hard-drives-but-why-not-use-tape
    จีนใช้ฮาร์ดไดรฟ์ขนส่งข้อมูล AI เพื่อหลีกเลี่ยงข้อจำกัดด้านชิป บริษัท AI ในจีนกำลังใช้ ฮาร์ดไดรฟ์ความจุสูง เพื่อขนส่งข้อมูลฝึกสอนโมเดล AI ข้ามพรมแดน หลังจากที่สหรัฐฯ จำกัดการส่งออกชิป AI เช่น Nvidia H100 ซึ่งเป็นชิปที่สำคัญสำหรับการประมวลผล AI. รายละเอียดกลยุทธ์ใหม่ ✅ บริษัทจีนใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลผ่านอินเทอร์เน็ต เพื่อหลีกเลี่ยงการตรวจสอบจากหน่วยงานสหรัฐฯ. ✅ นักวิจัยจีนเดินทางไปมาเลเซียพร้อมฮาร์ดไดรฟ์ 15 ลูก ซึ่งมีข้อมูลรวมกว่า 4.8 เพตะไบต์ สำหรับฝึกโมเดล AI. ✅ ศูนย์ข้อมูลในมาเลเซียกลายเป็นศูนย์กลางการประมวลผล AI ของจีน เนื่องจากมีเซิร์ฟเวอร์ที่มี GPU ประสิทธิภาพสูง. ✅ บริษัทจีนใช้บริษัทลูกในสิงคโปร์เพื่อเซ็นสัญญาเช่าศูนย์ข้อมูล แต่ต้องลงทะเบียนในมาเลเซียเพื่อหลีกเลี่ยงแรงกดดันทางกฎหมาย. ผลกระทบและข้อควรระวัง ‼️ การขนส่งข้อมูลด้วยฮาร์ดไดรฟ์อาจมีความเสี่ยงด้านความปลอดภัย เช่น การสูญหายหรือถูกขโมยระหว่างการเดินทาง. ‼️ การใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลออนไลน์อาจทำให้กระบวนการฝึกโมเดลล่าช้า เนื่องจากต้องรอการขนส่ง. ‼️ สหรัฐฯ อาจเพิ่มมาตรการตรวจสอบการขนส่งฮาร์ดไดรฟ์ เพื่อป้องกันการหลีกเลี่ยงข้อจำกัดด้านชิป. แนวทางการรับมือและการพัฒนา ✅ บริษัทจีนอาจต้องพัฒนาโครงสร้างพื้นฐาน AI ภายในประเทศ เพื่อลดการพึ่งพาเซิร์ฟเวอร์ในต่างประเทศ. ✅ การใช้เทคโนโลยีบีบอัดข้อมูลอาจช่วยลดขนาดไฟล์ ทำให้สามารถส่งข้อมูลผ่านอินเทอร์เน็ตได้เร็วขึ้น. ✅ การพัฒนา AI ที่ใช้พลังงานต่ำและไม่ต้องพึ่งพา GPU ระดับสูง อาจเป็นทางออกในระยะยาว. ข้อมูลเพิ่มเติมเกี่ยวกับข้อจำกัดด้านชิปและ AI ✅ Nvidia กำลังพัฒนา GPU รุ่นพิเศษสำหรับตลาดจีน เพื่อให้สอดคล้องกับข้อจำกัดของสหรัฐฯ. ✅ Huawei เปิดตัวชิป AI ที่เร็วที่สุดของบริษัท หนึ่งวันหลังจากสหรัฐฯ แบน Nvidia H20 ในจีน. ‼️ ตลาดศูนย์ข้อมูล AI ในจีนกำลังเผชิญกับปัญหาความต้องการที่ลดลง เนื่องจากข้อจำกัดด้านชิปและการลงทุนที่ชะลอตัว. https://www.techradar.com/pro/no-ai-gpu-no-problem-ai-firms-from-china-skirt-around-us-chip-restrictions-by-moving-petabytes-of-data-on-good-ol-hard-drives-but-why-not-use-tape
    0 Comments 0 Shares 140 Views 0 Reviews
More Results